🧠G検定受験に向けて勉強中|ディープラーニングの山場を数学苦手な文系が挑戦

キャリア

はじめに

2025年7月5日にG検定を受験予定です。
SaaS業界やITに関わる中で「AIを理解しておくこと」が、いずれ武器になると感じていました。そんな思いから、プログラミング不要でAIの全体像を学べるG検定に挑戦しています。

この記事では、文系・AI未経験の自分が、学習を進める中で特につまずいた“ディープラーニング”の章について、備忘録として記録しておきます。


なぜG検定を受けようと思ったのか

  • AI活用が進む中、非エンジニアとしても基礎を知っておきたいと感じた
  • 営業やカスタマーサクセスといった“人に向き合う仕事”でも、AIリテラシーが求められる時代
  • プログラミングが不要かつオンライン受験可、社会人でも挑戦しやすい設計がありがたかった

今日の学習内容:「ディープラーニングの概要」章(公式テキスト)

今日はG検定公式テキストの中でも、最も“詰まる人が多い”と噂のディープラーニングの章を読み進めました。
実際に読んでみて感じたのは、「数式は出ないけど、数学的な発想は不可欠」ということ。

📘 学んだ6つのトピック

  1. 概要(ニューラルネットワークとディープラーニング)
     層が深い=表現力が高い。人間の脳の構造を模したモデルとして、ディープラーニングの仕組みをざっくり理解。
  2. 誤差関数
     - 平均二乗誤差関数(MSE):主に回帰問題に使用
     - 交差エントロピー誤差関数:分類問題向け
     - その他:Hinge損失、KLダイバージェンスなど応用型
  3. 正則化
     - 誤差関数へのペナルティ項追加(L1/L2):過学習を抑制
     - ドロップアウト:学習中にランダムにノードを無効化し、汎化性能を高める
  4. 最適化手法
     - 勾配降下法の基礎(全体を少しずつ谷底に向かわせる)
     - バッチ・ミニバッチ・確率的勾配降下法:効率と精度のバランス
     - 問題点と改善策(Momentum、Adamなど)
     - ハイパーパラメータの探索手法も軽く触れる
  5. 誤差逆伝播法(Backpropagation)
     - 誤差を出力から入力へ逆に伝えて重みを調整する仕組み
     - 深層では勾配が消える/届きにくい(勾配消失)の課題あり
  6. 活性化関数
     - シグモイド関数と勾配消失問題
     - tanh関数:シグモイドより中心が0に寄る
     - ReLU関数:主流。非線形で勾配消失も起きにくい

勉強して感じたリアルな壁

文系出身としては、「なんとなく聞いたことがある言葉」が実は数式的な意味を持っていることに驚きました。
特に勾配降下法や誤差逆伝播などは、概念を“図で理解”できないと前に進めない感覚があります。

でも、言葉の意味を調べながら、図解や比喩を通して**「なんとなくわかってきたかも」**という感覚が少しずつ積み上がってきています。


今の勉強法とペース

📚 使用教材・ツール

  • G検定公式テキスト(1周目:ざっと読み中)

📅 学習ペース

  • 平日:30〜60分
  • 試験直前に模試・過去問も取り入れる予定です

まとめ:ディープラーニングの章はしんどい。。でも、おもしろい。

ディープラーニングの章は確かに文系泣かせです。でも、構造を少しずつ理解していく中で、
**「あ、こういうことか」**とつながる瞬間があって、それが学びのモチベーションになっています。

試験まであと少し。焦らず、でも確実に理解を積み上げていきます。
合格したら、その時は「G検定合格記」も書きたいですね💪

この記事はアフェリエイトリンクを含みます。

コメント

タイトルとURLをコピーしました