はじめに
2025年7月5日にG検定を受験予定です。
SaaS業界やITに関わる中で「AIを理解しておくこと」が、いずれ武器になると感じていました。そんな思いから、プログラミング不要でAIの全体像を学べるG検定に挑戦しています。
この記事では、文系・AI未経験の自分が、学習を進める中で特につまずいた“ディープラーニング”の章について、備忘録として記録しておきます。
なぜG検定を受けようと思ったのか
- AI活用が進む中、非エンジニアとしても基礎を知っておきたいと感じた
- 営業やカスタマーサクセスといった“人に向き合う仕事”でも、AIリテラシーが求められる時代
- プログラミングが不要かつオンライン受験可、社会人でも挑戦しやすい設計がありがたかった
今日の学習内容:「ディープラーニングの概要」章(公式テキスト)
今日はG検定公式テキストの中でも、最も“詰まる人が多い”と噂のディープラーニングの章を読み進めました。
実際に読んでみて感じたのは、「数式は出ないけど、数学的な発想は不可欠」ということ。
📘 学んだ6つのトピック
- 概要(ニューラルネットワークとディープラーニング)
層が深い=表現力が高い。人間の脳の構造を模したモデルとして、ディープラーニングの仕組みをざっくり理解。 - 誤差関数
- 平均二乗誤差関数(MSE):主に回帰問題に使用
- 交差エントロピー誤差関数:分類問題向け
- その他:Hinge損失、KLダイバージェンスなど応用型 - 正則化
- 誤差関数へのペナルティ項追加(L1/L2):過学習を抑制
- ドロップアウト:学習中にランダムにノードを無効化し、汎化性能を高める - 最適化手法
- 勾配降下法の基礎(全体を少しずつ谷底に向かわせる)
- バッチ・ミニバッチ・確率的勾配降下法:効率と精度のバランス
- 問題点と改善策(Momentum、Adamなど)
- ハイパーパラメータの探索手法も軽く触れる - 誤差逆伝播法(Backpropagation)
- 誤差を出力から入力へ逆に伝えて重みを調整する仕組み
- 深層では勾配が消える/届きにくい(勾配消失)の課題あり - 活性化関数
- シグモイド関数と勾配消失問題
- tanh関数:シグモイドより中心が0に寄る
- ReLU関数:主流。非線形で勾配消失も起きにくい
勉強して感じたリアルな壁
文系出身としては、「なんとなく聞いたことがある言葉」が実は数式的な意味を持っていることに驚きました。
特に勾配降下法や誤差逆伝播などは、概念を“図で理解”できないと前に進めない感覚があります。
でも、言葉の意味を調べながら、図解や比喩を通して**「なんとなくわかってきたかも」**という感覚が少しずつ積み上がってきています。
今の勉強法とペース
📚 使用教材・ツール
- G検定公式テキスト(1周目:ざっと読み中)
リンク
📅 学習ペース
- 平日:30〜60分
- 試験直前に模試・過去問も取り入れる予定です
まとめ:ディープラーニングの章はしんどい。。でも、おもしろい。
ディープラーニングの章は確かに文系泣かせです。でも、構造を少しずつ理解していく中で、
**「あ、こういうことか」**とつながる瞬間があって、それが学びのモチベーションになっています。
試験まであと少し。焦らず、でも確実に理解を積み上げていきます。
合格したら、その時は「G検定合格記」も書きたいですね💪
この記事はアフェリエイトリンクを含みます。
コメント