【G検定対策】AIはどうやって賢くなるのか?

seo-webmaster
プロモーションが含まれています

AIは最初から賢いわけではありません。

最初は

  • 間違える
  • 予測を外す
  • 精度が低い

状態から始まります。

では なぜAIは少しずつ賢くなれるのでしょうか。

その理由が「修正」です。

AI内部では

入力
予測
間違い確認
修正
再予測

を何度も繰り返しています。

つまり、AIは「修正」を繰り返して賢くなっているのです。

この記事では

  • AIはなぜ賢くなるのか?
  • AI内部で何を修正しているのか?
  • なぜ損失関数や勾配降下法が必要なのか?
  • なぜ学習率が重要なのか?
  • SGD・ミニバッチ・Adamは何をしているのか?

を「AI内部の流れ」として整理し、試験に備えましょう。

AIは「予測しただけ」では終わらない

AIは入力されたデータから「予測」を行います。

例えば:

  • 猫画像 → 猫
  • メール → スパム
  • 売上データ → 来月予測

などです。

しかし、ここで重要なのは「予測したあと」です。

AIは「どれだけ間違えたか?」を確認します。

つまり、AIは

予測する
間違いを確認する
修正する

ことで少しずつ賢くなっています。

ここで重要なのが「AIは何を基準に修正しているのか?」です。

ここからは「AI内部で起きている修正の流れ」を見ていきましょう。

AI内部では何が起きている?

AI内部では次の流れが起きています。

入力
予測
正解と比較
誤差発生
原因を後ろから確認
重み修正
再予測

ここで重要なのが「間違えたから修正する」という流れです。

AIは、最初から正解しているわけではありません。

「失敗 → 修正」を大量に繰り返しています。

AI内部では何を修正している?

では、AIは内部で何を修正しているのでしょうか?

修正しているのは「重み」です。

重みとは「どれをどれくらい重要視するか?」を表す数値です。

例えば画像認識なら

  • ヒゲ
  • 輪郭

などの特徴を どれくらい重視するか を調整しています。

つまり、AIは「重要度の調整」を繰り返しているのです。

なぜ「誤差」が重要なのか?

AIは「どれだけ間違えたか?」を確認しないと修正できません。

そこで使われるのが 損失関数 です。

損失関数は「間違いの大きさ」を数値化します。

つまり、AIは

 「どれくらいズレた?」→ 「どれくらい修正する?」

を判断しているのです。

ここで「誤差」が非常に重要になります。

なぜ「誤差逆伝播法」が必要?

では「どこを修正すれば良いのか?」はどう判断しているのでしょうか?

ここで登場するのが 誤差逆伝播法(バックプロパゲーション)です。

AIは出力側で発生した誤差を 後ろから逆向きに確認 していきます。

つまり

どこで間違えた?
どの重みが原因?
どこを修正する?

を後ろから調べています。

ここが「AI内部理解」で非常に重要です。

なぜ「勾配降下法」が必要?

誤差の原因がわかっただけでは、まだ修正できません。

次に必要なのが「どちらへ修正するか?」です。

ここで使われるのが 勾配降下法 です。

勾配降下法は「誤差が小さくなる方向」を探します。

つまり、AIは

どちらへ動けば改善する?
少し修正
また確認

を繰り返しています。

修正しすぎても危険

ここで重要なのが「修正量」です。

修正が大きすぎると

  • 学習が不安定
  • 正解を飛び越える
  • 振動する

などが起きます。

逆に小さすぎると

  • 学習が遅い
  • なかなか改善しない

となります。

ここで重要になるのが 学習率 です。

つまり、AIは「どれくらい修正するか?」も調整しています。

SGD・ミニバッチ・Adamは何をしている?

これらも本質は同じです。

全部「修正を効率化する仕組み」です。

SGD

少しずつ修正する

ミニバッチ

一部データごとに修正する

Adam

修正を賢く安定化する

SGD・ミニバッチ・Adam

SGD・ミニバッチ・Adamのイメージ画像

つまり

AI内部では「どう修正すると効率が良いか?」を工夫しているのです。

AI内部で最も重要なのは「修正」

ここまでの流れを見ると、AI関連用語は全部バラバラではないことが見えてきます。

例えば

  • 損失関数 → 間違い確認
  • 誤差逆伝播法 → 原因調査
  • 勾配降下法 → 修正方向
  • 学習率 → 修正量
  • Adam → 修正効率化

つまり『全部「修正」のために存在している』のです。

これが理解できると、AI内部の流れがかなりつながります。

なぜ混同しやすいのか?

AIの学習をはじめたばかりの人が混乱しやすい理由は『全部「学習」に見える』からです。

しかし、実際は役割が違います。

例えば

  • 損失関数 → 間違い測定
  • 勾配降下法 → 修正方向
  • 学習率 → 修正量

です。

つまり「何を担当しているのか?」を整理することが重要です。

G検定ではどう問われる?

G検定では

  • 損失関数
  • 誤差逆伝播法
  • 勾配降下法
  • 学習率
  • SGD
  • Adam

などが「関係性」で問われることがあります。

そのため、単語暗記だけでは「見たことあるのに解けない」が発生しやすいです。

重要なのは「AI内部で何が起きているのか?」を流れで理解することです。

まとめ

AIは最初から賢いわけではありません。

AI内部では

入力
予測
誤差確認
修正
再予測

を大量に繰り返しています。

そして

  • 損失関数
  • 誤差逆伝播法
  • 勾配降下法
  • 学習率
  • SGD
  • ミニバッチ
  • Adam

はすべて「修正」のために存在しています。

つまり AIは「修正」を繰り返して賢くなっている のです。

ここを理解すると、AI内部の流れが一気につながり「なぜそうなるのか?」がかなり見えやすくなります。

公式テキスト

楽天市場で確認

合格時に使用した問題集

楽天市場で確認

関連記事・おすすめ記事

「誤差逆伝藩法」を整理しました。

関連記事
【G検定対策】誤差逆伝播法とは?AIの反省会…
【G検定対策】誤差逆伝播法とは?AIの反省会…

「勾配降下法」を整理しました。

関連記事
【G検定対策】勾配降下法とは?わかりやすく整理
【G検定対策】勾配降下法とは?わかりやすく整理

「学習率」を整理しました。

関連記事
【G検定対策】学習率とは?わかりやすく整理
【G検定対策】学習率とは?わかりやすく整理

不合格体験記です。私のような失敗をしないように確認しましょう。

こちらもおすすめ
【不合格体験談】G検定に落ちた原因|「成功体験」と「過学習」が落とし穴
【不合格体験談】G検定に落ちた原因|「成功体験」と「過学習」が落とし穴
書いている人
運営者
運営者
このブログの運営者(文系出身)です。SEO検定1級、ウェブマスター検定1級を取得しました。ブログ運営には「AIの活用は必須」と思いG検定を取得しました。G検定は簡単といわれがちですが1回目は不合格でした。その失敗経験を元に、これから受験する方の助けになればとできるだけわかりやすくG検定対策は解説しています。間違い等あればご指摘いただければ幸いです。
記事URLをコピーしました