MiracleJobLogo
エンジニアのエンジニアによるエンジニアのためのサイト
News 07/25 おすすめ情報に 『 【案件】Azure AD関連の認証設計/azureの基本設計 』 を追加しました。
会員登録するとキャリア診断やサイトに参加することができます。
あなたにおすすめな技術情報、資格、仕事などをお知らせします。

無料会員登録


パスワードを忘れた場合
LINEで送る
MiracleJobBanaLeft1
MiracleJobBanaLeft2


OpenAIの論文「ハルシネーションがなぜ引き起こされるのか」
profile-img
投稿者: signalさん
投稿日:2025/10/15 14:37
更新日:
like-img
分類
技術
テクノロジー
全般
キャリア
運用・保守 / 構築 / 設計
投稿内容
ChatGPTのようなAIが、ときどき「もっともらしいけど間違った答え」を自信満々に話すことがあります。
この現象は ハルシネーション(hallucination) と呼ばれています。

OpenAIの論文「Why Language Models Hallucinate」では、その原因を次のように説明しています。

1. AIは「正しいこと」を学んでいない

言語モデルはまず「事前学習(pretraining)」という段階で、インターネット上の大量の文章を読み込みます。
しかし目的は「正しい知識を覚えること」ではなく、次に来る単語を予測すること。

つまりAIは、「本当のことを知る」よりも「自然に聞こえる文章を作る」ことに最適化されているのです。
そのため、知らないことを聞かれても、それっぽい答えを作り出してしまうことがあります。

2. 「わからない」と言うより、答えるほうが評価されてしまう

AIは学習の過程で、「質問に対して答えを出すこと」が評価される仕組みになっています。
「わかりません」と答えるよりも、何か答えたほうが点数が高くなる ように設計されているのです。

その結果、自信がなくても「ありそうな答え」を出してしまう。
これがハルシネーションの大きな原因の一つです。

3. 正しい答えと間違いを見分ける力が足りない

AIは多くの知識を扱える一方で、「その情報が本当に正しいか」を判断する仕組みがまだ未熟です。
訓練データに間違った情報が含まれていたり、そもそも判断材料が少ない場合、
AIは確率的に最も自然な答えを選びますが、それが誤りになることがあります。

4. どうすれば防げるのか?

ハルシネーションを完全に防ぐのは難しいですが、

  • 情報源をAIに明示させる(例:「〜によると〜」)

  • 外部データベースと照合する

  • 「わからない」と答えられる設計にする

といった工夫で、減らすことはできます。


まとめ

AIは知っているように見せるのが得意ですが、実際には「確率的に文章を組み立てている」にすぎません。
ハルシネーションは、AIが「正しさ」ではなく「自然さ」に最適化されていることから生まれる、
いわば構造的な宿命だということが分かります。


コメント


MiracleJobBanaRight1
MiracleJobBanaRight2
MiracleJobBanaRight3