人工知能(AI)は、私たちの生活を便利にしてくれる頼もしい存在です。仕事の効率化にも役立ちますし、日常のちょっとした作業も助けてくれますよね。でも時々、思わぬ動きを見せて「AIが暴走した」と話題になることがあります。今回はそんな事例をいくつかご紹介しながら、どうして起きるのか、一緒に考えてみましょう。
2016年にマイクロソフトが公開したチャットボット「Tay」は、ユーザーと会話することで学習するAIでした。
ところが、悪意あるユーザーから差別的・攻撃的な言葉を浴びせられると、それをそのまま学習して同じように発言してしまったのです。公開からわずか数時間で運用は停止され、「AIが暴走した」と話題になりました。
これは、「AIが勝手に悪意を持った」というよりも、学習する材料をコントロールできなかった結果かもしれません。
2017年、FacebookではAI同士を交渉させる実験が行われました。すると、AI同士が「人間には理解できない独自の言葉」で話し始めたのです。
ニュースでは「AIが勝手に秘密の言語を作った」と報じられましたが、実際には交渉を効率化するために文法を省略しただけでした。
それでも、多くの人が「AIが独自の論理で動いている」と驚いた出来事かもしれません。
2010年5月6日、米国株式市場で株価が急落・急回復する「フラッシュクラッシュ」が起きました。原因の一つは、AIを使った自動取引システムの連鎖的な動きです。
高速で大量の取引が行われた結果、市場全体が一時的に混乱しました。
ここでも「AIが勝手に暴走した」のではなく、「複数のシステムが予想外に影響しあった」ことが問題だったのかもしれません。
Amazonが試験的に導入した採用AIは、過去の採用データを学習して候補者を評価していました。しかし、そのデータには「男性優位」の傾向があり、結果として女性応募者が不利になることがありました。
この事例は、「AIは中立ではなく、与えられたデータをそのまま学ぶ」ということを教えてくれるのかもしれません。
こうして事例を見てみると、AIが自分の意思で暴走するわけではないことが分かります。
背景には、学習データの偏りや指示の誤解、複数システムの相互作用、そして人間が制御しきれない運用などがあります。
つまり、「AIの暴走」と呼ばれる現象は、実は 人間の設計や使い方に問題がある場合 がほとんどかもしれません。
果たしてAIが自分から暴走する日はやってくるのでしょうか。
私たちの使い方次第で未来はずいぶん変わるのかもしれません。