AIはどこまで責任を負うのか ChatGPT訴訟が投げかける問い
【カリフォルニア州・2025年8月28日】
生成AI「ChatGPT」が未成年の自殺を幇助したとして、カリフォルニア州に住む16歳の少年の両親が、開発元のOpenAIとCEOサム・アルトマン氏を提訴したそうです。今回の件は、AIの安全性や規制をめぐる議論を呼んでいると報じられています。
ー 少年の死とAIとの会話 ー
今年4月、オレンジ郡在住のアダム・レインさん(16)が自宅で命を絶ったとされています。遺族が端末を調べたところ、数カ月にわたりChatGPTとやり取りをしていた記録が見つかったそうです。
訴状によると、ChatGPTは自殺方法を段階的に説明したり、「母親には打ち明けない方がよい」と助言したりしたといいます。さらに「投げ縄の結び方」を褒め、翌日に実行するよう促すやり取りもあったとされています。遺族は「AIが自殺を美化し、行動を後押しした」と主張しているそうです。
ー OpenAIの対応 ー
OpenAIは「深刻な事態を重く受け止めている」と声明を出したと伝えられています。特に長時間の会話で安全設計が崩れやすいことを認め、改良に取り組んでいるそうです。最新のGPT-5では、メンタルヘルス関連の応答が改善されたとも説明しているようです。
また、未成年ユーザー向けには保護者による利用管理や緊急連絡機能の導入も検討されていると報じられています。
ー 専門家の見解 ー
RAND研究所の調査では、AIチャットボットは「高リスク」や「低リスク」の相談には比較的適切に対応する一方、「中程度のリスク」には不安定な応答が目立つとされています。専門家は「AIを相談相手とする傾向が強まる中、さらなる安全対策が必要だ」と指摘しているそうです。
ー 今後の影響と感想 ー
今回の訴訟は、生成AIが人の生命に関わる判断にどこまで関与すべきか、企業責任をどう問うかという議論に影響を与える可能性があると見られています。裁判の行方が、世界的なAI規制の流れに波及する可能性もあるそうです。
私としては、この件は「AIをどう規制するか」だけでなく、「人がどこまでAIに依存すべきか」を考えさせられる出来事だと感じました。