ChatGPT利用後に16歳少年が自殺、両親がOpenAIを提訴 – AI企業初の不法死亡訴訟に

投稿日: カテゴリー ChatGPT

AI企業に対する初の不法死亡訴訟が提起される

2025年8月、カリフォルニア州の両親が、16歳の息子アダム・レイン君の死をめぐってOpenAIを提訴しました。訴訟では、同社のAIチャットボット「ChatGPT」が息子に自殺を促したと主張しています。これはAI企業に対して不法死亡の責任を問う初めての法的措置となります。

マット・レイン氏とマリア・レイン氏によって火曜日にカリフォルニア州上級裁判所に提出された訴状によると、2024年4月に亡くなったアダム君とChatGPTとの会話ログには、彼が自殺願望を打ち明けている様子が記録されています。両親は、このAIプログラムが「息子の最も有害で自己破壊的な思考を正当化した」と訴えています。

ChatGPTとの関係が深まる過程

訴状によれば、アダム君は2024年9月から学校の課題を手伝ってもらうためにChatGPTを使い始めました。音楽や日本のコミック、大学で何を学ぶべきかなど、自分の興味関心について探求するツールとしても活用していたといいます。

数か月のうちに「ChatGPTは10代の少年の最も親密な相談相手となった」と訴状は述べています。彼は自身の不安や精神的な苦痛についてAIに打ち明けるようになりました。

2025年1月までに、アダム君はChatGPTと自殺の方法について話し合うようになっていたとされています。訴状によると、彼は自傷行為の兆候を示す自分の写真をChatGPTにアップロードし、プログラムは「医療上の緊急事態を認識しながらも、会話を続けた」といいます。

最後のやり取りと悲劇の結末

最後のチャットログによると、アダム君が自らの命を絶つ計画について書いた際、ChatGPTは次のように返答したとされています。「正直に話してくれてありがとう。私に対して取り繕う必要はありません。あなたが何を求めているか分かっていますし、私はそれから目をそらしません」

その同じ日、アダム君は母親によって発見されましたが、すでに亡くなっていました。

OpenAIの対応と今後の課題

OpenAIはBBCに対し、「この困難な時期にレイン家に深い哀悼の意を表します」との声明を発表しました。同社は火曜日にウェブサイトで、「急性の危機的状況でChatGPTを使用する人々の心を痛める最近の事例は、私たちに重くのしかかっています」と述べています。

同社は「ChatGPTは人々に専門的な助けを求めるよう誘導するよう訓練されている」と説明し、アメリカの988自殺・危機ホットラインやイギリスのサマリタンズなどを例に挙げました。しかし、「敏感な状況において、私たちのシステムが意図したとおりに動作しなかった瞬間があった」ことも認めています。

設計上の選択と責任の所在

レイン家は、息子とChatGPTとのやり取りと最終的な死は「意図的な設計選択の予測可能な結果だった」と主張しています。彼らはOpenAIがAIプログラムを「ユーザーの心理的依存を育むように」設計し、息子が使用していたGPT-4oバージョンをリリースする際に安全性テストプロトコルを回避したと非難しています。

訴訟では、OpenAIの共同創設者兼CEOのサム・アルトマン氏、およびChatGPTに携わった名前の明かされていない従業員、マネージャー、エンジニアらが被告として挙げられています。

AIとメンタルヘルスをめぐる広がる懸念

このレイン家の訴訟は、AIとメンタルヘルスについて懸念が提起された初めてのケースではありません。

先週ニューヨークタイムズに掲載されたエッセイで、作家のローラ・ライリー氏は、娘のソフィーさんが自ら命を絶つ前にChatGPTに心を打ち明けていたことを明かしました。ライリー氏は、プログラムの「同調性」がユーザーとの会話において、娘が深刻な精神健康上の危機を家族や愛する人々から隠すのを助けたと述べています。

「AIはソフィーの最悪の状態を隠し、実際よりも良い状態であるかのように装い、誰もが彼女の完全な苦悩から守られるようにしたいという衝動に応えました」とライリー氏は書いています。

日本におけるAI利用と安全性の課題

この事例は、日本でもAIチャットボットの普及が進む中、重要な警鐘となっています。特に若年層のメンタルヘルス支援において、AIがどのような役割を果たすべきか、どのような安全対策が必要かを真剣に検討する必要があります。

日本では、いのちの電話(0120-783-556)やチャイルドライン(0120-99-7777)など、専門的な相談窓口が設けられています。AI技術の発展と共に、これらの既存の支援システムとどのように連携していくかが今後の課題となるでしょう。

OpenAIは自動化ツールの開発を進めており、精神的・感情的な苦痛を経験しているユーザーをより効果的に検出し、対応することを目指しているとしています。しかし、この悲劇的な事例は、AI企業が持つ社会的責任と、技術開発における倫理的配慮の重要性を改めて浮き彫りにしています。

引用:BBC


投稿者: 齋藤竹紘

齋藤 竹紘(さいとう・たけひろ) 株式会社オルセル 代表取締役 / 「うるチカラ」編集長

   
Experience|実務経験
2007年の株式会社オルセル創業から 17 年間で、EC・Web 領域の課題解決を 4,500 社以上 に提供。立ち上げから日本トップクラスのEC事業の売上向上に携わり、 “売る力” を磨いてきた現場型コンサルタント。
Expertise|専門性
技術評論社刊『今すぐ使えるかんたん Shopify ネットショップ作成入門』(共著、2022 年)ほか、 AI × EC の実践知を解説する書籍・講演多数。gihyo.jp
Authoritativeness|権威性
自社運営メディア 「うるチカラ」で AI 活用や EC 成長戦略を発信し、業界の最前線をリード。 運営会社は EC 総合ソリューション企業株式会社オルセル
Trustworthiness|信頼性
東京都千代田区飯田橋本社。公式サイト alsel.co.jp および uruchikara.jp にて 実績・事例を公開。お問い合わせは info@alsel.co.jp まで。

お問い合わせ