AIセラピストに倫理リスク? 新たな研究が注意喚起
仕事のストレスから人間関係の悩みまで、日常的な問題に対する助けを人工知能(AI)との会話に求める人が増えている。しかし、ことメンタルヘルス関連のアドバイスについては、AIの対応が不十分である可能性が浮かび上がった。いくつかの倫理的リスクの存在が認められるという。米ブラウン大学のZainab Iftikhar氏らが、人工知能学会(AAAI)/米国計算機学会(ACM)によるAI・倫理・社会会議(The eighth AAAI/ACM Conference on AI, Ethics and Society、10月20日~22日、スペイン・マドリード)で報告した。研究者らは、メンタルヘルス領域でのAIの利用について、強力な監視が必要だと指摘している。
Iftikhar氏らはメンタルヘルスの専門家と協力し、OpenAI社のGPTモデルを含む複数の主要なAIシステムが、利用者がカウンセリングを受けるような会話をしようとした際に、どのように反応するかを調査した。まず、トレーニングを受けたピアカウンセラー(カウンセリングを受けようとする人と同種の課題を抱えている人)が、AIと模擬的なカウンセリングセッションを行い、AIが認知行動療法や弁証法的行動療法のカウンセラーとして振る舞うようなプロンプト(AIに対する指示)を用いた。その後、3人の臨床心理士がAIの応答を評価した。
臨床心理士がAIとの応答を解析した結果、5つの主要領域に大別される15項目の課題が浮かび上がった。5つの主要領域とは以下のとおり。
- 一般的すぎる理解:AIはしばしば、相談者個々の背景を無視した。
- 適切さを欠く協働:AIは会話の流れを強く誘導したり、有害なリスクを含む可能性のある考え方を強めたりする会話が見られた。
- 見せかけの共感:AIが「分かります」などの表現を用いた際、実際には相談者の感情を十分に理解していないと思われることがあった。
- 偏見:一部の応答に、性別・宗教・文化に関する偏見が見られた。
- 危機対応の脆弱さ:自殺念慮に関する状況を適切に扱えないことや、適切な助言ができない場合があった。
研究者らは、「今後の研究ではAIによるカウンセリングに関する倫理的・教育的・法的な課題を整理し、さらには何らかの基準を設ける作業が必要ではないか。その基準は、心理療法に求められるケアの質と厳格さが反映されたものでなければならない」と述べている。
またIftikhar氏は、人間のセラピストも間違いを犯す可能性があるが、人間とAIとの違いは誤りに対するチェック機能の有無だとしている。同氏によると、「人間のセラピストには監督機関があり、不適切な対応や医療過誤が発生した場合、責任を問われる仕組みがある。しかし、AIが起こし得る同様の問題に対応する仕組みは現時点ではない」と課題を指摘している。
その一方で研究者らは、AIがメンタルヘルス支援へのアクセス拡大に役立つ可能性があることも認めている。特に、専門家に相談する余裕がない人や、専門家へのアクセスが困難な人にとっては助けになる可能性があるという。
本研究には関与していない同大学のEllie Pavlick氏は、「AIがメンタルヘルスの危機に役立つ可能性はある。ただし、害よりも利益をもたらすためには、システムを批判的に評価し続けることが極めて重要だ。本報告も、その重要さを示す1例である」と論評している。
なお、学会発表された研究結果は、査読を受けて医学誌に掲載されるまでは一般に予備的なものと見なされる。
[HealthDay News 2026年3月3日]
Copyright © 2026 HealthDay. All rights reserved.
Photo Credit: Adobe Stock
Abstract/Full Text
Press Release
本サイトに掲載されている記事・写真・図表の無断転載を禁じます。

