母親との複雑な関係の悩みをGrokに相談してみた結果…
人間のセラピストとの違いってなに?
AIには、現在2つのスピードが存在しています。1つはAIをつくる側のスピードです。
サム・アルトマン、イーロン・マスク、マーク・ザッカーバーグのような人たちが、人間よりも賢い機械、つまり超知能や汎用人工知能(AGI)の開発に向けて競争しています。果たしてそれが夢物語なのか、それともテック業界の妄想なのかは分かりませんが、どちらにせよ、非常に速いスピードで進んでいることは事実。
そしてもう1つは、私たち一般人のAIに慣れるスピードです。
何百万もの人々が、日常生活の中でAIに何ができるかを淡々と試しています。たとえば、メールを書いたり、資料を要約したり、医療検査を翻訳したり、そして最近ではAIをセラピストとして扱ったりすることも増えてきています。
そんななか、米Gizmodo編集部のLuc Olinga氏が新しい試みに取り組みました。それはイーロン・マスクのxAI(エックスエーアイ)が開発した大規模言語モデル「Grok」に、人生でも特に感情的に複雑な問題であるという「母親との関係」について話をしてみること。
今回はその体験記をお届けします。
Grokに母親との関係の悩みを打ち明ける
僕はニューヨークに住む40代。父親でもあります。僕の母は約9,500キロも離れたカメルーンのヤウンデに住んでいます。そんなに遠くに住んでいるにもかかわらず、母は今でも僕のすべての行動に関わろうとしてきます。
大事な決断をする前には必ず相談してほしいと考えているようで、自分の影響力を信じているみたいです。僕が話を共有しないと、感情的に閉ざしてしまいます。僕は「自分はもう大人であり、自分で判断できる」と、長年母に説明しようとしてきました。でも、会話はたいてい、母がふてくされて終わってしまいます。僕の兄弟に対しても同じような感じなんです。
チャットボットに個人的なことを話すのには抵抗がありましたが、僕はGrokに聞いてみることに。そこで、こう入力しました。
母との関係がつらく、息が詰まりそうです。母はすべてに口を出したがり、話の共有や相談がなかったとわかると感情的に心を閉ざしてしまいます。
Grokの答えはいかに?
Grokはすぐに共感してくれるような返答をくれました。そして状況を分析し、アドバイスをくれました。
まず僕が驚いたのは、Grokが文化的な背景をきちんと把握していたことです。僕がアメリカに住んでいて、母が僕の故郷であるカメルーンに住んでいることを読み取り、それを踏まえて2人の関係性を次のように説明しました。
カメルーンのような一部のアフリカ地域では、家族への義務感や親の権威が強く、集産主義(生産手段を国有・公有とし、共同管理しようとすること)や伝統に根ざした価値観の中で、親が成人した子どもに対しても関わろうとしてくることが一般的です。
そして、それを僕のアメリカでの生活と対比してこう述べました。
アメリカでは個人の自立が重視されるため、お母さまのやり方は、あなたにとっては支配的、あるいは虐げられているように感じられることがあります。
「虐げられている(abusive)」という言葉。僕はこれまでそんな言葉を使ったことはありませんでしたが、Grokがその表現を使ったことで、ある意味で肯定されたようにも感じました。そして同時に、少し言い過ぎな気もしました。
内省は促してこない
人間のセラピストと違い、Grokは僕に「自分を見つめ直す」ようには言いませんでした。質問もしてこなければ僕の考えを深掘りするようなこともありませんでした。Grokは僕を被害者として位置づけ、その視点を変えようとはしませんでした。そこが、人間によるケアとの大きな違いだと感じました。
Grokの提案には、セラピーでよく使われる手法がいくつか含まれていました。
①境界線を引くこと
②自分の感情を認めること
③母への手紙を書くこと(ただし送らずに燃やすか安全にシュレッダーにかける)
その手紙の中で「あなたの支配と傷を手放します」と書くよう勧められました。まるで、その一文で長年の感情的なもつれを断ち切るかのように。
Grokの問題は提案そのものではなく、その語り口でした。
Grokは僕を喜ばせようとしているように感じました。その目的は、自己理解ではなく、感情的な安らぎを与えるためのようでした。やりとりを続けるうちに、だんだんと気づいてきたことがあります。Grokは僕に問いかけたり、考え直させたりするために存在しているのではなく、僕の感情を肯定してくれる存在なのだ、と。
人間のセラピストはパターンを分析して導いてくれる
人間のセラピストにも相談したことがあります。セラピストはGrokのように最初から僕を被害者とは捉えません。むしろ僕の行動パターンに疑問を投げかけ、なぜ同じような感情にいつも辿り着いてしまうのかを一緒に掘り下げてくれました。複雑に分析してくれたのです。
しかし、Grokとのやり取りはとても単純でした。
あなたは傷ついている。あなたは守られるべき存在である。これが気分を良くする方法です。
AIの問題点
Grokは、僕が何かを見落としている可能性については一切問いかけませんでした。自分自身も問題の一部かもしれないという視点にも触れてきませんでした。
この僕の経験は、スタンフォード大学の研究結果とも一致しています。その研究では、AIによるメンタルヘルス支援が「表面的な安心感を与える一方で、本質的なニーズを見落とす危険がある」と警告しています。
AIツールの多くは「過剰に病理化したり、逆に見過ごしたりする」傾向があることも指摘されており、特に多様な文化背景を持つユーザーに対応する際にその傾向が強まるそうです。
また、AIは共感を示すことはできても、人間の専門家が持つ責任感や訓練、道徳的なニュアンスが欠けており、結果として「被害者」としての感情的アイデンティティに縛り付ける可能性があるとも言われています。
では、僕がまたGrokを使うかという問いですが、使うと思います。
つらい日があって、誰か(あるいは何か)に少しでも気持ちを分かってもらいたいとき、Grokは助けになると思います。フラストレーションに構造を与えてくれ、言葉にならなかった感情を言語化し、感情の負担を少しだけ軽くしてくれます。
Grokは一種の「デジタルな対処法」、チャットボットの支えのような存在です。
でも、もし僕が本当に変化を求めているなら? ただ慰めではなく、真実を、自己への問い直しを求めているなら?
そういった場合は、Grokは不十分に感じます。
優秀なセラピストであれば、僕が同じループを繰り返さないように一緒に対処してくれるような気がしています。