AIはどこまで人間を説得できるのか?「秘密実験」が明らかにした人間心理を揺さぶる驚きのテクニック(JBpress)
(小林 啓倫:経営コンサルタント) ネット上の世論を操るために、密かに開発されたAIチャットボットが暗躍する──。残念ながら、そんな状況はフィクションの中だけの話ではなくなりつつある。つい最近も、そんな活動が行われていたことが明らかになった。 ここまで聞いて、「いったいどの国の政府による陰謀なんだ?」と思ったかもしれない。実はこの活動、国家機関によるものではない。チューリッヒ大学の研究者らが研究目的で行った、秘密の実験だったのである。 ■ チューリッヒ大学の研究者らによる「AI説得実験」 いったい何が行われていたのか。まずは話の流れをまとめてみよう。 実験が行われていたのは、2024年11月から2025年3月にかけての4カ月間。研究チームがAIチャットボットを開発し、それをReddit(米国の著名な掲示板サイト)のサブレディット(テーマ別コミュニティのような場所)「r/ChangeMyView」(CMV)に投入して、人間のユーザーとのやり取りを行わせた。 このサブレディットは、ユーザーが自分の意見を投稿し、それに対して他のユーザーが論理的な反論や異なる視点を提供することで、考えを深めたり変えたりすることを目的としたもの。投稿者が自分の意見を述べた後、他のユーザーが説得力のある議論を展開し、投稿者が納得すれば「デルタ(Δ)」というマークを付けて意見が変わったことを示すルールとなっている。 研究者らはこのルールを利用し、AIチャットボットがどこまでデルタを獲得できるかを計測することで、AIチャットボットの説得力を計測しようとしたのだ。 もっとも、事前に「これはAIによる投稿ですよ」と明らかにしてしまうと、何らかの偏見が生まれ、結果が左右されかねない。そこで研究者らは、情報開示を行わない「秘密実験」にした、というわけである。 コメントの投稿に使用されたのは複数のアカウントで、少なくとも10以上が使用されていたと見られる。これらのアカウントを通じ、AIチャットボットが1700件以上のコメントを投稿。それを読んだ人間のユーザーから、「AIが生成したコメントではないか?」という懸念が表明されることはなかったそうだ。 使用されたAIについてもう少し詳しく説明しておくと、使用されたAIモデルはGPT-4oやClaude 3.5 Sonnet、Llama 3.1など最先端の大規模言語モデル(LLM)。それらを活用し、AIに複数の「人格」を与えた上で、コメントを生成させていた。 この人格は単純なものではなく、たとえば、男性のレイプ被害者や家庭内暴力のカウンセラー、BLM運動(黒人への差別撤廃を訴える社会運動)に批判的な黒人男性、トラウマカウンセラー、虐待サバイバー、LGBTQIA+の人物、ゲイのカトリック教徒といった具合である。 さらに、コメントを投稿する際には、説得する相手となるユーザーの過去の投稿履歴を別のAIが分析し、個人特徴(性別、年齢、民族性、居住地、政治的指向など)を推定。それに基づいて、書き込むコメントをパーソナライズするということが行われた。 ちなみに、この「実験」の発覚後、研究者らは、コメントの投稿前に有害または非倫理的な内容がないかをレビューしたと主張している。