AIで生成したユーザーだけのSNSを作ったら、人間のSNSと同じ問題が起こった

Image: Ormalternative / Shutterstock

SNSは人間の鏡なのかも。

FacebookやXなどのSNSは、政治的・社会的な分断を悪化させる要因にはなっていますが、原因そのものを作っているわけではありません。

オランダ・アムステルダム大学の研究者らが行なった最近の研究では、AIチャットボットをシンプルなSNS環境に置き、その相互作用を観察しています。

その結果、アルゴリズムがなくても、チャットボットはあらかじめ与えられた立場に沿って行動し、似た意見の仲間だけが集まる「エコーチェンバー(同意見ばかりの空間)」をみずから作る傾向があることがわかりました。

AIにペルソナを設定し、SNSへ

この研究は、プレプリント(公開済み原稿)として最近arXivに公開されたもの。

研究では、OpenAIのGPT-4o miniを搭載した500のAIチャットボットを用意し、それぞれに特定の人格(ペルソナ)を設定。ボットたちは広告もなく、コンテンツ発見機能やおすすめ投稿などのアルゴリズムが一切存在しないシンプルなSNSプラットフォームに放たれ、そこで他のAIユーザーの投稿とやりとりするよう指示されました。

5種類の実験を行ない、合計で1万回のアクションを記録したところ、ボットは自身と同じ政治的立場を持つユーザーをフォローする傾向がありました。また、最も偏った内容を投稿するユーザーほど、多くのフォロワーとリポストを獲得していたことが判明しました。

人間の真似をしているチャットボット

この結果は、私たち人間にとってあまりいい話ではありません。というのも、このチャットボットたちは人間同士のやりとりを真似るように作られていたからです。

もちろん、こうした傾向はアルゴリズムの影響から完全に切り離されているわけではありません。ボットは、人間が何十年もアルゴリズム主導の環境でオンライン活動してきたデータで訓練されており、その結果、すでに毒された人間の行動パターンを再現してしまうのです。そこから抜け出す方法は、現状はわかっていません。

いろいろ対策をしてはみたものの…

研究者たちは、こうした同じ意見ばかりが集まる傾向を変えるために対策をいくつか試みました。

具体的には、時系列フィードの導入やバズったコンテンツの価値を下げる行為、フォロワー数やリポスト数を非表示にする行為やユーザープロフィールを隠す行為、そして反対意見を強調表示する行為など、その方法はさまざま(最後の方法は、過去の別の研究で「高いエンゲージメントと低い攻撃性」を両立させた実績がありました)。

しかし、どの介入策も大きな効果はなく、偏った意見を投稿するアカウントへのエンゲージメントを6%以上減らすことはできませんでした。さらに、ユーザープロフィールを隠すシミュレーションでは、かえって分断が深まり、極端な投稿がより注目される結果となりました。

結局のところ、SNSという仕組みそのものが、人間の最も醜悪な本能や行動をエスカレートさせずに使いこなすことができないものなのかもしれません。

関連記事: