納得できない―グーグルの「子ども向けGemini」立ち上げで一部保護者が反発(Forbes JAPAN)
グーグルは、保護者がAndroidデバイスやChrome OSデバイスを管理し、子どものオンライン利用を安全にサポートするための「ファミリーリンク機能」を以前から提供している。この機能を利用する親たちの多くが最近、同社の人工知能(AI)チャットボットのGemini(ジェミニ)が間もなく子どものデバイス上で利用可能になるという通知メールを受け取っている。 ニューヨーク・タイムズの報道によると、グーグルはファミリーリンクで管理されている保護者の監督付きアカウントを通じて、13歳未満の子どもがGeminiにアクセスできるようにしている。 この「子ども向けの制限付きGemini」は段階的に展開されており、子どもたちは宿題のサポートや創作活動の支援、一般的な質問への応答といったGeminiのさまざまな機能を体験できるようになっている。保護者は、AndroidデバイスやiOSデバイス、もしくはウェブ上で子どもにGeminiの使用を許可し、子どものデフォルトアシスタントに設定することも可能だ。 グーグルは、Geminiを子どもの学習や創造性、探求を支援するツールに位置づけている。同社は、このAIツールの前身であるBardでも同様の方向性を強調し、AIが子どもの代わりに宿題をやるのではなく、一緒に学ぶための友達だと伝えていた。 生成AIの教育分野でのポテンシャルは、広く認識されつつあり、一部の研究によればデジタルツールは学校教育の中に組み込まれることで最も効果を発揮するとされている。しかし、デジタルツールは教師を置き換えるのではなく、補完するものであるべきだ。
■AIと子どものリスク ユニセフが発表した「How Can Generative AI Better Serve Children’s Rights?(生成AIはどのように子どもの権利に貢献できるか)」と題したレポートは、AIの可能性とともにそのリスクにも目を向けるべきだと訴えている。 この報告書は、「子どもの権利条約」に基づいてAIを評価すべきだとし、「無差別」「子どもの意見の尊重」「子どもの最善の利益」「生命・生存・発達への権利」という4つの原則を提示している。 まず懸念される大きな問題は、「デジタル貧困(Digital Poverty)」とも呼ばれるアクセス不平等の問題だ。すべての子どもがインターネットやスマートデバイス、教育用AIにアクセスできるわけではない。その結果、一部の子どもが学習面で優位に立つ一方、ほかの子どもは取り残される。 さらに、トレーニングデータのかたよりも深刻な課題だ。AIシステムは社会の偏見を反映するため、子どもはオフラインで経験するのと同じ差別にオンライン上でも直面する可能性がある。また、個人データの収集と使用に関する同意の問題も厄介だ。たとえば9歳の子どもから「意味のある同意」を得るのは、法的にも倫理的にも極めて難しい問題だ。しかも、そのデータが商用モデルの学習に利用される場合はさらに複雑だ。 誤情報の拡散も大きな懸念材料となっている。子どもはフェイクニュースを見抜く力が弱く、デジタルの存在を信頼しやすい傾向がある。特に、社会的に孤立している、またはオンラインの時間が長すぎる子どもの場合は、チャットボットと人間の区別は必ずしも明確とはいえない。一部のボットは子どもの幻想を助長するような応対をしたと報じられている。