グーグルAI「Gemini」プライバシー危機、その裏に潜むNano Bananaの実態
グーグルは8月26日、生成AIアプリ『Gemini』を無料でアップグレードした。無料サービスに潜むリスクは昔から指摘されてきたが、今回も例外ではない。製品に対価を払わないのなら、利用者自身や利用者のプライバシーが製品となるからだ。 そこで本稿では、新たな警告を出そう。このGeminiのアップグレードは、Alphabet(アルファベット)のサンダー・ピチャイCEOが目標として掲げる5億人のユーザーにとって「プライバシーの悪夢」であり、「2025年で最も危険なサイバーセキュリティ危機」になり得るかもしれない。 ■Nano Banana統合で強化された、Geminiの画像編集機能 合わせて、グーグルは、Gemini 2.5 Flash Image(コードネーム:Nano Banana。ナノ・バナナ)を公開しつつ、「皆がすでに熱狂しています」と猫撫で声で語った。「Geminiの画像編集が大幅に強化されました。私たちのAIツールは、世界で最高評価の画像編集モデルです」というわけだ。 グーグルはNano BananaをGeminiアプリに統合し、ユーザーは「完璧な写真を作るために、これまで以上のコントロールが可能です」としている。だがPoint Wildはこれに異議を唱え、ユーザーは今やリスクにさらされていると警告する。熱狂する前に、すぐにグーグルのプライバシーポリシーを読むべきだ。 ■アップロード画像に含まれる生体情報とプライバシーリスク Point Wildによれば、アップロードするすべての写真には「生体認証による『指紋』」が含まれている。これには「固有の顔面の配置、皮膚の質感、微かな表情、体のプロポーション、さらにはスマートフォンの持ち方や典型的な撮影角度といった行動パターン」までもが含まれているという。 研究者たちは、グーグルがすでにあなたのスマートフォンにデジタル指紋を付している世界の中で、あなたは今「画像メタデータに埋め込まれた精密なGPS座標、行動生体認証と習慣的特徴、ソーシャルネットワークのマッピング(写真に誰が写っているかとその関係性)、そして心理プロファイリングの示唆」を差し出しているのだと指摘する。 Point Wildは「Nano Bananaによる危機は始まったばかりです」と述べる。この危機は、筆者が行ってきたAIブラウザーに関する警告、エージェント型AIに関する警告、GmailのAIアップグレードに関する警告と何ら変わらない。すべてが新鮮で刺激的であるがゆえに、ユーザーはプライバシーポリシーを心配する余裕を失っている。 ■同意疲れとデータ処理の不透明性 これは「同意疲れ」(consent fatigue)だと、オンタリオ州の元プライバシーコミッショナーであるアン・カヴーキアンが警告する。あまりに頻繁な同意の繰り返しによって、ユーザーは影響を考えずに盲目的にクリックしてしまうのだ。 Synopsys(Black Duck部門)のティム・マッキーは私にこう語った。「問題は画像そのもののコントロールや、それに伴う同意要件だけではありません。処理がどこで行われるのか、そして入力画像がAIモデルの改良にどのように使われるのかという点が重要です。ソーシャルメディアは、一般ユーザーがデータ処理の所在を疑問視しないことを何度も証明してきました」。