リアルすぎて怖い…OpenAI『Sora2』のAI動画。あらゆる情報を「仮説」として捉えよう

Screenshot: OpenAI

Lifehacker 2025年10月18日掲載の記事より転載

Open AIが音声付き動画を生成するAI「Sora 2」を発表しました。

Soraが最初に発表されたとき、その超リアルな動画はネットユーザーたちを興奮させましたが、私にとっては恐怖でしかありませんでした

AIファンがAI生成の映画や番組といった未来を夢見る一方で、私の目には、誰もが現実と虚構の区別がつかなくなる未来が映ったんです。

この技術が行き着く先は「大規模な偽情報が社会の基盤を揺るがす未来」、それ以外にないのではないか、と。

あれから1年半、AIが生成する動画はさらにリアルになっただけでなく、Googleのような企業が誰でも有料で使えるツールを提供しはじめたことで、より身近なものになりました。

そして今、私たちはOpenAIによる最新の発表と向き合うことになったのです。音声付き動画を生成する新たなAIモデル「Sora 2」と、そのAI生成コンテンツを作成・共有するための新アプリ「Sora」の登場です。

リアルすぎる動画が AIで簡単につくれるようになった現在、私たちはどのようにネットの世界を見れば良いのでしょうか。

まずは「Sora 2」のスペックを十分に理解し、そしてその対策について考えていきましょう。

進化しすぎたAI動画モデル「Sora 2」

OpenAIは、Sora 2をSoraからの大規模なアップグレードだと位置付けています。たとえるなら、GPT-1とGPT-3.5ほどの差があるとのこと。

同社によれば、この新モデルは、旧モデルでは不可能だった複雑な動画を生成できるといいます。

具体例として、オリンピックの体操選手の演技、パドルボードの上で男性がバックフリップを決める様子(水の物理演算を「正確に」モデル化)、そして猫を肩に乗せたスケーターがトリプルアクセルを披露する動画などが挙げられています。

リアルな物理演算と音声同期

これまでのAI動画モデルの共通の欠点は、現実世界の物理法則を理解していないことでした。

映像はリアルに見えても、物体がランダムに融合したり、理由なく消えたり現れたりすることがあったのです。

OpenAIは、Sora 2ではそうした間違いが大幅に減ったと説明しています。

たとえば、ゴールを外れたバスケットボールが魔法のようにネットに吸い込まれることはなく、ちゃんとバックボードに当たって跳ね返るのです。

まだ完璧ではないとしながらも、その精度は格段に向上しています。

さらに、ショット間の連続性も改善されました。OpenAIの言葉を信じるなら、複数のテイクをまたいでも一貫性が保たれ、「リアル」「映画風」「アニメ風」といった異なるスタイルを指定することも可能です。

友人を動画に登場させる「Cameo」機能

Sora 2でもっとも大きな飛躍と言えるのが、現実世界の要素をモデルに取り込む「Cameo」という機能でしょう。

実在の人物をSora 2のモデルに組み込み、好きな動画に登場させることができるのです。

OpenAIはスタッフ自身を様々な動画に登場させた例をいくつか公開しています。

そのクオリティにはばらつきがあるものの、昔流行った顔はめ動画サイト「JibJab」などとは比較にならない、とてつもない飛躍を遂げています。

GoogleのVeo 3モデルと同様、Sora 2はリアルな音声付きの動画を生成可能。発表動画では、象が吠え、スケーターが氷上を滑り、水が地面に跳ねる音が披露されました。

しかし、それ以上に印象的なのは、人間が話しているという点です。

AIが生成したサム・アルトマン(OpenAIのCEO)がこの動画で新モデルとアプリを説明していますが、注意深く観察すればその不自然さに気づくかもしれません。

しかし、スマートフォンで次々と流れてくる映像の渦の中では、多くの人がこれが本物のアルトマンではないとは夢にも思わないでしょう。

誰でもクリエイター?超リアルな Cameo動画例

OpenAIは、Soraアプリを「コミュニケーションの自然な進化」から生まれたものだと語っています。ユーザー同士がAI生成コンテンツを作成し、リミックスするための手段として捉えているようです。

特に、自分の顔や姿をモデルにアップロードできる機能がその中心にあります。

現在、アプリは招待制ですが、App Storeから無料でダウンロードすることは可能です。

OpenAIが火曜日に公開したデモ動画や、すでにアクセス権を持つ人々の投稿から、その使用感を垣間見ることができます。

OpenAIがデモで見せた最初の例は、研究者のビル・ピーブルズ氏とサム・アルトマン氏の2人が登場するCameo動画です。

2人が会話している全体像からはじまり、ピーブルズ氏がアプリの収益について早口で話すアップに切り替わり、次にアルトマン氏がそれを聞いているアップ、最後に元の全体像に戻るという構成。

一見すると、TikTokやリールでスクロールして通り過ぎそうな動画ですが、これが完全にAIによって生成されているのです。

OpenAIのスタッフは、ほかにも事前に生成された例を披露しています。

Cameoがカートゥーン調に変わるもの、アニメ調に切り替わるもの、あるスタッフの「ケチャップ中毒」を報じる「ニュース」風動画(これは正直、かなり気持ち悪い…)などです。

フィードで見つけた動画をリミックスする機能も実演されており、プロンプトを入力して自由に動画を改変可能。

ある動画ではピーブルズ氏が「Sora 2コロン」の広告に出演していますが、他のユーザーによって歯磨き粉の広告にリミックスされたり、全編韓国語に吹き替えられたりしています。

これらの動画は非常にリアルです。ある動画では、テニスの試合を見ているだけかと思いきや、実はOpenAIのロハン・サハイ氏が出演するCameoだった、というものまであります。

「サハイ氏」が試合に勝った後、動画は彼の「インタビュー」に切り替わり、アンチへの感謝を述べるのです。

もちろん、もっとAIっぽい動画もありますが、それでも、スクロールしているほとんどの人が気づかないレベルでしょう。

OpenAIが語る「安全対策」果たして十分と言えるのか

Cameo機能は、プライバシーとセキュリティの悪夢のように聞こえますが、OpenAIもいくつかの保護措置を講じているようです。

他人の顔を勝手に使うことはできず、自分の顔しかプラットフォームにアップロードできません。Cameo機能の設定は、iPhoneのFace IDのように顔をスキャンし、そのデータをOpenAIのシステムに送信。なりすましや無断使用を防ぐための「膨大な検証」が行われます。

承認されると、自分のCameoを誰が作成できるか(全ユーザー、友人、特定の承認ユーザー、自分のみ)を選択できます。

Soraアプリから書き出された動画には、TikTokのように「Sora」という透かしロゴが表示されます。

有害なコンテンツ、特にCameoに関連するものの生成をブロックする仕組みが組み込まれています。

10代のユーザーが長時間スクロールし続けると、クールダウン期間が設けられ、AI動画の見過ぎを防ぎます。成人アカウントにはこの制限はありませんが、「休憩を取るよう促す」通知が表示されます。

一体、誰がこの現実を望んだのか?

OpenAIとその安全対策チームの努力には敬意を表します。

しかし、このアプリは様々な理由で、私たちの社会が共有する「現実」そのものを溶解させる大惨事を引き起こすように思えてなりません。

第一に、OpenAIは、まるでSiriに天気を尋ねるのと同じくらい簡単に、超リアルなショート動画を生成できるようにしてしまいました

動画にウォーターマークが付くのは評価しますが、そのウォーターマークを編集してほとんどの人が気が付かないレベルまで消すのは、大して難しいことではないでしょう。

このアプリが広く普及した途端、私たちのSNSのタイムラインは、この種のコンテンツで埋め尽くされるはずです。

そして、その多くが非常にリアルな映像と音声を伴っているため、多くの人々が多くのコンテンツに騙されることになります。

それが「トランポリンで跳ねるウサギ」のような、たわいもない動画ならまだマシです。

しかし、これが「政治家」がとんでもない発言をしたり、「セレブリティ」が店で万引きをしたりする動画だったらどうなるでしょうか?

拡散されたあるSora動画では、サム・アルトマンが大手スーパーのターゲットでGPU(画像処理装置)を盗もうとして警備員に止められる様子が映し出されています。

今後、サム・アルトマンや、自分のCameoのリミックスを許可したほかの誰かが、犯罪を犯したり、単に恥ずかしいことをしたりするSora動画が、どれだけつくられることになるのでしょうか?

権力や名声のある人々は、それが偽物だと証明できるかもしれませんが、その頃には手遅れです。動画を見た多くの人は、それを疑う機会すら持たずに、事実として受け止めてしまうでしょう。

また、他人のCameoを無許可でリミックスさせないためのセキュリティ対策があるのはすばらしいことですが、悪用のリスクは極めて高いと言えます。

もし誰かが動画から他人の顔を「スキャン」する方法や、使用をブロックする設定を突破する方法を見つけ出したらどうなるでしょうか?

OpenAIのセキュリティ対策を回避できれば、その人の顔を、プラットフォームが承認するどんな動画にもリミックスできてしまいます。そうなってしまえば、もうおしまいです。

インターネットの世界は楽しいけど...

正直に言いましょう。私はネットの世界にどっぷり浸かっています。フィードに流れてくる面白いAI生成ミームを楽しまないとは言いません。

しかし、自分の自由な時間を、AIが垂れ流す、脳が溶けるようなコンテンツをひたすらスクロールすることに費やすつもりはありません。

人々はSoraを使って面白い動画をつくる創造的な方法を見つけたり、友人とCameoをつくって楽しんだりするでしょう。

しかし、問題はそこなのです。この技術の目新しさを超えた先に、良いことなど何1つないのですから。では、私たちはどうすればいいのでしょうか。

もう、ネットで目にするものを何でも信じるのをやめるべき時です。それは思考停止ではなく、正しい情報の選別を行うスキルを身につけるのに必要なプロセスなのです。

あらゆる情報を「仮説」として捉えよう

これからは、あらゆる情報を「仮説」として捉える態度が求められます。

  • 発信者は誰か?
  • その目的は何か?
  • なぜこのタイミングでこの情報が出てきたのか?

感情を揺さぶる映像ほど一度立ち止まり、自分の内側で起きている反応を客観視する。

こうした知的な営みこそが、虚構の洪水から自らを守る唯一の助けとなるはずです。

誰かがアプリで、いとも簡単につくり上げたものかもしれないのですから。その現実から、目をそらしてはなりません。

▼こちらもオススメ

★Amazon①

著者紹介:Jake Peterson

Lifehackerのシニアテクノロジーエディター。ニューヨーク大学で映画とテレビの美術学士号を取得し、ライティングを専攻。2016年からテクノロジー関連の仕事を専門的に手がけており、ニューヨーク5番街のApple Storeでテクニカルスペシャリストとして働きはじめ、その後はウェブサイト「Gadget Hacks」のライターとして活躍した。その間、iPhoneとAndroidに関するニュースやハウツー記事を数千本執筆・編集。SamsungやGoogleの製品発表会のライブデモも取材。2021年にLifehackerに移籍し、あらゆるテクノロジーについて執筆している。

著者:Jake Peterson翻訳:ライフハッカー・ジャパン編集部 Screenshot: OpenAI Source: Open AI, Youtube(1, 2, 3), App Store, TODAY, X

関連記事: