※ AIによる要約
SNS上で新たな問題として浮上している「Minion Gore(ミニオンゴア)」現象が、AI技術の悪用とその規制の難しさを示す一例として注目されています。この現象は、人気アニメ映画「ミニオンズ」のキャラクターを無断使用して、実在する暴力的な映像を加工し、ソーシャルメディアに投稿する行為を指します。
404 Mediaの報告によると、この現象は2024年12月中旬頃から広がりを見せています。最初の発端は12月7日にTikTokユーザーが投稿したミニオンズ風の動画とされています。この投稿はわずか10日間で5万回以上再生され、その後、特にロシアのユーザーを中心に同様の動画が急速に拡散しました。
拡散のピークとなった12月14日には、自殺映像をミニオンズ風に加工した動画が投稿され、3日間で25万回以上再生されるという大きな反響を得ました。それに続き、エレベーター事故やクライストチャーチで発生したモスク銃撃事件の映像など、暴力的な実写映像までが加工されて共有される事態となっています。
これらの動画の多くには、AI動画生成ツール「Runway」の使用痕跡が見られるとのこと。同ツールの「video to video」機能が使用され、特定のプロンプトを入力することで映像をアニメ映画風に変換しているとされています。これにより、従来の映像認識システムでは検出が困難な新たなチャレンジが生まれています。
現在、TikTokを含む各プラットフォームは、これらの暴力的コンテンツを削除する対策を進めており、ミニオンゴアの動画はほとんどが削除された状態です。しかし問題なのは、すでにミニオンズ以外のキャラクターを用いた類似動画の存在も確認されており、より広範囲にわたる被害の可能性が懸念されています。
AI技術の進化がもたらす利便性の裏で、このような悪用に対処する規制や技術的対策は急務といえるでしょう。プラットフォーム各社がどのようにこれらの課題に対応していけるかが、今後の重要な焦点となっています。