蔓延するフェイク動画、複雑化するイスラエルとハマスの状況

ガザ地区の早期停戦へのかすかな期待と、地政学的なメッセージを発信するAIコンテンツがいともたやすく作成・拡散できるようになった事実のはざまで、こうした誤情報の問題は行き場を失っている。逆説的だが、フェイク画像の存在がますます知られるにつれ、ネットユーザーは偽画像を目にするばかりか、これが現実だと誤解しかねない。現在進行中の戦争で対立する意見をさらにややこしくする可能性もある。AI画像の専門家でさえ、本物の写真をフェイクだと見誤うこともないとはいえない。

「この手のフェイク画像の投稿は――AI画像だとラベルがないものも含め――多くの配信プラットフォーム(の利用規約)になんら違反していません」とシャラディン教授は言う。「こうしたコンテツにフラグを立てる、あるいは削除やアクセス規制の措置を取るといった判断は、GoogleやMeta、Xなどの大手プラットフォームに委ねられています」。

AI関連の誤情報や濫用への対抗策として、ソーシャルメディア側には何ができるのか。この問題には各社の基本実施方針に大きく作用する2つの要素、つまり「資金」と「意思」がかなり密接にかかわってくるとシャラディン教授は付け加えた。

いくらか改善は見られたものの、AI生成コンテツを瞬時に見分ける有効なエンドユーザー向けツールはまだ多くない。デジタル指紋や透かしなどのボット識別技術は(多くの場合ほとんど機能しないが)機能したとしても、AIモデルの大手開発業者が「わが社のモデルを使用して作られたコンテンツではない」と断言できる程度でしかない。シャラディン教授もローリングストーン誌にこう語る。「こうした技術をもってしても、エンドユーザーがAIモデルで生成されたコンテンツかどうかを見分けることはできません。ただ、開発業者が『うちのモデルではない』と言ったところで一般大衆にはなんの役にも立ちません。私たちが望むのは、コンテンツを作ったのがAIか、それとも人間かを見分ける方法なのですから」。

一方ソーシャルメディアのモデレーションチームは、フラグまたは削除を要する微妙なコンテンツの波にのまれ、問題解決策は実質ゼロの状態だ。ユーザーがAI生成画像にラベリングできるXの「コミュニティノート」という機能を別にすれば、そうした機能を追加するプラットフォームはほぼ皆無と言っていい――コミュニティノートでさえ、既存の誤情報やプロパガンダに追い付けていない。AI画像だと判明するころには時すでに遅し、すでに数千人の目に触れ、リポストされている可能性もある。その間コンテンツを作成した当の本人は、当然のごとく次のコンテンツ作りに動いている。

Akiko Kato

RECOMMENDEDおすすめの記事


RELATED関連する記事

MOST VIEWED人気の記事

Current ISSUE