ちょき☆ぱたん お気に入り紹介 (chokipatan.com)
第1部 本
社会
ディープフェイクの衝撃(笹原和俊)
『ディープフェイクの衝撃 AI技術がもたらす破壊と創造 (PHP新書)』2023/2/17
笹原 和俊 (著)
(感想)
人工知能(AI)の技術を用いて合成された、本物と見分けがつかないほどリアルな人物などの画像、音声、映像やそれらを作る技術=ディープフェイク。その生成原理や社会への影響などを分かりやすく解説、ディープフェイクと共存せざるを得ない未来に向けて知っておくべきことを教えてくれる本です。
次の事例が示すように、ディープフェイクは私たちの身近な問題になりつつあります。
「2016年の米国大統領選では、フェイクニュースがSNSを中心として拡散し、社会を混乱させた。(中略)また、2020年は新型コロナウイルス感染症(COVID-19)のパンデミックの発生にともない、不確かな情報が国境を越えて拡散した。」
「(前略)2020年10月、AIを使ってポルノ動画の人物の顔を女性タレントの顔にすり替えた偽ポルノをインターネットに公開したとして警視庁は男性2人を名誉棄損と著作権法違反の疑いで逮捕した。ディープポルノでの逮捕はこれが国内初である。」
「2019年3月、英国を拠点とするエネルギー企業において(社名は非公開)、AIによる合成音声を使ったなりすましの詐欺が起きた。」
「ディープフェイクによる顔認証を悪用した事件も身近な脅威となりつつある」
……中国ではディープフェイクで顔認証が突破され、お金が盗み取られる被害が相次いで報告されているそうです。
さらに2022年3月には、ウクライナのゼレンスキー大統領が国民に降伏を呼びかける偽動画が、なんとウクライナのニュースチャンネルのサイトで公開されました。でも、すでにこのような事態の発生を想定していたらしいゼレンスキー大統領側の素早い対応で、深刻な混乱が起こることは阻止できたそうです。次のように書いてありました。
「この事件は、ディープフェイクが戦争に用いられた最初の事例だが、それを見事に火消しした好例でもある。(中略)
ゼレンスキーは、事件が起きた後、SNSで速やかに訂正情報を自ら発信した。そのため、偽ゼレンスキー動画にだまされて投降するウクライナ人が出ることを防いだ。そして、その迅速な対応は、プラットフォーム事業者の速やかな対応を促した。」
*
本書の中では、AIが合成した偽の子どもや猫の画像が紹介されていますが……あまりにも「本物」なので驚いてしまいました(この場合「本物」はいないので、「本物そっくり」ではないのです! それが、ますます驚き!)。
しかも次の「偽画像を見破るコツ」の画像の確認方法を使っても……私には「本物の人間写真」と「合成人間写真」の真贋の判断がまったく出来ませんでした。
1)画像を確認する:背景・洋服・装飾品に不自然さがないか確認する、顔の歯や髪の生え方を確認する、光の当たり方に不自然さがないか確認する)
2)グーグル画像検索やティンアイ(TinEye)などで画像の出典を調べる
*
……こりゃー、もう、ディープフェイク画像とは、「そういうものがある」世界と考えて、共存していくしかないですね……。
しかも最近のAIはどんどん能力が向上しているので、チェスなどのゲームで人間を凌駕するだけでなく、描画力・文章力分野でも実力を発揮し始めているようです。次のような事例が書いてありました。
・スティーブル・ディフュージョンで自動生成した「乗馬する宇宙飛行士」の画像が、米国コロラド州で開催された美術品評会で優勝した。
・チャットAIが書いた文章は、AIが生成したと思えないクオリティになっている。
・人工知能GPT-3は、GPT-3自身に関する学術論文を書いた。
*
……うーん。まさにタイトル通りの『ディープフェイクの衝撃』! こんなに高度な偽画像・音声・動画が簡単に出来る時代になっているなら、もう何が嘘か本当か分からなくなってしまいます。
「ディープフェイクの弊害」として、次の2点があげられていました。
1)真実のような偽物が溢れる
2)都合の悪い真実は偽物呼ばわりされるようになる
……笹原さんの言うように、これらは民主主義の根幹を揺るがしかねない深刻な弊害だと思います。
「「嘘つきの配当」を許す社会ではなく、「嘘つきの代償」を払わせられるような、ディープフェイクに関する社会の仕組みを整備する必要がある。」
……まったく、その通りですね!
これに対して、ビクトリア大学の研究者たちは、次のようなディープフェイクのリスクを管理するための「REAL」フレームワークを提案しているそうです。
・Record(記録)オリジナルコンテンツを記録し、否定権を確保する
・Expose(摘発)悪意のあるディープフェイクを早期摘発する
・Advocate(主張)法的保護を主張
・Leverage(活用)信憑性のための信頼を活用
*
また2022年11月、グーグルは、次の4つの行動介入の方法を紹介したウェブサイト(Info Interventions)を公開したそうです。
1)正確性のプロンプト(ユーザの注意を正確さに引き戻す)
2)リダイレクト方式(オンラインでの過激化を阻止)過激派などの情報を探しているユーザを、他の安全な情報へ自動転送する。
3)投稿者へのフィードバック(健全な対話の促進)
4)プレバンキング(操作に対する抵抗性の向上)デマの手口や実例を知っておくことで、実際に遭遇した誤情報を信じたり拡散したりしないようにする。
*
これらの対処法は、どれもとても重要なものだと感じました。
ただし、ディープフェイクの技術は犯罪分野など悪い面でだけでなく、映画などのエンターティンメント分野、ALSなどの病気のために自ら発話できない障害者の補助分野など、良い面でも役に立つものであることも間違いありません。
ディープフェイクのもつ危険性を知って回避しつつ、恩恵を享受する……なんだか綱渡りのようですが、その都度、うまく対処していくしかないのでしょう。
とても参考になる情報が満載です(特にフェイク画像や文章は必見です)。みなさんも、ぜひ読んでみてください☆
* * *
なお社会や科学、IT関連の本は変化のスピードが速いので、購入する場合は、対象の本が最新版であることを確認してください。
Amazon商品リンク
興味のある方は、ここをクリックしてAmazonで実際の商品をご覧ください。(クリックすると商品ページが新しいウィンドウで開くので、Amazonの商品を検索・購入できます。)