第4回:証拠映像ですら「証拠」と見なされなくなる時代
政治すら動かしかねない「ニセ映像」リスク
BCP策定/気候リスク管理アドバイザー、 文筆家
昆 正和
昆 正和
企業のBCP策定/気候リスク対応と対策に関するアドバイス、講演・執筆活動に従事。日本リスクコミュニケーション協会理事。著書に『今のままでは命と会社を守れない! あなたが作る等身大のBCP 』(日刊工業新聞社)、『リーダーのためのレジリエンス11の鉄則』(ディスカヴァー・トゥエンティワン)、『山のリスクセンスを磨く本 遭難の最大の原因はアナタ自身 (ヤマケイ新書)』(山と渓谷社)など全14冊。趣味は登山と読書。・[筆者のnote] https://note.com/b76rmxiicg/・[連絡先] https://ssl.form-mailer.jp/fms/a74afc5f726983 (フォームメーラー)
昆 正和 の記事をもっとみる >
X閉じる
この機能はリスク対策.PRO限定です。
- クリップ記事やフォロー連載は、マイページでチェック!
- あなただけのマイページが作れます。
■"記憶にございません"では済まない話
昔、国会の証人喚問で都合の悪いことを聞かれたある実業家が、「記憶にございません」を連発して流行語になりました。あれから40年以上を経た今日、依然として「記憶にございません」でその場をしのごうとする人々がいることは、なんとも残念なことです。こういう問題こそ、AIで何とかならないものでしょうか。どんなにうそをついても、あるいは電子的にやり取りしたり、テキストで保存したものを消去したつもりでも、AIを駆使すれば、時間をさかのぼって悪事の痕跡をやすやすと暴き出すことができるかもしれません(これはあくまで筆者の希望的観測ですが)。
ところで世の中の現実を見ると、逆にAIが証拠隠しや他人を陥れるために悪用されかねない、気になる予測も出ています。その予測とは「ビデオ」にまつわるAIのリスクのことです。一言で言えば、「あれ、私そんなことを言いましたか?」と思ってしまうような、本人が口にしたことのない言葉をあたかも本人自身が話したようにビデオを加工する技術が出てきたのです。
この技術は「ディープフェイク(Deepfake)」と呼ばれているもので、言葉の由来はフェイスマッピングとAIのディープラーニング(深層学習)から来ています。本物(本人)の映像とほとんど変わらないリアルさが特徴の「偽」のビデオ映像のことです。
例えば、米国のオバマ前大統領の既存のビデオをコンピューターに取り込んで、オバマ氏にあることないこと、なんでも言わせることができます。CGで加工したようなぎこちなさはなく、実に自然な表情と声を真似ることができる。これは実際にBuzzFeedというサイトに掲載され、注目を浴びました。
■参考記事(VOA)
https://www.voanews.com/a/i-never-said-that-high-tech-deception-of-deepfake-videos/4463932.html
※スパム投稿防止のためコメントは編集部の承認制となっておりますが、いただいたコメントは原則、すべて掲載いたします。
※個人情報は入力しないようご注意ください。
» パスワードをお忘れの方