Googleは米国国防省にAI技術を供与、TensorFlowがイスラム国監視で使われAIの軍事利用が問われている

May 18th, 2018

米国国防省はドローンを使った偵察ミッションを展開しているが (下の写真)、AIを導入しプロセスを自動化した。イスラム国やシリアで、ドローンが撮影するビデオに写っている車両や人物などをAIが判別する。ここにGoogleのAI技術が使われていることが判明し、Google社員はプロジェクトからの撤退を求めている。社外のAI研究者からも批判の声があがり、Googleは利益追求と社会責任のバランスが問われている。

出典: U.S. Navy

Google社員の抗議

このシステムは「Project Maven」と呼ばれ、ドローンを使ったAI偵察ミッションで、コンピュータビジョンがオブジェクトを判定する。GoogleがこのプロジェクトにAI技術を提供していることが明らかになり、社員は公開書簡をCEOのSundar Pichai送り、契約を解約するよう要求している (下の写真、一部)。更に、Googleは軍事産業にどうかかわるのか、会社の指針を明らかにすることも求めている。この書簡に4000人のGoogle社員が署名し、12人のエンジニアはこれに抗議して会社を辞職した。

出典: Google

Googleの対応

これに対して、Googleのクラウド事業部責任者Diane Greeneは、Project Mavenへの技術供与について説明した。それによると、Googleが提供するAI技術は、ドローンを飛行させたり、兵器を起動するためには使われない。戦力を行使する戦闘行為に適用されるのではなく、あくまで通常のミッションで使われると説明。具体的には、GoogleはオープンソースのTensorFlow APIを提供し、ドローンで撮影したイメージを解析し、オブジェクトを把握するために使われていることを明らかにした。

自律兵器へ繋がる

Googleは提供した技術が自律兵器 (Autonomous Weapons) で使われることはなく、攻撃を伴わない監視活動だけで使われることを強調した。自律兵器とは、AIが攻撃目標を把握し、AIがトリガーを起動する兵器を指す。人間の判断を経ないでAIが目標を選び攻撃するため、殺人ロボットとも呼ばれる。Project Mavenは敵の行動を把握するためだけにAIを使うが、これを応用すると自律兵器に繋がるため、Google社員は技術供与に反対している。

オープンソース

GoogleはTensorFlowをオープンソースとして公開しており、だれでも自由に使うことができる。かりにGoogleが契約を解約しても、オープンソースであるため、Project MavenはTensorFlowを使い続けることができる。市場には数多くのAIオープンソースが公開されており、これらが軍事目的で使われている可能性は否定できない。Google社員による問題提起は、AIオープンソースを如何に管理すべきか、本質的な問題を含んでいる。

Project Mavenの位置づけ

Project Mavenについては、国防省がその概要をニュースリリースの形で公開している。それによると、「Algorithmic Warfare Cross-Functional Team」と呼ばれる部門が新設され、このプロジェクトを管轄しシステムを開発した。この部門は国防省内の組織を跨り、AIとMachine Learningを導入することを使命とし、Project Mavenがその最初のプロジェクトとなった。

偵察活動を自動化

国防省はイスラム国が支配している地域とシリアでドローンを飛行させ、偵察活動を展開している。ドローンに搭載されたカメラで地上を撮影し、アナリストがビデオや写真をみて、そこに写っているオブジェクトの種類を判定してきた (下の写真、イメージ、空軍諜報部門)。撮影されるイメージは大量で、アナリストの手作業には限界があり、このプロセスをAIで自動化することを目的にプロジェクトが始まった。アルゴリズムはオブジェクトを38のクラス (車両、人物、行動など) に特定し、問題と思われる情報を抽出し、それらをアナリストが解析する。このミッションでは戦略ドローン「ScanEagle」(先頭の写真) と戦術ドローン「MQ-1C Gray Eagle」及び「MQ-9 Reaper」が使われている。

出典: US Air Force

AmazonやMicrosoftも

国防省にAI技術を供与しているのはGoogleだけでなく、AmazonやMicrosoftもクラウドサービスでイメージ解析技術などを提供している。これらの企業ではAIが軍事目的で使われることに対して、反対運動は起こっていない。更に、データサイエンスでトップを走るPalantirは軍需企業として国防省に情報サービスを提供し続けている。Googleの場合は社員が理想的な世界を追いすぎるのではとの意見も聞かれる。

AI研究者の反応

一方、世界最先端のAI技術を持つGoogleがその技術を軍事システムに提供したことに対し、市場からも反対の声が上がっている。大学教授を中心とするAI研究者1000人は、Alphabet CEOのLarry Pageらに、Project Mavenから離脱し、今後はAIを軍事目的で使わないことを求めている。

AIの軍事利用の指針

AIの軍事利用については、早くからその危険性が指摘され、世界レベルでの運用ガイドラインの制定が求められてきた。既に、軍事システムには高度なAIが導入され、統一ルールがないまま開発が先行している。ここに、GoogleというAI企業が加わったことで、そのインパクトは大きく、市場の懸念が一気に高まった。ハイテク企業はAIの軍事利用に関し、明確なポリシーを設立することが求められている。

Googleは人間に近づき過ぎたAIを公開し波紋が広がる、仮想アシスタントが電話してヘアサロンを予約

May 11th, 2018

Googleは仮想アシスタントが電話して実社会のタスクを実行する技術「Google Duplex」を公開した。Duplexは人間のように会話できるAIで、例えば、ヘアサロンの店員さんと話してヘアカットの予約をする。話し方があまりにも人間的で、マシンとは到底区別がつかない。Duplexは究極の仮想アシスタントと評価される一方で、人間的過ぎるAIは社会で許容されるのか、波紋が広がっている。

出典: Google

Google開発者会議

Googleは2018年5月8日、開発者会議Google I/OでAIやAndroidの最新技術を発表した。「Google AI」というブランドのもとAI企業に舵を切り、仮想アシスタント「Google Assistant」やAIスピーカー「Google Home」の最新技術を公開した (上の写真)。この中で、人間に代わり仮想アシスタントが電話で会話して実社会のタスクを実行する技術Google Duplexを公開した。

Duplexがヘアカットを予約

Google CEOのSundar PichaiがDuplexのデモを行った。Duplexがヘアサロンに電話して、ヘアカットを予約するというストーリーで、会話は次の通り進んだ。

Duplex:(ヘアサロンに電話を発信)

ヘアサロン店員:Hello, may I help you?

Duplex:I’m calling to book a women’s haircut for a client.  Umm, I am looking for something on May 3rd. (若い女性のテンポよい会話で到底AIとは思えない)

ヘアサロン店員: Just give me one second.  (店員は予約表を見ている様子)

Duplex: Mm-hmm。(Yesと言わないで”ふふーん”という繋ぎ言葉(Disfluencies)が入り、ますます人間の雰囲気を醸し出す)

出典: Google

Duplexが予約時間をネゴ

しかし、リクエストした時間が空いてなく、両者の間で協議が始まる。

ヘアサロン店員: Depending on what service she would like.  What service is she looking for?

Duplex: Just a women’s haircut for now.

ヘアサロン店員: Okay, we have a 10 o’clock.

Duplex: 10am is fine.

どんなメニューを希望しているかの問いに対して、Duplexは女性のヘアカットと回答。カットだけなら10時が空いているとのことで予約が完了した。Duplexはヘアサロン店員と予約時間を調整するという複雑なタスクを完遂した。

Duplexを人間と感じる理由

Duplexを人間と感じる理由は、人間の悪い癖であるDisfluencies (“えーと”など意味のない繋ぎ言葉) を取り入れていることと、会話の間合いが絶妙であること。更に、Duplexは想定外の事態に対応して複雑なタスクを実行でき、人間と全く変わらない。Duplexデモの部分は基調講演ビデオ (https://youtu.be/ogfYd705cRs?t=2174)で見ることができる。

Duplexのシステム構成

DuplexはGoogle Assistantのバックエンド機能として実装される。Google Assistantにヘアサロンの予約を指示すると、その背後でDuplexがこれを実行する (下の写真)。実際に、Duplexが店舗に電話を発信し、相手と対話しながらヘアカットの予約を入れる。予約が済むとその内容はGoogle Assistantから利用者に示される (最後の写真)。予約時間が近づくと、Google Assistantはスマホにリマインダーを表示する。

出典: Google

コンセプト

Duplexは自然な会話を通してタスクを実行するようデザインされている。Duplexの会話は人間と同じレベルで、自然で滑らかなトーンで進み、AIであることを感じさせない。従って、利用者は人間と会話するように、自然な言葉づかいで会話する。AIスピーカーに語り掛けるときは、分かりやすくゆっくりと喋るが、早口で言い直しながら話してもDuplexはちゃんと理解する。つまり、Duplexは人間と同じ位置づけで、普段通りの言葉で会話ができる。

出典: Google

市場の反応は割れる

Duplexの会話は人間そのもので、マシンとは全く判別できない。デモを実施した会場からは驚きのどよめきが上がった。一方、市場の反応は分かれ、技術進化を評価するものの、Duplexに対して懸念の声も上がっている。Duplexは社会のモラルから逸脱しているとの意見も少なくない。電話を受けたヘアサロン店員は、人間と思い丁寧に対応したが、実は相手はAIであり、欺かれた感覚を覚える。

電話詐欺や選挙運動

更に、Duplexが悪用されると犯罪の手助けをするのではと懸念されている。米国で電話詐欺により高齢者が被害にあう事件が後を絶たない。電話詐欺でDuplexが悪用されると、大量の被害者が出ることが懸念される。日本語対応のDuplexが登場すると、オレオレ詐欺で悪用される可能性も生まれる。更に、次期大統領選挙でDuplexが悪用されると、再び世論が操作される心配が募る。

Googleの対応策

Googleはこれらの懸念に対して明確な対策は公表していないが、「Transparency」な方針で開発を進めるとしている。Duplexが電話を発信するときは、最初に素性を明らかにし、「自分はDuplexで○○○さんのために電話している」などのコメントが付加されるものと思われる。また、Duplexとの会話を録音する時は、事前に相手の了承を取ることも必要となる。

究極の仮想アシスタント

市場では仮想アシスタントをここまで人間に近づける必要があるのか、議論が始まった。AIが人間ではないことを明らかにするために、機械的な会話に留まるべきだという意見もある。一方、Duplexのデモを見た後で、Google Assistantのいつもの声を聞くと、なぜかモノトーンでフラットに感じる。Duplexのほうに親近感を覚える。AIだと分かっていても、人間臭く感情をこめて語ってくれると、会話がしっくりする。これが究極の仮想アシスタントで、話しぶりに惹かれてしまうが、危険と隣り合わせの状態でもあることも認識しておく必要がある。

FacebookはAIでフェイクニュースを取り締まる、(トランプ大統領誕生の悲劇を繰り返さないために)

May 4th, 2018

米国大統領選挙でFacebookを介してフェイクニュースが拡散し世論が操作された。発信元はロシアで、この結果トランプ氏が当選したとも言われている。Facebookは対策が不備であったことを認め、AIを駆使したフェイクニュース対策を発表した。米国だけでなく欧州やアジアでも、フェイクニュースによる世論操作が顕著になっている。

出典: Facebook

Facebook開発者会議

Facebook CEOのMark Zuckerbergは2018年5月1日、開発者会議F8で選挙対策、フェイクニュース対策、データプライバシー対策など、プラットフォームの安全性を強化するための基本指針を発表した (上の写真)。2016年の米国大統領選挙では対応が不十分で、ロシアによるフェイクニュースが拡散し、これが選挙結果に大きく影響したことを認めた。この教訓を踏まえ、AIやMachine Learning (機械学習) やComputer Vision (画像解析) を活用し、不適切な記事を検知し、拡散する前に取り除く対策を発表した。

既に対策が進んでいる

既に対策が実施されており、フランス大統領選挙、ドイツ連邦議会選挙、米アラバマ州上院補選では、AIツールが使われ数十万の不正アカウント (Fake Account) が削除された。また、米大統領選挙の追跡調査で、不正アカウントを辿るとロシアが関与していることが分かり、これらを閉鎖したと公表した。今年は米国で中間選挙が、この他に、メキシコ、ブラジル、インド、パキスタンなどで重要な選挙が予定されており、Facebookが悪用されないために万全の対策を講じることを宣言した。

ヌードと暴力シーン

FacebookはZuckerbergの講演に続き、不適切な投稿を削除するための具体的な対策を発表した。不適切コンテンツは幅が広く、それを検知する技法も異なる。不適切コンテンツの代表はヌード写真や暴力シーンであるが、これらはComputer Visionを使って検知する。AIの進化でComputer Visionの性能が向上し、これらを高精度で判定する。システムがほぼ全自動で削除するが、判定が難しいものについては専任スタッフが対応する。

ヘイトスピーチ

反対に、AIにとって一番難易度が高いのがヘイトスピーチの検知である。ヘイトスピーチとは、人種や宗教や性的指向などに対して誹謗中傷する行為を指す。攻撃は投稿されるメッセージで行われ、AIはテキストの内容を理解する必要がある。記事は相手を中傷しているのか、それとも、別のことを意図しているのか、コンテクストの理解が必須となる。

検知が難しい理由

例えば、「I’m going to beat you!」というメッセージを受け取ると、これは自分を中傷してるかどうかの判断は文脈による。「あなたを叩く」という意味だと攻撃で、「あなたに勝つよ」という意味だと、お互いに切磋琢磨しようというポジティブな意味にもなる (下の写真、「Look at that pig!」も解釈が難しい)。

出典: Facebook

AI技法を開発中

人間でも判断に迷うことがあるが、AIにとっては最難関の分野で、今の技術では正しい判定はできない。この理由の一つが教育データの不足で、アルゴリズムを教育するためヘイトスピーチの事例を集めることが喫緊の課題となっている。このため、Facebookは別のAIでヘイトスピーチを自動生成する技術を開発しており、二つのAIでヘイトスピーチを検知する技法を目指している。

フェイクニュース

大統領選挙で問題となったフェイクニュースについて、Facebookは重点課題として対策を進めている (下の写真)。AIがこれを直接検知する技術は確立されていないため、フェイクニュースを発信している不正アカウントを突き止め、これらを閉鎖することで情報拡散を防止する。

出典: Facebook

不正アカウントはフェイクニュースだけでなく、スパムや悪質な広告を発信する目的でも使われている。このため、詐欺被害が相次ぎ、Facebookは対策を進めている。不正アカウントは特異な挙動を示し、AIがこのパターンを検知する。例えば、スパムを発信する不正アカウントは、記事を高頻度で投稿するなど特異な挙動を示し、このシグナルをMachine Learningの手法で検知する。

テロリズム

ソーシャルメディアが過激派組織の広告塔として使われ、深刻な社会問題を引き起こしている。FacebookはAIを導入し、イスラム国やアルカイダなどのプロパガンダを特定し、これらを削除している。2018年第一四半期にはイスラム国とアルカイダに関連するコンテンツ190万件を削除し大きな効果をあげている。

過激派組織が投稿するコンテンツはAIが検知する。写真については、AIが既に削除した写真やビデオと比較し、これらを特定する。テキストについては、AIがテロリズムを奨励するテキストを理解する。アルゴリズムが、既に削除されたテキストを学習し、文字ベースのシグナルを把握する。AIがテロリズムに関連するコンテンツを検知するとともに、専任スタッフや専門家がマニュアルでこれらの作業を並行して行う。

AIの限界

Facebookはこれらの対策でAI、Machine Learning、Computer Visionを使っているが、上述の通り、全ての問題を解決できる訳ではない。このため、Facebook利用者のフィードバックが重要な情報源となる。Facebookは不適切なコンテンツがある場合はレポート (下の写真) してほしいと利用者に呼び掛けている。同時に、Facebookは専任スタッフを2万人に増員し、手作業による不適切コンテンツの摘発を進める。

出典: Facebook

プラットフォームの責任

先の大統領選挙では、Zuckerbergはオバマ政権からFacebookを使った情報操作が行われているとの警告を受けたが、その対策は講じなかった。この理由は、Facebookはニュース配信社ではなく“掲示板”であり、恣意的に特定記事を削除することは妥当でないとの解釈による。しかし、Cambridge Analyticaの個人データ流出問題を受け、Facebookが社会に与えた影響は甚大であることが明らかになり、Zuckerbergは会社の方針を大きく転換した。掲示板であるが不適切な記事は掲載させないことがプラットフォームの責務であるとの指針のもと、AIツールを駆使して再び世論が操作されることを阻止している。

中国政府は国策として顔認識技術を育成、 監視カメラに搭載しAIが市民の行動に目を光らせる

May 2nd, 2018

中国政府はAI First Countryの政策を掲げ、2030年までにAIで世界をリードするロードマップを公表している。いま、監視カメラにAIを適用し、市民の行動を監視するプラットフォームの開発を進めている。このプロジェクトは「Sharp Eyes」と呼ばれ、国内に設置されている2000万台の監視カメラの映像を集約し、これをAIで解析する。一般市民が対象となり、プライバシー問題が懸念されている。同時に、膨大な量の教育データが集まり、中国が顔認識技術で世界をリードする。

出典: SenseTime

Sharp Eyesとは

Sharp Eyesは国全体の監視システムで、政府の監視カメラと民間の監視カメラを使い、撮影される映像を統合しAIで解析する。政府の監視カメラは、道路、ショッピングモール、駅、空港などに設置されている (上の写真、人の動きを追跡する事例)。民間の監視カメラは、アパートやオフィスビルなどに設置されているが、この映像も監視プラットフォームに統合される。

治安維持と市民監視

集約した大量のビデオ映像をAIや顔認識技術で解析し、多くの情報を抽出する。例えば、容疑者を追跡し、不審な挙動を見つけ出すなど、治安維持に活用される。犯罪者だけでなく、一般市民も対象となる。個人の行動を把握し、誰と接触したかを勘案し、個人の信用度 (Credit Score) を算出する。個人の信用度とは、中国政府や関係機関が特定個人を信用できるかどうかの指標で、スコアが低いと、旅行のためのチケットを購入できないなど、日常生活の行動が制限される。

AIベンチャー企業

Sharp Eyesのシステムを支えているのが中国のAIベンチャー企業である。SenseTimeは北京に拠点を置き、Deep Learningの手法で顔認識やオブジェクト認識技術を開発している。SenseTimeはAlibabaなどから累計で10億ドルの出資を受け、企業価値は30億ドルと言われ、世界最大規模のベンチャー企業となっている。

世界トップの顔認識技術

SenseTimeの顔認識技術は世界最高レベルと評価されている。この技術は「SenseFace」と呼ばれ、監視カメラの映像をDeep Learningの手法で解析する。SenseFaceはビデオに写っている数多くの人物の中から犯罪者を特定する機能を持っている。人通りの多い市街地や空港や駅などに設置された監視カメラの映像を読み込み、写っている顔を犯罪者データベースと照合し、容疑者を特定する。

犯罪者を特定する

例えば、SenseFaceはエスカレーターに乗っている人物の顔を把握し、それらを犯罪者データベースに登録されている顔と比較する (下の写真)。ある人物 (中央側) が、データベースに登録されている人物 (中央右側) と同一人物である可能性が91.0%などと判定する。この情報は近辺の警察官に送信され、容疑者のもとに駆け付ける手順となる。これはコンセプトデモであるが、実際にシステムを構築する際は、映像をクラウドに送信し判定結果を受け取るまでの遅延時間を如何に短縮するかがカギになる。SenseFaceは同時に1000台の監視カメラの映像を解析する能力があるとしている。

出典: SenseTime

歩行者やクルマの流れを監視

交差点では歩行者やクルマの流れを監視する。この技術は「SenseVideo」と呼ばれ、Deep Learningを使ったビデオ解析システムで、映像の中の歩行者、自動車、その他の乗り物を検知し、その属性を判定する。込み合う交差点に設置されたカメラの映像を解析し、オブジェクトを特定し、その属性を判定する (下の写真)。人物では性別、年齢、服装など、10項目にわたり判定する。クルマではナンバープレート、車種、色などを判定する。SenseVideoは検索機能もあり、犯罪が発生すると録画ビデオで不審者を探し出す。

出典: SenseTime

SenseTimeの実力

SenseTimeが開発している顔認識技術は世界のトップレベルである。顔を認識するAI技法は数多く開発されているが、SenseTimeの最新技法は「DeepID3」と呼ばれ、Chinese University of Hong Kong (香港中文大学) などと共同で開発した。基礎技術は論文「DeepID3: Face Recognition with Very Deep Neural Networks」で公開されている。

DeepID3とは

DeepID3は最新のConvolutional Neural Networksを実装したシステムで、顔から数多くの特徴量を抽出し、顔認識プロセスを実行する。DeepID3は、顔認証 (Verification、1:1比較、二つの顔が同じかどうかの判定) と顔認識 (Identification、1:N比較、データベースで同一の顔を探す処理) を一つのアルゴリズムで実現している。DeepID3の顔認証精度は99.53%で (下の写真)、人間の能力 (97.53%) を大きく上回る。

出典: Yi Sun et al.

中国政府の戦略

中国政府はSharp Eyesを治安維持のために使うが、犯罪者だけでなく一般市民の行動も監視される。国民のプライバシー侵害が懸念されるが、中国では大きな反対運動は起こっていない。このため、膨大な数の顔写真データが蓄積され、AIのアルゴリズム教育に大きく寄与している。中国政府はSharp Eyesのもう一つの目的を、AIを使ったコンピュータビジョン技術の育成に置いている。監視カメラの映像を解析するAIの技術開発を支援し、世界トップを目指している。

米国大統領選挙はフェイクニュースで混乱、今年の中間選挙はAIを悪用したフェイクビデオが世論を操作する

April 20th, 2018

2016年の米国大統領選挙はFacebookを通じてフェイクニュースが拡散し社会が混乱した。この背後にはロシアの情報操作があり、フェイクニュースがトランプ大統領誕生の理由とまで言われる。2018年は米国中間選挙の年で、今年はAIを悪用したフェイクビデオが世論を操作すると懸念されている。

出典: BuzzFeed

フェイクビデオとは

フェイクビデオとは悪意を持って改造されたビデオで、AIが現実に存在しない映像をリアルに描き出す。実際に、オバマ前大統領が星条旗の前で演説しているフェイクビデオが登場した。オバマ前大統領は「誰でも好きなことが言える時代となった」と述べ、演説が始まる (上の写真、左側)。しかし、途中で「トランプ大統領は完全に無能な輩 (Dipshit)」と語り、自分の耳を疑った。オバマ前大統領のショッキングで下品な発言に驚いていると、映画監督で俳優であるJordan Peeleが登場した (上の写真、右側)。

意のままにスピーチさせる技法

実は、このビデオは改造されたもので、Peeleが喋っている通りにオバマ前大統領が喋っていることが分かった。ビデオ映像はリアルで、言葉通りにオバマ前大統領の唇が動いており、Peeleが登場するまでフェイクビデオとは分からなかった。ビデオの声はPeeleのものであるが、同氏はオバマ大統領の物まねが得意で、声でも見分けがつかなかった。この事例はオバマ前大統領のビデオを改造し、意のままにスピーチさせる技法で、重大な危険性を感じさせるビデオである。これはニュースサイトBuzzFeedとJordan Peeleが共同で制作したもので、フェイクビデオの危険性を啓もうする目的で作成された。

映画スターの顔を置き換える

フェイクビデオが社会問題になっているが、その技法は「DeepFake」と呼ばれている。DeepFakeはAIを使い、写真やビデオの中に登場する人物の顔を、別の顔と置き換える技法。置き換えられた顔はリアルで、偽造されたビデオだとは気が付かない。映画GoldfingerのSean Conneryの顔を人気俳優Nicolas Cageで置き換えたビデオが公開されている (下の写真、上段)。映画のシーン (下段左側) で、顔の部分だけをNicolas Cage (下段右側) で置き換えたもの。短いビデオとなっており、たばこにライターで火をつける一連の動きを見ることができる。

出典: Derpfakes (上段)、YouTube Movies (下段左)、Wikipedia (下段右)

トランプ大統領の顔を置き換える

トランプ大統領やプーチン大統領など、大物政治家がフェイクビデオの対象となっている。俳優Alec Baldwinはトランプ大統領の物まねで人気を得て、娯楽番組の政治風刺コメディで活躍している。トランプ大統領に扮するBaldwin (下の写真、左側) の顔を、DeepFakeの技法で、本物のトランプ大統領の顔と置き換えたビデオ (下の写真、右側) が話題となっている。ここでも、Baldwinが喋るとおりに、偽造されたトランプ大統領が喋る構成になっている。偽物の大統領は本物と見分けがつかず、フェイクビデオが悪用されるとその影響は甚大だ。

出典: Derpfakes

映画スターが被害にあう

DeepFakeが社会問題となり、その危険性が認識されたのは、あるポルノ映画が切っ掛けであった。ポルノ女優の顔を映画スターの顔で置き換えたフェイクビデオがネットに掲載され、社会に衝撃を与えた。映画Wonder Womanを演じたイスラエルの女優Gal Gadotの顔がポルノビデオの中で使われた。Gadotがポルノ映画に登場したと思われ、顔を置き換えることの危険性がはっきりと認識された。この他に、Emma Watson、Katy Perry、Taylor Swiftなどが被害にあった。

DeepFakeとは

DeepFakeはAIを組み込んだソフトウェアで、写真やビデオの中に登場する人物の顔を、別の顔と置き換える機能を持つ。基礎技術について論文が発表され、その成果が公開されている (下の写真)。

出典: Iryna Korshunova et al.

これはオリジナルの写真の顔 (最上段) を、Nicolas Cageの顔 (下から二段目) と Taylor Swiftの顔 (最下段) で置き換えたもの。その結果がそれぞれ、二段目と三段目に示されている。左端は女優Jennifer Anistonの顔を、Nicolas CageとTaylor Swiftで置き換えたもの。拡大して見ると、Anistonの眼、鼻、唇、眉毛、顔のしわなどが、CageとSwiftのものと置き換わっている。一方、顔の向き、視線、唇の表情、髪は元の顔を踏襲している。つまり、顔の表情はオリジナルのままで、各パーツが置き換わっていることが分かる。

Deep Learningの手法

DeepFakeはDeep Learningの手法で顔を学び、両者の顔を置き換える技法を習得する。具体的には、Convolutional Neural Networksが、元の顔と置き換える顔の特徴を学び、それらをスワップする。教育のために両者の顔写真を大量に入力し、アルゴリズムは顔と特徴と置き換えるプロセスを学習する (下の写真)。アプリはCUDA (Nvidiaの開発環境) で稼働し、プロセッサとしてNvidia GPUが必要となる。大規模な計算量が発生するが、パソコンにNvidiaグラフィックカードを搭載した構成で実行できる。ハリウッドの特撮を誰でも簡単に行える時代となった。

出典: Derpfakes

DeepFake制作者

顔を置き換えるアルゴリズムは学術テーマとして大学などで研究が進んでいる。DeepFakeは研究成果をソフトウェアの形で公開したもので、それが悪用され社会問題となってる。具体的には、ソーシャルニュースRedditのユーザ「derpfakes」により開発され、その成果 (上述のポルノ映画フェイクビデオ) がRedditに公開され、社会を驚かせた。その後、derpfakesはこのソフトウェアを公開し、誰でも利用できるようになった。更に、Redditの別のユーザ「fakeapp」が使いやすいツールを開発しGithubに公開したため、普及が一気に進んだ。

DeepFakeの問題点

DeepFakeを悪用すると、実物と見分けのつかないフェイクビデオを簡単に制作できる。トランプ大統領が北朝鮮を軍事攻撃したと発表するフェイクビデオを作ることができ、社会に与える影響は甚大である。既に、編集ツールAdobe Photoshopを使って写真やビデオが改ざんされている。DeepFakeの危険性はAIで、素人でも手軽にフェイクビデオを作れることだ。Photoshopでは専門家が手作業でビデオを改ざんするが、DeepFakeはこのプロセスを自動化し、フェイクビデオの危険性が現実のものとなった。

フェイクビデオ対策は難しい

大統領選挙ではFacebookを通してフェイクニュースが拡散したが、今年の中間選挙ではフェイクビデオが使われると懸念されている。これに対して、FacebookはAIでヘイトスピーチを検知すると表明したが、技術が完成するまでに5-10年かかる。他の企業もフェイクビデオを検知する技術の開発には数年を要するとみており、中間選挙では有効な手立てがないのが実情である。

自ら身を守る

そのため有権者や市民は自ら身を守ることが必要となる。ビデオを見るときは、全面的に信用するのではなく、疑ってみることがポイントとなる。直感的におかしいと感じる時は、別のソースで情報を確認するなど、自衛手段が必要となる。フェイクニュースの轍を踏まないように少し賢くなることが求められている。