Googleが会話型AIを投入!スマホから人工知能へ大転換

May 21st, 2016

今年のGoogleは大きく変わった。Googleはシリコンバレーで開催した開発者会議「Google I/O」で仮想アシスタント機能を搭載した新製品を相次いで発表した。仮想アシスタントとは会話型のAIで、コンシェルジュのように対話しながら生活を手助けする。開発の主軸がAndroidから対話型AIに移った。Alphabet中核企業としてのGoogleの新戦略が見えてきた。

vwb_633_ai_google_assistant (p01)

仮想アシスタント製品群

Google最高経営責任者Sundar Pichaiは基調講演で新製品を相次いで発表した (上の写真)。この模様はYouTubeでストリーミングされた。「Google Assistant」はAIベースの仮想アシスタント機能で、対話を通して情報を検索し、タスクを完遂する。「Google Home」はAIスピーカーで、話しかけて音楽を再生し、情報を検索する。Amazonのヒット商品「Amazon Echo」からヒントを得て開発した。「Google Allo」はメッセージングアプリで、ここでGoogle Assistantと対話してタスクを実行する。これはFacebookの仮想アシスタント「M」の対抗製品となる。今年のGoogle新製品は他社のアイディアを踏襲して開発されたことが分かる。

Google Assistantはコンシェルジュ

Assistantは共通技術という位置づけで、HomeとAlloの背後でサービスを支える。Assistantは利用者のコンテクストを把握し、会話を通して実社会でタスクをこなす。この背後には10年以上にわたる、Googleの自然言語解析技術の蓄積がある。Assistantは、Googleコア技術である音声検索を活用した次世代サービスで、人間のアシスタントのように振る舞い日々の生活を助ける。下の写真がAssistantのコンセプトで、ホテルのコンシェルジュのように、お勧めの映画を示し、そのチケットを手配する。

「今夜上映中の映画は?」と質問すると、Assistantは近所の映画館で上映している映画を示す。これに対して「子供を連れていくのだが」と状況を説明すると、Assistantは「家族向けの映画があります」として、家族で楽しめる映画を表示する (下の写真左側)。更に、映画内容や人数について会話を続け、Assistantは「ジャングルブックを四人分手配しました」と述べ、チケットを送信する (下の写真右側)。チケットのQRコードを示して映画館に入館する。このようにAssistantは対話しながら日々のタスクをこなしていく。人間のようにスムーズに対話が進むのは、Assistantが利用者の嗜好や場所など、コンテクストを把握しているため。大量の個人情報を保有しているGoogleにとって、この点が最大のアドバンテージとなる。

vwb_633_ai_google_assistant (p02)

Google HomeはAIスピーカー

Assistantをスピーカーに適用したものがGoogle Homeとなる。Homeはキーボードなどの入力装置はなく、言葉で操作する。Homeは円柱形のデバイスでテーブルに置いて使う (下の写真)。デバイス上部には四色のLEDライトが設置され、利用者の音声に反応して点滅する。点灯の仕方でHomeが意思を表示する。Homeの機能は三つあり、音楽やビデオ再生、家事などのタスクの実行、及び、検索機能となる。

HomeはWiFi搭載スピーカーでクラウドに格納しているコンテンツを再生する。これはヒット商品「Chromecast」のコンセプトを踏襲したもので、Homeを音声で操作し、クラウド上の音楽やアルバムを再生する。Homeをキッチン置き、朝起きた時に「Ok Google、play the morning play list」と指示すると、朝向けの音楽を再生する。Homeは常にオンの状態で周囲の声を聞いている。「Ok Google」という言葉を聞くと、その次に続く言葉に従って機能する。

vwb_633_ai_google_assistant (p03)

今日の予定を確認するためには「Ok Google, I’m listening」と語ると、Homeは「ポートランド行きのフライトは30分遅れです」などと報告する。Homeは家族のスケジュールを把握しているだけでなく、家族の声も識別できる。そこで、Homeに夕食の予約を8時に変更するように指示し、「Text to Louise, dinner is moved to 8」と語るだけで友人にメッセージを送信できる。Homeが優秀な秘書のように振る舞う。

vwb_633_ai_google_assistant (p04)

Google Homeがスマートホームのハブ

Homeは家庭の中のコントロールセンターとなり、音声で電灯やサーモスタット「Nest」を操作できる。朝起きてこない子供を起こすため「Ok Google, turn on the lights in Kevin’s room」と指示すると、Kevinの部屋の電灯を点けることができる。Homeは検索エンジンとして機能する。Kevinが「Ok Google, which star system is the closest?」と質問すると、Homeはそれに対し地球に一番近い星雲は「… Alpha Centauri」と答え、その結果をリビングルームのテレビに表示する (上の写真)。Googleは17年に及ぶ検索技術開発の蓄積があり、ここが他社に比べ大きな優位点となる。将来はパートナー企業と提携し、Homeでレストランを予約し商品を購入することを計画している。

Google AlloはAIメッセージング

Googleはモバイルと機械学習を組み合わせて新世代のコミュニケーションアプリを提供する。これがAlloでAIメッセージングとして自ら学習する能力を持っている。Alloは表現力が豊かで、人間のように振る舞い、プライバシー保護にも配慮している。下の写真がAlloの画面でテキストや写真を送受信し友人と会話する。

vwb_633_ai_google_assistant (p05)

ここまでは通常のメッセージングアプリだが、Alloは返信テキストを自動生成する機能「Smart Reply」を備えている。Smart Replyは既にメール「Inbox」で導入され実績を積んでいる。Smart Replyは受信したテキストを読み、その意味を理解して、返信文を作成する。しかし、AlloのSmart Replyは写真に対しても使える。犬の写真を受信すると、Alloは「Cute dog!」、「Aww!」、「Nice bernese mountain dog」と返信文を生成する (上の写真左側、最下部のボタン)。Alloは犬だけでなく、その種別を判別して返信文を生成する。犬の種別を判定するには高度な技術を要し、この背後にはGoogleのニューラルネットワークが使われている。Alloはコンテント (犬であること) とコンテクスト (可愛いなど) を把握する。また、Alloは学習を重ねることで利用者の表現方法を汲んだ返信文を作成する。つまり、返信文はあたかも利用者個人が表す表現となる。倫理的な問題はあるが、Alloが本人になり代わり代筆する。

会話ボットと話してレストラン予約

Alloの背後ではAssistantが人間のコンシェルジュのように振る舞い、対話形式でアドバイスする。Joyが「Let’s go for Italian food」とメッセージを送ると、Assistantはコンテキスト(場所やレストラン) を把握して近所のイタリア料理店を紹介する。これはKnowledge Graphの機能を使っており、利用者のニーズにズバリ答える。

Alloが推奨するレストランをみて、JoyとAmitがCucina Ventiという店で7時に食事することにすると、Alloはその店の情報を掲示する (上の写真右側)。Amitは「Make a reservation」ボタンをタップし、Assistantと会話しながらレストランを予約する。Assistantは時間や人数を確認しOpenTableで予約する。Assistantがコンシェルジュとして振る舞い、会話を通してタスクを完遂する。

vwb_633_ai_google_assistant (p06)

Assistantに直接問いかけることもできる。AmitがAssistantに対して「Funny cat pics」と入力すると、Assistantは猫のおかしな写真を表示する (上の写真左側)。これらの写真はGoogle Image Searchの結果が使われている。Assistantとの会話でいきなり「Did my team win」と質問すると、AssistantはAmitが贔屓にしているチームがReal Madridであることを理解しており、その試合結果を表示する。また「Next game」と尋ねると、Real Madridの次の試合予定を表示する (上の写真右側)。

また、Alloはプライバシー保護やセキュリティにも配慮している。匿名モード「Incognito Mode」を選択すると、Alloの全てのメッセージは暗号化される。これはChromeブラウザーに実装されている技術をAlloに適用したもの。AlloはAssistantを具現化した最初のサービスで、Googleの戦略製品として位置づけられる。これから全力でFacebook Mを追うことになる。

他社製品のコピーなのか

基調講演で登場した新製品はGoogle独自のアイディアではなく、ヒットしている他社製品にヒントを得ている。Homeは人気商品Amazon Echoに倣ったもので、Pichaiはこれを認めている。Alloは人気急上昇中のFacebook Messengerを追随する。Assistantは野心的なFacebook Mや進化したMicrosoft CortanaをGoogle流に焼き直したものである。今年の基調講演はGoogleが他社を追随するモードで進んだ。Googleからは世界を驚かせる斬新な製品は登場しなかった。

vwb_633_ai_google_assistant (p07)

しかし、Googleが発表した”コピー製品”はとても魅力的であった。筆者の印象だけでなく、会場の聴衆の反応から、新製品は好意的に受け止められたことが分かる。その理由は、これら新商品がオリジナル商品を上回るためだ。Homeでは音声認識技術のレベルの高さが、また、Alloでは画像認識や対話機能が際立った。Assistantは人間の手助けを必要とせず、AIが全てのタスクをこなす。Facebook MはAIと人間が共同してタスクをこなし、まだAIが独り立ちできない。更に、他社を凌駕する高度な検索技術がGoogle新商品を支えている (上の写真、Knowledge Graphの説明)。Googleが得意とするAI技術が随所に生かされており、”コピー商品”であってもオリジナル商品より魅力を感じる。

コーポレートアイデンティティ

特筆すべきはGoogleのコーポレートアイデンティティが大きく変わったことだ。GoogleがAlphabetのもとで再編され、”Pichaiカンパニー”としてその独自色がでてきた。Alphabet子会社との役割分担もはっきりしてきた。Googleはハイテクを駆使して市場を驚かす製品を開発するのではなく、家族で楽しめる優しい製品に比重を移している。オタクな会社からヒューマンタッチの会社にイメージチェンジしている。Googleの使命は情報検索で、対話型AIをユーザーインターフェイスとし、だれでも使える製品を開発する。一方、Alphabet子会社は自動運転車やヒトの寿命を延ばす高度な研究に力を注ぐ。Alphabet子会社がギークなDNAを引き継いでいる。

PichaiはAIに会社の将来をかける

Googleが会話型AIを相次いで投入したことが示しているように、PichaiはGoogleの将来をAIに託している。PichaiはDeepMindのAI技術に感銘を受けたと述べ、これがAIに傾倒する切っ掛けとなった。Pichaiは囲碁ソフト「AlphaGo」が囲碁チャンピオンを破った事例を紹介し、AIが気候変動やがん研究で重要な役割を果たすとの見解を示した。世界を変えるAI技術の開発はDeepMindの役割となる。

Googleは別のアングルからAIを開発する。そのキーワードが「Ambient (背景)」でGoogleはAIを背景技術と位置づける。AIがサービスを支える基盤となるが、あくまで黒子に徹し利用者の眼にはとまらない。具体的な実装方式は会話型AIで、利用者は自然なコミュニケーションで情報にアクセスしタスクをこなす。また、利用者との接点はスマホだけでなく、家電やクルマやウエアラブルやデスクトップなど多岐にわたるが、そのインターフェイスをAIが司る。異なるデバイスの標準インターフェイスが会話型AIで、開発の重点がAIに移った。GoogleがモバイルからAIにピボットした形となった。

ビジネスモデルが変わる

Facebook、Amazon、Microsoftに次いでGoogleが会話型AIの開発に乗り出したことで、米国IT市場は大きな転機を迎えた。今問われているのがビジネスモデルだ。仮想アシスタントを通して情報検索をするが、新しい広告モデルが必要となる。メッセージングでチケットや商品を購入する方式が始まり、会話型コマース「Conversational Commerce」が登場する。ウェブサイトで買い物をするE-CommerceからこのC-Commerceにパラダイムシフトが始まる。会話型AIで先行している日本であるが、Googleを中心とするAI開発の流れは急で、日本市場への影響は必至である。

GoogleがDeep Reinforcement Learningに賭ける理由、人間のように振る舞うロボットを開発するため

May 16th, 2016

GoogleはDeepMindを買収してDeep Reinforcement Learning (深層強化学習) という手法を獲得した。この技法はビデオゲームで人間を遥かに上回る実力を示し、また、囲碁の世界では世界チャンピオンを破った。なぜGoogleはこの技法に会社の将来を託すのか、Atariビデオゲームをプレーするアルゴリズムとその技法を振り返り、Deep Reinforcement Learningの革新性を考察する。

vwb_632_ai_google_reinforcement_learning_atari (p01)

ビデオゲームを超人的技量でプレー

DeepMind創設者のDemis Hassabisらが2013年12月に発表した論文「Playing Atari with Deep Reinforcement Learning」でこの技法が世界にデビューした。論文でコンピュータがビデオゲームを見るだけでプレーの仕方を学習する手法が示された。人間がゲームのルールや操作方法を教える必要はなく、コンピュータが試行錯誤でプレー方法を習得する。そして人間のエキスパートを上回る得点をたたき出す。

ブロック崩し (Breakout、上の写真) は、バーを操作し、ボールを打ち返し、ブロックを崩していくゲームで、1970年代に登場し日本だけでなく世界的な人気ゲームとなった。アルゴリズムは最初はゆっくりとプレーを学ぶ。一時間で200回程度のゲームをこなすと、34%の割合でボールを打ち返し、人間の初心者程度の実力となる。二時間後には、300回のゲームをこなし、既に人間の技量を上回る。四時間後には、ブロックに通路を開け、裏側からブロックを崩すという大技を自ら学習する。アルゴリズムは四時間でゲームをマスターする。アルゴリズムはDeep Reinforcement Learningという手法を使い、恐ろしいほど高速で学習する能力を示した。

Reinforcement Learningのモデル

Reinforcement LearningとはMachine Learningの一つで、意思決定のプロセスで使われる (下の写真がその概念図)。AgentがEnvironmentの中で、あるActionを起こす。AgentはActionに伴い更新されたStateを把握し、Rewardを受け取る。Reinforcement Learningのアルゴリズムは、試行錯誤を通じRewardが最大になるPolicyを求める。Policyは一つとは限らず、アルゴリズムは貪欲に異なるPolicyを探求する。

vwb_632_ai_google_reinforcement_learning_atari (p02)

この概念をブロック崩しゲームで例えると次のようになる。Agentはプレーヤーで、Environmentはブロック崩しゲームで、Stateはゲームの状態 (バーとボールの位置、ブロックの有無) となる。 Actionはバーを左右に動かす動作で、Rewardは得点で、どういう規則でActionを取るかはPolicyと呼ばれる。プレーヤー (Agent) はゲーム画面 (State) でバーを右に動かし (Action)、これによりブロックを崩し (次のState)、得点 (Reward) を得る。プレーヤーはこのサイクルを繰り返しゲームを進行する。

アルゴリズムが解くべき課題

アルゴリズムはゲームを繰り返しプレーして、得点を多く取れるような操作を学習する。基本指針はシンプルであるが、実際には難しい問題を抱えている。バーを操作してボールを打ち返し得点するが、バーの動きと得点の関係が時間的にずれている。今の操作が得点につながるまで1000ステップかかることもある。これを「credit assignment problem」と呼び、直前の操作と時間的に離れた得点の関係を算出する必要がある。

もう一つの課題はどういう戦略で進めるのが高得点に繋がるかを求めること。これは「explore-exploit dilemma」と呼ばれ、今の戦略を続けるのか、それとも、新しい戦略に挑戦するのか、作戦を決める必要がある。今のやり方である程度の得点を稼げるが、更に高得点を目指して新しい戦略を試すのかの判断を求められる。

問題の解決方法

この問題を解くために、ビデオゲーム (Environment) を「Markov Decision Process」として定義するとうまくいく。Markov Decision Processとは、次の状態は現在の状態だけに依存するという環境を処理するプロセスを指す。プロセスの目的は、ある時点において将来得られる得点を最大にするよう設定することで、これを表現する関数をQ-Functionとして定義する。Q-FunctionはQ(s, a) と記述され、時間「t」の時から、State「s」でAction「a」を取り続けるとRewardが最大になる関数を示す。この関数を探すことが命題となる。

Hassabisのアイディア

ブロック崩しでStateとは、上述の通りゲームの状態で、バーの位置、ボールの位置と進行方向、ブロックの有無となる。Q-Function (得点を推定する関数) の中にStateの情報を取り込んで得点を計算し、その得点が最大になるAction (バー操作) を取る。しかし、この方式はブロック崩しゲームには使えるが、スペースインベーダーには使えないという問題が発生する。スペースインベーダーにはブロックやバーはなく、宇宙人が攻めてきて、それを大砲で打ち落とす。

これに対してHassabisのアイディアは、解法を一般化するために、ゲーム画面のピクセルをStateとして定義。実際には、ボールの速度が分からないため、連続する画面を使う。ゲーム画面のピクセルを入力するのであれば、プレーの仕方が異なるスペースインベーダーにも使える。このアイディアがゲーム解法のブレークスルーとなり、アルゴリズムは異なるビデオゲームで使うことができる。このポイントが最大の成果として評価されている。

vwb_632_ai_google_reinforcement_learning_atari (p03)

Reinforcement Learningとニューラルネットワークの合体

このアイディアでQ-Functionを解くためにはもう一つ山を越えなくてはならない。Hassabisは、ビデオゲーム画面を84×84のサイズに縮小し、256段階のグレイで表示した。連続する四画面をStateとしてQ-Functionに入力した。しかし、Stateの数は256の84×84x4乗(10の67970乗)となり、Q-Functionで場合の数が膨大となり計算できない。ここでHassabisは次のアイディアとして、入力画面をConvolutional Neural Networkで処理し、それをQ-Functionの値 (Q-Value) とした。Convolutional Neural Networkを使うことで、ゲーム画面を圧縮して情報量を大幅に小さくできる。

上の写真が概念図を示しており、三階層のConvolutional Neural Networkなどで構成される。このネットワークはDeep Q-Network (DQN) と呼ばれ、アルゴリズムを指す言葉として使われる。ゲームスクリーン (左端の四角) から、DQNに四画面を入力すると、次に取るべきActionを出力する (右端の矢印で示された箱)。DQNの出力は数値で、バーを動かす方向とボタンを押す・押さないの操作法を算出する。

ネットワークの教育方法

生成されたDQNは最初はボールを打ち返すことができず、教育する必要がある。具体的には、前述のcredit assignment problemを解くことを意味する。DQNはゲームの時間をさかのぼり、どのActionがRewardに関係するのか意思決定のポイントを特定する。このプロセスではDQNが自らゲームをプレーして操作方法を学んでいく。人間のように試行錯誤しながら、DQNがプレーのコツを掴んでいく。

Neural Networkを組み込んだQ-Functionで将来のRewardを予測すると、関数が収束しなかったり振動して解を得られない。このため、「experience replay」という技法を用いる。ゲームプレーをメモリーに読み込んでおき、DQNを教育するとき、ここに記憶されたサンプルをランダムに取り出して実行する。人間のようにゲームの流れを振り返り、何処で間違えたのかなどを把握する。

DQNはプレー方法を学習し高得点を得る方向に収束していく。つまり、DQNはコツがわかるとその道を究める。しかし、DQNはこのレベルの得点で満足するのか、それとも、リスクを冒し新しい方式を試すのかの選択を迫られる。これが、exploration-exploitation dilemmaで、冒険する度合いを「ε」という変数 (greedy explorationと呼ばれる) で定義する。εは貪欲に新しい手を探る係数で、数字が大きくなるほど危険を冒して新しい手を探る。

DQNは人間の技能を大きく上回る

Hassabisは49の異なるビデオゲームでDQNをベンチマークしたが、そのうち29のゲームで人間以上の成績をマークした。ブロック崩しゲームでは人間のエキスパートの13倍超の成績を収めた。アーキテクチャの観点からは、DQNは同じアルゴリズム、同じネットワーク、及び同じパラメーターで異なるゲーム49をプレーできることが評価される。DQNは高次元のセンサーデータと操作方法を結び付けて、インテリジェントなAgentが高度なタスクを実行することを示したことになる。

GoogleがDeepMindを買収した理由

強化学習の技法「Q-Learning」はロボットや機器制御で幅広く使われている。Sonyの子犬型ペットロボット「AIBO」をQ-Learningで歩行制御する事例などが有名である。AIBOは、最初は速く歩けないが、Q-Learningで教育するにつれ歩き方を学習し、速く進めるようになる。

HassabisはこのQ-LearningをConvolutional Neural Networkと組み合わせ、複雑な環境に適用したことが評価される。具体的にはゲーム画面をConvolutional Neural Networkに入力することで、特定のゲームだけでなく、DQNが汎用的にゲームをプレーできることが示された。この点が大きなブレークスルーとなり、Deep Reinforcement Learningが世界の注目を集めることとなった。GoogleはDQNが自ら学び超人的な技量を獲得できる点に着眼し、DeepMindを6億ドルで買収した。

Googleの狙いはロボット開発

HassabisはDeep Reinforcement Learningをビデオゲームだけでなく幅広く適用することを目指している。その後公開された論文によると、DeepMindはReinforcement Learningを開発するために、三次元の迷路「Labyrinth」を使っている。これはオープンソースのゲーム「Quake」を利用したもので、DeepMindの研究者はこの環境で最新技術の研究を進めている。

vwb_632_ai_google_reinforcement_learning_atari (p04)

研究テーマの一つが試行錯誤しながら迷路を歩くゲーム (上の写真)。仮想の人物 (Agent) が迷路の中に置かれたリンゴを拾い、魔法のドア (Portal) を抜けるとポイントを得る。60秒間でどれだけポイントを得るかを競う。魔法のドアを抜けると、また、ゲームオーバーになると新しい迷路が登場する。Agentは人間のように、目で見た情報から最適なアクションを取る。ブロック崩しゲームと同じ仕組みであるが、ここでは遥かに高度な技術が求められる。Agentは視覚からのインプットを元に、数多くの異なる迷路でプレーする。このためにAgentは特定の迷路向けに作戦を立てるのではなく、全ての迷路で通用する包括的な戦略の策定が求められる。将来は、迷路にパネルが掲示され、Agentはそこに書かれている言葉が何を意味しているのかを三次元空間でオブジェクトと接しながら学ぶ。Hassabisはこの技術を会話ボット (Chatbot) に応用することを明らかにしている。最終的には、Agentが仮想空間でインテリジェンスを身に付けることを目的としている。

DeepMindはLabyrinthで開発したAgentを実社会で試験する。Hassabisは開発したアルゴリズムでロボットを制御することが次の重要なマイルストーンであると述べている。Agentがどんどん変わる迷路で視覚を頼りに最適な判断を下すメカニズムは、ロボットが街の中を歩き、どんどん変わる周囲の環境に対応するアルゴリズムに応用できる。Hassabisは世界で優秀なロボットが開発されているが、ソフトウェアが周りの世界を理解できないため、十分に活用されていないとし、次の目標はインテリジェントなロボット開発であると述べている。更に、HassabisはDeepMindで開発したソフトウェアを自動運転車で使うことも表明しており、ロボティックスとモビリティー技術が一気に進む可能性を秘めている。

Googleの人工知能アポロ計画、Deep Reinforcement Learningでヒトの脳に近づく

May 11th, 2016

Google DeepMindはAlphaGoで囲碁の世界チャンピオンを破った (下の写真)。これに先立ちDeepMindは、Atariビデオゲームで人間を遥かに上回る実力を示した。これらシステムの背後ではDeep Reinforcement Learning (深層強化学習) という手法が使われている。この手法は人間が意思決定するメカニズムをアルゴリズムで再現したもので、本当の意味でのAIと言える。いまAI研究の主流はDeep Reinforcement Learningに向かっている。AlphaGoの成果を携えどこに向かっているのか、Googleの次の手を探る。

vwb_631_ai_google_reinforcement_learning (p01)

ビデオゲームを見るだけでプレーの仕方を学習

Deep Reinforcement Learningが脚光を浴びたきっかけは、DeepMind創設者のDemis Hassabisらが2013年12月に発表した論文「Playing Atari with Deep Reinforcement Learning」である。この論文でコンピュータがビデオゲームを見るだけでプレーの仕方を学習する手法が示された。Atari 2600ビデオゲームが使われ、ゲーム画面ピクセルと得点を入力すると、コンピュータが自らプレー方法を学習する。人間がゲームのルールや操作方法を教える必要はなく、コンピュータが試行錯誤でプレー方法を習得する。そして人間のエキスパートを上回る得点をたたき出す。

コンピュータは特定のゲームだけでなく、29のゲームについて学び、そのほとんどで人間以上の得点をマークした。システムは特定のゲームをプレーするようプログラムされているのではなく、どのゲームでもプレーできる。つまり、ゲームごとにアーキテクチャーやアルゴリズムを変更するのではなく、システムが汎用的に学習できる能力が示されたわけだ。システムが広範囲のゲームを学ぶ能力に世界が驚いた。これがきっかけとなり、2014年1月、GoogleはDeepMindを買収した。

vwb_631_ai_google_reinforcement_learning (p02)

Deep Reinforcement Learningという技法

このシステムはReinforcement Learning (強化学習) とConvolutional Neural Networkを組み合わせた構成で、Deep Reinforcement Learningと呼ばれている。Convolutional Neural Networkは写真に写っているオブジェクトを判定するなど、コンピュータの眼として機能する。ここでは画面のイメージを把握するために使われる。それをReinforcement Learningが読み込み、次のアクションを決める。Reinforcement Learningは簡単なモデルで使われてきたが、それをニューラルネットワークを利用して複雑なモデルに適用した点が大きな進化となる。

上の写真はその実例で、アルゴリズムがBreakout (ブロック崩し) というゲームを実行しているところで、システムがプレー方法を学ぶ仕組みを示している。システムはゲーム画面 (上段) を読み込み、その画面が持つ価値「V」 (得点につながるほど値が大きい) を計算する (下段のグラフ)。①と②ではVは17で、アルゴリズムはブロックを崩すだけでは大きな得点につながらないと理解する。しかし、④ではVは23で、ブロックを貫通すると大きな得点につながることを理解する。システムはブロックを貫通させる方向にプレーするというポリシーを獲得する。つまり、システムが大技を覚えたことになる。Deep Reinforcement Learningとはアルゴリズムは実践を通して自らポリシーを学習するシステムと言える。このため、Deep Reinforcement Learningは人間のようなインテリジェンスを実現できると期待されている。

AlphaGoが囲碁チャンピオンを破る

2015年10月、DeepMindが開発したコンピュータ囲碁プログラム「AlphaGo」が欧州の囲碁チャンピオンFan Huiに勝った。ついにソフトウェアがプロ棋士に勝ったとして、ニュースで大きく報道された。2016年3月には、AlphaGoが世界最強の棋士Lee Sedolに勝利し、DeepMindは再び世界を驚かせた。

Demis Hassabisらは2016年1月、AlphaGoのメカニズムに関する論文「Mastering the game of Go with deep neural networks and tree search」発表した。ここでDeep Neural Networkで囲碁をプレーする方式を明らかにした。この論文によると、囲碁で次の手を探すには木構造で検索する手法 (Monte Carlo Tree Search) が使われる。囲碁の場合は取りえる場合の数は250の150乗で、宇宙に存在する原子の数より多くなる。仮に最速のスパコンで宇宙誕生当初から計算を始めたとしてもまだ終わらない。

AlphaGoの仕組み

このため、場合の数を絞り込むためDeep Neural Networkが使われた。ここでもReinforcement LearningとConvolutional Neural Networkを組み合わせた構成が使われた。Convolutional Neural Networkは碁盤のパターンをざっくりと認識するツールとして機能し、棋士の過去の対戦結果を学び、次にどこに石を置くかを計算する。

一方、Deep Reinforcement Learningは棋士の頭脳として機能し、コンピュータ同士で対戦するために使われた。模擬試合で版数の異なるアルゴリズム (強いソフトと弱いソフト) が対戦した。アルゴリズム同士が対戦することで腕を上げていく。つまり、ソフトウェアが人間から指導を受けることなく、自らがプレーを学び、対戦を通して実力を上げる。ここでもカギを握るのがReinforcement Learningで、どこに石を置くべきかインテリジェントな判断を下す。本番のプロ棋士との対戦では、碁盤の局面から情勢の優劣の判断をするアルゴリズムとともに、木構造で次の手を検索し、これが勝利につながった。 (下の写真は囲碁とAlphaGoを説明するDemis Hassabis。)

vwb_631_ai_google_reinforcement_learning (p03)

Reinforcement Learningとは何か

そもそもReinforcement Learningとは何か、余りに幅が広くとらえにくい概念である。Reinforcement Learningを「Science of Decision Making (意思決定の科学)」と理解すると分かりやすい。Reinforcement Learningは、最適な判断を下すための技法を意味する。コンピュータサイエンスではMachine Learning (機械学習) 配下のブランチとなる。Machine LearningはDeep Neural Networkの登場で一気に注目されてきたが、ここに大物新人Deep Reinforcement Learningが登場した構図となる。上述の通り、このきっかけを作ったのがHassabisで、Deep Neural Networkと組み合わせることで、アルゴリズムが人間のように汎用的に判断できることを実証した。Deep Reinforcement Learningの手法でビデオゲームを制し、囲碁世界チャンピオンを破り、世界の注目を集めることとなった。

Reinforcement Learningはコンピュータサイエンスだけでなく、多くの分野で使われている。特に、エンジニアリング、心理学、数学、経済学、ニューロサイエンスの分野で早くから研究が進んでいる。エンジニアリングではOptimal Controlとして、連続するアクションを最適化する研究。心理学ではClassical/Operant Conditioningという分野で、動物がどう意思決定するかを研究する。数学ではOperations Researchとよばれ意思決定や効率の最適化を求める。経済学ではGame TheoryやUtility Theoryと呼ばれ、人は利便性を最適化するためにどう意思決定するかを研究する。ニューロサイエンスでは人間の脳がどういうメカニズムで意思決定をするのかをテーマとする。多くの分野でコンピュータサイエンスとの接点が深まり、イノベーションが生まれている。

vwb_631_ai_google_reinforcement_learning (p04)

GoogleのReinfocement Learning戦略

HassabisはDeepMindのロードマップについて述べている。Deep Reinforcement Learningを中心とするDeep Neural Networkは、今後五年から十年のレンジで、生活の様々な分野に入ってくる。一番注目される分野がロボティックスで、家庭向けのサービスロボットに研究成果を適用する。家庭向けロボットは、家の中を掃除したり炊事することを想定しており、Deep Reinforcement Learningを使うことで自律的に意思決定ができる。現行のロボットはプログラムされたロジックで動き、想定される環境ではうまく動作する。しかし、想定外の事象に遭遇すると問題が発生する。現実世界は想定外の連続で、ロボットが自律的に判断するためにDeep Reinforcement Learningが実力を発揮する。

自動運転車や会話ボット

自動運転車もロボットの一つで、Deep Reinforcement Learningが実力を発揮できる分野である。Hassabisははっきりと、DeepMindで開発した技術を自動運転車に提供すると表明している。詳細については何も語っていないが、人間のドライバーのように判断するアルゴリズムが登場するのかもしれない。自動運転車が自ら学習し超人的な能力を獲得する日もそう遠くはない。輸送システム全体が革新的に変化する可能性を秘めている。(上の写真はMountain Viewで試験走行を繰り返すGoogle自動運転車プロトタイプ。)

仮想ロボットChatbot (会話ボット) にもDeep Reinforcement Learningを適用すると述べている。今の会話ボットは教材を学習し、学んだことをベースに利用者と対話する。例えば、コールセンターオペレータとユーザの会話を学ぶと、会話ボットがオペレータに代わり、ユーザと会話してコンピュータ障害に対応できる。しかし、会話ボットは会話の意味を理解しているわけではなく、ユーザの質問に対して、それに続く最適な文字列を過去の統計確率から生成する。ここにDeep Reinforcement Learningを適用すると、会話ボットがユーザの意図を把握し、最適な判断ができるようになる。会話ボットが人間のオペレータのように振る舞い、ユーザの問題点を解決していく。

Google DeepMindの最終ゴール

HassabisはDeepMindを科学技術分野へ応用することを最終目的としている。気候変動の研究、がんのメカニズムの解明、エネルギー分野、遺伝子工学、マクロ経済、金融システムなどで、人工知能が人間の科学者に代わって研究するモデルを想定している。これらの分野では大量にデータが生成されるが、優秀な科学者でも扱える範囲には限りがある。人工知能が大量のデータを学習し、人間の研究者に代わり研究開発を行う構想を描いている。Hassabisはこのプロジェクトを現代のApollo Program (アポロ計画) と表現し、人工知能の技法を適用することでブレークスルーが起こり、科学技術の進化が早まると期待している。本当の意味での人工知能の開発が始まったとして世界から注目を集めている。

無人走行するクルマはできるのか? Google自動運転車が直面している課題

May 5th, 2016

Googleは自動運転車を2017年に出荷すると示唆していたが、今ではこれを2019年としている。最初に出荷される自動運転車は全米を走れるわけではなく、地域を限定して運用される。このところGoogleは自動運車投入に関し慎重なポジションを取っている。この背景には何があるのか、米国議会公聴会資料などから、自動運転車開発でGoogleが直面している問題を解析する。

vwb_630_car_google_challenge (p01)

米国議会の自動運転車に関する公聴会

米国議会上院の通商科学運輸委員会 (Senate Committee on Commerce, Science, and Transportation) は2016年3月、自動運転車に関する公聴会を開催した。GoogleやGMなどが出席し、自動運転技術開発状況について説明するとともに、連邦政府への要望を提示した。Googleは、各州ごとに自動運転車に関連する法案が審議されているが、これらに代わり連邦政府が全米をカバーする統一指針を示すことを求めた。公聴会では委員長John Thune (上の写真) が自ら議長を務めた。公聴会の模様はビデオで公開されている。

公聴会では自動運転車の安全性に関する評価が示された。Duke Universityのロボティックス研究所 (Humans and Autonomy Lab and Duke Robotics) 所長Mary Louise Cummingsが自動運転技術について厳しい見解を示した。自動運転技術の将来は楽観できるものではないとし、自動運転車が社会に普及するのは時期尚早であると述べた。更に、完全自動運転車については尚更であるとしその危険性を指摘した。Tesla Autopilotのような限定的な自動運転車は安全性が十分に確立されていないことを意味する。更に、Googleが開発している完全自動運転車については、市場に投入する時期を慎重に決めるべきとしている。

識者が指摘する自動運転車の問題点

Cummingsは主張の根拠について説明した。発言内容を纏めると、自動運転車開発での課題は、悪天候での走行、ソーシャル・インタラクション、セキュリティー、プライバシーとなる。悪天候での走行とは、自動運転車は路上の水たまり、霧雨、激しい雨、降雪などに対応できていないことを指す。ソーシャル・インタラクションとは聞きなれない言葉だが、クルマとヒトとの交信を示す。自動運転車は警察官の手信号を理解できないなど、ヒトと意思疎通できない。セキュリティー面からは、自動運転車はサイバー攻撃に対して備えができていないだけでなく、GPS受信機やLidarへの妨害行為への対応が求められる。プライバシー保護や個人データ管理の観点からは、自動運転車が収集するカメラ映像やセンシングデータの厳格な管理が求められると指摘した。

ソーシャルインタラクション (対クルマ)

この中で最大の障壁になると思われるのがソーシャルインタラクションである。Google自動運転車と並走して一番気になるのがこのソーシャルインタラクションだ。ソーシャルインタラクションとは、具体的にはドライバーと他のドライバーやヒトとのコミュニケーションを示す。ドライバーは運転中に他人とアイコンタクトなどで無意識にコミュニケーションを取り、お互いの意図を確認しあっている。一時停止の道路標識がある交差点では、順番が回ってきて発進する際には、交差する車線のドライバーを見て安全を確認する。しかし、自動運転車はアイコンタクトで安全確認ができないため、他のドライバーは不安を感じる。

vwb_630_car_google_challenge (p02)

実際にこのシーンに遭遇した。前を走っていたGoogleプロトタイプは交差点 (上の写真) で立ち往生した。T字路の一時停止標識で止まり (上の写真でクルマが止まっている場所)、左右の安全を確認して順次発進するが、Googleプロトタイプは動かなかった。左側のクルマが発進し、プロトタイプの順番になったが、発進する様子はない。アルゴリズムが仕様通り機能しなかったのか、一回順番をスキップして次の回に発進した。このような状況になると、他のドライバーはGoogleプロトタイプの意図が読めず、発進していいのかどうか不安を感じる。人間だと問題が起こった時は、目くばせや手を振って意思疎通を図るが、自動運転車はこれができない。

ソーシャルインタラクション (対歩行者)

横断歩道の手前で歩行者が立ち止まっている場合、意図を把握するのが難しい。道を渡るのか、それとも、そのまま立ち止まったままなのか判断できない場合もある。スマートフォンを操作している場合は尚更である。人間のドライバーが困惑するこのケースを自動運転車はどう判断するのか、まだまだ課題は多い。アルゴリズムが歩行者の次の行動を予測することは、クルマの進路を予測することに比べ格段に難しい。

下の写真はMountain View市街地で試験走行をしているGoogleプロトタイプ (交差点手前で止まっている車両)。ここでは多くの歩行者がスマホを見ながら横断歩道を渡る。ソーシャルインタラクションに関する学習データが豊富で、Googleプロトタイプのアルゴリズムは機械学習を重ね機能を向上しているものと思われる。

vwb_630_car_google_challenge (p03)

安全性の評価基準の制定

公聴会では自動運転車の安全基準についても意見が述べられた。Cummingsは開発企業は自動運転車の安全性評価が十分でないと指摘した。同時に、NHTSA (National Highway Traffic Safety Administration、米国運輸省配下で車両安全基準を制定する部門) がこの役割を担うべきであると提案した。CummingsはシンクタンクRand Corpのレポートを引用し、自動運転車が人間レベルの安全性を証明するためには、2.75億マイルを無事故で走行する必要があると述べた。

実際にこのレポートを読むと、その根拠を示すグラフが示されている (下の写真)。これによると、人間がクルマを1億マイル運転すると死亡事故は1.09回発生する。自動運転車が人間と同じくらい安全であることを証明するためには2.75億マイルを無事故で走る必要がある (緑色のグラフ、推定の確度は95%)。一方、Google自動運転車は2009年から2016年3月までに150万マイル走行している。単純計算すると人間レベルの安全性を証明するためには12.5年かかかることとなる。走行距離だけで安全性を評価する方法は現実的でないことがわかる。

vwb_630_car_google_challenge (p04)

このため、Cummingsは政府や企業は安全を評価するための新しい手法を開発する必要があると提唱した。自動運転技術で先行しているのは航空機産業で、早くから自動着陸機能 (Autoland) を商用機に搭載し運用している。航空機の自動着陸機能は、製造メーカーが徹底した試験を実施し、そのデータをFAA (米国連邦航空局) が検証する仕組みとなる。FAAが安全だと認定したソフトウェアだけを使うことができる。Cummingsは、これと同様に自動運転車も開発企業が試験データを公開し、公的機関で安全性を検証する仕組みが必要であると提唱した。ここでは触れられなかったが、開発企業は自動運転車の試験データは製品の根幹に関わる機密データで、これを公開することを躊躇している事情もある。

Googleの安全評価指標

Googleは自動運転車の安全性に関するデータは公開していないが、テストレポートからこれを読み取ることができる。テストレポートはMonthly Reportと呼ばれ、カリフォルニア州で実施している自動運転車の試験結果が記載されている。この中に自動運転機能を停止する措置 「Disengagement」を報告している部分がある。Disengagement (自動運転機能解除措置) を実行することは自動運転車が危険な状態にあることを意味する。自動運転車が設計通り作動していない状況で、不具合の件数とも解釈できる。つまり自動運転車のインシデントレポートとなる。

Disengagementは自動運転車が自律的に起動するケースと、同乗している試験スタッフがマニュアルで起動する方法がある。下のテーブルはDisengagementの回数と試験走行距離を月別に表示したものである。2015年11月は、Disengagementの回数は16回で走行距離は43275.9マイルとなる。つまりこの月は16回問題に遭遇したことを意味する。GoogleはDisengagementが実行されたときのデータをシミュレーターに入力し問題の原因を解析する。Disengagementを実行しなっかた場合、自動運転車はその後どう動いたかもシミュレーションする。自動運転車は問題をうまく回避したのか、それとも事故につながったのかを解析する。ただ、Monthly Reportにはここまでの情報は開示されていなく、Disengagementの回数だけが報告されている。

vwb_630_car_google_challenge (p05)

更に興味深いのはDisengagementの場所である。自動運転車は高速道路や市街地を走行するが、高速道路では問題がほとんど発生していない。Disengagementが発生した場所は市街地に集中しており、全体の90%を占める。歩行者や自転車が多い市街地の走行がいかに難しいのかをこのデータが示している。

自動運転車への期待

ちなみに、このレポートはカリフォルニア州政府が定めた法令に従ってGoogleが開示したものである。他の企業がカリフォルニア州で自動運転車を試験する際は同様のレポートの提出が義務付けられている。このレポートによると、いま自動運転車を購入すると、2700マイルごとに障害が発生することになる。クルマの平均走行距離を勘案すると3か月に一回事故に遭遇することを意味する。安全性は急速に改善しているが、商用車として市場に投入するにはまだ早すぎることがわかる。Monthly Reportを読むと自動運転技術開発の難しさを改めて認識する。同時に、米国では、Googleや自動車メーカーがこの難しい課題を乗り越え、自動運転車を市場に投入し、交通事故が減ることへの期待が大きくなっている。運転の便利さだけでなく、交通事故を減らす手段としても、自動運転車への評価が高まっている。

中国政府は国策事業として自動運転車産業を育成、シリコンバレーのBaidu研究所が開発拠点になる

April 27th, 2016

中国で自動運転車開発が未曽有の勢いで進んでいる。開催中の北京自動車ショーで相次いで自動運転車がデビューした。AIで世界のトップを走るBaiduは自動運転車技術開発拠点をシリコンバレーに設立した。中国政府は自動運転車のロードマップを開発し、標準化や法令整備を推進する。中国が官民一体で先行している日米欧を激しく追っている。

vwb_629_car_baidu (p01)

北京自動車ショーでの自動運転車出典

中国の自動車ショー「Beijing International Automotive Exhibition」が北京で開催されている。米国メディアは中国インターネット企業が自動車産業に進出していることを大きく報道している。特に、中国ハイテク企業が自動運転車を開発していることに危機感を抱いている。

これら出展企業はニュースリリースなどで自動運転技術を世界にアピールしている。中国大手自動車メーカー「Changan Automobile (長安汽車)」は会場に自動運転車を展示した (上の写真)。自動運転車は「Changan Raeton」を改造したもので、車体のクローム塗装が光を反射してキラキラ輝いている。これに先立ち、Changanは2016年3月、インターネット最大手のBaidu (百度) と提携し、自動運転車を開発することを発表した。Baiduが開発している自動運転技術を導入することを意味する。また、自動車ショーの直前には、Changanは自動運転車の長距離走行試験を実施した。4月12日、二台の自動運転車でChanganの拠点Chongqing (重慶) を出発し、Xi‘an (西安) などを経て4月17日にBeijing (北京) に到達した。全長2000キロを自動運転で走行し、技術力の高さを示した。

vwb_629_car_baidu (p02)

オンラインビデオ配信企業「LeEco」は会場に自動運転車コンセプトカー「LeSEE」 (上の写真) を展示している。LeEcoは自動車ショーに先立ちこれを発表し、LeSEEのコンセプトビデオを公開した。このビデオによると、LeSEEは等高線を模したデザインが基本コンセプトで、未来のモビリティーを提供する。LeSEEはEVでスマホや車載タブレットで操作する。LeSEEは完全自動運転車で、ステアリングはダッシュボードに格納される。ステアリングを取り出すとマニュアルでドライブができる。まだ試験走行は実施されていないが、IT企業が自動運転車事業に参入したことで話題となっている。

中国政府の自動車政策

中国企業が自動運転車を相次いで投入する理由は中国政府の新しい産業政策にある。中国は自動運転技術では他国に後れを取っているが、中国政府は自動運転車産業を育成する方向に大きく舵を切った。米国の主要メディアなどが伝えている。中国政府は自動運転技術に関するロードマップを2016年内に発表する。これによると、ハイウェー向けの自動運転車は2021年までに、市街地向けの自動運転車は2025年までに出荷される計画だ。ロードマップでは自動運転車の標準化や法令指針を定める。中国政府が自動運転車開発のためのフレームワークを定めることになる。

ロードマップはTechnical Standard (技術標準化) として、クルマの通信方式、インフラ、法令に関する指針を定める。自動運転車の通信手段としては携帯電話ネットワークを利用する。インフラについては言及されていないが、V2VやV2I通信で自動運転車の走行を周囲の環境が支えるものと思われる。法令整備では中国全土で自動運転車が走行できるための指針を定める。ロードマップは自動運転車に関するテクノロジー、社会インフラ、関連法規を包括的にカバーする。

中国政府が自動運転車産業を育成する背景には、経済成長鈍化に対する危機感がある。中国政府は重工業や製造業中心の産業をハイテク産業にシフトさせる。この中心を担うのがEVや自動運転車となる。産業構造改革が喫緊の課題で、中国政府がハイテク産業移行の道筋をつける。また、北京を中心とする交通渋滞を自動運転車で解消する狙いもある。人間よりも効率的に走行でき、限られた道路を有効に利用できる。更に、増え続ける交通事故を減少させる狙いもある。

Baiduがシリコンバレーで自動運転車開発

中国の自動運転技術を支えるのがBaiduとなる。Baiduは中国最大手の検索サービス会社であるが、最近ではAI技術で世界のトップを走っている。Baiduは2016年4月、シリコンバレーに自動運転車チーム「Self-Driving Car Team」を設立することを発表した。このチームはBaiduの自動運転部門「Autonomous Driving Unit (ADU)」の一部として位置づけられる。

チームの目的は自動運転技術の開発と試験で、2016年末までに100人規模の体制とする。研究領域は、機械学習、ロボティックス、コンピュータビジョン、オンボードコンピュータ、センサーなど。自動車業界から経験豊富な人材を招へいする計画も明らかにしている。このチームは、自動運転技術の中でもPlanning (機械学習でルートを算出)、Perception (周囲のオブジェクトを把握)、Control (クルマの制御) の分野を中心に研究開発を進める。チームはシリコンバレーに拠点を置く研究部門「Baidu Research」 (下の写真) と密接に開発を進める。

vwb_629_car_baidu (p03)

Baiduの自動運転車投入計画

これに先立ちBaiduは2015年12月、自動運転車を開発し2018年までに中国市場に投入することを公表した。Baidu副社長Wang JingがWall Street Journalのインタビューで明らかにした。WangによるとBaiduは既に自動運転車の走行試験を実施している。試験車両はBMW 3-Series Gran Turismoを改造したもので (下の写真)、二台で北京市北部の幹線道路などで試験を繰り返している。Baiduは政府機関と共同で公共の交通機関を提供することを計画している。自動運転車は決められたルートや特定地域を走行するシャトルサービス (Public Shuttle) として提供される。クルマは普通車やバンを使い、自動運転シャトルがループを運行し、徐々に運行範囲を拡大していく。

vwb_629_car_baidu (p04)

Andrew Ngが自動運転車技術開発を後押し

自動運転車開発を推進しているのがBaidu Research所長Andrew Ng (下の写真) である。Ngは、Baiduの自動運転車を米国で展開する計画を明らかにした。NgはBaiduのシリコンバレーの人材を活用し、米国政府と協調する必要性を明らかにした。Baiduがシリコンバレーで自動運転車を開発することを決定した背景にはNgの存在がある。

Ngはスタンフォード大学でDeep Learningの研究に従事し、この分野で基礎研究をリードしてきた。その後Googleに移籍し、人間の頭脳を模したプロジェクト「Google Brain」を立ち上げた。大規模な並列計算環境でDeep Learningを稼働させ、システムがハイレベルな概念 (例えばネコ) を学習できることを実証した。現在はBaidu Research所長で同社のAI研究開発を主導する。Ngが本格的に技術開発を進めることで、Baiduの自動運転事業が大きく前進する。

vwb_629_car_baidu (p05)

無人自動運転車の開発は無理

Ngは自動運転車のあり方についての見解を明らかにしている。注目すべきは、Ngは無人自動運転車の開発は現実的でないとの見方を示している点だ。現在の技術レベルでは人間のように振る舞う無人自動運転車の開発は不可能で、クルマは社会インフラと協調する必要があるとしている。この仕組みはメーカー一社でできることではなく、コミュニティーとして取り組む必要があるとも述べている。

この理由としてNgは自動運転車の課題を挙げている。例えば、道路作業員は工事現場で手信号でクルマを誘導する。しかし、自動運転車は手の動きの意味を理解することができない。AI技術が急速に進化しているが、当面は自動運転車が人間のように運転できるわけではない。道路などの社会インフラに少し手を加えることで、自動運転車をサポートする必要性を主張する。道路作業員はビーコンやアプリを使い、手信号の意味を自動運転車に伝える。自動運転車は緊急自動車のサイレンやライトの点滅の意味を理解できないので、緊急自動車が自動運転車に非常事態を連絡する方法の確立が必要としている。AI研究の第一人者が無人自動運転車開発は難しいと述べるのことは重い意味を持つ。Googleが苦戦しているように、ハードルの高さを再認識する結果となった。

自動運転車の挙動を予測できる仕組み

Ngは自動運転車の危険性を認識し、その対策が必要であるとも主張する。自動運転車は頻繁にブレーキをかけるなど、人間とは異なる特異な挙動をする。交通の流れに沿って走れるよう改良されているが、それでも人間の運転とは異なるので、自動運転車は一目でわかるデザインとすべきと主張する。このため、Baiduの自動運転車はお洒落なデザインではなく、上部が白色で下部が赤色と目立つ外観となっている。

シリコンバレーでGoogle自動運転車と並走するとこの意味がよく分かる。先日、Googleプロトタイプの三台後ろを走り、車線が二車線から一車線に減る区間に差し掛かった。我々は時速35マイル程度で走っていたが、プロトタイプが低速で合流してきた。みんなが一斉にブレーキを踏む結果となった。プロトタイプは車両特性から最高速度が時速25マイルに制限されているため、違法な運転をしているわけではない。自動運転車の挙動は人間とは大きく異なることを再認識する出来事であった。プロトタイプの事故の殆どが後続車による追突で、何らかの対策が必要であると実感する。今後、自動運転車試験車両が世界各地を走ることになり、抜本的な対策が必要になる。(下の写真はGoogleプロトタイプで、ドアには市民がデザインした街の風景がペイントされている。Google自動運転車は市民生活に溶け込むことを目指している。)

vwb_629_car_baidu (p06)

米国は中国企業に危機感を抱く

米国メディアが中国企業の自動運転車を克明に報道するのは理由がある。米国では規制や道路法規の面で自動運転車開発にとって厳しい状況が続いている。公聴会でカリフォルニア州政府とGoogleやUberなど開発企業の意見を聞くと、両者の間に深い溝を感じる。共同で新技術を育成するという雰囲気はなく、お互いの立場を主張するだけで平行線が続く。また、連邦政府と州政府の方針も異なり、社会インフラが整うまで時間がかかりそうだ。

これに対し中国は政府が先頭に立ち新産業を育成をする。中国の自動運転車技術は二年遅れているといわれるが、このままでは米中が逆転するのではないかと、多くの人が危機感を抱いている。中国の追い上げが米国にとっての黒船になり、政府と民間企業が協調して自動運転車インフラを整備する切っ掛けになることを期待している。