Search

「考えを読めない知能」であるAIと、わたしたちはどう付き合えばいいのか:「考える機械」の未来図(3) - WIRED.jp

※連載「『考える機械』の未来図」の第2回から続く

サンフランシスコのように坂だらけで交通量の多い街を自転車で走っていると、肉体的だけでなく認知的にもいい運動になる。こうした環境を生き抜くには、大腿筋だけでなく自分なりの「心の理論」、つまり他者の考えやその意図を想像する能力を駆使することになる。

あそこでBirdの電動キックスケーターに乗っている若者は、路面にあるくぼみを避けようとして急に進路を変えるだろうか? そこを走っているUPSの配送トラックの運転手は、黄色の信号を突っ切ろうとするだろうか? だが、こうした推測は自律走行車が相手では難しいだろう。

判断力を高めていった自律走行車たち

ゼネラルモーターズ(GM)は2019年、傘下のGMクルーズが開発した自律走行車の試験走行の規模を拡大した。おかげで屋根の上に複数のセンサーを載せたスポーティーな白いハッチバックのクルマを、少なくとも日に1度は目にするようになった。

これらのクルマは、当初は過剰なほど慎重でびくびくしていた。不要なブレーキをかけたり、ためらいながら道を曲がったりしたことで、人間のドライヴァーたちから怒りに満ちたクラクションを鳴らされていたのだ。

ところがしばらくすると、この臆病なロボットたちの動きを読み取り、うまく使うことさえできると感じられるようになった。自転車専用レーンから外れて車道に出ると、自律走行車たちはしり込みし、自転車のためのスペースを空けてくれる。自律走行車は4方向すべてが一時停止になっている十字路で判断に迷う傾向があるので、自転車で通るときはそのまま前に走り出せる。

それから1週間ほど経つと、クルーズの自律走行車のうち数台が以前より自信に満ちた動きを見せるようになっていて、驚かされた。自転車のうしろでおとなしく待っているのではなく、勢いよく追い抜いていくようになったのだ。

こうしてロボットに対して築きつつあった“心の理論”は消え失せ、不安な気持ちにとって代わった。これからAI(人工知能)が成長してさらに能力を高め、積極的に判断するようになったとき、わたしたちどのように付き合っていいけばいいのだろうか?

AIに対する思い込み

一般論として、人間は新しい技術にうまく適応することができる。わたしたちは高速で走る金属の塊を操縦し、小さなアイコンを駆使して活発に意思疎通する。しかし、自律走行車のようなより複雑でダイナミックなAIシステムは、さまざまな新しい手法でわたしたちに挑んでくることになるだろう。

わたしたち人間は生物学的および文化的な進化によって、他者の振る舞いや気まぐれな行動、違反行為などを読み取るようにつくられた脳と社会を与えられている。ベルリンにあるマックス・プランク人間発達研究所所長のイヤド・ラーワンは、“考える機械”について、「わたしたちは暗闇のなかをつまずきながら歩いているようなものです」と語る。

おそらくわたしたちは自覚しないうちに、AIシステムの心理は自分たちの心理と似たようなものだろうと思い込む傾向がある。マサチューセッツ工科大学教授のジョセフ・ワイゼンバウムは1960年代、世界初のチャットボット「ELIZA(イライザ)」をつくった。それは人間のユーザーが入力した文章をそのまま質問に言い換えて応答することによって、カウンセラーを装うようにプログラミングされたチャットボットである。

ワイゼンバウムにとってショックだったのは、被験者がELIZAに対して人間のような知性と感情を感じたことだった。「わたしがそれまで理解していなかったのは、比較的単純なコンピュータープログラムを非常に短い時間だけ体験したごく普通の人々のなかに、強力な思い違いが生まれるということだった」と、ワイゼンバウムは書いている。

ブラックボックスと化すAI

このとき以来、「AIに関して明確に考えようとしないことの危険性」は高まる一方だ。そして近いうちに重大な影響をもたらすようになるだろう。

アマゾンの「Alexa」のようなAIアシスタントの“快活な女性”として設定された人格は、親密な空間における会話の記録を大企業に許可することの危険性について考えることから、わたしたちの注意をそらせてしまう。そしてクルマを運転する人や自転車に乗る人、そして歩行者たちがロボット制御のクルマをどのように理解し、どのように反応するのかは、生死にかかわる問題である。

たとえAIシステムの判断について熟考する時間が多少はあったとしても、その振る舞いを完全に説明することは不可能かもしれない。AIの多くの画期的なマイルストーンの背後にある機械学習アルゴリズムは、従来のソフトウェアと同じようなやり方ではプログラミングやリヴァース・エンジニアリングができない。

こうしたシステムのことを、専門家は「ブラックボックス」と呼んでいる。アルゴリズムを開発した本人でさえ、その仕組みを完全には説明できないからだ。

例えば、人生を変えるような医療上の決断を、医師からのアドヴァイスに基づいて下さなければならないときのことを考えてみよう。実はその「医師のアドヴァイス」がAIのアドヴァイスに基づいたものであり、しかも人間や規制機関が一切チェックできない方法やリソースに基づいていた──という日が来るかもしれない。

AIは、「Artificial Intelligence」の略であると同時に、「Alien Intelligence」(異世界の知能)でもある。AIがこの世界を認識して処理する方法は、わたしたちの方法とは多くの点で根本的に異なるのだ。

Uberの自律走行車による事故の教訓

AIシステムについて間違った判断を下すことが、人についての判断の誤りにつながることもある。調査機関Data & Societyのプログラムディレクターで人類学者のマデレン・クレア・エリッシュは、自動化に関連する事故を研究してきた。エリッシュによると、システム障害に対する倫理上の責任が、システム作成者以外の人間に不当に課せられることがしばしばあるという。

Uberの自律走行車が2018年、アリゾナ州で横断歩道以外の場所を横切っていた歩行者をはねて死亡させたとき、警察の発表を聞いた世間の注目は安全のために同乗していたドライヴァーに向かった。記録映像によって、運転席に座っていた男性がクルマの挙動から注意をそらしているように見えたからだ。

ところが、その後の連邦捜査官の調査によって、Uberが自律走行車に改造したボルボ車の自動ブレーキ(衝突被害軽減ブレーキ)機能を無効にしていたうえ、アルゴリズムが横断歩道を渡る歩行者だけに注意を払うようにプログラミングしていたことが判明した。

こうしてUberは安全機能を強化したが、アリゾナ州での試験走行はできなくなった。しかし、刑事責任は免れている。一方のドライヴァーは、引き続き刑事責任を問われる可能性が残されている。

「機械の心の理論」を発展させるために

周囲の環境や経験に適応し続ける高度なAIシステムについて、その機能や欠点を人間が明確に見極めることはますます難くなるかもしれない。「システムが動的に学習を続けると、人間側はこれまでの知識をあてにできなくなります。そんなときシステムが何をするのか、どうすれば理解できるのでしょうか」と、エリッシュは問いかける。

人間がより多くのAIとやりとりするようになるなかで、人間の優れた学習能力は、おそらく「機械の心の理論」の発展に役立つことだろう。つまり、AIの動機や振る舞いを、人間が直感的に理解するための理論である。

もしくは解決策は、わたしたちではなく機械のほうにあるのかもしれない。つまり、将来のAIシステムにかかわる技術者たちは、システムの“電気的な知能指数”の向上にかける時間と同じくらい、「システムが人間といかにうまくやっていくか」のテストに時間を費やすことになるかもしれないのだ。(第4回に続く)。

連載:「考える機械」の未来図

  • 人工知能の“手本”として、人間の脳は本当に適切なのか:「考える機械」の未来図(1)

  • AIは人類を“コロナ禍”からは救えない:「考える機械」の未来図(2)

※『WIRED』による人工知能(AI)の関連記事はこちら

Let's block ads! (Why?)



"どのように" - Google ニュース
August 05, 2020 at 06:00AM
https://ift.tt/3kfjUVW

「考えを読めない知能」であるAIと、わたしたちはどう付き合えばいいのか:「考える機械」の未来図(3) - WIRED.jp
"どのように" - Google ニュース
https://ift.tt/39CBPzR
Shoes Man Tutorial
Pos News Update
Meme Update
Korean Entertainment News
Japan News Update

Bagikan Berita Ini

0 Response to "「考えを読めない知能」であるAIと、わたしたちはどう付き合えばいいのか:「考える機械」の未来図(3) - WIRED.jp"

Post a Comment

Powered by Blogger.