スマートホーム(スマートハウス)情報サイト

iedge

AIにとって理想的な「教師」は誰か? メルボルン大学のチームが実験で「AIの危険性」に警鐘

更新日:

実験に使われた「生体ミラー」


※画像はイメージです

この実験では「生体ミラー(原文では The Biometric Mirror)」という装置が使われた。これは、1万の顔データを備えた人工知能によって、そこに映された顔から人種・年齢・性格などを推測するというものだ。

都内に住んでいる読者は、JR東日本の主要駅に置かれたディスプレイ型の自動販売機を観たことがあるだろう。あれは本体上部のカメラから今目の前に立っている人物の年齢と性別を判断して人気のある飲料をレコメンドしてくれるが、基本原理はそれと似ている。

ただ違うのが、顔を判断するための元データである。

自動販売機ではおそらく各年齢層の男女の「平均顔」データを元にしているはずだ。一方、生体ミラー実験では「1万人が異なると感じた顔の特徴のデータベース」を元にして、「どの顔に近く、どの顔から遠いのか」を判定し、人種・年齢・性別・性格などを推定するという仕組みである。

 

結果は「想像よりも不正確」


※画像はイメージです

結果、多くの「間違い」が発生した。でもそれでいいのである。

この実験、実は「正確に言い当てる」ことを目的としていないのだ。データベースを元にした機械学習から得られる結果が必ずしも正しくないことを示すための実験だ。

この記事のソースにもなっているBBCの動画を見てみよう。


(video:BBC News Japan/YouTube)

この動画で語られている警告を正しく理解するには、機械学習の原理を知っておく必要がある。

まずは機械学習の成果がもっとも身近に感じられる例を示そう。今、手元にあるスマートフォンで写真アプリ(iPhoneなら「写真」、Androidなら「Google Photo」)を開いて、「猫」と検索してみてほしい。

すると、あなたの持っている写真の中から、猫の写っているものだけが一覧で表示されるはずだ。これが機械学習の成果である。機械学習によって「猫」がどんな見た目をしているかをAIが学んだ結果だ。

この機械学習やニューラルネットワークについて「人間の脳を模倣して何でも学ぶことができる魔法のシステム」という誤解が広まっているが、実はそうではない。

いま主流の機械学習は「教師あり学習」と呼ばれるもので、膨大なデータにいちいち「これは猫が写っている」「これは写っていない」とYES/NOを教えてくれる教師がいることで成り立っている。そして、その「教師」は(少なくとも初期段階では)人間である。

この「教師あり機械学習」の問題点は以前から指摘されていた。

同じように機械学習を取り入れている「Google翻訳」の例が分かりやすい。Googleは翻訳精度を向上させるため、訳文の精度がどれほどのものか、また誤訳であれば正しい訳を入力してほしい、とユーザーに求める。そして何が起こったか。Google翻訳は誤訳を連発するようになったのである。

「息の根を止める」を「Stop the Ikinone」、「Greeen」を「大野智」、「Every Little Thing」を「浜崎あゆみ」……。ネット掲示板やTwitterでこの手の「笑える誤訳」は何度も話題になったので覚えている読者も多いだろう。この原因は、想像の通り。機械学習の「教師」つまり無数のインターネットユーザーによる「悪ふざけ」である。

これが、今回の実験で警告されている「AIの不完全性」だ。

ちなみに、ここでは詳述しないがGoogleはすでにこの問題に対処していて、現在は昔ほど誤訳は多くないので安心してほしい。

 次ページ >
「AI神話」はまだ訪れていない

1 2