ちょき☆ぱたん お気に入り紹介 (chokipatan.com)
第1部 本
脳&心理&人工知能
おバカな答えもAIしてる(シェイン)
『おバカな答えもAIしてる 人工知能はどうやって学習しているのか?』2021/2/23
ジャネル・シェイン (著), 千葉敏生 (翻訳)
(感想)
AI(人工知能)がいかに学習し、試行錯誤を繰り返し、適応していくかについて、シンプルな実験を重ねながら紹介してくれる本です。思わず吹き出してしまいそうな出力例(猫の名前に「したたり」「ミスターおもらし」「ゲロリン」など)や、予想の斜め上を行く解決策を示しながら、AIの得意分野と不得意分野、危険性や限界を、ユーモアたっぷりに解説してくれる「楽しくAIのことを学べる本」です。
……実を言うとこの本、ここで紹介するつもりはありませんでした。タイトルから、現在発達途上にあるAIが馬鹿な答えをしているのを笑い飛ばしているんだろうなー、でもAIはどんどん賢くなるんだから、笑い飛ばして馬鹿にしていられるのも、ほんの短時間に過ぎないだろうし、この本を読んで「なんだ、AI、たいしたことないな」と読者がAIをなめてしまうようになると、むしろ良くない影響を与えてしまうかもしれない、なんて考えていたからです。(それでもこの本を読み始めたのは、もちろんAIのおバカな答え見て笑いたかったからです)。
ということで、最初のうちは、期待通りの内容に、そうそう、そんなバカな答え返してくるよね……と笑っていただけだったのですが、「Chapter4 AIだってがんばっている!」を読んでいるうちに、これは……みんなに伝えるべき情報では? と思える内容に出会ってしまったので、急遽、このサイトで感想を書くことにしました。それはGoogle翻訳に関するものです。
「個々のデータセットが持つ奇妙なクセは、トレーニングされた機械学習モデルにときどき意外な形で現れることがある。2018年、Google翻訳にユーザーが妙なことに気づいた。一部の言語の意味不明な音節の繰り返しを英語に翻訳してみたところ、不気味なほど理路整然とした文章が出力された。しかも、それは聖書の一部と妙に似ていた。(中略)
いったいなぜこんなことが起きたのか? Motherboardの編集者からインタビューを受けた機械翻訳の専門家たちは、Google翻訳が機械学習を用いて翻訳作業を行っているからではないかと指摘した。機械学習による翻訳アルゴリズムは、人間が翻訳した文章の例を見て、単語や文章の訳し方を学習する。つまり、どの文章がどの文脈でどういう文章に翻訳されるかを学んでいくのだ。そのおかげで、慣用句やスラングを含む文章を自然に翻訳できるようになる。(中略)機械学習アルゴリズムが最高の力を発揮するのは、学習材料となる例がたくさんあるときだ。Google翻訳には一部の言語の翻訳例が少なかったが、聖書は多くの言語に翻訳されていたので、データセットに聖書の翻訳例がたくさん含まれていたのではないか、というのが先ほどの機械翻訳の専門家の説だ。」
この例は、Google翻訳に意味不明な音節の繰り返しを入力すると、翻訳結果として聖書の一節っぽい文章が返されてくることがあるというものです。なるほど……AIはこの入力に対しては、よく分からないけど、とにかくたくさん覚えさせられた聖書から似たようなものを選べば、正答率を上げられるだろうと判断した、ということなのでしょう。
最近はGoogle翻訳が広く利用されているので、Google翻訳のトレーニング用のデータセットには、Google翻訳自身が翻訳したものも含まれているのかもしれません……。それでも、Google翻訳、それなりに使えるものに育っているんですよね……不思議な気もします……。
この章には他にも、「AIの仕組みにアクセスできなくても、たとえば「わたしの社会保障番号はXXX-XX-XXXXです。」というサンプル文の数字の部分をあれこれいじることで、AIがトレーニング中に見た社会保障番号をそっくりそのまま知ることができた。」などという恐ろしい事実も紹介されていました。この問題は「意図せぬ記憶」と呼ばれているそうです。ニューラル・ネットワークのトレーニング・データセットとして、機密が含まれているデータを利用すると、思わぬところで機密が漏洩してしまう可能性があるんですね……。これはAIを利用したシステムを作っている方には、ぜひ気を付けていただきたいと思います。
その他にも、画像に関する質問に答えるAIは、キリンが何頭いるかと尋ねられると、ほとんど毎回1頭以上を答えるという事例にも考えさせられました。その原因は、「データセットの収集中に質問をした人間は、正解がゼロなのに「キリンは何頭いますか?」とたずねることがめったになかったから」だそうです。なるほど……人間は、見ればすぐに分かるようなことをあえて質問することはないから、AIとしては、複数を答えるだけでゼロと答えるよりも正答率を上げられるわけだ……。
このようにAIがうっかり間違った答えをしてしまわないように学習させるのは、意外に困難なのだそうです。次のように書いてありました。
「模倣すべきデータや最大化すべき報酬関数といった目標が与えられれば、AIはそれで人間の望み通りに問題が解決するかどうかなんておかまいなしに、何がなんでもその目標を達成しようと突き進む。
この問題に関して、AIを扱うプログラマーたちは今や達観の域にまで達している。
「AIは人間の設定した報酬をわざと曲解し、いちばんラクな局所最適解を探そうとする悪魔なのだと思うようにしている。ちょっとバカげた考え方だけど、実際にはそのほうが建設的な心構えだと思う」とGoogleのAI研究者であるアレックス・アーバンは記している。」
またロボット犬に歩行訓練のトレーニングした人は、ロボット犬たちが地面を這いつくばったり、後ろ足を十字に組んだまま奇妙な腕立て伏せを行ったり、挙句の果てにはシミュレーション世界の物理法則をハッキングして空中浮揚したりした状況に、次のような感想を抱いたそうです。
「進歩していると思ったのに……。この間抜けたちは物理法則のシミュレーションに欠陥を見つけて、地面を悠々とすべり回っている。まったくずる賢いやつらだ。」
……AIたちは、おバカなのか、とてつもなく賢いのか、わけがわかりません(苦笑)。
こうした状況をふまえて、シェインさんは次のようにアドバイスしてくれます。
「AIの導き出した巧妙な解決策が実は最悪の解決策ではないかどうか、いつも目を光らせておくことが必要だ。」
……最近は銀行などで「AI運用アドバイス」などという言葉を見ると、「賢い運用の仕方を教えてくれるんだろう」とすっかり信用していましたが……もしかしたら、まだまだ全面的な信頼には値しないのかもしれません。AIのアドバイスに違和感を覚えたら、AIではなく自分の選択の方を信用したいと思っています……でも……違和感に、ちゃんと気づけるんだろうか……(弱気)。
AIが陥りやすい面白い失敗例に笑いながら、AIの学習の現状を学べる本でした。特にAIの専門家の方にとっては、ああー、あるある! と大爆笑できるだけでなく、教訓にも満ちているという、まさに面白くて役にも立つ、おいしい本だと思います。ユーモラスでかわいいイラスト漫画も、すごく笑えます。ぜひ読んでみてください。
* * *
なお社会や科学、IT関連の本は変化のスピードが速いので、購入する場合は、対象の本が最新版であることを確認してください。
Amazon商品リンク
興味のある方は、ここをクリックしてAmazonで実際の商品をご覧ください。(クリックすると商品ページが新しいウィンドウで開くので、Amazonの商品を検索・購入できます。)