2023/05/28
インタビュー
AIは圧倒的な情報量で人間の思考に近づいている
東京大学次世代知能科学研究センター 松原仁教授に聞く
東京大学情報理工学系研究科
次世代知能科学研究センター教授
松原仁氏 まつばら・ひとし
1959年生まれ。81年東京大学理学部情報科学科卒業。86年同大学大学院工学系研究科情報工学専攻博士課程修了。電子技術総合研究所(現産業技術総合研究所)を経て、2000年公立はこだて未来大学システム情報科学部教授、2020年から現職。工学博士。人工知能、ゲーム情報学を専門とし、2014年~16年に第15代人工知能学会会長を務める。「AIに心は宿るのか」(インターナショナル新書)など、著書多数。
インターネット上の大量のデータを組み合わせて新しいデータを生成するAI(人工知能)が脚光を浴びている。なかでも人間のように会話する米オープンAI の「Chat GPT」が与えた衝撃は大きく、一般企業においても経営改革の切り札としてAI技術への関心が急拡大。一方で未知なるテクノロジーへの脅威が指摘され、リスクや倫理の観点から使用を規制する動きも広がっている。AIの進化で人間の仕事はどうなるのか、未来は明るいのか。日本のAI研究の第一人者で東京大学次世代知能科学研究センターの松原仁教授に聞いた。
Chat GPTとのうまい付き合い方
――米オープンAI の「Chat GPT」を筆頭に、生成AIが多方面で脚光を浴びています。いまの動きをどうご覧になっていますか?
Chat GPTとその仲間の登場は、AIにとって非常に大きな出来事だと受け止めています。AIは1960年代に第1次ブーム、80年代に第2次ブーム、2010年代からはディープラーニング(深層学習)を中心に第3次ブームが進んできました。Chat GPTは次の第4次ブームの先駆けになるかもしれません。
言葉を操る存在というのは、これまでは唯一、地球上に人間だけでした。それを人間以外のものが、人間と同等かそれ以上にうまく操る。大げさにいえば、人類史上初の経験です。インパクトは極めて大きい。仕事を含め、人間の生活を劇的に変えると思います。
実は、入力した質問にそれなりの答えを返してくれる対話型AIは以前からありました。チャットボットと呼ばれるもので、Chat GPTもそれがベースです。その意味では、大きく進化したわけではありません。ただ、あれだけ長い文章を理路整然と瞬時に返すことはできなかった。これほど注目されているのはそれが理由です。
Chat GPTの前の「GPT-3」というモデルは「良いこともいうけれど変なこともいう」というAIでした。そのため人間が回答に点数をつけ、NGワードを学習させた。卑猥な言葉や差別的な言葉を人海戦術でつぶしていったのです。結果、Chat GPTはまともなことをいうようになった。逆に、まともなことしかいわなくなりました。
うがったいい方をすれば、面白味がなく優等生っぽい。ただ、優等生の友だちは役に立ちます。タブーなことはいわないけれど、一般的な知識は豊富に持っている。簡単なレポートや長文の要約などは瞬時にやってくれて、それがだいたい合っています。
これまでさんざん文章と格闘し、1時間、2時間かけて作成していたレポートがものの数分でできてしまうわけですから、仕事のあり方は自ずと変わります。人間の仕事がAIに取って代わられるというのは、前々からいわれていたことですが、今回は望むと望まざるとにかかわらず、そうなるでしょう。
――とはいえ、AIはアウトプットに虚偽を含むことが問題視されています。
そうですね。確かにChat GPTはよく間違えます。ご承知のとおり、Chat GPTは「わからない」とはいいいません。知らない人の名前を聞くと、ありもしない経歴をしゃあしゃあとでっち上げてくる。わからないとは意地でもいわず、知っていることを適当に答える、そんなところもなんとなく優等生的です。
それでも、Chat GPTのあとに出た有料の「GPT-4」というモデルは、結構「わからない」というようになり、間違いも減ったと聞いています。いまはライバル社がほかにもいろいろな対話型AIを出してきていますから、競争のなかで工夫が積み重ねられると、間違いはどんどん減っていくでしょう。
ただ、原理的にはディープラーニングの応用なので、100%の正解はあり得ません。あくまで質問の答えに近いところを、膨大な情報のなかから探して持ってきて、うまくつなげて出す仕組みです。つまり、だいたい合っているというのが、そもそもAIの回答なのです。それが正解かどうかの判定はしていません。
なので、限りなく正解に近づけることはできても、100%にはならない。そう思って付き合うしかないでしょう。人間がチェックし、直すべきところは直さなければいけないというのは、巷でいわれているとおりです。
――正確さを求めすぎてはいけない、と。
AIは、良くも悪くも人間的です。これまでの機械のイメージとはだいぶ違う。人間は機械に対し正確さを求める傾向がありますから、それが間違えるとなると、不便で使えないという印象を抱くかもしれませんね。
ただ、これが人間なら、いくら優秀でも間違えるのはあたり前です。記憶違いもあるし計算違いもある、だから最終的には自分で判断する。そう思って付き合っているのが人間同士です。AIも同じで、従来の機械とは付き合い方を変えないといけない。
人間も何か聞かれたとき、覚えている情報から何となく答えることがあります。Chat GPTがやっているのもそういうこと。ただし覚えている情報が膨大で、答えは100%ではないけれど、だいたい合っている。だから、優等生の友だちなのです。
「AIは間違えるから事務処理に使わない」という気持ちは、わからないではありません。しかし結局、人間の優秀な部下だって間違える。なので、最終的には上司がチェックし、間違いを修正する。AIも同じです。それでもゼロから作業するより工数は格段に減るでしょう。
意思決定に使う場合も「間違えるから参考にならない」ではなく、ならば同じ質問を人間とAIの両方に聞いてみる。あるいは、違う会社が出している複数の対話型AIに聞いてみるのも手です。大事な意思決定のとき、何人かに相談したり意見を聞いたりするのは、あたり前のことですね。
そんなAIですから、よくいわれるように、壁打ちには非常に便利です。自分の考えを整理したいとき、Chat GPTに聞いて、何か答えてきたらさらに深く聞いて、考えをまとめていく。何か相談したいとき、上司や部下、同僚が常にそばにいてくれるとは限りませんが、Chat GPTはいつもいてくれますから。
インタビューの他の記事
おすすめ記事
-
-
-
リスク対策.com編集長が斬る!今週のニュース解説
毎週火曜日(平日のみ)朝9時~、リスク対策.com編集長 中澤幸介と兵庫県立大学教授 木村玲欧氏(心理学・危機管理学)が今週注目のニュースを短く、わかりやすく解説します。
2024/12/24
-
-
-
能登の二重被災が語る日本の災害脆弱性
2024 年、能登半島は二つの大きな災害に見舞われました。この多重被災から見えてくる脆弱性は、国全体の問題が能登という地域で集約的に顕在化したもの。能登の姿は明日の日本の姿にほかなりません。近い将来必ず起きる大規模災害への教訓として、能登で何が起きたのかを、金沢大学准教授の青木賢人氏に聞きました。
2024/12/22
-
製品供給は継続もたった1つの部品が再開を左右危機に備えたリソースの見直し
2022年3月、素材メーカーのADEKAの福島・相馬工場が震度6強の福島県沖地震で製品の生産が停止した。2009年からBCMに取り組んできた同工場にとって、東日本大震災以来の被害。復旧までの期間を左右したのは、たった1つの部品だ。BCPによる備えで製品の供給は滞りなく続けられたが、新たな課題も明らかになった。
2024/12/20
-
企業には社会的不正を発生させる素地がある
2024年も残すところわずか10日。産業界に最大の衝撃を与えたのはトヨタの認証不正だろう。グループ会社のダイハツや日野自動車での不正発覚に続き、後を追うかたちとなった。明治大学商学部専任講師の會澤綾子氏によれば企業不正には3つの特徴があり、その一つである社会的不正が注目されているという。會澤氏に、なぜ企業不正は止まないのかを聞いた。
2024/12/20
-
-
※スパム投稿防止のためコメントは編集部の承認制となっておりますが、いただいたコメントは原則、すべて掲載いたします。
※個人情報は入力しないようご注意ください。
» パスワードをお忘れの方