2023/05/28
インタビュー
AIは圧倒的な情報量で人間の思考に近づいている
東京大学次世代知能科学研究センター 松原仁教授に聞く
東京大学情報理工学系研究科
次世代知能科学研究センター教授
松原仁氏 まつばら・ひとし
1959年生まれ。81年東京大学理学部情報科学科卒業。86年同大学大学院工学系研究科情報工学専攻博士課程修了。電子技術総合研究所(現産業技術総合研究所)を経て、2000年公立はこだて未来大学システム情報科学部教授、2020年から現職。工学博士。人工知能、ゲーム情報学を専門とし、2014年~16年に第15代人工知能学会会長を務める。「AIに心は宿るのか」(インターナショナル新書)など、著書多数。
インターネット上の大量のデータを組み合わせて新しいデータを生成するAI(人工知能)が脚光を浴びている。なかでも人間のように会話する米オープンAI の「Chat GPT」が与えた衝撃は大きく、一般企業においても経営改革の切り札としてAI技術への関心が急拡大。一方で未知なるテクノロジーへの脅威が指摘され、リスクや倫理の観点から使用を規制する動きも広がっている。AIの進化で人間の仕事はどうなるのか、未来は明るいのか。日本のAI研究の第一人者で東京大学次世代知能科学研究センターの松原仁教授に聞いた。
Chat GPTとのうまい付き合い方
――米オープンAI の「Chat GPT」を筆頭に、生成AIが多方面で脚光を浴びています。いまの動きをどうご覧になっていますか?
Chat GPTとその仲間の登場は、AIにとって非常に大きな出来事だと受け止めています。AIは1960年代に第1次ブーム、80年代に第2次ブーム、2010年代からはディープラーニング(深層学習)を中心に第3次ブームが進んできました。Chat GPTは次の第4次ブームの先駆けになるかもしれません。
言葉を操る存在というのは、これまでは唯一、地球上に人間だけでした。それを人間以外のものが、人間と同等かそれ以上にうまく操る。大げさにいえば、人類史上初の経験です。インパクトは極めて大きい。仕事を含め、人間の生活を劇的に変えると思います。
実は、入力した質問にそれなりの答えを返してくれる対話型AIは以前からありました。チャットボットと呼ばれるもので、Chat GPTもそれがベースです。その意味では、大きく進化したわけではありません。ただ、あれだけ長い文章を理路整然と瞬時に返すことはできなかった。これほど注目されているのはそれが理由です。
Chat GPTの前の「GPT-3」というモデルは「良いこともいうけれど変なこともいう」というAIでした。そのため人間が回答に点数をつけ、NGワードを学習させた。卑猥な言葉や差別的な言葉を人海戦術でつぶしていったのです。結果、Chat GPTはまともなことをいうようになった。逆に、まともなことしかいわなくなりました。
うがったいい方をすれば、面白味がなく優等生っぽい。ただ、優等生の友だちは役に立ちます。タブーなことはいわないけれど、一般的な知識は豊富に持っている。簡単なレポートや長文の要約などは瞬時にやってくれて、それがだいたい合っています。
これまでさんざん文章と格闘し、1時間、2時間かけて作成していたレポートがものの数分でできてしまうわけですから、仕事のあり方は自ずと変わります。人間の仕事がAIに取って代わられるというのは、前々からいわれていたことですが、今回は望むと望まざるとにかかわらず、そうなるでしょう。
――とはいえ、AIはアウトプットに虚偽を含むことが問題視されています。
そうですね。確かにChat GPTはよく間違えます。ご承知のとおり、Chat GPTは「わからない」とはいいいません。知らない人の名前を聞くと、ありもしない経歴をしゃあしゃあとでっち上げてくる。わからないとは意地でもいわず、知っていることを適当に答える、そんなところもなんとなく優等生的です。
それでも、Chat GPTのあとに出た有料の「GPT-4」というモデルは、結構「わからない」というようになり、間違いも減ったと聞いています。いまはライバル社がほかにもいろいろな対話型AIを出してきていますから、競争のなかで工夫が積み重ねられると、間違いはどんどん減っていくでしょう。
ただ、原理的にはディープラーニングの応用なので、100%の正解はあり得ません。あくまで質問の答えに近いところを、膨大な情報のなかから探して持ってきて、うまくつなげて出す仕組みです。つまり、だいたい合っているというのが、そもそもAIの回答なのです。それが正解かどうかの判定はしていません。
なので、限りなく正解に近づけることはできても、100%にはならない。そう思って付き合うしかないでしょう。人間がチェックし、直すべきところは直さなければいけないというのは、巷でいわれているとおりです。
――正確さを求めすぎてはいけない、と。
AIは、良くも悪くも人間的です。これまでの機械のイメージとはだいぶ違う。人間は機械に対し正確さを求める傾向がありますから、それが間違えるとなると、不便で使えないという印象を抱くかもしれませんね。
ただ、これが人間なら、いくら優秀でも間違えるのはあたり前です。記憶違いもあるし計算違いもある、だから最終的には自分で判断する。そう思って付き合っているのが人間同士です。AIも同じで、従来の機械とは付き合い方を変えないといけない。
人間も何か聞かれたとき、覚えている情報から何となく答えることがあります。Chat GPTがやっているのもそういうこと。ただし覚えている情報が膨大で、答えは100%ではないけれど、だいたい合っている。だから、優等生の友だちなのです。
「AIは間違えるから事務処理に使わない」という気持ちは、わからないではありません。しかし結局、人間の優秀な部下だって間違える。なので、最終的には上司がチェックし、間違いを修正する。AIも同じです。それでもゼロから作業するより工数は格段に減るでしょう。
意思決定に使う場合も「間違えるから参考にならない」ではなく、ならば同じ質問を人間とAIの両方に聞いてみる。あるいは、違う会社が出している複数の対話型AIに聞いてみるのも手です。大事な意思決定のとき、何人かに相談したり意見を聞いたりするのは、あたり前のことですね。
そんなAIですから、よくいわれるように、壁打ちには非常に便利です。自分の考えを整理したいとき、Chat GPTに聞いて、何か答えてきたらさらに深く聞いて、考えをまとめていく。何か相談したいとき、上司や部下、同僚が常にそばにいてくれるとは限りませんが、Chat GPTはいつもいてくれますから。
インタビューの他の記事
おすすめ記事
-
なぜ製品・サービスの根幹に関わる不正が相次ぐのか?
企業不正が後を絶たない。特に自動車業界が目立つ。燃費や排ガス検査に関連する不正は、2016年以降だけでも三菱自動車とスズキ、SUBARU、日産、マツダで発覚。2023年のダイハツに続き、今年の6月からのトヨタ、マツダ、ホンダ、スズキの認証不正が明らかになった。なぜ、企業は不正を犯すのか。経営学が専門の立命館大学准教授の中原翔氏に聞いた。
2024/11/20
-
-
リスク対策.com編集長が斬る!今週のニュース解説
毎週火曜日(平日のみ)朝9時~、リスク対策.com編集長 中澤幸介と兵庫県立大学教授 木村玲欧氏(心理学・危機管理学)が今週注目のニュースを短く、わかりやすく解説します。
2024/11/19
-
ランサム攻撃訓練の高度化でBCPを磨き上げる
大手生命保険会社の明治安田生命保険は、全社的サイバー訓練を強化・定期実施しています。ランサムウェア攻撃で引き起こされるシチュエーションを想定して課題を洗い出し、継続的な改善を行ってセキュリティー対策とBCPをブラッシュアップ。システムとネットワークが止まっても重要業務を継続できる態勢と仕組みの構築を目指します。
2024/11/17
-
-
セキュリティーを労働安全のごとく組織に根付かせる
エネルギープラント建設の日揮グループは、サイバーセキュリティーを組織文化に根付かせようと取り組んでいます。持ち株会社の日揮ホールディングスがITの運用ルールやセキュリティー活動を統括し、グループ全体にガバナンスを効かせる体制。守るべき情報と共有すべき情報が重なる建設業の特性を念頭に置き、人の意識に焦点をあてた対策を推し進めます。
2024/11/08
-
-
-
リスク対策.PROライト会員用ダウンロードページ
リスク対策.PROライト会員はこちらのページから最新号をダウンロードできます。
2024/11/05
-
※スパム投稿防止のためコメントは編集部の承認制となっておりますが、いただいたコメントは原則、すべて掲載いたします。
※個人情報は入力しないようご注意ください。
» パスワードをお忘れの方