2024年03月19日( 火 )

【技術の先端】人工知能の判断を明確化して自動運転の安全・安心を(前)

記事を保存する

保存した記事はマイページからいつでも閲覧いただけます。

印刷
お問い合わせ

九州工業大学 大学院生命体工学研究科 人間知能システム工学専攻
准教授 我妻 広明 氏

 2020年の実用化を目指して研究が進む「自動車の自動運転」。さまざまな技術が用いられているなかで、とくに注目されているのが、ドライバーの代わりに自動車を操縦する人工知能(AI)技術だろう。現在、自動運転を普及させるうえでの課題の1つとされているのが、AIによる運転時に事故が発生した場合の原因把握の難しさだ。この課題に対して、産業技術総合研究所・人工知能研究センターと九州工業大学は共同で、自動運転時にAIがどのような判断を行ったのかを記録するシステムの開発を進めている。この研究に取り組んでいる我妻広明准教授に話を聞いた。

人工知能はブラックボックス

 ――現在、我妻先生が取り組まれている研究について、簡単にご説明をお願いします。

我妻 広明 准教授

 我妻氏(以下、我妻) 自動運転技術が実用化に向けて動き出していますが、技術的な問題を解決しても、社会インフラとして受け入れられるには「安全・安心」を確保する必要があります。安全は「部品が壊れない」など物理的なことで、安心は「道具を信頼して使える」という心理的なものが大きいです。ですから「人が運転していない自動車」が道路を走ることに対して、法整備も必要ですが、最終的に社会に受け入れられるには安全・安心が担保されていることが必要不可欠です。そして、何か不具合が発生したときに「なぜ起こったのか」「どこが問題だったのか」を可視化する必要があります。不具合の理由がわからないものは安心して使えないですよね。

 AIの話のなかで「ディープラーニング(深層学習)」や「機械学習」という言葉を聞いたことがあると思います。これは大量のデータ(もしくはビッグデータ)を学習アルゴリズムに入力し、訓練を施したコンピュータが、データの統計的傾向を算出し、学習後は情報を自動的に分析できるというものです。
 たとえば、Amazonで買い物をすると「こちらはいかがですか」とオススメする推薦システムがありますね。これは膨大な購買データから共通項を抽出して「傾向から、あなたはこれに興味があるはずだ」といっているわけです。
 こういったものを「データ駆動型AI」といいますが、実は内部でどういう理由でそれを推薦するに至ったかなど、何をどう意味づけて計算しているかわからない。言わば「ブラックボックス」なんです。

 最近の話ですと、AIが将棋のプロ棋士に勝利していますが、コンピュータ自身は何の意味づけもせず、最適解計算を繰り返しているだけなので、実はなぜ強いのか、どういう戦略を立てたから勝ったのかはわからないんですよ。過去の膨大な棋譜データを学習し、統計的に「この場面ではこの手を打つのが良いだろう」と勝つ確率が高い手を選んでいる。そして、勝ち負けでいうと確かに人間のプロ棋士に勝ってしまう。でも、開発者ですら「なぜそのとき、その判断をしたのか」という説明はできません。

 ――統計から、機械的に最適と思われるものを選んでいるだけなんですね。

 我妻 説明できなくても、将棋の勝ち負けなら問題はないんです。でも、自動運転時に統計的には99.99%正しい判断をしたのに、0.01%の部分で人に対して事故を起こしてしまった、ということがあり得ます。そして、なぜその事故が起きたのかと原因を追求しようしたときには「わかりません」ということになる。これではダメですよね。理由もわからずに人に危害を加える欠陥製品と認定されれば、大量リコールになり、メーカーは大打撃を受けます。ですから、自動運転の「判断」のところにブラックボックスがあるAIをそのまま使うのは、非常に危険だということです。

 実はどの自動車メーカーも、技術的には高速道路上の自動運転化はほとんどできています。料金所から入って出るまでの間なら自動化できるといわれています。でも、一般道だと何が起きるかわからない。事故が起きた際にメーカー責任になるのかどうかも決まっていないため、二の足を踏んでいる状況です。

 ――責任の所在が明らかでないため、一般道を走らせることができないわけですね。

(つづく)
【犬童 範亮】

<プロフィール>
我妻 広明(わがつま・ひろあき)
1967年、山形県生まれ。理科学研究所基礎科学特別研究員、同研究所脳科学総合研究センター研究員を経て、2009年より九州工業大学大学院生命体工学研究科准教授。脳型人工知能・ロボット工学ならびに身体動作支援機器研究に携わる。「NEDO次世代ロボット中核技術開発/次世代人工知能技術」に参加。

 
(中)

関連記事