2024年04月26日( 金 )

人工知能(AI)は人間を見つめ直す鏡である!(3)

記事を保存する

保存した記事はマイページからいつでも閲覧いただけます。

印刷
お問い合わせ

玉川大学文学部教授 岡本 裕一朗 氏

人を助けるために他人を犠牲にするのは許されるか

 ――次に、「AI vs正義」について教えてください。

▲玉川大学文学部教授 岡本 裕一朗 氏

 岡本 今自動運転車が市場に登場する日が近づいています。そのため、テクノロジーだけでなく法的・社会的な整備が急務となっています。日本で、あまり話題になりませんが、欧米では「自動運転車の倫理問題」が活発に議論されています。それには、「トロッコ問題」「トンネル問題」「フレーム問題」などさまざまなものがあります。ここでは、1つの例として「トロッコ問題」の進化形「新トロッコ問題」を取りあげてみます。「『トロッコ問題』が解決されなければ、自動運転車はデビューできない」と力説する人もいるからです。

 トロッコ問題とは、「ある人を助けるためにほかの人を犠牲にするのは許されるか?」という倫理学の思考実験のことを言います。アメリカの哲学者ジュディス・トムソンのトロッコ問題には数種のパターンがあるのですが、ここでは日本ではあまり知られていない、「新トロッコ問題」を考えてみましょう。

 たまたま路面電車の傍らを散歩していたあなたが、ブレーキのきかなくなった電車に遭遇、近くには進路を変えるスイッチがあったとします。線路は3つに分かれ、直進すると5人の作業員、右の線路には1人の作業員、そして左の線路にはあなた自身がいるとします。さて、あなたはどのように対応するでしょうか。

(1)スイッチを引かず、何もしない。その結果5人が死ぬ。(直進)
(2)スイッチを右に引いて、1人を殺す。(右折)
(3)スイッチを左に引いて、自分自身を殺す(左折)

 トムソンは倫理が「自己犠牲」を要求できないと考え、(3)を選択しないと主張します。そして、その時は、(2)も選択しないことになります。なぜなら、自分がしたくないことを他人には要求できないからです。こうして、(1)の選択が残るというわけです。さて、あなたはどの選択をするでしょうか。すべての場合に妥当するような倫理はあるのでしょうか。自動運転車の場合には、このようなケースに備えてあらかじめプログラミングが必要です。しかし、それは誰がするのでしょうか。自動車メーカーでしょうか、政府の諮問委員会のようなところなのでしょうか、それとも、車の持ち主なのでしょうか。また、それぞれの場合、事故が起きた場合の責任は誰が負うのでしょうか。

人工知能に倫理を教えるべき局面に入ってきた

 AIと正義については、もう1つ避けて通れない問題が今クローズアップされてきました。現在戦争は、人工知能を使った「ITネットワーク中心の戦争」へと移行しています。実際、人工知能の開発に最も多くの予算を使っているのが軍事部門であるのは、すでに常識となっています。そこで出てくるのが、「武器ロボット」の問題です。
 さまざまな状況で何をすべきで、何をすべきでないか。あるいは、どんなことがよく、どんなことは悪いのか。こうした区別を行うことは、一般に道徳や倫理と呼ばれています。これまで、倫理は人間に特有の問題だと見なされてきました。しかし、人工知能に倫理を教えるべき局面に入ってきたように思えます。

 人工知能に関しては、岩(山が崩落して岩が人間を圧死させても)や犬(犬が子どもを噛んで傷を負わせても)のように、倫理や道徳を要求することは、そもそも不可能と考えられてきました。人工知能はあらかじめ設定されたプログラムに基づいて作動するので、それによって、被害が出たとしても、それは人工知能の責任ではないというわけです。

 しかし、それは本当でしょうか?2007年に南アフリカで自動制御された武器ロボットが、味方に発砲し、20名を超える死傷者がでました。同様な事故は、ほかでも起こっており、今後も増えていくものと思われています。これら一連の事故に関しては、「単純な過失とは思えない」とも言われているのです。人工知能が自由意思をもって味方に発砲したとまで考える必要はありませんが、人工知能がまったく想定外の振る舞いをする可能性は、想定しておかなければなりません。テクノロジーの進歩が、私たちの考えをはるかに凌駕し始めました。今のうちに倫理を教えなかったら、取り返しのつかない事態になってしまうかもしれません。

開発は中止すべきと、警鐘を鳴らす人もいます

 武器ロボットについては、もっと大きな問題があります。それは、「人間(敵)をいかに効率的に殺すか」というプログラムをその人工知能に開発者である人間が埋め込んでしまったことです。これではいくら「人間に危害を加えてはいけない」(ロボット3原則)とか「道徳・倫理を教えたとしても」、本当に効果があるのでしょうか。これはすべて人工知能の責任ではなく、あくまでも人間のなせる技のせいです。今このような武器ロボット戦士がたくさん生まれています。そこで、軍事ロボット研究者のなかには、開発は中止すべきだと、と警鐘を鳴らす人もいます。

(つづく)
【金木 亮憲】

<プロフィール>
岡本 裕一朗(おかもと・ゆういちろう)

 1954年福岡生まれ。九州大学大学院文学研究科修了。博士(文学)。九州大学文学部助手を経て、現在は玉川大学文学部人間学科教授。西洋の近現代思想を専門とするが、興味関心は幅広く、領域横断的な研究をしている。
 著書として『フランス現代思想史―構造主義からデリダ以後へ』(中公新書)、『思考実験―世界と哲学をつなぐ75問』、『12歳からの現代思想』(以上、ちくま新書)、『モノ・サピエンス物質化・単一化していく人類』(光文社新書)、『ネオ・プラグマティズムとは何か―ポスト分析哲学の新展開』、『ヘーゲルと現代思想の臨界―ポストモダンのフクロウたち』、『ポストモダンの思想的根拠―9.11と管理社会』、『異議あり!生命・環境倫理学』(以上、ナカニシヤ出版)、『いま世界の哲学者が考えていること』(ダイヤモンド社)など多数。

(2)
(4)

関連記事