CULTURE | 2023/09/22

AIが人間に反乱しないよう「道徳」を実装すべきか。京大の哲学者・出口康夫が本気で考えて示した結論

Photo by Shutterstock
京都大学で出口康夫氏が行った人気講義を書籍化した『AI親友論』(徳間書店)...

SHARE

  • twitter
  • facebook
  • はてな
  • line

Photo by Shutterstock

京都大学で出口康夫氏が行った人気講義を書籍化した『AI親友論』(徳間書店)。

同書はAIと人間との関係性でよく言われる「仕事が奪われる(人間が奴隷にされる)」、あるいは逆に「人間が支配できる程度の性能に抑えるべきだ」といった敵視を前提とした議論ではなく、人間とAIが「親友」として共生するための社会観・人間観をいかにして考えることができるかについて、これまでのAIやロボットにまつわる議論も参照しながら考え抜いた一冊だ。

本稿では、アイザック・アシモフの「ロボット三原則」の時代から続く「AI(あるいはAIを搭載したロボット)が人間に反旗を翻さないよう、何らかの制約を課すべきか、またそれは可能か」という問いについて、最新の技術や議論をベースに改めて検討を行う。

※本記事は『AI親友論』の「第六講 AIに倫理を装備する」を再編集したものです

「第一講 「われわれ」としてのAI」の再編集記事はこちら

AIを道徳化すべきか

本講では、第二講で触れた人工人格「e-ひと」(※1)、即ち道徳的AIについて考えることにします。

まずは(僕が考えるバージョンであれ別のバージョンであれ)そもそも道徳的AIを作ること自体、言い換えるとAIやロボットに道徳性を装着すること自体に賛否両論があることを確認しておきましょう。

倫理的AI、倫理的ロボットを作ろう、いやむしろ作らなければならないという主張、さらにはAIやロボットに倫理を装着する試みは、これまですでになされてきました。

例えば、ChatGPTでは、AIが質問者に対して侮蔑的な表現や内容で解答を返すケースが問題視されました。それに対する一つの対処法として、ChatGPTに、解答文を作成する機能とは別に、悪口を検知する機能──これを「悪口フィルター」と名付けましょう──も装着し、前者が作成した文章をチェックすることで、問題のある表現・内容を取り除こうという試みもなされています。

自動運転AIについても同様です。自動運転AIは、当然、交通規則を遵守するように作られなければなりませんが、それに加えて、法律違反と言うほどではないマナー違反も起こさないように設計される必要があるでしょう。自動運転AIにこのような機能を持たせることは、まさに道徳性を装備することに他ならないと言えます。

一方、AIに道徳性を持たせること=道徳的AIを作ることには反対意見もあります。第三講や第五講で名前を出したジョアンナ・ブライソン(AIおよびAI倫理の研究者)も、そのような反対論を展開している一人です。例によってブライソンの議論はロボットを対象とするものですが、それはそのままAIを対象とする議論にスライドさせることができるものです。

ブライソンは、道徳的なAIやロボットが出現することで、結果として、本来は人間が行うべき道徳的配慮や行動がAIやロボットによって代替されてしまうことを問題視しています。彼女によれば、このような人間からAI・ロボットへの道徳的義務の「外注」は、人間の道徳的責務の放棄を意味するとされます。義務の放棄は「悪い」ことです。なので、道徳的なAIやロボットを作ること、道徳をAIやロボットに装着することも「悪い」ことだとされるのです。

このようなブライソンの理論は、明らかに、第五講で僕が批判した、人間とAI・ロボットとの間の非対称な関係を前提としています。

人間はデザイナーであり、AIやロボットはデザインされる側。

ブライソンは、このデザインをめぐる非対称性をもとに、人間を「主人」、AI・ロボットを「奴隷」とする更なる非対称な関係を設定したわけですが、同じ論法がここでも繰り返されています。デザイナーである人間に対しては道徳的存在、デザインされた側であるAI・ロボットに対しては非道徳的存在というレッテルが貼られているのです。

言い換えると、道徳性はデザイナーたる人間の専売特許、特権だとする隠れた前提がおかれているのです。そのような前提に立ってはじめて、道徳性をAIやロボットに担わせることは、人間の不当な義務放棄だという議論が出てくるのです。

第五講でお話したように、デザインする側とされる側という非対称性が成り立っていたからといって、前者を「主人」、後者を「奴隷」としなければならない必然性はありません。

同様に、道徳性をデザイナーの特権としなければならない必然性も、これまた一切ありません。デザインする側とされる側、両方に、道徳性を認めても何の問題もないのです。その意味で、AIやロボットを道徳化することへのブライソンの反論には根拠がないと僕は思います。

一方で、上で見たように、ChatGPTや自動運転AIに道徳性を装着しないことの弊害は明らかです。そこで以下では、道徳的AIの可能性を許容した上で、そもそもAIを道徳化するとはどういうことかを考えていきましょう。

モラルベンディングマシーン

ここで、第二講で少し触れた「道徳自動販売機(モラル・ベンディングマシーン)」について改めて考えてみましょう。

「自動販売機」とは、ボタンを押せば自動的にそして機械的に、例えば缶ジュースが出てくる装置です。そのような装置には、缶ジュースを出す以外の選択肢がありません。それは、一定のボタンが押されれば、言わば、否応なく、飲み物を出さざるを得ないように設計されているのです。

もちろん、時には缶が装置の内部で詰まってしまい、何も出てこないこともあるでしょう。でも、それは単なる「故障」であって、自動販売機の正常な機能ではありません。つまり自動販売機は、正常に機能している限り、永遠に缶ジュースを出し続けざるをえない宿命を背負っているのです。

今、缶ジュースの代わりに、道徳的に正しい行為を売っている自動販売機を考えて見ましょう。これがモラルベンディングマシーンです。この自動販売機からは、ボタンを押せば自動的に機械的に道徳に適った行為が出てきます。故障でもしない限り、この機械は、永遠に道徳的な振る舞いをし続けるのです。

もちろん、このような道徳自動販売機を作らねばらないケースもあるでしょう。例えば、自動運転AIは、このようなモラルベンディングマシーンであるべきです。

しかし、ここで問いましょう。このような道徳自動販売機は、果たして道徳的なエージェントと呼べるでしょうか。モラルベンディングマシーンとしてのAIは、第二講で導入した道徳的AIと言えるのでしょうか。

二つの禁令

モラルベンディングマシーンが道徳的エージェントと呼べるかどうかを考えるために、ここでは次の二つの禁令ないし禁則を考えてみましょう。一つは「鳥のように空を飛ぶな」という命令、二つ目は「廊下を走るな」という禁則です(以下では、前者を「空飛び禁令」、後者を「廊下禁令」と呼びましょう)。これらは、それぞれ道徳的命令と言えるでしょうか。

「空飛び禁令」の場合、普通の人間はみんな、特に何もしなくとも、言わば自動的にそれを守っていることになります。鳥のように空を飛べる人は、原理的に、いないからです。

僕らは鳥のように空を飛びたくとも飛べないので、結果として、この禁令に背いていないのです。いやむしろ、背くことができないでいるのです。

「廊下禁令」はどうでしょう。

もちろん、そもそも走ることができない人々、それでも一点の曇りもなく「全き人間」といえる人たちもいます。

一方、廊下を走ることができる人も少なからずいます。そのような人たちが、廊下禁令の張り紙を目にして、その結果、廊下を走らず大人しく歩いていた場合、彼らは、この禁令に背くことができたのに、あえて走らなかったことになります。彼らは禁じられている行為を行うこともできたのに、あえてそうはせず、禁令に従ったのです。

この二つの禁令を比べた場合、おそらくあなたも含め多くの人々は、「廊下禁令」は道徳的命令となりうるが、「空飛び禁令」はそうではない、と感じられるのではないでしょうか。

以下では、このような「感じ」ないしは直観を信頼して、「廊下禁令」のみが道徳的命令となりうるという前提の下で話を進めていきましょう。

next