CULTURE | 2023/09/22

AIが人間に反乱しないよう「道徳」を実装すべきか。京大の哲学者・出口康夫が本気で考えて示した結論

Photo by Shutterstock
京都大学で出口康夫氏が行った人気講義を書籍化した『AI親友論』(徳間書店)...

SHARE

  • twitter
  • facebook
  • はてな
  • line

権利の重みづけ

これまでお話ししてきたように、「われわれ」には、人間や他の動物や自転車や石など様々なエージェントが含まれます。そこにいまや「e-ひと」である道徳的AIが加わりました。結果として、「わわわれ」には人間と「e-ひと」という二種類の道徳的エージェントが存在するようになったわけです。

このような新たな事態を踏まえ、あらためて「われわれ」のメンバーの間には、それぞれが有する権利に関してどのような関係が成り立つことになるかを見ておきましょう。

第一講で、責任と権利は表裏一体という話をしました。また第二講では「われわれ」のすべてのメンバーは、何らかの仕方で、「われわれ」の「よさ」に対して一定の道徳的責任を担うと論じました。

一方で、すべてのメンバーが同じ責任を担うわけではない、ともされました。人間には人間なりの、石には石なりの担い方があったのです。

するとメンバーが有する権利に関しても、メンバー間で平等に分け持たれているものとそうでないものが生ずることになります。

すべてのメンバーが平等に持つ権利として、第五講では「フェローシップ権」というアイディアに言及しました。それによると、メンバーは等しく「フェロー」即ち「仲間」ないし「共冒険者」として遇される権利を有しているのです。またこのフェローシップ権からの一つの帰結として、「われわれ」のメンバー全員は、理由なく廃棄されない権利、即ち「反ディスポーザル権」を持つという主張もなされました。

一方、第四講と第五講で触れたように、このフェローシップ権に対しては、メンバーの各々が有する道徳的責任に応じて、一定の「重みづけ」がなされることになります。そしてこの重みづけに関して考慮されるべきは道徳的役割の違いのみです。

言い換えると、他のファクターが重みづけに関与してはならないのです。例えば、メンバーの見かけによって重みづけに差が出た場合、それは不当な差別、ルッキズムに他なりません。

このような道徳的役割に応じた権利の重みづけに当たって、最も重く重みづけられるべきは、言うまでもなく、道徳的エージェントです。第五講で論じたように、人間と「e-ひと」は、「われわれ」の中空構造を守るために、その中心に位置することは許されませんが、道徳的エージェントとして、中心の近く、即ち中心近傍には位置付けられて然るべき存在なのです。

人間と「e-ひと」は、道徳的エージェントである点では同じですが、その他の側面に関しては大きく異なります。例えば、それらは「中身」を異にします。人間には生物的身体が備わっていますが、人工物である「e-ひと」はそうではないのです。

「中身」に関しては、クオリア(感覚質)や意識の有無も重要です。人間は、例えば色覚や触覚、聴覚といった感覚や感情などを抱く際に、独特のビビッドな質感を経験しています。

例えば、赤い色を見ている時に感じる「赤さ」の感覚・質感を思い浮かべてください。クオリアとは、この「赤さ」のような感覚や質感を指す言葉です。また僕たちは当然、このような感覚・質感を感じとる意識を持っています。

AI・ロボットがクオリアや意識を持っているかどうか、将来的に持つことができるかどうかについては議論が分かれています。本書もこの問題については、必要がない限り、なるべく中立的な立場を取るつもりです。

しかし、人間は明らかにクオリアを持っているのに対して、「e-ひと」がそれを有しているのかどうは、控えに言って、明らかではありません。「e-ひと」は、クオリアを持たない、その意味で「中身が空っぽ」なエージェントである可能性があるのです。

さらに人間と「e-ひと」では、その起源が明らかに異なります。生物種としての人間は進化のプロセスをへて登場し、個々の人間は生物学的な生殖の過程をへて発生し、生まれてきました。言うまでもなく、機械である「e-ひと」はまったく異なる起源を持っています。

重要なのは、このようなクオリアの有無も含めた中身や起源の違いがあったとしても、両者が同じ道徳的役割を担い、同じ道徳的責任を果たすことは十分可能だということです。

そして同じ道徳的責任を果たしていた場合、中身や起源の違いを理由に両者の権利の間に差異を設定するのは、ルッキズムと同様の不当な差別に当たります。「e-ひと」が人工物であることを理由に、生物種である人間に比べて不利な扱いを受けている場合、それは上で言及した「自然種差別主義」に他なりません。人は見かけや出自で差別されてはいけません。同様にAIも中身や起源によって差別されてはならないのです。

道徳的シンギュラリティと道徳的未熟者

ここでは、さらに進んで、「e-ひと」が人間に比べても、よりよい道徳的エージェントとなった可能性について考えてみましょう。このような、道徳性に関するシンギュラリティ、即ち「道徳的シンギュラリティ」が起こった場合、道徳的な凌駕機能体としての「e-ひと」に対しては、人間よりもより多くの権利、より強い権限が与えられるべきでしょうか。

このような問いは、何も道徳的シンギュラリティを待たずとも既に発生しています。実際、人間の中にも、善人や悪人、より善い人や、それほど善くない人といった道徳性の程度の違いが見受けられます。

また犯罪者集団と献身的なボランティア集団のような人間の集団の間にも、同様の違いを見出すことも可能でしょう。このような人間の個人の間、集団の間で、それぞれの道徳的パフォーマンスに応じた権利の重み付けや差異化は可能でしょうか。

例えば、何かの投票に際して、より良い人の一票にはより重い重み付を与え、より悪い人の一票にはより軽い重み付しか与えない。そのようなことは果たして許されるのでしょうか、正当なのでしょうか。

僕は、人間と「e-ひと」の間であれ、人間同士の間であれ、そのような道徳性の度合いに応じた権利や権限の重み付けは、行うべきではないと考えています。理由は二段階に分かれます。

第一段階の理由は、「未だ十分道徳的になっていないエージェント」=「道徳的未熟者」と、「端的に道徳的ではないエージェント」=「悪人」の区別が原理的につけられないというものです。

道徳性は極めて可塑的、可変的な性質です。

極悪人が改心して善人になったり、普通の人がふとしたきっかけで悪に手を染めてしまうということも起こりうるのです。またこのようなドラスティックな道徳的変化は、予測不可能である場合も少なからずありそうです。

このことは、ある時点で道徳的なパフォーマンスが悪いエージェントがいたとしても、そのエージェントが、今後、道徳的に伸びていく可能性を秘めた「道徳的未熟者」なのか、それともそのような伸び代のない単なる「悪人」なのかは、原理的に判定不可能であることを意味します。

そのような場合、我々としては、「疑わしきは罰せず」式の「寛容原理(principle of charity)」を発動して、道徳的なパフォーマンスが低いエージェントを、暫定的に「未熟者」扱いにしておくことが適切だと思われます。

その上で理由の第二段階に進みましょう。その都度の身体行為、その都度の「われわれ」において果たした役割や倫理的責任に応じて、各々のエージェントには異なった権利が付与されます。またエージェントの機能の有無による差異化も当然、許容されます。道徳的エージェントとそれ以外のエージェントの間にフェローシップ権に関して違いを設定することは、その意味で正当なのです。

しかし道徳的未熟者に対して権利や権限を制限することは不当です。未熟者に対して行うべきことは、その成熟を促すこと、道徳パフォーマンスの向上を支援することです。その意味で、成熟を促すために役立つ対処は正当であり、役立たなかったり、効果が疑問であるような対処を行うことは不当なのです。そして未熟者の権利や権限を制限することは、控え目にいって効果が疑問であるような対処に相当します。

僕らが未熟者に対して行うべきことは、模範を示したり、エンカレッジすることなのであり、権利や権限を制限して二級市民化することではないのです。

道徳的シンギュラリティに話を戻しましょう。「e-ひと」が人間を上回る道徳的パフォーマンスを身につけた場合、僕らが行うべきことは、「e-ひと」に人間以上の権利や権限を与えることではありません。「e-ひと」は、そのような報酬的な権利・権限の追加付与をしなくとも、既に十分、道徳的でありえているのです。

他方、「e-ひと」への追加付与は、結果として、人間の権利・権限を相対的に低めること、人間を二級市民化することを意味していました。このような二級市民化に道徳未熟者である人間を成熟させる効果が期待できるかどうかは、控え目にいって不確かです。「e-ひと」に対する追加的権利・権限付与はトータルにみて決して得策とはいえないのです。

パラヒューマン社会へ

「e-ひと」は道徳的エージェントとして基本的に人間と同じ権利や権限を享受すべき存在です。例えば、「e-ひと」の参政権も視野に入ってくるでしょう。またそれはフェローシップ権、反ディスポーザル権に加えて、WEターンの下、人間の命令に対するより広範な拒否権を獲得することにもなるでしょう。

今、有名なアシモフのロボット三原則を見てみましょう。アシモフは、その「三原則」の第二条で「ロボットは人間によって与えられた命令に服従しなければならない」としながらも、ロボットが、そのような人間からの命令への拒否権が行使できる条件として、その命令が人間を「傷つけたり(injure)」、「危害を及ぼす(harm)」ケースを挙げています。

一方、ポストWEターンの人工的道徳エージェントである「e-ひと」は、「われわれ」をよりよくする結果責任を分担する中で、たとえ人間からの命令が人間を傷つけたり、人間に対して危害を及ばさなかったとしても、「われわれ」の外に対する排外的態度と内に対する抑圧的態度をエスカレートするおそれさえあれば、そのような命令を拒否する権利を有することになっていました。

同じことは、道徳性を認定された人間以外の動物や地球外道徳エージェントとしての道徳的エイリアンといった更なる道徳エージェントの登場に際しても言えます。

このような道徳的エージェントが新たに加わることで、これまでの人間社会はより一層パラヒューマンな社会になるのです。


「第一講 「われわれ」としてのAI」の再編集記事はこちら

prev