明確になった問題は共有される。共有された問題は議論される。議論された問題は無害化される。
「倫理的能力とは、法律や、社会基盤に基づいた行動原理、優先順位などを学習し、それに従って道徳的決定に基づいた行動をし、その行動をとった理由を話せる能力だと考えられる。」少なくとも有限の記憶領域しか持たないことが自明なロボットに倫理をシミュレーション出来るかどうかはともかく、ここではこの「倫理」や「道徳」の定義について触れようと思う。
道徳的決定は法律や社会基盤に基づいた行動原理と、それらを適用する優先順位に従うものであると書かれている。
冒頭の引用は倫理的能力について定義したものであるから、この定義を問題にするには、基盤となっている「道徳的決定」の定義から攻めるのがいい。
社会契約論を思い出してほしい。
ルソーは、国家の前にまず各個人の自由意志があるとした。
そこから国家や社会と言ったものを維持するためには、その中で個人の自由意思を保証し(国家は道徳律そのものを基盤とすることは出来ず、あくまでも明文化して分かりやすい形で示さねばならない)、その上であらゆる権利を国家に譲渡することが必要であると論じた。
国家を直接的に維持しているのは法律や憲法であるが、それらを国民の同意を得られるように定義するために、各個人に本来備わっている「道徳律」が必要となる。というわけだ。
さて、道徳的決定の話に戻そう。
道徳的決定とは法律や社会基盤が原点となるのであった。
しかし、その法律とやらは道徳律が原点なのである。
これは矛盾している。
だからと言って冒頭の倫理的能力を否定することは出来ない。あれは倫理的能力をこう定義すると述べただけであり、それに根拠は不要なためだ。
ここで必要になるのは、定義の変更。
「倫理的能力とは、道徳律に基づいて然るべき行動を導き、それを法律や社会基盤などの取り決めによって他者や国家全体の利益を尊重しつつ、自らその行動を起こす能力」と定義するのが妥当であろう。
「不測の事態が生じたときには、その場でさらに深く熟考できる能力をロボットに持たせなければならない。人間によってあらかじめ設けられたルールは限定的で、考えられるすべての状況を予期したものではないからだ。」冒頭での倫理的能力の定義通り法律やらを道徳的決定の材料として組み込んでいけば、そりゃそうなる。
人間の行動の根幹は道徳律であり、それを明文化した(言い方を変えれば、よりレベルの低い「言葉」という形に落とし込んだ)ものを材料とするのは、自ら不完全性に向かって歩んでいるようなものである。
私が提唱した新しい定義を元に法律を作り直すという仮定を踏めば、少なくとも今以上の判断力を持ったロボットを作れるのは確実だろう。が、それはおそらく、とても難しい。
「道徳律が法律を支配する」状態を実現するには、他者や国家全体の利益を後回しにし、だが周囲との共存を図らねばならない。
高度な法律の定義には、高度な道徳律の定義が必要になるのである。
これ以上言うと一般論の域を抜け出しそうなので止めておいて、結論を出す。
Ⅰ.
道徳的な判断を下すロボットにとっての必要条件は道徳律である。
しかしその道徳律そのものを示す事ができない我々人間にとって、ロボットの必要条件を満たすことは出来ない。
したがって、完全に道徳律に従うロボットは作れない。
Ⅱ.
より完全に近づくためには高度な道徳律の定義に基づいた法整備が必要となる。
しかしその定義は、他者を排除した思考で行動しつつも他者との協調関係を崩さない高度なものである必要がある。
したがって、この定義によって作られた道徳律に従うロボットは、少なくとも現時点においては我々人間の判断以上に正確なものとなる。
PR
この記事にコメントする