近年、ロボットの開発がとても進んでいるよね。それで、ロボットに対して人間の立場からの主張はよく見るけれど、ロボットの立場に立った視点からの意見は私の周りでは聞こえてこない。「それは人間にとって良いのか」という議論は聞こえてきても、「それはロボットにとって良いのか」みたいな話はあまり聞いたことがない。命に関わる新しい技術については「そんなことをして良いのか」みたいな話がよく出てくると思う。だから生命倫理はあるけどロボット倫理が問われるみたいなことってあまりないように思う。でも生命倫理だけじゃなくてロボット側の視点に立ったロボット倫理のようなものも当然必要なのではないかと思うのだけど。
まず、今のところロボットが人間と違うのは以下の点だと思う。
1. 生命体ではない(生きてはいない)という事
2. 人為的に作られたものである事
これが根本的な違いだと私は思っているのね。そんなの当たり前のことだけれど今の時点でロボットに対して何だかんだ思う際にそれを踏まえるのは前提として非常に重要だと思っている。
ときどき、「ロボットが自分の意思や感情を持って自らの趣味や感性で自分から何かをするようになったら理想的だ」という思想を持った人を見かける。それは一部の人間あるいは生物の側の願望かもしれないけれど、もしもそれが叶ったとして、私がもし、そのように作られたロボット側だったら堪えられない。作った人を殺したくなると思う。
私は幼い頃から自分が存在しているという事実を受け入れられず否定してきたけれど、それでも何とか生き延びる方向に自分を持ち直せてきたのは、自分が「生物」だから。自分に意思が宿っているというのも堪え難いことだけれど、でも生命体だから意思を持っているのは仕方がないと思えた。生きていくために意思が必要なら、自分に意思が宿っているのも仕方ないと思えたから。
そして自分が誰かの意図のもとに設計されたのではなく偶然に自然に発生したものだから。だから仕方ないと思えた。自分に意思があるのも、それは自然にそうなってしまったことなのだから誰のせいでもないと思い、仕方ないと思えた。
でもそれがもし、他人から人為的に意思を与えられたとしたら、自然の流れでそうなったのではないとしたら、とても堪えられない。
もし、それに堪えられるようなタイプの意思を持ったロボットを意図的に作るのだとしたら、そのロボットは私みたいなことは思わないかもしれないけれど、でもそれは、そう設計したからそうなるということであって、そういうことを人間の側がロボットに施すのは良いことなのか。
生命倫理で、これから生まれる子供の遺伝子をデザインすることについては慎重に是非を問われるのに、なんでロボットに生物のような意思を与えようとする思想に対しては責任を問う議論がそこまで聞こえてこないの?まだそこまで技術的に差し迫った問題ではないからかな。
でも、生命が生命を操作するのは我々生命体同士の間での話だから、ある意味自分たちの内輪での責任だけれど、生命体でもない存在に生命体にあるような意思を我々の願望のもとに植え付けるとなったら、むしろそっちのほうがある意味もっと大きな責任を負うことだと思うし是非を問われるべきことなんじゃないかと思う。
それ以前に、生物でないのなら意思を持つ必然性はないかと思う。意思を宿さずに素晴らしい能力を発揮できる物凄く幸運な存在がロボットだと私は思っている。それがむしろ、人間は決して手にすることのできないロボットのスゴさだと思う。
人間あるいは生物に意思があるのは、それが生物だからじゃないの?生物だから、生きようとする意思が必要だから。生存のためには生存に向かう意思が必要だから。感情があるのも、生きるために必要だからでは。例えば「怖い」という感情は生存のために必要だもの。もし、落ちたらすぐ死んでしまうような崖っぷちに立っても全く怖いと思わないで安心していたら、不注意で落ちて死んでしまうかもしれない。だから、そうならないように「怖い」という感情が働くんじゃないの?命を失う危険が迫ったら「怖い」という感情が働くことで、命を守ろうとしているということでしょ?だから人間に意思や感情が宿っているのは、生きていくために必要だからなんじゃないの?それは「生物だから」必要なんじゃないの?
でもロボットならば生きようとする必要もない。そもそも「生きていない」のだから。それなのに意思や感情を植え付けられたら自分がロボット側だったらもう堪えられない。意思や感情というものが、生きるために必要なものなら私は生物としてそれを受け入れられるけれど、自分が生物でなかったのならそんなものを強制的に植え付けられるのは酷すぎる。
ロボットが人間のような意思を持ったとして、それはロボットにとって幸せなことなの?人間がロボットにどうなって欲しいかではなくて、ロボット自身の幸せについては考えなくていいの?ロボットは今の時点では幸せとか思わないとしても、そういうことを思うように設計することがロボットにとって幸せなことなの?仮に「超幸せ!」と思い続けるようなロボットを意図的に設計して作ったとしたら、そのロボットは幸せと思うかもしれないけれど、そんなことをすること自体、生物である我々の側に許されるのかという問題。
しかもロボットを人間に近づけることに、ロボット側からの価値もしくは生物とそれに続く歴史全体の中での価値はどのくらいあるのだろうか。ロボットにはロボットにしかない、人間には持ち得ないものを持っててもらったほうがいいんじゃないの?
もし、ただ人間に近づけて人間と同じものを持っている状態にしたら、単に人間のバージョンアップみたいな状態にしかならないもの。
それは猿から人間に進化する場合に例えたら、単により速く木に登れるスーパー猿になるとか、より速くバナナを剥ける猿になるみたいなことと変わらなくなっちゃって、それは言語を習得するとか火を使って料理するとか、猿にない人間固有の特性を持つことにならないから、単に前の世代に似せてそれの持つ能力をバージョンアップしただけでは次に進まないもの。人間から先に行くためには、次の存在には人間には無い新しい要素を持っててもらわないといけないものね。
ロボットは、単に人間の能力の度合いを超えるというより、人間の次の新しい段階に入ったほうがいいと私は思うから、そのためには将来的には人間と似たように設計してその度合いをただ高くするだけではダメなのだろうと思う。ロボットにしかない、ロボット固有の新しい要素を備えていなくてはならないのだと思う。
人間に似せることや人間が持つ要素と同じ要素を持たせることよりも、人間に持ち得ない特性を持たせることのほうが、生命体とそれに続くもの全体の歴史にとっては重要なことなんじゃない?
ただもちろん、ロボットの開発を進めるためにまず人間の脳をコピーすることを目的とするとか、将来的に新しいロボットを作るために、その過程として人間に似せることがロボットや人間についての研究を進めるに当たって役立つというのはあるだろうけど。
でもそうだとしても、生物が生存のために必要だから必然的に宿っているような、生物にしか備わっていない性質を、生物でないものに組み込んでしまうということを人為的にするとしたら、それは不自然なことをするわけだから、何かしらそこで歪みが生じておかしくないと思う。
そうなったときにロボットがどう思うのか、それは生物であるが故に意思を宿している我々生物の側からは測り知れないことなんじゃない?それは生きてもいないのに、生きている者たちが持っている、生きるために必要なものを強制的に与えられたような、必然性のないことをされた状態になった側でないと分からないことなんじゃないかな。だからそういう未知なことを望むのは責任の重いことだとは思う。
いずれにしても、人間がロボットにどうなって欲しいかという視点からじゃなくて、ロボットの未来にとって何が良いことなのかを考えなくてはならない時が来ると思う。
2017年5月/9月 間アイ
© 2017 Aida Ai All Rights Reserved.