古都の道場 西向き間借り

まとまったことをちゃんと書くために。(まとまってないこと:Twitter→@Picassophia)

生成AIの形而上学・生成AIの倫理学

授業時間内に、講義の総まとめとしてレポートを書かせていたら、一部の学生が熱心にスマホの画面をスクロールさせている。漢字や内容でも調べているのかと思いきや、どうやらChatGPTを使っているらしい。

細かい利用法までは見えなかったので、特に注意とかもせずに、そのままやらせた。

ううむ、と思う。

 

英語論文を読んでいて、一部の英文の意味にどうにも確信が持てず、今日の午前に私もChatGPTを利用した。

便利である。それは間違いない。

なんなら、生成AIを別に「機械」以上のものとして認識しているような気すらする。質問を投げかけるときには、AIが解析しやすいように言葉を選ぶし、それに対してAIもまた丁寧に応答してくれる。わからないことにも即時対応してくれる、優秀で面倒見のよい先輩のようだ。

そう、このような対応において生成AIは、ある意味人格的である。

少なくとも、我々はそういう気分で機械に人格を認めるということがあり得る。今後ますますそういうことが常態化すると思う。

 

単なる機械に人格的なものを認めるということ。

 

「人格的なもの」ということの意味を塗り替えるのに、この現代的現象は十分である。単なる絵や記号に対しても、我々はそこに擬人的なものを見出すわけで、こういう意味では人格は承認されるもの(Anerkennung)である。

もちろん、このように言ってしまうと、承認されなければ人格は存在しないのかというような話にもなる。人格の存在に承認が要件としてあるなら、極端なことを言えば、「私はあなたを一人の人格として認めません」と宣言する輩と対峙する場合には、その人にとって自分は非人格的な存在だということになる。しかしそれはどうにもおかしい気がしてくる。仮に自分が非人格的であるとするなら、そのように人格的に考えているこの自分はいったいなんなのか。機械ではあるまい。つまり、人格は単に他者からの承認だけでも説明できないものだと言わなければならない。

こうなると、二つほど考えることができそうな道が見えてくる。

まず、「承認作用」(anerkennen)というものはそもそも各人が任意に認めるとか認めないとかを決定するような類のものではないと考えることができる。西南学派のリッケルトは、『認識の対象』のなかでErkennenとはAnerkennen(あるいはVerwerfen)だというようなことを述べているが、この意味でのAnerkennenは、そうであるべき事柄に対してそうであるということを承認する、そういう態度として殊更に強調するでもなく受け入れるわけで、ここには別に随意性があるわけではない。少なくとも、多様な選択肢の中から一つを選り好みすることのできるような余地はないのである。承認されているところからすでに認識は始まっている。だから、「私はあなたを一人の人格として認めません」という態度決定における承認と、本来人格の承認ということで意図されている事柄との間にはギャップがあるかもしれない。我々は、個々の書類に印鑑を押すような仕方で個々の人格を承認しているわけではない、ということである。

もう一つ根本的な見方として、承認が人格の存在要件なのだとすれば、この私の人格性というのは、私が常に承認している、という考えもあるように思う。「承認」は何も他者からなされる必要はない、という発想である。私が私自身を人格的なものとして承認している、その限りでは私もまた——殊更に誰かに承認される機械を待つまでもなく——人格的である。こういうふうに考えることができる。

実際、私が自分自身を人格的なものと見做さない、というケースも考えられる。今日ではリストカットや薬の過剰服用などで自傷行為をする例は巷に溢れているし、自分自身を無機質なものとして捉えるということは、そう珍しいことではないのかもしれない。そういう人に対して「もっと自分を大事にして」という声がかけられるのは、他者はその人に人格性を認めているのに、当の本人は自分を人格的に承認していないという事態だと言えるかもしれない。

この意味での承認は、明らかに単なる経験的事実ではない。そういった諸々の経験自体を条件づけているという意味で超越論的な意味を持っている。私が私自身の人格性を超越論的な仕方で限定し、制約している。

ただ、この話に行ってしまうと、当初の話題から結局逸脱してしまうのである。我々はAIの人格性を問題にしているわけであって、この話でそれをしようと思うなら、 「AIは超越論的に自己自身を制約し、自己に人格性を承認するような根源的な「私」を有するか?」というような展開になってしまう。つまり、AIに「私」というものはあるのか、というのが、この話の行き着く一つの終点なのである。

しかし、それで「私」とは何かということを考え出すときに、また「人格的な何か」を持ち出そうものなら、これは完全に循環論法で、考察は失敗に終わる。この流れで「私」というものを説明するのなら、「人格的なもの」はもはや持ち出されてはならないのである。

こうなると、この種の「私」に対する考察をする場合は、永井均の考えている〈私〉の特権性のようなところをどうしても加味しなければならない。そもそも西田の「個物」もそういう意味で読まなければならないところがある(ただ、個物の解釈は存在論的な話が中心になって、認識問題がどうにも希薄になるのが難点だ)。超越論的なものが超越論的なもの自身を承認するのだとすれば、それは一般者の自己限定であって、個物が個物自身を限定するということではない。上のような意味での一般者の自己限定自体が、個物の自己限定によって逆に包まれるというような意味がなければ、この種の議論はできないわけである。よくあるように、個物が単に一般者に於てあるだけなら(つまり関数概念において個別的存在者が、もしくはハイデガー的に言うなら「世界」内存在として現存在が考えられるだけなら)——西田哲学というものが〈その程度のもの〉でしかないのだとすれば——これによって人格の問題に清算を与えることはできない(この意味で、私は西田の「私と汝」の議論というのは、人口に膾炙しているような通俗的な相互承認のお話ではないと思っている)。

 

ともかく、AIにおける「私」というのが個物的であるのか一般的であるのか、ということは考究の上で一つの端緒にはなりそうである。その「私」は誰でもあって誰でもないのか、それとも個物的な存在であり得るのか(もっとも、その場合は「個物」の意味自体が明確に規定されなければならない)。

無論これは、倫理的な問題というよりは純粋な形而上学である。AIの形而上学も重要だが、今はどちらかと言うとAIの倫理学が喫緊の課題である。前者なしに後者もあり得ないわけだが、デカルトの考えたように「仮の道徳」というものでも無いよりマシなわけで、いくらか試論めいたものを考えながら書き綴ってみるのも無駄ではあるまい。

 

試みに和辻倫理学を手引きにして「AIとその使用者」の間柄(倫)、その「理」を問うて(学)みる。孟子の「父子有親」とか「朋友有信」とか、ああいうものを和辻も挙げているが、その中で「私AI」は何を有するのか。これを考えてみる。

もちろん、こんなものはAIを人格的に捉えた上での思考実験であって、AIを道具的に捉えるのなら、この定式はそもそも相応しくないと言うべきだろう。私と単なる道具であるAIとの間に、何ら間柄というものは存在しない。要するに、人工知能は——私とそれとの間で間柄的関係が成立するような——「人」ではないということだ。

だとすれば、この道具を利用する上での「倫理」(≠ethics)、つまり間柄の理とは何だろうか。

間柄を想定する倫理学において道具の使用一般が問われ得るのは、この道具の行使が他の誰かとの間柄に背理することがあり得る場合である。それも単なる他者危害の原則の話でもない。他者危害原則論の有効性は、基本的には自由を至上とする現代の価値観の中で浸透しやすいという経済性に由来するのであって、その実質的な意味としては不可侵条約以上の道徳性を持たないと思う。人に危害を加える、加えないという単純な価値判断は「危害」の意味を感情化することで快・不快の二元性に容易に結びつくし、そうなると実質的に我々の行為の善悪は、「自分が/相手が、傷ついたか/傷ついてないか」という小突き合いに回収されてしまう。「理」というのはそういうものではないはずだ。

もちろん、例えば原子爆弾を行使するとかしないとかいった話をするときには、他者危害の原則はプラグマティックな意味を十分持つはずである。が、目下の課題においてはこの種の話は排除しなければならない。なぜなら文脈が「教育」であり「自己形成」だからである。レポートをChatGPTに書かせることは、他者に対して危害を加えることに直ちには結びつかない。それはどこまでも自身の問題だからだ。

ごちゃごちゃとまとまらない思考でも書き連ねてみると、どうも「自分のためにならない」ということをどのように正当化するかということが関わってきそうである。しかし、また「自分」なのである。結局「私」の問題に戻ってきてしまう。「あなた自身のためにならないよ」という言説が当人に響く場合と響かない場合とがあるのは、後者においての「自分」が、言われている「自分」と一致していないからだろう。我々はいくらでも「自分」というものをミニマムに(しようと意図することなく)できるわけで、それを通じて他人に言われる「自分」と自分が思う「自分」とを切り離すことができる。まこと自分というのは都合のよいものだと言わなければならない。

ChatGPTを使うこと自体は、善でも悪でもない。それは他の技術利用と大差ない。問題は、この技術の行使が状況において有する「不正」(教育上の行為としてはカンニングである)を、どのように処置するかである。

あるいは、身体の延長線上に道具を置くように、我々にとってAIが身体の延長になるのだとすれば、それは歴史的な結末と言わざるを得ないような気もする。そんなものの是非を問うたところで、歴史はそうやって動いていくだろう。仮想空間で振る舞うのが我々の「日常」になりつつあるのと同じように。

 

しかしこの種の結論は技術一般に対する見方であって、別にAIに突出した話でもない。AIの倫理学というのも、考えるべき論点が多い。たった一つの課題の処理にAIを使うことに、果たしてどれだけの問題があるのか、改めて考えるべきはそこなのかもしれない。