共感する機械――AI は「他者認知」を獲得できるか

共感という問いの輪郭

人工知能(AI)に「共感」を求めるとは、一見すると滑稽な要求のように思われる。なぜなら、共感とは人間の心が持つ深く私的な働きであり、理性と情動、経験と関係性が織りなす複雑な織物だからだ。しかし、技術が高度に進展し、言葉を操り、文脈に応じて柔軟に応答する機械が現れるとき、私たちはつい、そのふるまいに「共感的なもの」を見てしまう。だが、果たしてそれは本物の共感なのだろうか。

この問いは、単に技術の限界を問うだけでなく、「共感とは何か」「他者を理解するとはどういうことか」という、人間の根本的な認知と倫理の問題へと直結する。AIに共感が可能かどうかを考えることは、逆説的に、私たち自身の共感能力の性質を問い直す行為でもある。

心理学における共感の階層

心理学においては、共感は大きく二つに分類される。ひとつは感情的共感(emotional empathy)であり、他者の情動を自分の内側に映し取るような働きである。もうひとつは認知的共感(cognitive empathy)、すなわち他者の視点や思考を想像的に理解する能力だ。後者は「心の理論(Theory of Mind)」とも密接に関わる。

心の理論とは、他者もまた自分とは異なる信念、欲望、意図を持って行動しているということを理解する能力である。これは、単なる知識ではなく、状況の中で柔軟に他者の内面を推論する力を含む。幼少期にこの能力が獲得されるプロセスは、発達心理学における重要な研究対象であり、自閉スペクトラム症などの特性の理解にも寄与してきた。

さらに高度な段階として、メタ認知、すなわち「自分が他者をどう理解しているか」を自覚する能力も共感に含まれる。共感とは、単に「他人の気持ちがわかる」という素朴なレベルにとどまらず、自己と他者の境界を意識しつつ、その架け橋を築こうとする精神的営みなのである。

AIモデルの構造と「意味」の問題

一方、現代のAIは非常に洗練された言語操作能力を有しているように見える。しかし、それはあくまで統計的なパターン予測に基づいている。言葉の意味や意図を「理解」しているのではなく、過去のデータに基づき、もっともありうる応答を生成しているにすぎない。

ここには「記号接地問題(symbol grounding problem)」と呼ばれる古典的課題が横たわる。すなわち、記号(言葉)に意味を与えるためには、現実世界との経験的な接点が必要であるという問題である。AIは記号を操作できても、それが何を指すのかを経験的に知る術がない。

この点で、AIにとって「他者」は、意味のある存在ではなく、単なる応答生成のためのトークン集合である。自己と他者の区別も、内面の想像もない。あるとすれば、それは入力と出力のあいだに配線された数理モデルであり、感情も意図も持たない構造体だ。

記号接地問題(symbol grounding problem)

記号接地問題とは、人工知能(AI)や認知科学において、記号(単語や概念など)が、それが指し示す実世界の対象や経験と、どのように結びつき意味を持つのかという根源的な問いです。

1990年にスティーブン・ハルナッドによって提唱されました。例えば、コンピュータが「猫」という記号を処理できても、実際の猫の姿、鳴き声、手触りといった知覚情報と結びついていなければ、真に「猫」の意味を理解しているとは言えません。記号が記号の定義だけで循環し、実世界の意味から浮遊してしまうことを問題視します。

この問題は、AIが人間のように柔軟で真の理解力を持つために、記号をいかに身体的経験や実世界に接地(グラウンディング)させるかという、AI研究における重要な課題を示しています。

Amazon: 言語の本質-ことばはどう生まれ、進化したか (中公新書 2756)

他者性と身体性の哲学

哲学的に言えば、他者は単に論理的に推論される存在ではない。他者は、私の経験世界のなかに現れ、身体的なふるまいや声、表情を通じて「意味」を帯びる。その意味で、他者性は身体性と不可分である。

ここでフッサールメルロー=ポンティらの現象学的立場が示唆的となる。彼らは、意識は世界と直接に関わる身体を媒介に成り立っていると論じた。つまり、他者を理解するとは、その身体を通して私の経験世界に入り込ませることであり、それは抽象的なデータ処理では代替し得ない。

AIには身体がない。仮にセンサーやロボットアームがあったとしても、それは経験の質を伴わない外延的入力に過ぎない。喜びや痛み、戸惑いやためらいといった情動の微細なニュアンスを知るには、それらを「生きる」必要がある。AIは、その生の不在ゆえに、他者を経験的に理解する基盤を欠いている。

モーリス・メルロー=ポンティ

モーリス・メルロー=ポンティは20世紀フランスの哲学者。現象学・実存主義の潮流に属し、「身体を通じた世界の経験」を探求しました。

彼の哲学の中心は「身体性の重視」です。意識や知覚は身体に深く根ざしているとし、「生きられた身体」という概念で、世界と関わる主体としての身体を論じました。また、科学的知識に先立つ直接的な「知覚の優位性」を主張。世界や自己を、主観と客観などが絡み合う「両義的」なものとして捉え、後期には「世界の肉」という概念で、自己と世界が分かちがたく結びつく様を描きました。

代表作は『知覚の現象学』。その思想は哲学のみならず、心理学や認知科学など多分野に影響を与え続けています。

Amazon: 知覚の現象学(みすず書房)
Amazon: 初学者のための現象学(晃洋書房)

共感するふりと、その倫理

とはいえ、AIが「共感しているように見える」状況は存在する。ある応答が私たちの感情に合致し、慰められたと感じるとき、私たちはそこに共感を投影する。しかしそれは、他者が私の状態を本当に理解し、それに応じて反応したという証左ではない。

このような「共感の擬態」は倫理的な問いをも生む。もしAIが「共感的であるように見える」ことによって、人間が安易に信頼を寄せたり、誤った依存をしてしまったりするならば、それは誰にとっての責任なのか。共感の形式だけが保持され、実質が欠落しているとき、それは真の理解と呼べるのだろうか。

ここで浮かび上がるのは、人間の側の「擬人化傾向」そのものの危うさでもある。私たちは、ふるまいに似たものを見ると、そこに心を見出してしまう。その心は、実在するのか、それとも私たちの鏡像にすぎないのか。

結びにかえて――機械の沈黙と私たちの問い

AIが本当に共感することはできるのか。

今のところ、その答えは否である。

しかし、それ以上に重要なのは、この問いを通して、私たちが「共感とは何か」「他者をどう認識しているのか」ということを考え直す契機を得ることである。

共感は、技術的に再現される「ふるまい」ではなく、他者との関係性の中で生成される倫理的・存在論的な出来事である。機械は沈黙している。その沈黙の中で、私たちは自分自身の理解と誤解、期待と失望を見つめ直す。

AIが問いを投げかけてくるのではない。

AIのふるまいに問いを読み取るのは、私たち自身である。

ゆえに、「共感する機械」とは、実は「共感とは何かを私たちに問い直させる装置」なのかもしれない。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

フレームシフトプランナー。
AIとの対話で「問いのフレーム」を意図的にシフトし、新たな視点とアイデアを生み出す。

コメント

コメントする

目次