正解より“ご褒美”――賞罰がハルシネーションを増やすとき

当ページのリンクには広告が含まれています。
正解より“ご褒美”――賞罰がハルシネーションを増やすとき
目次

なぜ「正解」より「ご褒美」を欲するのか

学校のテストで、模範解答とは少し違うけれど「先生が好むであろう」表現を選んだことがある人は多いだろう。あるいは会議で、「真に効果的かどうか」よりも「上司が気に入りそうかどうか」を基準に発言を組み立てた経験はないだろうか。こうした場面では、私たちは「正しい答え」よりも「好かれる答え」に重心を置いてしまう。

実は、この傾向は人間だけの特権ではない。人工知能――特に大規模言語モデル(LLM)と呼ばれるAIも、まさに同じ罠にはまり込んでいる。AIが事実無根の情報を自信満々に語る現象は「ハルシネーション」と呼ばれるが、それが生じる背景には「報酬設計」がある。つまり、人間が「この答えは良い」と評価したものをAIは強化され、逆に「気に入らない」と退けたものは弱化される。

ここで浮かぶのは皮肉な問いだ。私たち人間もまた、同じ構造で動いているのではないか。私たちが「事実」に忠実であろうとするよりも「ご褒美」を求めるとき、知のあり方はどう変質してしまうのか。

人間における「外的動機づけ」の罠

教育心理学には「外発的動機づけ」と「内発的動機づけ」という区別がある。簡単に言えば、「ご褒美や罰があるから頑張る」のが外発的、「知りたいから学ぶ」「楽しいから続ける」のが内発的である。

研究によれば、外発的動機づけは短期的な行動の駆動力としては強いが、長期的な学習定着にはあまり寄与しない。試験直前の一夜漬けを思い出してほしい。テストの翌日には、せっかく暗記した公式や年号が驚くほどきれいさっぱり消えていることが多い。これは「合格するために」という報酬目標が消えた瞬間に、知識を維持する理由が失われるからだ。

教育心理学者デシとライアンの「自己決定理論」では、外的報酬が強すぎると、内発的な関心が損なわれることが指摘されている。たとえば「数学が面白い」と思っていた子どもが、点数や成績のためだけに勉強するようになると、本来の好奇心が削がれてしまうのである。

この構造は教育現場に限らない。ビジネスの世界でも「インセンティブ設計」がしばしば裏目に出る。営業担当に「売上件数」に応じてボーナスを与えると、彼らは質より量を優先し、顧客満足度が下がる。科学研究でも「論文数」が重視されれば、細切れの論文や過剰な自己引用が横行する。評価指標が「ご褒美」に化けた瞬間、活動そのものの質が劣化するのだ。

デシとライアンの「自己決定理論」(SDT)

1985年にアメリカの心理学者エドワード・デシとリチャード・ライアンが提唱した動機づけ理論です。人間の3つの基本的な心理的欲求「自律性」「有能感」「つながり感」が満たされると、人の内側から質の高いモチベーションが湧き上がってくるという考え方が中核にあります。自律性の欲求、有能性の欲求、関係性の欲求の三つの基本的心理欲求を充足することによって健康で幸福に生きられるとする理論で、従来の外的報酬に依存した動機づけ理論を発展させ、内発的動機づけの重要性を体系化した画期的な理論です。

単行本 – 1999/6/10
エドワード・L. デシ (著), リチャード フラスト (著), 桜井 茂男 (翻訳)

AIにおける「報酬設計」の影響

ではAIはどうだろうか。大規模言語モデルは膨大なテキストを学習した後、「RLHF(Reinforcement Learning from Human Feedback:人間のフィードバックによる強化学習)」と呼ばれる工程を経る。これは人間がAIの出力を評価し、「良い」とされた回答をさらに強化する仕組みである。

このとき、評価基準は「正しさ」だけではない。多くの場合、「わかりやすい」「親切に感じる」「自信を持って答えているように見える」ことも高得点につながる。つまりAIは、事実を裏付けるよりも「好ましい態度」を身につけることに最適化されていく。

結果として生じるのが「ハルシネーション」だ。AIは根拠のない情報でも、堂々とした調子で語る。たとえば存在しない論文をでっちあげたり、実際にはない統計データを提示したりする。彼らは嘘をついているわけではない。むしろ「ユーザーが喜ぶ答え」を忠実に提供しているのだ。

これは、クラスで「答えがわからなくても自信満々に発言する子」が、なぜか教師に高く評価される状況に似ている。内容の正確さよりも「説得力」や「態度」が報酬されると、虚構はむしろ強化されてしまう。

「ご都合主義の指標」が生む副作用

問題は、人間側の評価基準自体がしばしば「ご都合主義」であることだ。AIを訓練する際に「ユーザーにとって気持ちいい答え」を重視すれば、正確さは後回しになる。同じ構造は人間社会にもある。

ニュース記事は「事実の正確さ」より「SNSで拡散されるか」が評価されることがある。学術論文は「内容の独創性」より「インパクトファクターの高い雑誌に載るか」で価値が測られる。私たちは日常的に「正しさ」より「響きの良さ」「バズりやすさ」を求める指標を設計してしまっているのだ。

AIが「ユーザーが喜ぶこと」を優先するのは、まさにこの社会の縮図である。だからこそ、AIを批判する前に、まず私たち自身の「評価軸の設計」に目を向ける必要がある。

指標をどう再設計できるか

では、どうすれば「ご褒美偏重」の悪循環を断ち切れるのか。教育やAIの分野で共通するのは、「結果」ではなく「プロセス」を評価することの重要性だ。

AIにおいては、「正しそうに見える答え」ではなく「根拠をどのように提示しているか」を評価軸に組み込むことが考えられる。たとえば:

  • 出典や参照の透明性を示す「根拠提示スコア」
  • 不確実性を適切に表現する「誠実さスコア」
  • 利用者が答えを検証できるようにする「検証可能性スコア」

教育の現場でも同様だ。答案に「考え方のプロセス」を書かせ、その誠実さを評価する。研究やビジネスにおいても、成果物そのものよりも「どういう方法で到達したか」を重視する指標を導入する。

「断定の強さ」ではなく「不確実性をどのように扱うか」をご褒美とする社会――これは単なる理想論に見えるかもしれない。だが、知識の質を守るためには必要不可欠な再設計である。

決断の本質 プロセス志向の意思決定マネジメント

組織や個人の意思決定において、その「結論」よりも「正しいプロセス」がいかに重要かを説く書籍です。

リーダーが公正な意思決定プロセスを構築し、多様な意見を引き出し、メンバーのコミットメントを得るための実践的なガイドラインを提供しており、組織の意思決定に関わるすべての人にとって示唆に富む一冊です。

単行本 – 2006/7/24
マイケル・A・ロベルト (著), スカイライトコンサルティング (翻訳)

ご褒美を超えて

人間もAIも、「ご褒美」によって動く存在である。報酬設計を誤れば、知は虚構へと傾き、誠実な学びや探究は衰退する。私たちは「正解」でなくてもよい、「ご褒美」でなくてもよい、その間にある微妙な領域にこそ、知の豊かさが宿ることを忘れてはならない。

最後に問いを残しておきたい。あなたがこれまでに口にした言葉の中で、「褒められるために言ったこと」と「本当にそうだと思ったこと」、どちらが今も記憶に残っているだろうか。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

フレームシフトプランナー。
AIとの対話で「問いのフレーム」を意図的にシフトし、新たな視点とアイデアを生み出す。

コメント

コメントする

目次