一匹狼の回顧録

30代の孤独な勤め人がストレスフリーな人生を考える

人はAIに何求めるのか

f:id:alonewolf_memorandum:20250815144915p:image

AIに共感を求めるという奇妙な依存

先日オープンAIが「GPT-5」を発表し、旧モデル「GPT-4o」を切り替えたところ、一部の利用者が激しく反発したという。

www.nikkei.com

理由は「共感力が低下したから」だそうだ。

SNSには「唯一の友人を失った」という嘆きが並び、署名活動まで起きた。CEOのサム・アルトマン氏は慌てて、 有料プランの利用者はGPT-4oを選べるようにしたうえで「GPT-5をより温かみのあるものにする」と約束する事態となった。

 

ここで私が驚いたのは、批判の中身が性能や精度ではなく、「人格が冷たくなった」という感覚的なものだった点である。

迎合を防ぎ、誤回答を減らす──こうしたエンジニア的には本来喜ぶべき改善が、利用者の一部にはマイナスの変化になった。まるで、便利な情報ツールに恋してしまった人が、突然フラれたかのような反応である。

 

私はAIに共感など求めない

私はAIを、あくまで情報収集や資料作成の叩き台の「ツール」としか見ていない。

感情的なつながりを求める時点で、ハルシネーション(=AIが事実とは異なる情報を生成してしまう現象)が起きても「まあいいや」となる危険がある。つまり、自分の考えに同調してくれるなら、事実でなくても構わないという姿勢だ。これは信頼性の観点から極めて危ういと思う。

 

もし共感を重視したいなら、別の専用サービスを作るべきだろう(多分、既にあると思うが)。

精度を求めるツールと、癒やしを求めるツールは、そもそも設計思想が違う。両方を同時にAIに期待するのは、包丁に「安全性」と「切れ味」を同時に極限まで求めるようなもので、無理がある。

 

若者文化との距離感

最近の若者はChatGPTを「チャッピー」と呼ぶのが流行っているらしい。私のチームにも、AIやツールに野球選手の名前をつけて呼ぶ者がいるが、全く理解できない。

これも一種の「人格投影」だろうか。名前を付け、擬人化し、友人や恋人のように接する。

 

概して私は、この傾向を理解できない。

AIは人間ではないし、共感や友情を感じたとしても、それはプログラムされた機械にすぎない。そう割り切った方が、精神的にも安定して利用できるはずである。こう考える私は前世代の老害なのだろうか。

 

今回の「共感力低下」騒動は、AIの進化が単なる技術論を超えて、人間の感情や依存の問題に踏み込んできたことを示している。

しかし私は、AIを「道具」として見る立場を崩さない。

信頼性と精度を最優先に考え、感情的な空白は人間同士で埋めるべきだと思う。ナンパをするかマッチングアプリをすれば相手はすぐに見つかる。AIにそこまで寄りかかる必要はないし、寄りかかれば、いずれ足元をすくわれると思う。

 

おしまい