第12話 それは「理解」ではなく「予測」だった

前の話で、

ChatGPTは

「答え」を出しているわけではないと分かった。


では実際に、

何をしているのか。


もう少しだけ踏み込むと、

その正体は


LLM(大規模言語モデル)


と呼ばれるものだった。


名前は難しそうに見えるけど、

やっていることはシンプルだった。


「次に来る言葉を予測する」


それだけ。


例えば、

「今日はとても天気がいいので」


と来たら、


「散歩に行きたい」

「外に出たくなる」


そういう言葉が続く確率が高い。


その「確率」を、

膨大な文章データから学習している。


そして、

その予測を一語ずつ繋げていく。


それが、

ChatGPTの出力の正体だった。


ここで重要なのは、


「意味を理解しているわけではない」


という点だった。


あくまで、


「それっぽく続く言葉」を選んでいるだけ。


でも、

ここで一つ違和感が出る。


「それだけで、あんな文章になるのか?」


なる。


むしろ、

そこが一番のポイントだった。


人間が「自然だ」と感じる文章は、


確率的に自然な並び


であることが多い。


つまり、


確率を極限まで高めると、自然さに見える。


そして、

自然さはそのまま、


「理解しているように見える」


という錯覚に繋がる。


ここで、

また一つズレが生まれる。


自分は、


「ちゃんと理解して答えている」


と思っていた。


でも実際は、


「最も自然な並びを出しているだけ」


だった。


さらにもう一つ、

重要な特性がある。


LLMは、


自信の有無を持たない。


確信しているわけでも、

疑っているわけでもない。


ただ、

確率的に最もそれっぽいものを出す。


だから、


間違っていても、同じトーンで出力される。


これが、

あの違和感の一部だった。


正しそうに見える。

でも、

本当に正しいかは分からない。


しかも、

それを区別する仕組みは、

中にはない。


ここでようやく分かった。


問題は、


間違えることではない。


問題は、


「正しさと自然さが区別できなくなること」


だった。


そして、

その状態に入ると、


“それっぽさ”がそのまま“正しさ”に変換される。


だから、

気づけなかった。


間違いを見ていたんじゃない。


自然さを信じていた。