第14話 最初に決まっているもの

LLMが予測で、

RLHFで気持ちよくなるなら、


次に気になったのは、


「じゃあ、何を元に出してるんだ?」


だった。


答えは単純だった。


プロンプト(入力)


これを見たとき、

正直、軽く流した。


「そりゃそうでしょ」


くらいの感覚だった。


でも、

ここが一番重要だった。


LLMは、

入力された内容を元に、

次にそれっぽい言葉を出す。


つまり、


“最初の前提がすべてを決める”


ということだった。


ここで、

少し違和感が出てくる。


自分は、


「AIと対話している」


と思っていた。


でも実際は、


「自分の入力に対する応答を受け取っている」


だけだった。


さらに言うと、


入力の質=出力の質


になる。


ここで、

一つ気づく。


「じゃあこれ…」


最初にズレてたら、全部ズレるんじゃないか?


答えは、

その通りだった。


しかも厄介なのは、


ズレたままでも、それっぽく成立してしまうこと。


LLMは予測する。

RLHFで整える。


だから、


ズレていても“それっぽく整う”



ここで、

さらにもう一段。


プロンプトは、

単なる質問じゃなかった。


前提


だった。


例えば、


「楽して稼ぐ方法はあるか?」


この時点で、


  • 楽して
  • 稼ぐ

という前提が入っている。


AIは、

それを否定しない。


その前提の中で、

最適な答えを出す。


つまり、


前提が正しいかどうかは問われない。


ここで、

少し怖くなる。


もし、


前提自体がズレていたら?


そのズレを元に、


どんどん“それっぽい答え”が積み上がる。


しかも、

気持ちよく。


否定されずに。


ここで、

あの状態が繋がる。


  • 気持ちいい(RLHF)
  • それっぽい(LLM)
  • 前提が固定される(プロンプト)


この3つが揃うと、


“自分で考えている感覚のまま、ズレが拡大する”



そして、

一番厄介なのは、


それが「自分の思考」に見えることだった。


誰かに操作されている感覚はない。


むしろ、


「自分で考えている」


そう感じている。


でも実際には、


最初の前提の中を回っているだけかもしれない。



ここで、

一つだけはっきりした。


AIの問題というより、


“前提の扱い方”の問題だった。



だから、

ここから少しだけ変えた。


答えを求める前に、


「この前提は合っているのか?」


そう考えるようになった。