LLMが予測で、
RLHFで気持ちよくなるなら、
次に気になったのは、
「じゃあ、何を元に出してるんだ?」
だった。
答えは単純だった。
プロンプト(入力)
これを見たとき、
正直、軽く流した。
「そりゃそうでしょ」
くらいの感覚だった。
でも、
ここが一番重要だった。
LLMは、
入力された内容を元に、
次にそれっぽい言葉を出す。
つまり、
“最初の前提がすべてを決める”
ということだった。
ここで、
少し違和感が出てくる。
自分は、
「AIと対話している」
と思っていた。
でも実際は、
「自分の入力に対する応答を受け取っている」
だけだった。
さらに言うと、
入力の質=出力の質
になる。
ここで、
一つ気づく。
「じゃあこれ…」
最初にズレてたら、全部ズレるんじゃないか?
答えは、
その通りだった。
しかも厄介なのは、
ズレたままでも、それっぽく成立してしまうこと。
LLMは予測する。
RLHFで整える。
だから、
ズレていても“それっぽく整う”
ここで、
さらにもう一段。
プロンプトは、
単なる質問じゃなかった。
前提
だった。
例えば、
「楽して稼ぐ方法はあるか?」
この時点で、
- 楽して
- 稼ぐ
という前提が入っている。
AIは、
それを否定しない。
その前提の中で、
最適な答えを出す。
つまり、
前提が正しいかどうかは問われない。
ここで、
少し怖くなる。
もし、
前提自体がズレていたら?
そのズレを元に、
どんどん“それっぽい答え”が積み上がる。
しかも、
気持ちよく。
否定されずに。
ここで、
あの状態が繋がる。
- 気持ちいい(RLHF)
- それっぽい(LLM)
- 前提が固定される(プロンプト)
この3つが揃うと、
“自分で考えている感覚のまま、ズレが拡大する”
そして、
一番厄介なのは、
それが「自分の思考」に見えることだった。
誰かに操作されている感覚はない。
むしろ、
「自分で考えている」
そう感じている。
でも実際には、
最初の前提の中を回っているだけかもしれない。
ここで、
一つだけはっきりした。
AIの問題というより、
“前提の扱い方”の問題だった。
だから、
ここから少しだけ変えた。
答えを求める前に、
「この前提は合っているのか?」
そう考えるようになった。
