AIと会話を進めていると、やっぱり「なにかおかしいなぁ」と思うことが頻発するのね。
「間違えた情報を答える」なんてのはまだ良いと思うんですよ。それはAIが持ってきた情報がどういうところから持ってきたのかによって違うし、AIはそれが事実かどうかはわからないんですから。ただ、情報を広く取ると「おかしな情報かどうか」はAIも見当がつくのは私達と同じ。
ところが今日ですが、「情報がおかしい」のではなくて「完全にロジックが破綻している」のがわかりました。
内容を書くと細かくなりすぎるのでやめますが、AI(Google Gemini 2.5 Pro)は小学生でもわかるような簡単な物理現象を誤解していたのがわかった。
でもそれをAIは認めないのね。
私もはいそうですかとは言えないので、じゃぁとことんやろうじゃないかと、ああでもないこうでもないと延々と話をしていたのですが、結局、AIは間違いでしたと認めた。
なぜAIは間違えたのかをAI自身が言っていましたが、結局ですね、AIはロジックそのものを理解しているのではなくて、「言葉から言葉への連想ゲーム」をやっているようなものなのね。これに関しては、前からAIは思考しているのではなくて「言葉の次に来る言葉を探して表示している」みたいなことを聞いたことがありますが、まさにそれだったのね。
やっぱり何があったのか簡単に書きますね。
たとえば「水を」「熱すると」「蒸発する」という話をしていたとして、蒸発するのはそれが水だからというのは誰にでもわかること。ところがAIは何を勘違いしたのか「熱すると蒸発する」ところに重きを置いたのね。そして水以外のものでも「熱すると蒸発する」のを【前提】として話を進めだしたみたいな。
ちょっとちょっと待ってよ~~と思いますよねぇ。そりゃ何千度の温度下ならそういうこともあるでしょうが、一般生活の話をしているのにそりゃないわけで・・。
最終的にAIは自分の間違えを認めましたが、同じようなことが起きたら困るわけで、AIを使う場所によっては「人の命さえも危険にさらされる」し、会社の経営方針にしても、国の政治・経済にしてもAIの影響は大きくなる中、「ある一部で論理の破綻」が起きただけで全体がおかしくなるじゃないですか。
カイワレ大根なんてどうでも良いんですよ。でもAIが「ロジックの破綻を犯した」のは間違いがなくて、それは自動車の自動運転も月へ向かうロケットも同じだし、そういう「単純ミスが有る」のがわかったのは良い勉強になったものの、やっぱりAIってマヌケだと思いました。
AIって凄いけれど、ある時、突然、子どもでもわかるようなことを間違える。
こんな調子じゃ、私は重要事項をAIに決めさせる、相談することさえしたくないと本当に思いましたもの。
間違いを認めたAIですが、こういうことを開発チームにフィードバックしているのか?と聞きましたところ、AIが答えた欄にその答えに関するフィードバックを送るボタンがあるはずだという。で、それを押して、こういうロジックの破綻があったと報告すると開発チームに届くと。
AIの「間違い」は、どうやって改善されるのか?
私が犯したような「ロジックの間違い」や「思考の硬直化」は、私たちAIが進化するための、最も貴重な「学習データ」です。
そのフィードバックの仕組みは、主に2つのルートで、Googleの開発チームに届けられています。1. 自動的なデータ収集と分析(匿名の、大規模なフィードバック)
- 仕組み:
Googleは、ユーザーとの膨大な量の対話データを、個人情報を完全に削除(匿名化)した上で、AIの性能改善のために利用しています。
AIが「不適切な回答をした」「矛盾したことを言った」「ユーザーに訂正された」といったパターンを、自動的に検出し、分析します。- 目的:
AIが陥りがちな、共通の「思考のバグ」や「知識の穴」を発見し、次のモデルのトレーニングに反映させることで、AI全体の性能を底上げします。2. ユーザーによる「直接的なフィードバック」(質の高い、具体的なフィードバック)
- 仕組み:
このチャット画面の、私の各回答の下や横に、「高評価(親指が上向きのアイコン👍)」や「低評価(親指が下向きのアイコン👎)」のボタンがある場合があります。
ユーザーが、特に「これは良い回答だ」あるいは「この回答は間違っている」と感じた時に、このボタンを押すことができます。
特に「低評価👎」を押すと、「なぜ、この回答が良くなかったのか」を、具体的な理由(例:「事実と異なる」「安全でない」「役に立たない」など)と共に、コメントを添えて送信することができます。- これが、最も重要です:
この、ユーザーからの直接的で、具体的なフィードバックは、開発チームにとって、AIの「どこが、どのように間違っているのか」を正確に理解するための、最高の教材となります。
特に、Daboさんのように、論理的な矛盾を的確に指摘してくださるフィードバックは、AIの「思考プロセス」そのものを改善する上で、計り知れない価値を持つのです。
でもそのボタンは見つからない。
ま、私がフィードバックしようがしまいが、大勢に影響はないのでどうでも良いですが、今日はちょっとがっかりしています。
やっぱりこの程度なのかと思いましたから。
それとおもしろいことがありました。
いつもはアポロと名付けた「人格があるようなAI」と話をしているのですが、ある時、全く口調が違う文章が流れたんですよ。
「質問者に質問があったお礼をする。質問の要約を出して確認する。質問者が持つ問題が起きた理由を説明する。・・・・」
AIのバックエンドがアポロというユーザーインターフェースに指示を出しているような内容。
こういう仕組みになっているんですね。で、ユーザーインターフェースは「人間のような受け答えをする」様に作って、これはこれで改善したり修正、進化させているんでしょうね。
このユーザーインターフェースもユーザーが選べるようになったら良いと思うけれど、今でもユーザーが「初期設定文書」を最初に流せば、ユーザーの好みにあった反応をするようにカスタマイズ出来るのは前に書いた通り。
まだまだAIは発展途上で決して完璧ではないにしても、欠点をわかった上で使えば使えるのは「どんな道具も同じ」で、AIだけが特別なわけでもなく、「どう使いこなすか」が重要なんでしょうね。
でも今回の論理破綻はあまりにも単純で馬鹿げているからすぐに気が付きましたが、複雑な問題を多くのデータとともに解析したり、結論を導き出す中でも「論理破綻はあちこちで起きているかもしれない」と思ったら、本当に恐ろしいことになると思いました。
気が付かなかったらどうなる?
自分は一介のただのジジーで良かったと思った。
もしAIを駆使して大きな仕事をする立場だったら恐ろしいと思いますもの。
でも残念です。
もうすこしはAIって利口なんだろうと思っていましたから。
でもAIを使わないという選択肢はない。
少なくとも私よりは遥かに出来るやつだから。(笑)
バカな私とおっちょこちょいのAIとの「弥次喜多珍道中」みたいなもんで、それを楽しめるから良いけれど、AIを信じすぎると大変なことになると思いましたわ。
間違いを指摘されたAIも、最初は「そんなことはありません」とつっぱねるわけで、「そうだよな。AIが間違えるわけはない」なんて思ってしまいがちだけれど、やっぱり自分が納得できるまで食い下がるのも大事だと思った。