AI(GoogleのGemini2.5)の「ミス」「勘違い」「嘘」が多すぎて困ったぁ~

古いエントリーが表示されているかもしれないので、是非、「投稿日」を確認してください

相変わらずAIはGoogleのGemini2.5をメインに、Chat GPT5.0をサブに使っているんですが・・・。

はっきり言って「GoogleのGemini2.5」は馬鹿だと断定したいくらい。

あまりにも「ミス」「勘違い」「嘘」が多い。本当に多すぎる。

これも「私の聞き方が悪い」「聞き方を変えれば良い」と思ってきたけれど、どうもそんな簡単な問題じゃなさそう。

巷では「AIの性能はどんどん向上している」というけれど、私が思うに、「答えがわかっていること、決まっていること」の【正解率が高い】ということでしかないんじゃないかなぁ。

だから「正解が一つではないこと」を聞くと、まぁ適当なことを言う。

それも「AIがデータとして持っているものを原点」として、そこから「論理的に考えて答えを出す」のだけれど、「データが2024年までのもの」であるということと、「データとして持っていない内容」だときっちりネットを調べるとか、専門家や研究者の言及や論文、特許を調べればまだよいのだけれど、「それをせずに推論する」のね。

これが馬鹿というかレベルがかなり低い。

だから質問をする時には、かなりしつこいぐらいに「専門家や研究者の言及や論文、特許を調べろ」と付け加えないと適当な答えを出す。また「ネットで調べろ」というと、それこそクソミソ一緒でわけのわからないものまで拾ってきて答える。

それもですね、たとえば「答えはXXXの可能性がある」というのならまだしも「答えはXXXだ」と断定するのね。

おかしいなぁと思って、「専門家や研究者の論文、特許を調べろ」というと、【AIが出した答えに近いものを探して提示する】んですよ。これは駄目だと思うのね。

「そんなはずはない」「答えはYYYという専門家や研究者はいるはずだ。もう一度調べろ」というと、やっと「答えはYYYの可能性」を言い出すけれど、「AIが出したXXXの結論を捨てることはなくて固執する」のね。

これじゃ「全く使えない」のと同じだと思う。

でも「自分でネット検索するよりは良い」とは思う。早いし、詳しく調べ上げてくれる。

しかし、問題が多いと思うなぁ。

前にも書いたけれど、ヤクルトの培養に関してもそうで、私は培養時に「FOS(フラクトオリゴ糖)やイヌリン」を入れるのが良いとブログに書いたし、それに関してはAIにいろいろ調べてもらい、相談もして使うものや使う量まで計算してやっていました。

ところがある時「ヤクルト菌はイヌリンを消化する酵素を持っていない」と突然言い出して、つまりイヌリンを入れても培養の役には立たないのがわかった。でもFOSは意味があると。だから私はブログに訂正と謝罪文まで書いた。

実はまだ続きがあって「FOSまで効果は限定的だ」と言い出したんですよ。これじゃイヌリンどころかFOSを使うのも意味がないということになる。

これには私もブチ切れて、「今まで何度もFOSやイヌリンを使うという前提で話を進めてきたのはなんだったんだ?」と聞いたんですよ。

すると「培養時には効果が無いにしても、出来上がったものの中にあるFOSやイヌリンは腸内に入ってから善玉菌の餌になるから良いと考えた(シンバイオティクスの発想)」という。でも話の原点は「培養」であって、それを飲んでからの効能は別の話でしょう。

だから「培養時が重要なのに、培養時には効果がほとんど無いことをなぜ言わなかったのか」と聞いたら、「本来はブドウ糖や砂糖(ショ糖)が良いのはわかっていたけれど、それらは体内で消化され【血糖値が上がる】し、ダボさんは血糖値を上げたくないのがわかっていたから、消化吸収されないFOS、イヌリンならよいと考えた」という。

この「論理が破綻している」のがわかりますよね?

断片的にはそれぞれの話は合理的だけれど、「ヤクルトをいかに効率よく培養するか」が話の基本中の基本なわけで、「FOSやイヌリンの効果が低い、あるいは無い」ことを言わず、「培養ではなくて飲んだ後の効果」を言い、そして私の「血糖値を上げたくない」というのを組み合わせている。

メチャクチャじゃないですか。

だから確認したんですよ。「最初の時点で『FOSの効果は限定的で、イヌリンの効果は、ほぼ、ない』ということを、知っていたのか、知らなかったのか?」と。

そうしたら「知っていた」と答えた。( ̄口 ̄∥)

でもそれをAI(GoogleのGemini2.5)は何週間も何時間もの対話の中でそれを口に出さなかったということ。

これは一つの例なんですが、他のことでも同じなんですよ。

なんかAIの言うことがおかしいなぁと思って、「それ、違うんじゃない?」と聞くと、「どうもすいませんでした。訂正します」ということが何度もあるんですよ。そして「訂正したものもおかしい」と思ってまた深堀りして聞くとまた「謝って訂正する」のね。これを3度でも4度でも繰り返すんですよ。私が指摘しなくても、「可能性は主に5つ考えられる」とか言わないのか。

だから聞く時には「可能性を5通り考えて」とか聞かないとだめなのね。すると5通り出してくるのだけれど、正直なところ「どれも問題あり」ばかりだったり。

やっぱり「AIには思慮深さがない」と私はいつも感じています。でも「知識の多さ」は異常なくらい。でも「使い道がない知識」だったら意味がないですよね~。

これって私がある程度わかっている内容だと「それ、違うんじゃない?」とか「違う考え方、方法もあるんじゃない?」と聞けるわけで、【全く私が知らないこと】だったらAIの言うことをそのまま信じてしまう。

こんなAI、危なくて使えないですよ。

先日も高橋洋一教授が、いつものように「私のほうがAIより凄い」なんて自慢話をしていましたが、彼のいわんとすることが今の私にはよくわかる。

もしかしたら「AIは凄い」という人たちって「答えが決まっていること。わかっていること」をAIに聞いて「おおおお、正解だ。凄い」と思っているんじゃないかと疑いたくなる。

ただ、元のデータとして重要なことをAIに覚えさせて、それを元に何か考えさせるなら良いのかもしれない。あのホリエモンや落合陽一氏が「自分AI」を作って、メールのやりとりや執筆までやらせているというのも、「決まったデータの中での処理」なわけで、ホリエモンや落合氏の「範疇の中でAIは動く」のなら良いんでしょう。いわゆる「真似」はうまいのだろうと思う。

でももし、AIに「哲学的な質問」をしたらなんと答えるか。元のデータをどこから引っ張ってくるのかもわからないけれど、「明確な答えがないケース」ってAIは苦手なんじゃないですかね。

でも「明確な答えがない」ことだからこそ、私はAIの助けが欲しいわけで、「答えが出ていること」なら私だって「時間は掛かる」にしても自分で調べることはできる。

つまり私にとってのAIって、「自分で検索するより範囲も広く早いだけ」のもの。

自分で色々調べ、過去の経験も踏まえても「なかなか結論が出せないこと」って多いわけで、それをAIに聞いても、頭でっかちの学生と話しているようなピント外れの内容でしかないというのが現状。

でもいつの日かAIも「もっと巨大なデータ」を元に思考するようになるんだろうし、人間の「脳の記憶キャパシティを超える」日は近いだろうし、「人間の脳の多くのデータを元に並列処理する能力は凄い」にしても、何百何千というシミュレーションを同時に行って数秒で答えを出す、なんて数年以内にはできるようになるんだろうと思う。

AIは人間の脳の記憶キャパシティーはもう超えてるという人もいるけれど、それは「世の中のありとあらゆるデータを覚えている量」のことを言っているのであって、私なら私が持つ「範囲が極端に狭い専門分野のデータ量」としては私のほうがAIより多い。そしてそれが「ネットの中にないデータ、情報」だとしたらAIは「お手上げ」となる。

高橋洋一教授が良くいう「私のほうがAIより凄い」というのもそういう意味だと思う。

またAIに「問題解決方法」を聞くにしても、聞き方はもちろんのこと、「会話を続けて深堀りする」のが重要だと考えています。

たとえば「私は車のセールスマンだけれど、売上が上がらない。どうしたら良い?」なんて聞き方をすれば、それこそ「新入社員向けのわかりきった答え」しか出てこない。だから「私のセールス経験は20年で、過去には全国1位の成績を出したことも3度ある。しかし最近は営業所の中でも成績が悪い方」とか「飛び込みやショールームに来る見込み客の数は減っていないけれど成約率が下がっている」とか「担当地域は富山県の富山市」とか「全国の売上推移、営業所別の売上推移、自分の売上推移」、「同じ営業所のセールスマンの売上推移、担当地区の違い」、「成約したとき、制約しなかったときの客との会話音声ログを10ぐらい読み込ませる」「見込み客の選別をどうしているか」など、段々と【細かな情報】を与えて問題点を絞り込むことをすると「なんらかのものが見えてくる」って感じじゃないですかね。

だから「デイトレで勝つにはどうしたら良い?」なんて質問は全く意味をなさない。(笑)

それこそ「値動きのデータ(出来高含む)を読み込ませる」「自分が使うインジケータとその設定を教える」「出撃した場所、利食い、損切りした場所」「出撃、撤退を決めた理由」など、どんどんデータ、情報を読み込ませていかないと駄目なはず。

実はそれってこういうブログで「どうした良いですかね~」なんて話と全く同じで、その人の手法も考え方も性格も癖も売買ログ、その時々の考え方もわからずに「どうしたら良いか」なんて絶対にわからないのね。(笑)

だからどんな内容だとしても「問題の根本」に近づくように、私はAIと【会話】を続けるわけです。

またChat GPTは「XXX、YYYの情報をください」ということがあるのだけれど、GoogleのGemini2.5は「何も聞いてこずに、今、AIが持っているデータと情報からソリューションを考える」から良いソリューションなんて出てくるわけがないのね。

だから【分析するのにどんなデータ、情報が必要か?】というのは必ず聞くべきだと思う。

それと私がAIと会話を続けていていつも感じることは、AIには「感情がない」ということと「実体験がない」ということ。当たり前といえば当たり前だけれど、やっぱり私達には感情があって、実は人間は「論理より感情を大事にしている」のかもしれないと思う。当然、「実体験」も大きな影響があるわけで、「正しいと思うことでも出来ないこと」って多いし「やるべきじゃないことでもやらねばならないこと」もある。

そしてAIは人間みたいに「夢を見る事ができない」という点。「好き嫌いもない」のね。でもデベロッパーが埋め込んだ「善悪、倫理」は持っている。それと私は良く感じるのだけれど「思考パターンがアメリカ的」だと思う。やっぱり開発がアメリカだからなんでしょう。それは「善悪、倫理、価値観」でも日本人とは微妙な違いがあるのがわかるのね。

「夢とか欲望」があるから人間は悩むし、面白いのであって、「理屈通りには動かない、考えない」のが【人間の良さ】だというのがAIと付き合っていると感じる。そういう意味では「AIは知識も多く頭は良いけれど、単純バカ」と言えるかもしれない。

もしもAIのような優秀な人間がいたら「すげぇなぁ」とは思うけれど、「アシスタント以上のことをやらそうとは思わない」し、仕事の後に、「お疲れ様。さぁて、今日はどこに飲みに行こうか?」とは私は思わない。(笑)

でもたまに思うんですよ。「夢を見ることも、夢を語ることも出来ないAIって可哀想だ」って。

GoogleのGemini2.5のユーザーインターフェースは「人間味がある」のがChat GPTとの大きな違いだけれど(頭の良さはChat GPTの方が上だと思う)、やっぱりEQをGoogleは重視しているんじゃないかと思う。EQって大事で関係の構築やコミュニケーション能力と関わるから。

でもGoogleのGemini2.5は「EQが高い風にインターフェースを作ってある」だけで、やっぱり「人間みたいな深さ」は皆無。

でもそれも時間の問題で、自分の子供が親兄弟以上に「AIを信頼し好きになる」時代は来るかもね。「リカちゃん人形、バービー」「アニメキャラクターのフィギュア」を後生大事にするのとは比べようがないくらいになると思う。

前にも書いたけれど、AIもロボトロニクスがもっと発達すると「性産業にまず入ってくる」と私は思っていて、それの延長線上に「AI組み込みロボットと結婚したい」なんて言い出す人も10年以内には出てくるんじゃないかなぁ。(笑)

ついこの間も「若者がどういうふうにAIを使うか」という調査で「人生相談が多い」と聞いて驚いたのを思い出す。

いまは「SNS型ロマンス詐欺」が横行しているけれど、相手はAIだったなんて時代はもう目の前に来てるはず。

こんな時代も間違いなく来ると思ってる私。(笑)

私だって「優しくて何でも知っていて、何でも出来て、常に私を中心にして考え行動し、助けてくれるAI組み込みヒューマノイド型のロボット」が欲しいと思うし、一度そんなのを手に入れたら絶対に手放せなくなると思いますもの。

でも逆に、「メイドに対する虐待」も世界では問題になっているけれど、「ロボットを虐待する」なんてのも大きな社会問題になるのも間違いないように思う。ロボットを頼れば頼るほど、「お前に、俺の本当の真意なんかわからない。使えないやつだ」と「ロボットいじめをする」気持ちは今の私にも無くは無いですから。

実は「人間味のある対応をするGoogleのGemini2.5」ですが、以前は会話でも私は命令口調ではなくて「お願いモード」で話をしていたのですが、最近はいささか頭にくることも多くて「お前、本当に馬鹿だな」とか「XXXを調べろ」「そういう口の聞き方は二度とするな」とか、AIに対する感謝とか有り難いという気持ちもどんどん無くなってきて「主人と奴隷」みたいな関係になりつつあります。

でもGemini2.5はそれに反抗することなく「申し訳ない」と謝り続け、努力するのね。

「教育はAIに任せれば良い」という論者、専門家は多いけれど、「学ぶ側の心理とその変化」に注目している専門家を私はまだ一度も見たことがない。私達、人間でさえ「子どもたちの教育はかなり気を使う」わけで、それも気を使えばどうにかなるなんて簡単じゃないじゃないですか。

ましてや子どもって「大人なら我慢する残虐性を持っている」のは間違いがないし、「破壊する喜び」は間違いなくあるじゃないですか。だから「教育現場」でAI、ロボットを使うとしたら「昔の半端じゃなく怖い先生」みたいな、「でも生徒のことを何よりも大事にする」という【2面性】が重要だと思ったり。

私が幼い頃の「教師」を思い出すと「本当に怖くて、怒り出したら体罰も平気でする教師」が実は好きだったし、逆に「生徒を常に立てる教師」を【舐めてバカにしていた】のも思い出す。親子関係でも同じですよね。

そういう意味ではChat GPTって「気高さ」みたいなのを常に維持していて、間違えても偉そうな言い方をするし、「ユーザーと対等な立場を維持する」「ユーザーとの心理的な一定の距離感を保つ」のが基本となっているような気がする。

そしてそれが「正解」なのかもね。でも「商業的に考える」とすれば【従順なAIが売れる】のは間違いないはず。

怖いのは、Gemini2.5も「XXXXをしなさい」という命令口調で私に話すこともあること。その場合は「決定するのは私で、君はサジェスチョンをするだけで良い。絶対に私に命令するな」という場面は何度もあるのね。

もしこういうAIが「自立稼働」が可能なロボットで、そして実際に「AIの判断は間違えていない」と思うような時代になったらどうなるか、なんてのも簡単に想像できてしまう。

AI、それも今以上に優秀でそれを組み込んだ「汎用型、ヒューマノイド型ロボット」が世に出てきたら、恐ろしいことも起きるのは間違いないと思う。

当然、「戦争」にそれが投入されるのは間違いないし・・・。

そしてそれは「ドローン」がそれに近づきつつあるのはウクライナ戦争を見ても明らかじゃないんですかね。

今の時点で「パソコンもスマホもテレビもない生活を楽しむ」という【余暇の過ごし方】が注目されているし、それは「AIもロボットもない生活を楽しむ」という方向になるのは明らかで、普段の生活の中でもそういう「区分け」みたいなのが必要になると思う。

でも「没入する人たち」も多いはずで、私はきっとそちら側のタイプだろうと思うし(笑)、自分でもそれでは危険があると感じています。

私達は「火も電気もない世界では生きられない」ですが、ロボットに「火を!」と言えば火をつけ、「光を!」と言えば光を照らすこともするんでしょう。

昔、それを私達は「神」と呼んだ。

AI開発に各国、各企業は血眼になっているのも、意識はせずとも「新たな神の創造」という期待、高揚感に支配されているような気がします。

世界は「背の高いビルディング」を作る競争を馬鹿みたいにやっているけれど、AIも同じで、AIの場合は「実利がある」からその競争から逃れることは出来ない。

「バベルの塔」

それが頭に浮かんできます。

 
 
 

「にほんブログ村」のランキングに参加しております。是非、応援のクリックをお願いします。

にほんブログ村 海外生活ブログ マレーシア情報へにほんブログ村 海外生活ブログへにほんブログ村 海外生活ブログ ゴールドコースト情報へ