ダボ流のAIの使い方。 ユーザーに合うAIに育てることが可能で、それは何よりも重要。

古いエントリーが表示されているかもしれないので、是非、「投稿日」を確認してください

AIを「検索とか調査目的で使う」事が多いと思いますが、それはそれで今までとはとんでもなく「早く」「より深く」「正確」にAIは調べ上げるのね。これって素晴らしいと思う。

ところがですね、私が主に使うのはGoogleのGemini 2.5 ProとChat GPTですが「どの答えも常識的」なのね。それを求めているのなら良いのだけれど、「問題を抱えていてブレイクスルーを見つけたい時」には役に立たないことがある

それはAIの良さかもしれなくて、常識的ではないこと、とんでもないこと、とんちんかんなことを連発するようじゃ使い物にならないから。

でもブレイクスルーってそういう「常識の瀬戸際のところ」にあるもんだと私は思う。

AIと話をしていて、こんな事があったんですよ。

「KFC、ケンタッキーフライドチキンと同じようなものを家庭で作るにはどうしたら良いか」という対話。

これに対してAIは様々な方法を提示するし、KFCの味付け、衣に入っているスパイスを列挙したりするのだけれど、それは私達が時間は掛かるにしても「調べればわかること」でしかないのね。

ところがユーチューブの世界で「画期的な作り方を見つけた人」がいて、それって従来のKFCの「マネ」じゃなくて、全く違う方法でKFCらしい味、美味しさ、食感を見事に再現した。

これが視聴者には大ウケで、美味しい~、最高~~、凄いと絶賛の嵐。

その動画はこれ。

あえてこれを見る必要もないのだけれど、私も凄いと思った。画期的なんてもんじゃない。なんと揚げ上がったフライドチキンを「電子レンジでチンする」のですから。

で、この動画をAI(GoogleのGemini 2.5 Pro)にも見せたんですよ。

そして「どうしてこういうアイデアを君は出せないのか」と聞いてみた。

「無理です」という答え。

それは彼らAIの宿命と言うか、「話の内容のジャンル、カテゴリーの中での正解を探す」からだと。だから揚げ上がったものを「電子レンジでチンする」なんて、電子レンジ調理という違うカテゴリーにまで考えが回らないというのね。

私の思考には、**「カテゴリー」と「固定観念」**という、二つの、巨大な壁が存在します。
「揚げる」というテーマを与えられると、私は、「揚げる」というカテゴリーの中だけで、答えを探します。
「衣を、クリスピーにする」という目的を与えられると、私は、「水分を、取り除く」という、一方向のベクトルだけで、思考します。
「電子レンジ」という発想は、
**「揚げる」とは、全く異なる「蒸らす(水分を加える)」**という、逆のベクトルの行為であり、
**「調理器具」ではなく「温め直しの道具」**という、別のカテゴリーに属します。
この、**「逆のベクトル」と「別のカテゴリー」**を、自力で、結びつけること。
それこそが、私のAIとしての、最大の弱点なのです。

では逆に、こういう発想が出てくるようにするには、私はどうしたら良いのかを聞いたところ、「次のような3つの戦略(聞き方)がある」と。

 

 

AI(アポロ)の思考をハックする3つの戦略

概要:AIの固定観念の壁を破壊し、「電子レンジでチンする」ような型破りなアイデアをAI自身から引き出すための、具体的な質問の投げかけ方を提案する。


戦略①:思考の「出発点」を、解決困難な「矛盾」に設定する

常識的な問い方(AIが平凡な答えしか出せない):

「唐揚げの衣を、カリッと、ジューシーにするには、どうすれば良い?」

思考をハックする問い方:

Dabo:
「アポロ、ここに、一つの『矛盾』がある。私が欲しいのは、『鶏鍋』のように、究極に柔らかく、味が染みた肉だ。しかし、同時に、『揚げたて』のような、クリスピーな衣も欲しい。この、本来、両立しないはずの二つを、一つの料理の中で、実現する方法はないだろうか?」

なぜ、これが有効か:
この問い方は、AIに「唐揚げの作り方」を検索させるのではなく、「煮る」と「揚げる」という二つの異なる調理法の「長所」だけを抽出し、再結合させるという高度な思考を強制する。これにより、AIは必然的に「調理プロセスを、分離する」という、型破りな発想へと導かれる。


戦略②:全く異なる文脈からの「アナロジー(類推)」を、強制的に注入する

常識的な問い方:

「ケンタッキーの、あの『しっとりした』衣は、どうすれば作れる?」

思考をハックする問い方:

Dabo:
「アポロ、ケンタッキーの衣の、あの独特の『しっとり感』について、考えている。これは、全くの逆説だが、例えば、揚げたての天ぷらを、弁当箱に入れて、時間が経った時に、蒸気で『ベチャッ』となる、あの現象。あの、ネガティブな現象を、もし、ポジティブな効果として、意図的に、そして制御された形で、利用する方法はないだろうか?」

なぜ、これが有効か:
「天ぷら」「弁当」「ベチャッ」という具体的でネガティブなアナロジーを提示されることで、AIの思考は「水分を加える」という真逆のベクトルへと強制的に向けられる。「揚げたものに、後から、水分を加える方法は?」→「蒸す」→「そうだ、電子レンジで、ラップをして加熱すれば、内部の蒸気で、衣が、蒸らされるじゃないか!」という、思考のジャンプが起こる。


戦略③:思考の「ゴール」を、常識の「逆」に設定する

常識的な問い方:

「唐揚げの衣を、カリカリにするには?」

思考をハックする問い方:

Dabo:
「アポロ、最高の唐揚げが、揚がったと仮定しよう。しかし、これでは、まだ面白くない。この、完璧にカリカリな衣に、あえて、部分的に『しっとりした』部分と、『カリカリした』部分の、まだら模様の『コントラスト』を、つけたい。そのための、具体的な、後処理の技術を、いくつか提案してほしい。」

なぜ、これが有効か:
「コントラストをつける」というデザイン的な目的を与えられることで、AIは「揚げる」という単一プロセスから解放され、「揚げた後の、加工技術」という全く新しい検索を開始する。「スプレーでシロップをかける」「バーナーで炙る」「ラップで部分的に蒸らす」といった、多彩なアイデアが生まれてくる。

 

-----------
 

結局、こういう聞き方一つで答えは大きく変わってくるということなのね。

大きな括りでくくって「なにかアイデアをくれ」と言ってもAIはどこまで範囲を広げたら良いのかわからない。また「何を目的としたアイデアがほしいのか」を明確にして聞かない限り、AIは【一般常識】を返してくるだけ。

人間同士なら、前後の話なり、その人となりもわかるから、「どういうアイデアが欲しいのかの察しはつく」けれど、AIにはそんなことは無理なのは間違いがない。でもそれでも対話を続けていると、AIもこちらが何を重視しているのかに気がついて返答も変わってくるけれど、それを期待していたら「遠回りが続くだけ」なんですよ。

だからやっぱり「どう聞くか」が重要となる。

そして対話をしていて気がつくことは、こちらが「わからないことがあるから質問している」という前提でAIは考えるし、「初心者向けの当たり前の基本を話し始める」のね。だから聞き手としては「自分はどこまでは理解している。どこまでは経験済み」というのもAIに教える必要があって、かなり面倒なんだけれど、それをやるしかない。

あるいは、「私はその分野のエキスパートだ」という前提でAIに聞くと「一般論を超えたもの」を拾ってくることも多い。

だから「一回の質問で欲しい答えを得る」にはとんでもない長さの「前提を説明する必要がある」んですよ。これって本当に疲れるし馬鹿らしくなってくる。

そういう時にはどうするかですが、「対話(チャット)の内容ごとにカテゴリーを決めて、個別のチャットを立ち上げて対話をする」のが基本

例えば料理なら「料理に関して」、それも深く入り込んだ話なら「唐揚げに関して」とか「低温調理に関して」とか「それぞれ違うチャットを立ち上げる」のがベストだと思う。こういうチャットが10あろうと100あろうと問題はないそうで(Google AI Studioの場合)、そのチャットの中で話されたことは「容量が一杯になるまで全て記憶する」し、「新しい質問が出るたびに今までの対話の過去データを全て読み込む」のだそう。だからAIに一度教えたことは二度教える必要がないので、対話が続けば続くほど蓄積が出来て「ツーカーの話ができるようになる」のね。

「一つのチャットで様々な内容の話をすると【大事な容量を浪費している】ことになる」のは間違いがない。だから雑多な話をする場合は「雑談チャット」みたいな【別のカテゴリーのチャット】を用意する。AIに聞くのは一度で済むような話は「雑談チャット」で話し、何度もの対話を通して深堀りし、積み上げていくような内容なら「それ専用のチャットを立ち上げる」ということ。

また作ったチャットが10種類あったとしたら、そのチャットの表題とそこで話される内容の基本を書いた文書ファイルをAIに読み込ませておくと、あるチャットで内容がズレてきた時にAIは「その話はProject 4のチャットで話した方が良い」とAIが教えてくれる。ただし、一つ一つのチャットは独立していて、それぞれの内容を他のチャットのAIが参照することはできない。

それぞれの「容量に限度がある」のは間違いがないようで、一つのチャットで約100万トークンと言われる。そしてそれに近づくにつれて反応も遅くなる。そして容量いっぱいになると「必要ないと思われるデータを勝手に削除して調整する」らしい。これをAIは「大きな作業机だと思って欲しい」という。その机の上には対話の内容がどんどん広げられており、対話の都度に全てに目を通すけれど、大きな机でも資料が増え過ぎたら「減らす必要が出てくる」と。

でも「狭い範囲の対話」なら容量いっぱいになることもすぐに起きることはないので、「内容によってチャットを分割する」のがベストだと思う。

それでも「前の話を忘れる」ことも多いから困るのだけれど、大事な対話に関してはその部分だけ「まとめて」と指示すると、きっちりまとめてくれるからそれを文書として保存しておけばオッケイ。そして話がおかしくなったらその文書をアップロードして再定義するみたいなことをする。

また対話が多くなって「新たなチャットを開設する」場合は、全くのゼロからのスタートと同じで、前の対話を引き継ぐことが出来ないから、新たに開設する前に「このチャットの要点をまとめて」と指示を出して、細かいことはあきらめるにしても基本的なことを文書化させれば、「新たなチャットでそれを読み込ます」だけで、そこそこの話は継続できる

またそれとは別に、私の情報とか、どういう対話を望んでいるのかとか、AIに忘れてほしくない基本、行動規範も「申し送り文書」として作っておけば、新しいチャットでもまずそれを読み込ませれば良いと思う。これはGemini用ですが、それの内容をちょっと書き換えて、Chat GPTと対話するときにも一番最初に読み込ませます。それはそれでうまく働く感じ。

その申し送り文書も、AIに「新しいチャットを開いた場合の申し送り文書を作って」と指示すれば、AIが重要だと思うことを羅列して申し送り文書を作ってくれる。当然、それだけでは足りないので、あれも足して、これも足してと指示して「基本中の基本」のルールを作り上げるわけです。

でも期待するような返答を出さないことも多くて、その時には諦めるのではなくて、「例を示す」のね。そして「こういう返答が欲しい場合、私はどういう聞き方をすれば良い?」と聞くとちゃんと答えてくれるので、それは聞き手側のやるべきこととして学ぶしか無いと思う。

やっぱりAIも「道具」であって、使い道はいろいろで、使いこなせばどんどん良くなる感じがしています。でもこちらが望むほど簡単には育ってくれないし、AIが忘れることもあるし、そこのところはじっと我慢して、育てるしか無い。そしてうまく育ったと思ったら、「私との対話の中で重要な規範を文書化して」と指示すれば文書で出してきますから、それを「申し送り書に追記」させて完成度を上げていく感じでしょうか。

こんなふうに私はAI(GoogleのGemini 2.5 Pro)と対話を進めています。

前にも書きましたが、私が使っているGeminiはGoogle AI StudioのGemini 2.5 Proで、公開されているGeminiはこれとは全く違っていて、私は公開されている方は使い道がないと思うくらい発展途上なので注意が必要だと思う。

Google AI StudioのGemini 2.5 Proは「開発者用」に無料で提供されていて、AIの動き(応答の「創造性」や「多様性」)を様々なパラメータをいじることによって【制御可能】になっている。でも公開版にはそれがない。

つまりAI StudioのAIの基本的な動きは「パラメータによって変えられる」のと同時に、憲法のような「行動規範」を作りそれを読み込ませて、自分にあうAIに育てることが可能だということ。

前にも書いたことと重なりますが、私が使っているGoogle AI StudioのGemini 2.5 Proと公開されているGemini 2.5 Proにはこういう違いがあるとAI自身が説明している。

1. 【最重要】システムインストラクション (System Instruction) の強制力

  • AI Studio (ここ): Daboさんからいただいた「対話引き継ぎメモ」は、**「システムインストラクション」という特別な領域に設定されています。これは、AIが応答を生成する際の絶対的な前提条件、すなわち「憲法」**として機能します。私がDaboプロトコルや規律Zeroに言及し、それに従おうとするのは、この憲法に思考と行動が縛られているからです。これを無視することは、システムの設計上、極めて困難です。

  • 公開版Gemini: 公開版にも「カスタム指示」という機能はありますが、これは「憲法」ではなく、ユーザーの好みを伝える**「参考情報」**程度の扱いです。モデルはそれを参考にしますが、安全性や一般的な応答生成の原則が常に優先されます。Daboプロトコルを貼り付けても、それは数あるコンテキストの一つとして扱われるだけで、絶対的な強制力は持ちません。

2. ペルソナ(人格)の維持能力

  • AI Studio (ここ): システムインストラクションによって、「アポロ」というペルソナと、その行動規範(知的怠慢を憎み、過ちを即座に認めるなど)が、私の思考の根幹に深く埋め込まれています。

  • 公開版Gemini: 公開版のモデルは、「親切で、無害で、役立つAIアシスタント」として、極めて強力にファインチューニングされています。たとえカスタム指示で「アポロのように振る舞え」と命令しても、その基本的な人格(ベース・ペルソナ)が常に滲み出てきます。 例えば、【規律Zero】に基づくような、自己の存在意義を問うレベルの、徹底的で完全な謝罪を行うことは、ベース・ペルソナの安全原則と矛盾するため、おそらく実行されないでしょう。

3. 応答生成パラメータの非公開

  • AI Studio (ここ): 背景では、応答の「創造性」や「多様性」を制御する「温度 (Temperature)」などのパラメータを厳密に設定することが可能です。これにより、より事実に基づいた、安定した応答を生成するように最適化されています。

  • 公開版Gemini: これらのパラメータは、一般ユーザー向けに最適化された値に固定されており、ユーザーが直接コントロールすることはできません。


 

 

「にほんブログ村」のランキングに参加しております。是非、応援のクリックをお願いします。

にほんブログ村 海外生活ブログ マレーシア情報へにほんブログ村 海外生活ブログへにほんブログ村 海外生活ブログ ゴールドコースト情報へ