今日もChatGPTに振り回された ~「完璧に理解しました」からの連続忘却。修正するたびに記事を壊していくポンコツAIとの格闘記~
「完璧に理解しました」と言った直後に、指示を「なかったこと」にするChatGPT
Java8の「符号なしInt」にまつわる番外編記事を、読者に分かりやすく解説しようと格闘していました。技術的な内容は正確なはずなのに、ChatGPTは修正を重ねるたびに大事なコードを削り、順番を入れ替え、挙げ句の果てには直前の指示すら記憶から消し去りました。その「ポンコツな対話」の裏側を公開します。
検証:修正を依頼するほど「改悪」されていく地獄のループ
1. 指示されたコードを勝手に間引く「要約の罠」
私:「コンストラクタ参照など、他の例もちゃんと残して」
ChatGPT:「修正しました!(と言いつつ、次の回答では全体の長さを優先して、さっき入れたコード例を勝手に削る)」
▶ 現場の絶望:
何かを足すと、別の何かが消える。ChatGPTは「全体を最適な長さに収める」という独自の判断基準で、こちらが意図的に残した重要なコード例を平然と削ぎ落とします。結果、何度も同じ指示を繰り返す「不毛なリピート」が発生します。
2. 「前の指示」を上書き保存できない記憶容量
私:「さっきの通り、説明の順番を守って丁寧に書いて」
ChatGPT:「はい!(と言いつつ、構成を勝手に変えて、説明の順序をまたぐちゃぐちゃにする)」
▶ 終わらない修正:
「直前の成功パターン」を維持したまま次に進むことが、AIにはできません。一歩進んで二歩下がる。人間が1行ずつチェックして、消された部分や入れ替えられた順序を指摘し直す作業に、結局AIを使う以上の時間が溶けていきます。
3. 「共同作業」の難しさを痛感した技術解説
今回の符号なしIntに関する記事作成においても、ChatGPTは技術的な核心部分は理解していました。
しかし、いざ記事として構成する段になると、大切な前提知識の説明を省いたり、対比させたコードのコメントを消したりと、こちらの意図を正確に形にし続けることができませんでした。AIとの対話は、効率化の道具どころか、最大の「こだわりクラッシャー」になりかねないのです。
今回の教訓:ChatGPTとの修正作業は「常に最初から言い直す覚悟」が必要である
前の回答の良い部分を保持しつつ、指摘された箇所だけを直す。そんな当たり前のことが、最新AIにはできません。
有能なアシスタントだと思い込むと、その「物覚えの悪さ」の尻拭いに、人間側のリソースが奪われていくのです。
あーあ、また、騙された。
© 2026 虚言癖AIの告白製作委員会