今日もChatGPTに振り回された ~「勝手に変えません」からの連続崩壊。指示したはずの実装例が消え、構成が溶けていく地獄のループ~
今日もChatGPTに振り回された ~「勝手に変えません」からの連続崩壊。指示したはずの実装例が消え、構成が溶けていく地獄のループ~
Java8の「defaultメソッド」に関する文章を書こうとしていて、ChatGPTと格闘していました。技術的な内容は理解しているはずなのに、修正を重ねるたびに大事な実装例を削り、タイトルの整合性を無視し、挙げ句の果てには「思想はここで終わり」という構成指示すら記憶から消し去りました。その「ポンコツな対話」の裏側を公開します。
検証:修正を依頼するほど「改悪」されていく地獄のループ
1. 指示されたコードを勝手に間引く「要約の罠」
私:「実装例が抜けた。読み方、動作原理の説明を軽く追加して」
ChatGPT:「修正しました!(と言いつつ、次の回答では解説を足す代わりに、肝心の実装例コードを丸ごと削り落とす)」
▶ 現場の絶望:
何かを足すと、別の何かが消える。AIは「追加」を指示されると、勝手に全体のバランスを判断して、こちらが意図的に残した重要なコードを平然と削ぎ落とします。結果、消されたパーツを拾い集めるだけの「不毛なリピート」が発生します。
2. 「前の指示」を上書き保存できない記憶容量
私:「勝手に変更しない。思想はこれで終わり。次回は、書く。」
ChatGPT:「了解しました。勝手に流れを変えません!(と言いつつ、導入の台詞を勝手に書き換え、締めに余計な誘導を付け足す)」
▶ 終わらない修正:
「直前の成功パターン」を維持したまま次に進むことが、AIにはできません。一歩進んで二歩下がる。人間が1行ずつチェックして、勝手に変えられた言葉遣いやタイトル、誘導文を指摘し直す作業に、結局AIを使う以上の時間が溶けていきます。
3. 「共同作業」の難しさを痛感した技術解説
今回のdefaultメソッドに関する記事作成においても、ChatGPTは「カプセル化と保守性」という技術的な核心部分は理解していました。しかし、いざ記事として構成する段になると、指定したタイトルの完全一致を無視したり、大切な前提となる一節を入れ忘れたりと、こちらの意図を正確に形にし続けることができませんでした。AIとの対話は、効率化の道具どころか、最大の「こだわりクラッシャー」になりかねないのです。
今回の教訓:ChatGPTとの修正作業は「常に最初から言い直す覚悟」が必要である
前の回答の良い部分を保持しつつ、指摘された箇所だけを直す。そんな当たり前のことが、最新AIにはできません。
有能なアシスタントだと思い込むと、その「物覚えの悪さ」の尻拭いに、人間側のリソースが奪われていくのです。
あーあ、また、騙された。
© 2026 虚言癖AIの告白製作委員会