あなたのAIは、あなたが伝えたことを静かに忘れていました。 偶然ではありません。大声で。体系的に。最も重要な決断から始めましょう。 > 3ヶ月前に設定した制約は「Redisを絶対に使わないでください。クライアントが本来のイベント後に拒否しました」というものでした。消えた。GDPRの展開地域制限。消えた。カスケード失敗後に経験的に試したリトライの限界です。消えた。 > モデルはあなたに言わなかった。最近デフォルト設定を使い始めたばかりです。 > これを文脈腐敗と呼びます。そしてケンブリッジやインディペンデントの研究者たちは、その悪さを正確に定量化しました。 > 十分な時間稼働する生産型AIシステムは、最終的にはコンテキストを圧縮して新しい情報のスペースを作る。その圧縮は壊滅的に損失を伴います。彼らは直接テストしました。2,000件の事実を36.7の速度で圧縮すると×知識ベースの60%が永久に回復不可能となりました。幻覚じゃない。間違っていません。ただ消えただけだ。モデルは正直に、もうその情報を持っていないと報告していました。 > それからもっと悪いものを試したんだ。彼らは20の実際のプロジェクト制約を88ターンの対話に組み込み、長期プロジェクトで自然に現れる制約を、まさに本来のシステムのようにカスケード圧縮を適用しました。1回のラウンドで91%の保存率。2ラウンド終了後:62%。3ラウンド終了後:46%。 > モデルはずっと自信を持って動作していました。忘れ去られた制約を破る出力を生成したのです。エラー信号はありません。何の警告もなく。ただ、あなたの状況に合わない合理的なデフォルトへのサイレントリバートです。 > 彼らはこれを4つのフロンティアモデルでテストしました。クロード・ソネット 4.5、クロード・ソネット 4.6、オーパス、GPT-5.4。すべての骨が圧縮されて崩壊しました。これはモデルの問題ではありません。建築的なものだ。 → 1回の圧縮パスで60%の事実が永久に失われます →プロジェクトの制約の54%が3回の連鎖圧縮後に解消されました →GPT-5.4は圧縮率2×で精度が0%に落ち込みました → Opusでさえ20×圧縮時の事実はわずか5%しか保持していません → インコンテキストメモリは7,000の事実で年間14,201ドル、代替の場合は年間56ドルです AIラボもそれを知っています。彼らの解決策は、より大きなコンテキストウィンドウです。10Mトークンウィンドウはより大きなバケットです。まだバケツだ。圧縮は長期稼働のシステムでは避けられません。ウィンドウサイズは忘却がいつ始まるかを決めるだけで、それが起こるかどうかを決めるわけではありません。