Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI-en din har stille glemt alt du har fortalt den.
Ikke tilfeldig. Ikke høyt. Systematisk. Vi starter med de avgjørelsene som betyr mest.
> Begrensningen du satte for tre måneder siden "aldri bruk Redis, klienten nedla veto etter en produksjonshendelse." Borte. GDPR-begrensningen for distribusjonsregion. Borte. Retry-grensen testet du empirisk etter kaskadefeilen. Borte.
> Modellen har aldri fortalt deg det. Den begynte nettopp å bruke standardinnstillinger.
> Dette kalles kontekstråte. Og forskere fra Cambridge og Independent har nettopp kvantifisert nøyaktig hvor ille det er.
> Hvert produksjons-AI-system som kjører lenge nok, vil til slutt komprimere konteksten sin for å gi plass til ny informasjon. Den komprimeringen er katastrofalt tapende. De testet det direkte: 2 000 fakta komprimert til 36,7× gjorde 60 % av kunnskapsbasen permanent uopprettelig. Ikke hallusinert. Ikke feil. Bare borte. Modellen rapporterte ærlig talt at den ikke hadde informasjonen lenger.
> Så testet de noe verre. De integrerte 20 reelle prosjektbegrensninger i en samtale på 88 runder, den typen begrensninger som oppstår naturlig i ethvert langvarig prosjekt, og brukte deretter kaskaderende komprimering akkurat som produksjonssystemer gjør. Etter én runde: 91 % bevart. Etter to runder: 62%. Etter tre runder: 46%.
> Modellen fortsatte å jobbe med full selvtillit hele tiden. Genererte resultater som brøt de glemte begrensningene. Ingen feilsignal. Ingen advarsel. Bare stille tilbakevending til rimelige standardinnstillinger som tilfeldigvis var feil for din spesifikke situasjon.
> De testet dette på tvers av fire frontier-modeller. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Alle kollapset under kompresjon. Dette er ikke et modell-problem. Det er arkitektonisk.
→ 60 % av fakta permanent tapt etter én komprimeringsgjennomgang
→ 54 % av prosjektbegrensningene borte etter tre runder med kaskaderende komprimering
→ GPT-5.4 falt til 0 % nøyaktighet ved bare 2 × komprimering
→ Selv Opus beholdt bare 5 % av fakta ved 20× komprimering
→ In-context minne koster 14 201 dollar i året ved 7 000 fakta mot 56 dollar i året for alternativet
AI-laboratoriene vet dette. Løsningen deres er større kontekstvinduer. Et 10M-token-vindu er en større bøtte. Det er fortsatt en bøtte. Kompaktering er uunngåelig for ethvert langvarig system. Vindusstørrelsen avgjør bare når glemselen starter, ikke om det skjer.

Topp
Rangering
Favoritter
