Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Lior Alexander
Construirea Bloomberg-ului AI @AlphaSignalAI (280.000 abonament) • Lector la MIT • Cercetător MILA • 9 ani în ML
Fiecare model de fundație pe care l-ai folosit vreodată are același bug. Tocmai s-a rezolvat.
Din 2015, fiecare rețea profundă a fost construită în același mod: fiecare strat face unele calcule, adaugă rezultatul la un total curent și îl transmite mai departe.
Simplu. Dar există o problemă, până la stratul 100, semnalul oricărui strat este îngropat sub suma tuturor celorlalte.
Fiecare strat nou contează din ce în ce mai puțin.
Nimeni nu a reparat asta pentru că a funcționat destul de bine.
AI-ul Moonshot tocmai a schimbat asta. Noua lor metodă, Attention Residuals, permite fiecărui strat să se uite înapoi la toate straturile anterioare și să aleagă care contează cu adevărat în acest moment.
În loc de un total de alergare orb, primești recuperarea selectivă.
Analogia: imaginează-ți că scrii un eseu în care fiecare variantă este integrată automat într-un singur document. Până la draftul 50, ultimele tale editări sunt invizibile.
AttnRes îți permite să păstrezi fiecare draft separat și să tragi din cele de care ai nevoie.
Ce rezolvă asta:
1. Straturile mai adânci nu mai sunt acoperite
2. Instruirea devine mai stabilă pe întreaga rețea
3. Modelul folosește propria adâncime mai eficient
Pentru a fi practic la scară largă, grupează straturile în blocuri și asistă peste rezumatele de blocuri, nu peste fiecare strat.
Overhead la inferență: mai puțin de 2%.
Rezultatul:
25% mai puțină calcul pentru a atinge aceeași performanță. Testat pe un model cu 48B parametri. Se menține pe toate dimensiunile.
Conexiunile reziduale au fost instalații invizibile timp de un deceniu. Acum devin dinamici.
Următoarea generație de modele nu va trece doar prin propriile straturi, ci le va căuta.

Kimi.ai16 mar., 11:03
Prezentarea reziduurilor de atenție: Regândirea agregării în profunzime.
Conexiunile reziduale s-au bazat mult timp pe acumulare fixă și uniformă. Inspirați de dualitatea timpului și adâncimii, introducem Reziduurile Atenției, înlocuind recurența standard pe profunzime cu atenție învățată, dependentă de input, peste straturile anterioare.
🔹 Permite rețelelor să recupereze selectiv reprezentările trecute, atenuând în mod natural diluarea și creșterea stării ascunse.
🔹 Introduce Block AttnRes, partiționarea straturilor în blocuri comprimate pentru a face atenția la straturi transversale practică la scară largă.
🔹 Servește ca înlocuitor eficient drop-in, demonstrând un avantaj de calcul de 1,25x cu un overhead neglijabil (<2%) de latență de inferență.
🔹 Validat pe arhitectura liniară Kimi (48B total, 3B parametri activați), oferind câștiguri constante de performanță downstream.
🔗Raport complet:

361
Andrew Ng tocmai a rezolvat una dintre cele mai mari probleme ale agenților.
A lansat Context Hub, un instrument CLI pentru a prelua documentația API live.
O comandă. Agentul primește exact ce are nevoie înainte să scrie o singură linie de cod.
Agenții instruiți cu luni în urmă zboară pe orb. Ei inventează denumiri de parametri. Ei numesc funcții care nu mai există. Scriu cod cu încredere pe baza unei specificații care s-a schimbat la ultima versiune.
> Fără parametri halucinați
> Docs au tras proaspăt înainte de fiecare apel
> Agenții înregistrează descoperiri utile
> Notele persistă între sesiuni
Agentul rulează o comandă CLI înainte de a atinge codul. În loc să se bazeze pe date învechite, citește specificația propriu-zisă.
API-urile cu mișcare rapidă însemnau înainte menținerea unui document dump în fiecare prompt. Acum agentul face singur această treabă.
Când găsește o soluție alternativă, salvează o notă pentru data viitoare.

1,54K
Limită superioară
Clasament
Favorite
