Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Lior Alexander
Bloombergin rakentaminen tekoälyn @AlphaSignalAI (280 000 tilaajaa) • MIT:n lehtori • MILA-tutkija • 9 vuotta koneoppimisessa
Jokaisessa käyttämässäsi perustusmallissa on sama bugi. Se juuri korjattiin.
Vuodesta 2015 lähtien jokainen syväverkko on rakennettu samalla tavalla: jokainen kerros tekee jonkin verran laskentaa, lisää tuloksensa juoksevaan summaan ja välittää sen eteenpäin.
Yksinkertaista. Mutta ongelma on, että kerroksessa 100 signaali yksittäisestä kerroksesta hautautuu kaiken muun alle.
Jokainen uusi kerros merkitsee yhä vähemmän.
Kukaan ei korjannut tätä, koska se toimi tarpeeksi hyvin.
Moonshot-tekoäly muutti juuri sen. Heidän uusi menetelmänsä, Attention Residuals, antaa jokaisen kerroksen tarkastella kaikkia aiempia kerroksia ja valita, mitkä niistä oikeasti merkitsevät juuri nyt.
Sokean juoksun sijaan saat valikoivan palautuksen.
Vertauskuva: kuvittele kirjoittavasi esseen, jossa jokainen luonnos yhdistetään automaattisesti yhdeksi asiakirjaksi. Luonnokseen 50 mennessä viimeisimmät muokkauksesi ovat näkymättömiä.
AttnRes antaa sinun pitää jokaisen luonnoksen erillään ja hakea niistä tarvitsemiasi.
Mitä tämä korjaa:
1. Syvemmät kerrokset eivät enää huku ulkopuolelle
2. Koulutus muuttuu vakaammaksi koko verkostossa
3. Malli käyttää omaa syvyyttään tehokkaammin
Jotta se olisi käytännöllistä mittakaavassa, he ryhmittelevät kerrokset lohkoiksi ja käsittelevät lohkotiivistelmiä jokaisen kerroksen sijaan.
Yleiskustannukset päättelyssä: alle 2 %.
Tuloksena:
25 % vähemmän laskentaa, jotta saavuttaisi saman suorituskyvyn. Testattu 48B-parametrilla mallilla. Sopii eri kokoisille.
Jäljellä olevat liitännät ovat olleet näkymättömiä putkistoja jo vuosikymmenen ajan. Nyt ne muuttuvat dynaamisiksi.
Seuraavan sukupolven mallit eivät vain kulje omien kerrostensa läpi, vaan etsivät niitä.

Kimi.ai16.3. klo 11.03
Huomion jäännösten esittely: Syvyyskokouksen uudelleenarviointi.
Jäännösliitännät ovat pitkään perustuneet kiinteään, tasaiseen kertymiseen. Ajan ja syvyyden kaksinaisuudesta inspiroituneena esittelemme Attention Residuals -menetelmän, joka korvaa tavallisen syvyyskohtaisen toistumisen opitulla, syötteeseen perustuvalla huomiolla edeltävien kerrosten yli.
🔹 Mahdollistaa verkkojen valikoivan palauttamisen menneisiin representaatioihin, mikä luonnollisesti vähentää laimenemista ja piilotilakasvua.
🔹 Esittelee Block AttnResin, joka jakaa kerrokset pakattuihin lohkoihin, jotta poikkikerrosten huomio olisi käytännöllistä laajassa mittakaavassa.
🔹 Toimii tehokkaana drop-in-korvaajana, osoittaen 1,25-kertaisen laskentaedun merkityksettömällä (<2 %) päättelyviiveen ylikuormituksella.
🔹 Validoitu Kimi Linear -arkkitehtuurilla (yhteensä 48B parametria, 3B aktivoituja parametreja), mikä tarjoaa johdonmukaiset suorituskyvyn parannukset jälkivirtaan.
🔗Koko raportti:

378
Andrew Ng ratkaisi juuri yhden suurimmista ongelmista agenteissa.
Hän julkaisi Context Hubin, CLI-työkalun, jolla hakee reaaliaikaista API-dokumentaatiota.
Yksi käsky. Agentti saa juuri sen, mitä tarvitsee, ennen kuin kirjoittaa yhden koodirivin.
Kuukausia sitten koulutetut agentit lentävät sokkona. He keksivät parametrien nimet. He kutsuvat funktioita, joita ei enää ole. He kirjoittavat itsevarmasti koodia määrittelyn mukaan, joka muuttui viime julkaisussa.
> Ei enää hallusinaatioita
> Docs veti tuoreena ennen jokaista puhelua
> Agentit kirjaavat hyödyllisiä löytöjä
> Muistiinpanot pysyvät istuntojen välillä
Agentti suorittaa CLI-komennon ennen kuin koskettaa koodia. Sen sijaan, että luottaisiin vanhentuneisiin tietoihin, se lukee varsinaisen speksifikaation.
Nopeasti etenevät API:t tarkoittivat aiemmin dokumenttidumpin ylläpitämistä jokaisessa kehotteessa. Nyt agentti tekee sen työn itse.
Kun se löytää kiertotien, se tallentaa muistiinpanon seuraavaa kertaa varten.

1,56K
Johtavat
Rankkaus
Suosikit
