Alla som försvinner $TAO förbereder sig för cykelns största coping. Behöver jag påminna dig om att Bittensor framgångsrikt tränade den största tillståndslösa 72B-parameter LLM:n på Subnet 3 (Templar) över standardinternet med 70+ noder, och överträffade LLaMA-2-70B på viktiga benchmarks. Och nu ser vi Jensen Huang offentligt berömma Bittensors decentraliserade träningsförmåga De stora killarna tittar. $TAO är inte klart än.