Quiconque dénigre $TAO se prépare à la plus grande désillusion du cycle. Dois-je vous rappeler que Bittensor a réussi à entraîner le plus grand LLM de 72 milliards de paramètres sans autorisation sur Subnet 3 (Templar) via Internet classique avec plus de 70 nœuds, surpassant LLaMA-2-70B sur des benchmarks clés. Et maintenant, nous voyons Jensen Huang louer publiquement les capacités d'entraînement décentralisées de Bittensor. Les grands acteurs surveillent. $TAO n'a pas encore dit son dernier mot.