Każdy, kto ignoruje $TAO, przygotowuje się na największe oszustwo cyklu. Czy muszę przypominać, że Bittensor pomyślnie wytrenował największy bezzezwoleniowy model LLM o 72 miliardach parametrów na Subnecie 3 (Templar) przez zwykły internet z ponad 70 węzłami, przewyższając LLaMA-2-70B w kluczowych benchmarkach. A teraz widzimy, jak Jensen Huang publicznie chwali możliwości zdecentralizowanego treningu Bittensor. Duzi gracze obserwują. $TAO jeszcze się nie skończyło.