Важно подтвердить, что ваша библиотека может использоваться LLM. Этот LLM, который закодировал flash attention в tinygrad, превосходит AOTriton в PyTorch на моем AMD Strix Halo.
harshbajpai
harshbajpai15 часов назад
Ха-ха, geohot помечает PR с фразой "ai slop" XD
И это не близко. Это в 1.8 раза быстрее. Это с использованием DSL tinygrad. Замена для BEAM будет LLM.
77