Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Les journaux de capteurs robotiques, la télémétrie des voitures autonomes, les signes vitaux des hôpitaux - toutes des séries temporelles, toutes écrasant les données textuelles et vidéo sur lesquelles l'industrie de l'IA a passé des années à optimiser. Et la raison pour laquelle les modèles de transformateurs (Claude, ChatGPT, etc.) ne peuvent pas prévoir cela aussi bien : ils transforment des nombres continus en jetons discrets, et cette tokenisation détruit probablement la précision dont le problème a besoin.
Google, Amazon, Datadog ont tous construit des modèles propriétaires pour compenser, mais ces modèles n'ont vu que des chiffres historiques, jamais le rapport de bénéfices ou le changement de politique qui les a causés.
Le Migas 1.5 de @synthefyinc est le premier modèle de fondation à poids ouverts qui combine texte et séries temporelles pour induire de telles informations exogènes dans la prévision des séries temporelles de manière native. Premiers chiffres : taux de réussite de plus de 75 % sur 86 ensembles de données du monde réel. 14,2 % de MAE en moins.
Poids sur @huggingface. Ou téléchargez et utilisez directement leur nouvelle compétence dans Claude.
Meilleurs
Classement
Favoris
