Les journaux de capteurs robotiques, la télémétrie des voitures autonomes, les signes vitaux des hôpitaux - toutes des séries temporelles, toutes écrasant les données textuelles et vidéo sur lesquelles l'industrie de l'IA a passé des années à optimiser. Et la raison pour laquelle les modèles de transformateurs (Claude, ChatGPT, etc.) ne peuvent pas prévoir cela aussi bien : ils transforment des nombres continus en jetons discrets, et cette tokenisation détruit probablement la précision dont le problème a besoin. Google, Amazon, Datadog ont tous construit des modèles propriétaires pour compenser, mais ces modèles n'ont vu que des chiffres historiques, jamais le rapport de bénéfices ou le changement de politique qui les a causés. Le Migas 1.5 de @synthefyinc est le premier modèle de fondation à poids ouverts qui combine texte et séries temporelles pour induire de telles informations exogènes dans la prévision des séries temporelles de manière native. Premiers chiffres : taux de réussite de plus de 75 % sur 86 ensembles de données du monde réel. 14,2 % de MAE en moins. Poids sur @huggingface. Ou téléchargez et utilisez directement leur nouvelle compétence dans Claude.