Die Vorhersage von Zeitreihen spielt in zahlreichen Bereichen wie Einzelhandel, Finanzen, Gesundheitswesen und Naturwissenschaften eine entscheidende Rolle. Obwohl Deep Learning (DL) Modelle in den letzten Jahren erhebliche Fortschritte erzielt haben, bleiben vortrainierte Zeitreihenmodelle hinsichtlich Skalierbarkeit und Kosten begrenzt. Diese Einschränkungen behindern die Entwicklung größerer, leistungsfähigerer Prognosemodelle für reale Anwendungen.
Um diese Herausforderungen zu adressieren, wurde Time-MoE entwickelt. Time-MoE steht für "Time Series Model with Mixture of Experts" und ist eine skalierbare und einheitliche Architektur, die darauf abzielt, größere und leistungsfähigere Prognosemodelle vorzutrainieren und gleichzeitig die Inferenzkosten zu senken. Durch die Nutzung eines sparsamen "Mixture of Experts" (MoE) Designs wird die Recheneffizienz verbessert, indem nur ein Teil der Netzwerke für jede Vorhersage aktiviert wird. Dies reduziert die Rechenlast, während die hohe Modellkapazität erhalten bleibt.
Time-MoE besteht aus einer Familie von Decoder-Only-Transformermodellen, die autoregressiv arbeiten und flexible Vorhersagehorizonte mit variablen Eingabekontextlängen unterstützen. Diese Modelle wurden auf einem neu eingeführten, groß angelegten Datensatz namens Time-300B vortrainiert, der über 9 Domänen und mehr als 300 Milliarden Zeitpunkte umfasst. Zum ersten Mal konnte ein Zeitreihen-Basismodell auf 2,4 Milliarden Parameter skaliert werden, was zu einer deutlich verbesserten Prognosegenauigkeit führte.
Time-MoE zeigt erhebliche Vorteile gegenüber herkömmlichen dichten Modellen mit derselben Anzahl aktivierter Parameter oder äquivalentem Rechenbudget:
Die Evaluierung von Time-MoE zeigte, dass es in der Lage ist, komplexe reale Zeitreihenprognoseaufgaben mit überlegener Fähigkeit und Effizienz zu bewältigen. Die Modelle wurden auf verschiedenen öffentlichen Benchmarks getestet und erzielten beeindruckende Ergebnisse, die sowohl statistische Methoden als auch leistungsstarke DL-Modelle übertrafen.
Ein Beispiel für den praktischen Einsatz von Time-MoE ist die Nachfrageprognose im Einzelhandel, bei der genaue Vorhersagen die Lagerkosten senken und den Umsatz steigern können. Durch die Vorhersage von Verkaufszahlen können Unternehmen ihre Bestände besser verwalten und Engpässe oder Überbestände vermeiden.
Time-MoE stellt einen bedeutenden Fortschritt in der Zeitreihenprognose dar und bietet eine skalierbare, effiziente und flexible Lösung für reale Herausforderungen. Die Fähigkeit, größere und leistungsfähigere Prognosemodelle vorzutrainieren, ohne die Inferenzkosten zu erhöhen, positioniert Time-MoE als eine zukunftsweisende Technologie in der Welt der Zeitreihenanalyse.