Wie VentureBeat berichtet, haben Forscher der University of Wisconsin-Madison und Stanford neue Skalierungsgesetze entwickelt, die Trainings- und Inferenzkosten gemeinsam optimieren. Die sogenannte Train-to-Test (T2) Scaling Law zeigt: Es ist kosteneffizienter, kleinere Modelle auf deutlich mehr Daten zu trainieren und die eingesparte Rechenleistung für mehrere Inferenzsamples bei der Modellbereitstellung zu nutzen. Dies widerlegt traditionelle Skalierungsrichtlinien wie die Chinchilla-Regel, die hauptsächlich Trainingskosten minimieren. Das Ergebnis ist kontraintuativ – nicht größer ist besser, sondern intelligenter verteilt.
Für Enterprise-Entwickler, die eigene KI-Modelle trainieren, könnte dieser Ansatz einen echten Paradigmenwechsel bedeuten: Bessere Ergebnisse bei niedrigeren Gesamtkosten durch gezielte Ressourcenverlagerung von Training zu Inferenz.