Research·Europe

Forscher trainieren KI-Modell, das mit 12,5 Prozent seiner Experten fast volle Leistung bringt

Global AI Watch · Editorial Team··4 min read
Forscher trainieren KI-Modell, das mit 12,5 Prozent seiner Experten fast volle Leistung bringt
Redaktionelle Einschätzung

Reducing expert usage by 75%, EMO's efficiency makes Mixture-of-Experts viable for resource-limited applications.

Kernpunkte

  • 1Forscher des Allen Institute for AI und der UC Berkeley haben mit EMO ein Mixture-of-Experts-Modell entwickelt, dessen Experten sich auf inhaltliche Domänen statt auf Wortarten spezialisieren.
  • 2Das erlaubt es, drei Viertel der Experten zu entfernen, bei nur rund einem Prozentpunkt Leistungsverlust.
  • 3Das könnte MoE-Modelle erstmals praxistauglich für speicherbeschränkte Umgebungen machen.
  • 4Der Artikel Forscher trainieren KI-Modell, das mit 12,5 Prozent seiner Experten fast volle Leistung bringt erschien zuerst auf The Decoder.

Forscher des Allen Institute for AI und der UC Berkeley haben mit EMO ein Mixture-of-Experts-Modell entwickelt, dessen Experten sich auf inhaltliche Domänen statt auf Wortarten spezialisieren. Das erlaubt es, drei Viertel der Experten zu entfernen, bei nur rund einem Prozentpunkt Leistungsverlust. Das könnte MoE-Modelle erstmals praxistauglich für speicherbeschränkte Umgebungen machen. Der Artikel Forscher trainieren KI-Modell, das mit 12,5 Prozent seiner Experten fast volle Leistung bringt erschien zuerst auf The Decoder.

Free Daily Briefing

Top AI intelligence stories delivered each morning.

Subscribe Free →

Explore Trackers