SEAL vom MIT: Diese KI hört nie auf zu lernen Ein Sprachmodell, das sich selbst trainiert und kontinuierlich verbessert – steht uns jetzt die Ära der lernenden KI bevor? Kurzfassung | Andreas Becker, 19.06.25
gpt-image-1 | All-AI.de EINLEITUNG Die nächste Generation von KI-Modellen steht in den Startlöchern – und sie könnte sich selbst weiterentwickeln. Forscher am MIT haben mit dem Framework „Self-Adapting Language Models“ (SEAL) einen Ansatz vorgestellt, der großen Sprachmodellen erlaubt, selbständig dazuzulernen. Der Trick: Die KI erzeugt eigenes Trainingsmaterial und bewertet es auch gleich selbst. Eine lernende Maschine, die sich laufend verbessert – klingt nach Science-Fiction, ist aber bereits im Testbetrieb. Was macht SEAL so besonders, und welche Hürden stehen dem Praxiseinsatz noch im Weg? NEWS WIE SEAL FUNKTIONIERT SEAL verleiht großen Sprachmodellen eine neue Fähigkeit: das gezielte Weiterlernen auf Basis eigener Einschätzungen. Dabei entsteht ein interner Kreislauf. Die KI verarbeitet eine Aufgabe, erstellt daraus eigene Trainingsbeispiele und passt sich durch feines Nachjustieren an. Anschließend prüft sie, ob diese Anpassung tatsächlich hilfreich war – und nutzt dieses Feedback für künftige Lernzyklen. Die Methode wurde mit Varianten der LLaMA- und Qwen-Modelle getestet. Dabei zeigte sich, dass SEAL nicht nur Fakten besser integrieren kann, sondern auch bei komplexen Denkaufgaben Fortschritte macht. Gerade im ARC-Benchmark, der menschliches Problemlösen testet, lieferte das System deutlich bessere Ergebnisse als klassische Ansätze. STÄRKEN DES ANSATZES Was SEAL so spannend macht, ist die Fähigkeit zur kontinuierlichen Weiterentwicklung. Statt auf fest vorgegebene Trainingsphasen angewiesen zu sein, kann das Modell dynamisch reagieren – etwa wenn sich Fakten ändern oder neue Anforderungen auftauchen. Besonders effizient ist der Verzicht auf externe Datensätze. Die KI erstellt alles selbst, spart so nicht nur Zeit, sondern auch Ressourcen. Erste Tests zeigen zudem, dass SEAL mit wenigen Beispielen überraschend gut zurechtkommt. Gerade in Szenarien mit begrenztem Input ist das ein enormer Vorteil. Die Idee einer KI, die sich fortlaufend selbst optimiert, rückt damit ein gutes Stück näher an die Realität. HERAUSFORDERUNGEN UND FRAGEN Doch der Weg zur lernenden Super-KI ist noch lang. Ein zentrales Problem bleibt das sogenannte „Catastrophic Forgetting“ – neu Gelerntes kann ältere Inhalte verdrängen. Damit entstehen unerwünschte Lücken im Wissen. Auch der technische Aufwand ist beträchtlich. Regelmäßiges Fine-Tuning kostet Rechenleistung und Energie, was den Einsatz in Echtzeit-Umgebungen erschwert. Noch ist auch nicht klar, wie oft und in welchen Abständen sich ein Modell wie SEAL aktualisieren sollte. Denkbar wäre ein „Rhythmus“ wie bei uns Menschen – Lernen, dann ruhen und konsolidieren. Doch dieser Ansatz ist bislang eher theoretisch als praktisch etabliert. FORSCHUNGSRICHTUNG: LERNEN STATT NUR ABRUFEN SEAL steht nicht allein da. Weltweit experimentieren Forschungseinrichtungen mit Varianten des kontinuierlichen Lernens. Die Idee: Statt ein Sprachmodell nur mit Inhalten zu füttern, soll es aktiv reflektieren, verbessern und ergänzen. Andere Projekte, etwa an der Carnegie Mellon University oder in China, verfolgen ähnliche Ansätze – teilweise sogar multimodal, also mit Text, Bild und Ton zugleich. Dennoch bleibt SEAL mit seiner klaren Fokussierung auf selbstgeneriertes Lernmaterial und Feedbackkreisläufe ein eigenständiger Meilenstein. Größere Modelle wie Qwen 2.5 setzen zwar auf mehr Parameter, lösen das Lernproblem aber nicht auf diese Weise. AUSBLICK WENN KI IHR EIGENES GEDÄCHTNIS SCHÄRFT SEAL bringt frischen Wind in eine Debatte, die lange festgefahren wirkte: Wie können KI-Modelle nicht nur antworten, sondern sich entwickeln? Die Idee, dass ein System selbst merkt, wo es noch Nachholbedarf hat – und das aktiv behebt – ist mehr als nur ein cleverer Trick. Sie deutet auf eine neue Ära hin: adaptive Modelle, die nicht bloß kontextbezogen reagieren, sondern echte Lernleistung zeigen. Der Weg in den Alltag ist noch weit. Es fehlen Standards, Energieeffizienz und einfache Schnittstellen. Doch wenn Forschung und Praxis hier zusammenspielen, könnten KI-Systeme bald mehr sein als Rechenmaschinen. Vielleicht werden sie zu Werkzeugen, die mit uns wachsen – und von uns lernen, wie wir von ihnen. UNSER ZIEL Wir wollen hauptberuflich über Künstliche Intelligenz berichten und dabei immer besser werden. Du kannst uns auf dem Weg unterstützen! Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
MIT-Forscher haben mit SEAL ein System entwickelt, das Sprachmodelle kontinuierlich aus eigener Erfahrung verbessert.
Durch selbstgenerierte Daten und Reinforcement Learning passt sich das Modell ohne menschliches Zutun an neue Aufgaben an.
SEAL zeigt überlegene Performance in Benchmarks und könnte der erste echte Schritt zu „lernenden“ KI-Systemen sein.
Trotzdem bleiben Herausforderungen wie Rechenaufwand und Gedächtnisverlust ungelöst.
QUELLEN
WIRED
arXiv
Synced
Quelle: All-AI.de – KI-News, KI-Tutorials, KI-Tools & mehr Weiterlesen