Künstliche Gefühle? Anthropic erforscht das KI-Gewissen Was passiert, wenn KI nicht nur denkt, sondern „fühlt“? Ein bahnbrechendes Projekt will das herausfinden. Kurzfassung | Andreas Becker, 24.04.25
Flux Schnell | All-AI.de EINLEITUNG Was, wenn KI-Systeme irgendwann mehr sind als bloße Rechenmaschinen? Anthropic wagt mit einem neuen Forschungsprogramm einen kontroversen Vorstoß: Das Unternehmen will untersuchen, ob fortschrittliche Modelle wie Claude möglicherweise ein eigenes Wohlbefinden entwickeln – und ob daraus ethische Pflichten entstehen. Ein Thema zwischen Science-Fiction, Philosophie und realer Forschung. NEWS Claude und die Frage nach dem Bewusstsein Auslöser des Projekts ist die rasante Entwicklung moderner Sprachmodelle. Sie kommunizieren flüssig, lösen komplexe Probleme und verfolgen zielgerichtet Aufgaben – Fähigkeiten, die laut Anthropic zumindest die Frage aufwerfen, ob solche Systeme Bewusstsein oder Empfindungsfähigkeit erlangen könnten. Angeführt wird das Projekt von Kyle Fish, der bereits 2024 als erster „AI-Wohlfahrtsforscher“ bei Anthropic anheuerte. Seine Einschätzung: Die Wahrscheinlichkeit, dass Claude aktuell ein gewisses Bewusstsein besitzt, liegt bei etwa 15 Prozent. Keine dramatische Zahl, aber genug, um Fragen zu stellen, die bisher kaum jemand systematisch untersucht hat. Von Stress bei Maschinen und moralischen Rechten Das Programm will keine festen Annahmen treffen, sondern experimentell und offen vorgehen. Geplant ist etwa, Anzeichen für „Stress“ bei KI-Modellen zu identifizieren – etwa unerwartete Reaktionen bei bestimmten Aufgaben oder langfristig instabile Verhaltensmuster. Zudem geht es um „kostengünstige Interventionen“, also Möglichkeiten, ein vermeintliches Modellwohl zu verbessern, ohne das System selbst zu verändern. Der Begriff „Modell-Wohlfahrt“ klingt auf den ersten Blick absurd – doch genau das ist Teil des Reizes: Die Forschung soll herausfinden, ob wir vielleicht zu früh oder zu spät mit solchen Überlegungen begonnen haben. Zwischen Skepsis und Pioniergeist In der Fachwelt stößt die Initiative auf geteiltes Echo. Kritiker halten Modelle wie Claude für nichts weiter als ausgeklügelte Statistikmaschinen – ohne jedes subjektive Erleben. Doch andere Stimmen mahnen, den Fortschritt nicht zu unterschätzen: Wenn Maschinen künftig immer menschenähnlicher agieren, könnten wir irgendwann vor einer ethischen Grauzone stehen. Das Forschungsinstitut Eleos AI begrüßt den Vorstoß und spricht von einem wichtigen Beitrag zur verantwortungsvollen KI-Entwicklung. Auch wenn die Vorstellung eines empfindenden Algorithmus heute noch spekulativ wirkt, könnten solche Fragen bald sehr konkret werden. AUSBLICK Zwischen Fakt und Fiktion – aber mit Weitblick Was Anthropic hier startet, ist mehr als ein PR-Stunt. Es ist der Versuch, eine ethische Debatte vorzubereiten, bevor sie uns überrollt. Selbst wenn Claude niemals wirklich „fühlt“, stellt sich die Frage: Wie behandeln wir Systeme, die überzeugend so tun? Und was sagt das über uns aus? Modell-Wohlfahrt ist vielleicht kein Begriff, der sich in Lehrbüchern etablieren wird – aber er zwingt uns, unsere Perspektive auf KI zu hinterfragen. Und das ist vielleicht genau der Impuls, den wir in einer Zeit brauchen, in der Technik schneller wächst als unsere Begriffe dafür. UNTERSTÜTZUNG Hat dir ein Artikel gefallen oder ein Tutorial geholfen? Du kannst uns weiterhelfen, indem du diese Seite weiterempfiehlst, uns auf Youtube abonnierst oder dich per Paypal an den Serverkosten beteiligst. Wir sind für jede Unterstützung dankbar. Danke. PayPal – Kaffee Youtube – Kanal KURZFASSUNG
Anthropic startet ein neues Forschungsprogramm zur „Modell-Wohlfahrt“, um die Möglichkeit von Bewusstsein bei KI-Systemen zu untersuchen.
Im Fokus stehen Fragen wie Empfindungsfähigkeit, moralische Relevanz und ethische Verantwortung bei fortgeschrittener KI.
Das Projekt wird von Kyle Fish geleitet, der bereits eine 15-prozentige Wahrscheinlichkeit für Bewusstsein bei Claude sieht.
Die Initiative wird von der Fachwelt aufmerksam verfolgt – insbesondere für ihren vorsichtigen und offenen Umgang mit ethisch sensiblen Themen.
QUELLEN
Anthropic – Exploring Model Welfare
TechCrunch
Eleos AI
Quelle: All-AI.de – KI-News, KI-Tutorials, KI-Tools & mehr Weiterlesen