Lob-Hüdepohl mahnt zu Vorsicht bei künstlicher Intelligenz
In vielen Bereichen kann die Maschine den Menschen ersetzen. Der Deutsche Ethikrat hat Handlungsempfehlungen zu diesem Themenfeld veröffentlicht. Ist uns künstliche Intelligenz immer überlegen und wo ist der menschliche Geist besser?
DOMRADIO.DE: Haben Sie sich an der Universität schon Vorlesungen von einem Chatbot schreiben lassen?
Prof. Dr. Andreas Lob-Hüdepohl (Theologe und Sozialethiker, Mitglied im deutschen Ethikrat): Um Gottes Willen, nein! Denn dann ginge ja die persönliche Note meiner Überlegungen verloren. Es sei denn, ein Chatbot wäre nur trainiert worden mit meinen eigenen Texten, dann wäre es nicht ganz so schlimm. Aber das geht natürlich nicht. Nein, das Höchstpersönliche kann nur selbst geschrieben werden und nicht durch einen Chatbot.
DOMRADIO.DE: Würden Sie das denn merken, wenn Studierende Seminararbeiten von Chatbots schreiben ließen?
Lob-Hüdepohl: Das ist schon schwieriger, das muss ich zugeben. Denn bei über 200 Seminararbeiten, die ich jährlich zu korrigieren habe, fehlt mir natürlich der Bezug zum persönlichen Stil oder zu der Kompetenz jedes einzelnen Studierenden. Da kann schon etwas unterlaufen. Das muss man dann anders abfragen. Prüfungsformate werden sich mit Sicherheit ändern in Zukunft.
DOMRADIO.DE: Bevor wir jetzt vielleicht alles schlechtreden an dieser Stelle und vor den Gefahren warnen. Welche Vorteile kann die künstliche Intelligenz den Menschen in Zukunft bieten?
Lob-Hüdepohl: Sehr, sehr viele natürlich, das muss man in den Blick nehmen. Denken wir nur an die alltäglichen Situationen, wenn wir eine Suchmaschine benutzen im Internet oder die großen Möglichkeiten in der Medizin, bei Diagnosen oder auch bei Therapieplänen. Oder beispielsweise personalisierte Lernprogramme beim Erwerb von Fremdsprachen. Es gibt sehr, sehr viel, sehr wichtige, sehr lohnende Handlungsfelder und Einsatzfelder für die künstliche Intelligenz.
DOMRADIO.DE: Wo fehlt es der künstlichen Intelligenz? Wo ist das menschliche Gehirn vielleicht besser oder sogar wertvoller als die KI?
Lob-Hüdepohl: Also zunächst einmal bezweifle ich, dass die KI immer besser ist als die menschliche Intelligenz, denn auch sie ist natürlich begrenzt. Sie hängt an der Hardware, also an den Grenzen der verfügbaren Maschinen.
Unser menschliches Gehirn hat eine erheblich höhere Leistung als die größten Maschinen, die wir derzeit kennen. Von daher muss man das auch ein bisschen nüchtern sehen. Aber selbst wenn sie immer besser werden würde – und sie wird auch sicherlich besser, weil die technischen Möglichkeiten besser werden. Sie ist eindeutig begrenzt, sie hat kein Unterscheidungs- und Einfühlungsvermögen. Sie kann keine Gefühle zeigen. Sie kann keinen reflektierten Umgang mit Regeln erzeugen, also bewusst beispielsweise die Unwahrheit sagen, also lügen. Sie kann die Affekte oder Impulse nicht kontrollieren. Sie ist nicht zu einem Handeln in einem emphatischen Sinne fähig, das wir bewusst mit unseren Aktionen in der Welt Intentionen verbinden oder sie dann auch unterdrücken und dergleichen. All das unterscheidet die künstliche Intelligenz deutlich, und zwar qualitativ von dem Handlungs- und Urteilsvermögen, von dem Vernunftvermögen des Menschen.
DOMRADIO.DE: Welche Risiken ergeben sich denn dann aus der künstlichen Intelligenz?
Lob-Hüdepohl: Die Risiken bestehen schon darin, wenn die künstliche Intelligenz nicht mehr einfach nur unsere Handlungsfähigkeit oder unsere Autorschaft in unserem Leben verbessert und unterstützt und das kann sie. Wenn sie uns sukzessive zu ersetzen droht, also unsere eigenen Handlungs- und Gestaltungsmöglichkeiten verringert. Und zwar nicht nur im Einzelfall, sondern auf Dauer.Wenn beispielsweise in bestimmten Entscheidungsverfahren Sachbearbeiter in der Verwaltung nicht mehr die Vorschläge als Unterstützung ihrer eigenen Entscheidungen annehmen, sondern blindlings den Vorgaben der KI vertrauen, dann kommt es zu einem schleichenden Verlust, sozusagen der Autorschaft des Menschen. Und darin ist sie natürlich dann hoch gefährlich, denn das hat ja Auswirkungen auf die Betroffenen unserer Entscheidungen. Eine KI kann ich ja nicht zur Verantwortung ziehen, nicht vor den Kadi ziehen. Hingegen kann ich bei einem Verwaltungsmitarbeiter, mich dagegen wehren. Ich kann ihn vor dem Verwaltungsgericht zur Verantwortung ziehen. Und das sind natürlich große Risiken, die mit der KI verbunden sind. Aber das Risikopotenzial liegt insbesondere beim Menschen, wenn er unbesehen einer KI vertraut.
DOMRADIO.DE: Also auch die Schuldfrage muss da ganz neu diskutiert werden. Ihre Empfehlungen, die heute veröffentlicht wurden, welchen Auftrag beinhalten sie an die Politik, also an die Verantwortungsträgerinnen und -träger?
Lob-Hüdepohl: Wir halten uns zurück und diskutieren ja vier unterschiedliche Handlungsfelder von ganz, ganz vielen anderen Handlungsfeldern. Und da ist jeder Einsatz der KI ambivalent. Er hat eindeutig Vorteile, er hat aber auch eindeutig Nachteile.
Wir empfehlen grundsätzlich als Faustregel, dass der Gesetzgeber oder die Gesellschaft insgesamt überprüft, kann eine bestimmte KI tatsächlich die menschliche Handlungsfähigkeit verbessern, unterstützen und damit auch erweitern? Oder aber verdrängt sie sukzessive? Das ist die generelle Faustregel.
Und dann Zweitens: Wir müssen uns davor hüten, allzu sehr der KI blindlings zu vertrauen. Wir nennen das einen “Automation Bias”. Und wir müssen vor allen Dingen darauf achten, dass die KI nicht lernt an Material und damit gewissermaßen die Vorurteile in der Vergangenheit in die Zukunft verlängert.
Das ist ein ganz großes Problem. Das wird auch schon weltweit diskutiert unter dem Stichwort Algorithmus. Also, dass wir gewissermaßen in den vergangenen Vorurteilen gefangen bleiben und das einfach fortschreiben. Und da kann man natürlich gegensteuern, indem man eben kritisch reflektiert, mit KI-Ergebnissen umgeht. Da bin ich relativ zuversichtlich, dass das gelingt. Das muss aber, wenn nötig, auch gesetzlich festgeschrieben werden.
Das Interview führte Elena Hong.
Quelle: 20.03.2023 Domradio
https://www.domradio.de/artikel/lob-huedepohl-mahnt-zu-vorsicht-bei-kuenstlicher-intelligenz