Genau dieser Aufgabe stellte sich Alena Buyx, Professorin für Ethik in Medizin und Gesundheitstechnologie an der Technischen Universität München (TUM), im Rahmen der Bürger-Uni. Selten war das Motto der Veranstaltungsreihe „Neugier.Wissen.Zukunft" treffender als an diesem Abend. Die studierte Philosophin, Medizinerin und Soziologin stellte die Frage: „Horror oder Heilsbringer? Medizinethische Überlegungen zur KI“. Mit Charme, Sachverstand und Witz begeisterte und verblüffte sie das Publikum in der Aula auf dem Heilbronner Bildungscampus.

Mit Heilbronn verbindet die Professorin zum einen die Verbundenheit zum TUM Campus, zum anderen ein gebrochenes Herz: „Ich habe früher Handball gespielt und bei einem Turnier meinen ersten Freund kennen gelernt, der aus Heilbronn kam.“ Wie es mit der ersten Liebe immer so ist, endet sie meist tragisch, doch sie hat ihr Glück gefunden: „Heute bin ich verheiratet und habe zwei Kinder.“ In dieser Beziehung gab es für Alena Buyx also ein Happy End, aber wie sieht sie die Chancen für ein glückliches Ende in der Entwicklung der Künstlichen Intelligenz?

„Ich bin Optimistin“, stellt sie gleich zu Beginn klar und wird dies im Laufe des Abends noch öfter betonen. Die Diskussion sei derzeit sehr hysterisch. „Die einen sagen: KI ist das Beste und wird alles für uns tun. Unter anderem den Fachkräftemangel und den Klimawandel lösen.“ Dem stünden Dystopien gegenüber: „Die anderen sagen, es ist die größte Bedrohung für die Menschheit, in Schwarzenegger-Manier.“  Es scheint, als gäbe es in der Debatte nur Extreme, die Meinung von Buyx: „Es ist weder das eine noch das andere, es ist eine echte Dual-Use-Technologie, wie die Atomkraft. Sie ermöglicht fantastische Dinge und hat gleichzeitig ein zerstörerisches Potenzial mit ethischen und sozialen Konsequenzen.“

Verantwortung übernehmen

Entwicklung und Design müssen verantwortungsvoll sein. Der Ethikrat, dem Alena Buyx angehörte, hat dazu die längste Stellungnahme seiner Geschichte verfasst, ganze 400 Seiten. „Und die lese ich Ihnen jetzt vor“, sagt Buyx und lacht. Das wäre schade, denn die Dozentin bringt viel Leben in ihren Vortrag, und damit das so bleibt, beschränkt sich die Professorin auf drei Kernfragen: Kann KI ein Bewusstsein entwickeln, die menschliche Intelligenz übertreffen und moralisch verantwortlich handeln?

Die einhellige Antwort des Ethikrates: Nein. Buyx ist sich sicher: „Es werden Maschinen bleiben. Unsere Intelligenz ist viel mehr als Datenverarbeitung – sie ist verkörpert, emotional und findet live statt.“ Beim Thema Moral wird sie sehr deutlich: „Der Einsatz von KI muss menschliche Entfaltung, Autorität und Handlungsmöglichkeiten erweitern und darf sie nicht einschränken. KI darf den Menschen nicht ersetzen. Wir haben es in der Hand und das soll auch so bleiben.“

Sinn und Unsinn

An diesem Abend beleuchtet sie Chancen und Risiken anhand von vier Anwendungsbereichen: Medizin, Bildung, Verwaltung und öffentliche Diskussion. In der Medizin sieht die promovierte Wissenschaftlerin großes Potenzial: „Bei der Entwicklung neuer Medikamente, etwa gegen Krebs oder Demenz, dauerte es früher Jahre, die Moleküle wie mit einem Zauberwürfel zu berechnen. Heute geht das in sechs Stunden. Wenn ich daran denke, bekomme ich immer noch eine Gänsehaut.“

Bei der Diagnose von Tuberkulose schlägt die KI den Menschen um satte 20 Prozentpunkte, der Mensch liegt bei 50, der Algorithmus bei 70. Aber wie hat er das geschafft: „Das einzige Kriterium waren die Bildränder, an denen er erkennen konnte, ob die Bilder mit einem stationären oder einem mobilen Gerät aufgenommen wurden“, erklärt Buyx. Deshalb sei es wichtig, nicht blind zu vertrauen: „Wir müssen verstehen, was in der KI passiert, es dürfen keine kompletten Black Boxes sein.“ Außerdem brauche es faire Datensätze, die alle Geschlechter und sozialen Gruppen abdecken.

Totale Kontrolle

In asiatischen Klassenzimmern sollen die Schüler wach und aufmerksam bleiben: „Ihr Verhalten wird mit Gesichtserkennung gemessen, das hat Einfluss auf das Social Scoring System und greift radikal in die Privatsphäre ein“, erklärt Buyx. In der EU ist die Technik zum Glück verboten, doch auch im Bildungsbereich kann KI sinnvoll und moralisch vertretbar eingesetzt werden: „Es gibt inzwischen intelligente Tutor Systeme, bei denen der Avatar auf das Kind eingestellt und damit perfekt personalisiert ist. Lerndefizite werden so erkannt.“

Ähnlich wie im Hollywood-Blockbuster Minority Report kriminelle Handlungen vorhersagen, bevor sie passieren, und damit verhindern, scheint nicht mehr nur Science-Fiction zu sein. „In den USA wird bereits daran gearbeitet, allerdings liefert KI teilweise diskriminierende Ergebnisse und greift auch in Freiheits- und Grundrechte ein.“ In der Verwaltung insgesamt sieht Alena Buyx auch noch viel Luft nach oben: „Ich diesem Bereich ist noch relativ wenig passiert, obwohl hier wirklich lebenswichtige Entscheidungen getroffen werden.“

Einigung auf Mindeststandards

„Es gibt eine dunkle Seite. Deshalb müssen wir regulieren.“ Die großen Player wie Google, Amazon oder YouTube arbeiten alle mit KI. Der Einzelne kann sie für die Suche, für die Interaktion und einfach für die Bequemlichkeit nutzen. Die Technologie an sich ist weder gut noch schlecht. Denn: „Derselbe Algorithmus, der Krebs heilen kann, entwickelt in sechs Stunden 40.000 toxische Biowaffen.“

Natürlich hat die Ethik-Expertin auch einige Handlungsempfehlungen im Gepäck: „Wir brauchen Transparenz und eine Kennzeichnungspflicht für KI.“ Verbote seien dagegen absoluter Unsinn. Vielmehr gehe es darum, gemeinsame globale Mindeststandards zu definieren, weshalb es für Europa entscheidend sei, technologisch auf Augenhöhe zu bleiben: „So entsteht ein Kräftegleichgewicht und wir können gewisse Standards einfordern. KI darf kein Anreiz sein, bestehende Ungleichgewichte zu verstärken.“ Die letzte Verantwortung müsse beim Menschen liegen und so bekam das Publikum im Auditorium eine Hausaufgabe mit auf den Heimweg: „Was Sie tun müssen? Das Ziel einfordern.“

Die nächste Bürger-Uni ist am 7. November. Der Experte des Abends Prof. Ortwin Renn spricht über „Die Psychologie des Risikos: Wie Menschen mit Unsicherheiten umgehen“.

Firmenkontakt und Herausgeber der Meldung:

Die TUM Campus Heilbronn gGmbH
Bildungscampus 2
74076 Heilbronn
Telefon: +49 (0) 7131 264180
Telefax: +49 (7131) 645636-27
https://www.chn.tum.de/de

Ansprechpartner:
Kerstin Besemer
Telefon: +49 (7131) 26418-501
E-Mail: Kerstin.Besemer@tumheilbronn-ggmbh.de
Für die oben stehende Story ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel