|
19.12.2023
Künstliche Intelligenz - Fluch oder Segen?
Autor: Johannes Webhofer
Spätestens mit Beginn der 1990er Jahren haben IT Systeme stärker in unser Arbeits- und Alltagsleben Einzug gefunden. Viele Erleichterungen waren damit verbunden. E-Mails haben die unzähligen Briefe und Postsendungen ersetzt, Menschen haben verstärkt begonnen, sich über den gesamten Globus zu vernetzen und auszutauschen. Mit dem Smartphone, Alexa und Co bis hin zu den Sozialen Medien wurden neue Möglichkeiten der Kommunikation entwickelt, die uns in vielen Belangen ent- und belastet haben. Die anfangs noch überwiegend euphorischen Stimmen aus Wissenschaft und Politik, das Internet würde zu einer Stärkung der Demokratien führen, sind nicht zuletzt aufgrund zahlreicher Herausforderungen wie Fake News, ‚Hass im Netz‘ oder Bedrohungen durch Cyberkriminalität einer eher pessimistischen Haltung gewichen. Und obwohl wir in vielen Bereichen noch keine zufriedenstellenden Lösungen gefunden haben, wurden wir nicht zuletzt mit dem Launch von ChatGPT von den neuen Entwicklungen im Bereich der Künstlichen Intelligenz überrascht. Im Moment befinden wir uns noch in einem sogenannten Schockzustand und sind beeindruckt von den Ergebnissen, die KI-Tools in Sekundenschnelle liefern können. Diese Werkzeuge sind nicht nur fähig Liebesgedichte, Übersetzungen oder profunde wissenschaftliche Abhandlungen zu verfassen, ihre Leistungen im Bereich der Bild-, Ton- und Videomanipulation sind erstaunlich und lassen erahnen, welchen Herausforderungen wir in Zukunft gegenüberstehen werden. Neue Begriffe wie Big Data oder Deep Learning kursieren in den Massenmedien und werden zunehmend Teil unserer Arbeits- und Alltagssprache. Was jedoch häufig missverstanden wird ist, dass aktuelle KI-Systeme kein eigenes Verständnis für Logik oder eine Intelligenz im traditionellen Sinne besitzen. Sie liefern lediglich die statistisch wahrscheinlichste Antwort, basierend auf der umfangreichen Datenmenge, auf der sie trainiert wurden.
Wenn wir davon sprechen, dass es sich bei KI Systemen um neue Technologien handelt, mag dies zwar in Bezug auf ihre öffentliche Präsenz zutreffen, technische Forschungsinstitute konnten bereits in den 1950er Jahren erste Erfolge im Bereich künstlicher neuronaler Netzwerke verbuchen.[1] Seit den 2010er Jahren konnten nicht zuletzt aufgrund der Hardware-Entwicklungen (Rechenleistung) und der Verfügbarkeit großer Datenmengen enorme Fortschritte bei Deep Learning und Big Data erzielt werden. Die Anwendungen reichen von Spracherkennung über Bilderkennung bis hin zu autonomen Fahrzeugen.
KI als Booster-Technologie
László Kovács spricht von KI als Booster-Technologie und vergleicht ihre gesellschaftlichen Auswirkungen u.a. mit jenen des Buchdrucks, der Dampfmaschine oder der Stromerzeugung durch Wasserkraftwerke (vgl. Kovács 2023: 2). Diese Booster-Technologien haben zu zahlreichen Entwicklungen und Innovationen geführt, die wir heute als selbstverständlich erachten. Mit anderen Worten, auch KI wird unsere Gesellschaft verändern – wie wir arbeiten, miteinander kommunizieren, wie wir uns verstehen, welche Ziele wir haben – letztlich, wie wir leben. Sie wird, und dazu muss man wohl kein Prophet sein, alle Lebens- und Gesellschaftsbereiche beeinflussen und teilweise neu ordnen.
Vergleicht man die neuen KI-Tools mit den genannten Booster-Technologien, so müssen vor allem zwei Entwicklungsvariablen hervorgehoben werden: Zeit und Reichweite. War die Nutzung neuer Technologien in früheren Zeiten noch kleineren Gesellschaftsgruppen vorbehalten und die Produktionskosten sowie -dauer meist erheblich, treffen KI-Entwicklungen, die die Prototyp-Phase erfolgreich durchlaufen haben, mit rasantem Tempo alle Gesellschaftsbereiche beinahe gleichzeitig und umfassend. Viele dieser Tools erlangen erst dann Aufmerksamkeit, wenn ihre gesellschaftliche Verbreitung bereits weit fortgeschritten ist und viele Menschen sie aktiv nutzen bzw. passiv davon betroffen sind. Es wird daher immer schwieriger, neue KI-Tools zu bewerten und ihre Komplexität zu entschlüsseln, um schließlich ihre gesellschaftlichen Auswirkungen einordnen zu können. Man kann daher durchaus davon ausgehen, dass paradoxerweise KI-Systeme uns dabei unterstützen müssen, Lösungen für KI-basierte Probleme zu finden, da sie uns in der Analyse großer Datenmengen überlegen sein werden. Inwieweit diese Systeme jedoch auch ethische Fragen berücksichtigen werden, sei dahingestellt. Ihre Funktionsabhängigkeit von den großen IT-Unternehmen ist unbestritten, und es werden politische Entscheidungen sein, die auf ethische Rahmenbedingungen pochen müssen.
Rainer Mühlhoff weist zu Recht darauf hin, dass der Begriff der Künstlichen Intelligenz ein sehr schwammiger ist (vgl. Mühlhoff 2023). Zu viele unterschiedliche technische Entwicklungen und Themen werden darunter subsumiert. Dementsprechend werden in der öffentlichen Debatte ethische Fragen zu den gesellschaftlichen Auswirkungen von KI oft auf diffuse Weise behandelt, geprägt von oberflächlichen und emotionalen Zukunftsvisionen oder -dystopien (vgl. ebd). Damit soll keiner dieser Diskurse als irrelevant bezeichnet werden. Vielmehr gilt es, das breite Thema zu strukturieren und genügend Raum der Beobachtung und Analyse beizumessen. In vielen Bereichen wird es daher auch notwendig sein, disziplinenübergreifend zu agieren – zu komplex sind auch die unterschiedlichen wissenschaftlichen Beobachtungsinstrumente geworden.
Typisierung und ethische Herausforderungen
Die nachfolgende Tabelle 1 soll einen Überblick über die aktuell verfügbaren Arten Künstlicher Intelligenz bieten und gleichzeitig die damit verbundenen ethischen Herausforderungen verdeutlichen. Es ist wichtig zu betonen, dass diese Tabelle nicht den Anspruch auf Vollständigkeit erhebt. Vielmehr soll sie als Anregung für eine umfassende Diskussion dienen und dazu beitragen, die Vielfalt der ethischen Herausforderungen transparent und diskutierbar zu machen. Es werden vier verschiedene Kategorien Künstlicher Intelligenz angeführt, die, obwohl sie einige Gemeinsamkeiten aufweisen, zugleich auch unterschiedliche ethische Herausforderungen mit sich bringen. Diese Kategorien unterscheiden sich einerseits in ihren Anwendungsfeldern und andererseits in ihren Funktionen Daten zu sammeln, zu verarbeiten oder auf Basis der erhobenen Daten Modelle zu entwickeln, die u.a. Aussagen über (unbeteiligte) Menschen ermöglichen bzw. deren (soziales) Verhalten irritieren können. Die ethischen Diskussionen müssen daher sowohl die Datenverwendung durch die großen IT-Konzerne inkludieren, als auch die soziale Verantwortung, welche durch die aktive Nutzung oder die passive Betroffenheit dieser KI-Tools entstehen, berücksichtigen.
|
Datenverantwortung |
Soziale Verantwortung |
KI-Roboter |
- Sensible Daten - Personenbezogene Daten - Biometrische Daten - Privatsphäre / Überwachung - Bewegungsaufzeichnungen - Datenmarkt |
- Mensch wird ersetzt - Sozialverhalten (Pflegeroboter) - Arbeitsplätze - Kompetenzverluste - Fehlerverantwortung (autonome Fahrzeuge, Medizinroboter) - Nutzen vs. Datenfreigabe - Kriegsführung / Militärroboter |
Deskriptive / Generative KI |
- Geistiges Eigentum - Urheberrecht - Sensible Daten - Personenbezogene Daten - Biometrische Daten - Fehleranfälligkeit - Quellenangaben - Data-Gap |
- Gesellschaftliche Auswirkungen - Anwendungsmissbrauch - Transparenz - Werte / Moral - Politische Position - Wissenschaftliche Präferenzen
|
Analytische / Prädiktive KI |
- Privatsphäre / Datenschutz - Datenverwendung für KI-Modelle - Betroffenheit von KI-Modellen - Data-Gap |
- Prognosen von Eigenschaften - Prognosen von Verhalten - Scoring Systems - Medizinische Diagnostik - Prädiktive Privatheit |
Manipulative KI |
- Deep-Fake - Bildmanipulation - Tonmanipulation - Videomanipulation
|
- Desinformation - Demokratiegefährdung - Fake News - Social Bots - Mobbing - Pornografische Deep-Fakes - Cyberkriminalität |
Tabelle 1: KI und ethische Verantwortung
Die vorgeschlagene Kategorisierung teilt Künstliche Intelligenzen in vier Hauptbereiche: KI-Roboter, Deskriptive / Generative KI, Analytische / Prädiktive KI und Manipulative KI.
KI-Roboter
Unter dem Begriff ‚KI-Roboter‘ sind Anwendungen zu verstehen, die sowohl im privaten Bereich, beispielsweise in Form von Haushaltsgeräten oder autonomen Fahrzeugen, als auch im industriellen Sektor, etwa in Gestalt autonomer Industrieroboter, Anwendung finden. Ethische Herausforderungen betreffen hier vor allem das Thema 'Maschine ersetzt Mensch' und manifestieren sich u.a. in Fragen bezüglich Arbeitsplatzverluste, veränderten sozialem Verhalten von Menschen, der potenziellen Entwicklung von Abhängigkeitsverhältnissen durch einen möglichen Abbau menschlicher Kompetenzen sowie Verantwortlichkeiten bei Fehlverhalten der KI-Systeme. Zudem sind ethische Diskurse erforderlich, um den Umgang mit jenen Daten zu beleuchten, die während der Aktivitäten der sogenannten KI-Roboter aufgezeichnet und verarbeitet werden. Das betrifft im Besonderen sensible Daten wie personenbezogene oder biometrische Daten, Eingriffe in die Privatsphäre von Menschen durch die Möglichkeiten zur Überwachung bis hin zum Handel mit den von Robotern aufgezeichneten Daten. Ein besonderes Augenmerk bedürfen natürlich auch politische Diskurse zu ethischen Fragen im Bereich KI-Waffen und Militärroboter.
Deskriptive/Generative KI
Die zweite Kategorie wird hier als ‚Deskriptive/Generative KI‘ bezeichnet. Dieser KI-Typ lernt aus großen Datensätzen und kreiert mittels Algorithmen neue Inhalte. Das können Bilder, Videos oder auch Anwendungen sein, die die menschliche Sprache imitieren. Hierunter fallen Anwendungen und Tools, deren Fähigkeiten darauf ausgerichtet sind, große Datenmengen mittels künstlicher neuraler Netzwerke zusammenzufassen, auszuwerten und neu zu formieren (Deep-Learning, LLM). Hierzu zählen u.a. die großen Suchmaschinen wie Google und Microsoft Bing, Übersetzungsprogramme wie DeepL sowie das Chatbot-Modell ChatGPT. Die ethischen Überlegungen in diesem Kontext berühren verschiedene Aspekte. Im Bereich der sozialen Verantwortung geht es dabei stark um Fragen, welche gesellschaftlichen Änderungen und Irritationen diese neuen KI-Systeme in den unterschiedlichen Gesellschaftssystemen auslösen. Es geht dabei u.a. um Fragen, welche Ansprüche wir zukünftig an Bildungs- und Wissenschaftsinstitutionen stellen und wie einem möglichen Anwendungsmissbrauch entgegengewirkt werden kann, denken wir dabei an Prüfungssituationen, die mithilfe von KI-Tools absolviert werden. Darüber hinaus müssen die Diskussionen die Fragen nach Transparenz, Quellenangaben und Data-Gaps beinhalten. Mit welchen Daten werden generative KI-Systeme trainiert und welche politischen, wissenschaftlichen bis hin zu moralischen Wertvorstellungen werden als Ergebnisse bevorzugt. Selbstverständlich muss auch hier der Verweis auf die Datenverantwortung gemacht werden. Das betrifft sowohl Fragen nach dem geistigen Eigentum, Urheberrechte und den Umgang mit sensiblen Daten von User*innen.
Analytische/Prädiktive KI
Als dritte Kategorie wird in Anlehnung an Mühlhoff ‚Prädiktive KI-Systeme‘ vorgeschlagen. Hierbei handelt es sich um „datenbasierte Vorhersagemodelle, die über beliebige Individuen anhand verfügbarer Daten Prognosen stellen. Diese Prognosen können sich auf zukünftiges Verhalten beziehen, auf unbekannte persönliche Attribute oder auf persönliche Risikofaktoren“ (Mühlhoff 2022: 31f). Prädiktive Analytik bringt ein enormes Missbrauchspotenzial mit sich, das derzeit gesetzlich noch kaum reguliert ist (vgl. ebd.) Die ethischen Herausforderungen betreffen dabei den Umstand, dass auf Basis wenig sensibler und leicht verfügbaren Daten Prognosen über Individuen oder Gruppen erstellt werden, die unbekannte oder potenziell sensible Informationen betreffen (vgl. ebd. 35). So können beispielsweise Daten und Aufzeichnungen über Tätigkeiten und Verhalten auf den sozialen Medien dazu verwendet werden, KI-Modelle zur Prognose von Kreditwürdigkeit, Kaufverhalten oder Krankheitsbetroffenheit zu trainieren.[2] Diese KI-Modelle können schließlich auf völlig unbeteiligte Menschen angewendet werden, sie zum Kauf von Produkten zu animieren oder in Form von ‚Scoring Systems‘ von sozialen Leistungen auszuschließen.[3] Aus ethischer Sicht müssen dabei zwei Punkte berücksichtigt werden. Einerseits muss die Frage geklärt werden, welche gesellschaftlichen Auswirkungen es hat, menschliches Verhalten oder Eigenschaften auf Basis von sogenannten 'Normalwerten' zu prognostizieren und andererseits wie wird es möglich sein, einer missbräuchlichen Verwendung prognostizierter sensibler Daten entgegenzuwirken. Der Begriff der ‚prädiktiven Privatheit‘[4] bei Mühlhoff gibt hier gute Anknüpfungspunkte.
Manipulative KI
Die vierte Kategorie wird hier als ‚Manipulative KI‘ beschrieben. Es geht dabei u.a. um ethische Herausforderungen im Kontext der Deep-Fake Diskussionen. Der Begriff Deep-Fake ist in Anlehnung an Deep-Learning entstanden und beschreibt die Techniken von KI-Systemen, realistisch wirkende Medieninhalte zu erzeuge. Das Missbrauchspotenzial dieser Anwendungen ist erstaunlich und kann nicht nur schwerwiegende Auswirkungen auf demokratische politische Systeme haben, sondern zu enormen gesundheitlichen Folgen einzelner Menschen führen (Mobbing, Pornographische Deep-Fakes[5] usw.). Bezogen auf das politische System müssen hier vor allem die Auswirkungen auf die politische Kommunikation diskutiert werden. Schon seit längerem beschäftigen uns Phänomene wie 'Fake-News' oder 'Social Bots'. Beides kann durch manipulative KI-Tools verstärkt werden, indem Falschnachrichten immer schwieriger entlarvt werden können bzw. 'Social Bots' die Funktionsweise von Algorithmen oder prädiktiver KI-Systeme dafür missbrauchen, die Verbreitung solche Falschnachrichten in den Soziale Medien zu pushen bzw. gezielt vulnerable oder zu Extremismus tendierende Menschen zu adressieren. Demokratische politische Systeme müssen sich dagegen schützen - durch gesetzliche Regelungen, Förderungen von professionell agierendem Journalismus, Investitionen in politische Bildung und Medienkompetenzen sowie die Zurückgewinnung an Vertrauen in politische Institutionen und Akteure.
Fluch oder Segen?
KI-Systeme können zweifellos einen erheblichen Beitrag zur Bewältigung und Lösung der Herausforderungen unserer Zeit leisten - denken wir dabei an die großen globalen Krisen wie die Klimakrise, Finanz- und Wirtschaftskrisen, Flüchtlingskrisen oder an Gesundheitskrisen, wie zuletzt Covid-19. Viele dieser KI-Tools werden in den unterschiedlichen Gesellschaftssystemen Anwendung finden und zu neuen Fortschritten und Entwicklungen führen. Gleichzeitig wird unsere Gesellschaft mit neuen Problemstellungen konfrontiert, die ebenfalls neue Lösungen und Regelungen bedürfen. Die Gesellschaft wird sich ändern und weiterentwickeln - das hat sie immer getan. Sie muss institutionalisierte Foren schaffen, in denen diese neuen Herausforderungen umfassend und zeitnah diskutiert werden können. Das betrifft rechtliche, wirtschaftliche und politische Regelungen genauso wie ethische Commitments. Ob Künstliche Intelligenz zum Fluch oder zum Segen für unsere Gesellschaft wird, hängt nicht vordergründig von ihrer Entwicklung und ihren Möglichkeiten ab, sondern davon, wie wir Menschen als Gesellschaft darauf reagieren und damit umgehen. Letztlich hat die Sorge um unsere Zukunft wohl auch sehr viel damit zu tun, welches Vertrauen wir in die Menschheit haben.
Literatur:
- Kipp, Michael (2023): Maschinen mit künstlichen Gehirnen – Was ist Deep Learning? In: Kovacs, Laszlo (Hrsg.): Künstliche Intelligenz und menschliche Gesellschaft. de Grueyter, Berlin/Boston. S.2539. (Download)
- Kovács, László (2023): KI als BoosterTechnologie – Zur Einleitung. In: Kovacs, Laszlo (Hrsg.): Künstliche Intelligenz und menschliche Gesellschaft. de Grueyter, Berlin/Boston. S.1-11. (Download)
- Mühlhoff, Rainer (2022): Prädiktive Privatheit: Kollektiver Datenschutz im Kontext von Big Data und KI. In: Friedewald, Michael et al (Hrsg.): Künstliche Intelligenz, Demokratie und Privatheit Nomos, BadenBaden 2022. S.31-58. (Download)
- Mühlhoff, Rainer (2023): Die Macht der Daten. Warum künstliche Intelligenz eine Frage der Ethik ist. V&R unipress, Göttingen. (Download)
[1] Die Dartmouth Conference im Sommer 1956 gilt als Geburtsstunde der Künstlichen Intelligenz als Forschungsgebiet. Siehe dazu: Artificial Intelligence (AI) Coined at Dartmouth, 13.11.2023.
[2] Vier Forscher vom Institut für Notfallmedizin an der Stanford University haben ein KI-System entwickelt, das anhand von Frequenz und Tonhöhe den Grad der Alkoholisierung feststellen kann. Siehe dazu: Smartphone erkennt anhand der Stimme, wie betrunken man ist - derstandard.at, 20.11.2023. Ein österreichisch-australisches Forschungsteam konnte in einer Studie die durchaus guten Resultate von KI-Anwendungen in der Hautkrebsdiagnose bestätigen. Siehe dazu: Hautkrebs-Diagnosen mittels KI sind ähnlich zuverlässig wie jene von Ärzt:innen - meduniwien.ac.at, 20.11.2023.
[3] Siehe dazu: Social-Credit-System: Lässt sich eine Bevölkerung erziehen? - univie.ac.at, 20.11.2023
[4] „Die prädiktive Privatsphäre einer Person oder Gruppe wird verletzt, wenn anhand der Daten vieler anderer Individuen ohne ihr Wissen und gegen ihren Willen sensible Informationen über sie vorausgesagt werden“ (Mühlhoff 2022: 31).
[5] Siehe dazu: KI-Nacktbilder: Kinder als Opfer von Deepfakes - news.ORF.at, 20.11.2023.