Ethisches und moralisches Verhalten
im Umgang mit „Künstlicher Intelligenz“ (TEIL 1/3)
Künstliche Intelligenz (KI) ist ein immer stärker werdendes Phänomen in unserer modernen Welt. Ob in der Medizin, der Industrie, der Wissenschaft oder im Alltag: KI-Systeme sind heute allgegenwärtig und prägen unsere Gesellschaft nachhaltig auf vielfältige Weise. Wie jede neue Technologie bringt diese jedoch auch Herausforderungen mit sich, die ethische und moralische Fragen aufwerfen, die zur rechten Zeit berücksichtigt werden wollen und müssen.
Definitionen von KI, Ethik und Moral
Dieser dreiteilige Artikel wird sich mit unterschiedlichen Fragen beschäftigen und anhand von vorhandenen Erfahrungswerten untersuchen, wie man ethisch und moralisch verantwortungsvoll mit KI-Systemen umgehen kann. Es werden Grundsätze erörtert, die für den Umgang mit KI gelten sollten, und Vorschläge gemacht, wie man KI-Systeme regulieren und kontrollieren kann, um ihre positiven Auswirkungen zu maximieren und ihre negativen Auswirkungen zu minimieren.
Zu diesem Zweck müssen wir uns zunächst mit den Grundlagen von KI, Ethik und Moral befassen, bevor wir uns den spezifischen Herausforderungen der KI-Ethik zuwenden. Anschließend werden wir uns mit den Prinzipien befassen, die im Umgang mit KI beachtet werden sollten, sowie mit der Regulierung und Governance von KI-Systemen. In einem weiteren Abschnitt werden wir Beispiele für ethische und unethische KI-Anwendungen betrachten, um zu verdeutlichen, wie wichtig es ist, ethische und moralische Prinzipien im Umgang mit KI zu beachten. Den Abschluss bildet ein Ausblick auf zukünftige Entwicklungen, Schlussfolgerungen und Empfehlungen. Insgesamt sollen diese Beispiele und Überlegungen dazu beitragen, ein tieferes Verständnis für die Herausforderungen und Chancen der KI-Ethik zu vermitteln und aufzuzeigen, wie wir verantwortungsvoll mit dieser neuen Technologie umgehen können, die gekommen ist, um zu bleiben.
Herausforderungen der KI-Ethik
Auswirkungen von KI auf Gesellschaft und Individuum
Künstliche Intelligenz (KI) hat das Potenzial, unsere Gesellschaft auf vielfältige Weise zu verändern. Die Möglichkeiten reichen von der Automatisierung von Arbeitsprozessen hin zu neuen Formen der Gesundheitsversorgung und Bildung. Sie bringt aber auch Herausforderungen mit sich, die ethische und moralische Fragen aufwerfen.
Eine mögliche ungewollte Auswirkung von Künstlicher Intelligenz auf die Gesellschaft ist die Verdrängung und Verlagerung von Arbeitskräften. KI-Systeme können menschliche Arbeitskraft in vielen Bereichen simulieren oder gar ersetzen, was zu Erwerbslosigkeit und sozialer Ungleichheit führen kann. Ferner können solche Systeme auch zur Diskriminierung führen, wenn sie aufgrund von Vorurteilen oder mangelnder Vielfalt in ihren Trainingsdaten verzerrte Entscheidungen treffen. Auf individueller Ebene kann eine automatisierte künstliche Intelligenz an der richtigen Schnittstelle negative Auswirkungen haben. KI-Systeme können etwa personenbezogene Daten sammeln und analysieren, was zu einem Verlust der Privatsphäre, einem oft unterschätzen und bewahrenswerten Gut führen kann. Sie können eine Auswahl treffen, die sich direkt auf das finanzielle Interesse der Menschen auswirkt, wie automatische Entscheidungen über Kreditwürdigkeit oder gruppenbezogene, skalierte Versicherungstarife.
Sind diese Bedenken bereits dazu geeignet, den vor uns liegenden Innovationssprung abzubrechen, bevor er genutzt wurde? Nein! Es ist wichtig, diese Auswirkungen zu verstehen und geeignete Maßnahmen zu ergreifen, um sicherzustellen, dass solche Systeme keine negativen Folgen für die Gesellschaft und den Einzelnen haben.
Eine Chance besteht darin, KI-Systeme so zu gestalten, dass sie ethischen und moralischen Grundsätzen folgen und keine diskriminierenden oder schädlichen Entscheidungen treffen. Beispielsweise hat die Forschungsgruppe „Algorithmic Justice League“ von Dr. Joy Buolamwini gezeigt, dass viele Systeme zur Gesichtserkennung schlechter funktionieren, wenn sie auf Menschen mit dunklerer Hautfarbe angewendet werden. Dies liegt daran, dass die Trainingsdaten, die zur Entwicklung dieser Systeme verwendet werden, hauptsächlich aus Bildern von Personen mit hellerer Hautfarbe bestehen. Die „Algorithmic Justice League“ hat sich dafür eingesetzt, dass die Entwickler:innen von KI-Systemen vielfältigere Trainingsdaten verwenden, um Verzerrungen zu vermeiden. Ein weiteres Beispiel für die Gestaltung von KI-Systemen nach ethischen und moralischen Grundsätzen ist das „AI Fairness 360 Toolkit“ von IBM Research. Dieses Toolkit soll Entwickler:innen dabei unterstützen, Systeme fair und diskriminierungsfrei zu gestalten. Es bietet verschiedene Funktionen zur Überprüfung von KI-Systemen, darunter die Analyse von Trainingsdaten auf Verzerrungen und die Bewertung von Entscheidungen anhand von Kriterien wie Fairness, Transparenz und Verantwortlichkeit.
Ein weiterer wichtiger Schritt ist die Verpflichtung von Unternehmen und Regierungen, ethische Leitlinien für den Einsatz von KI-Systemen zu entwickeln und umzusetzen. Im Jahr 2019 hat die Europäische Kommission ihre „Ethischen Leitlinien für vertrauenswürdige KI“ veröffentlicht, die darauf abzielen, Systeme zu schaffen, die rechtmäßig, ethisch vertretbar und robust sind. Ähnliche Leitlinien wurden auch von anderen Organisationen und Regierungen veröffentlicht, z. B. die „AI Ethics Guidelines Global Inventory“ der IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, die „AI Principles“ des Future of Life Institute oder die „AI Ethics Impact Group“ des UK Government Office for AI.
Um sicherzustellen, dass diese Leitlinien tatsächlich umgesetzt werden, sind auch Mechanismen zur Überwachung und Regulierung von KI-Systemen erforderlich. Die Bestimmungen der Datenschutz-Grundverordnung (DSGVO) der Europäischen Union, die vorschreiben, dass KI-Systeme nur im Einklang mit den Datenschutzgrundsätzen eingesetzt werden dürfen und dass Einzelpersonen das Recht haben, Informationen darüber zu erhalten, wie ihre Daten von KI-Systemen verwendet werden, sind ein anschauliches Beispiel hierfür.
Insgesamt sind ethische und moralische Überlegungen bei der Entwicklung und dem Einsatz von Künstlichen Intelligenzen von entscheidender Bedeutung. Es muss sichergestellt werden, dass KI-Systeme keine negativen Auswirkungen auf die Gesellschaft und den Einzelnen haben, sondern dazu beitragen, eine bessere Zukunft für alle zu schaffen.
Die Herausforderungen, die sich aus der Entwicklung und Anwendung von KI ergeben
Die rasante Entwicklung von KI-Technologien bringt eine Reihe von akuten Herausforderungen im Zusammenhang mit ethischen und moralischen Fragen mit sich, die für unseren gemeinschaftlichen Entscheidungsprozess ungewöhnlich schnell bedacht und umgesetzt werden muss. Eine der größten Herausforderungen besteht darin, sicherzustellen, dass KI-Systeme nicht diskriminierend sind und keine Vorurteile gegenüber bestimmten Personengruppen haben. Dies kann insbesondere dann ein Problem darstellen, wenn KI-Systeme auf der Grundlage von Daten trainiert werden, die bereits bestehende gesellschaftliche Vorurteile widerspiegeln. Ein Beispiel für die Herausforderung, sicherzustellen, dass KI-Systeme nicht diskriminierend sind, sind algorithmische Entscheidungen im Bereich der Kreditvergabe oder der Arbeitssuche. Wenn KI-Systeme auf der Grundlage von Daten trainiert werden, die bereits bestehende Vorurteile widerspiegeln, besteht die Gefahr, dass sie diese Vorurteile in ihren Entscheidungen wiederholen und verstärken. Dies kann zur Diskriminierung bestimmter Personengruppen führen, z. B. aufgrund des Geschlechts, des Alters oder der ethnischen Herkunft. Ein weiteres Beispiel für den Einfluss gesellschaftlicher Vorurteile auf KI-Systeme sind Gesichtserkennungssysteme. Wenn diese Systeme mit Daten trainiert werden, die hauptsächlich Bilder von weißen Männern enthalten, können sie Schwierigkeiten haben, Gesichter von Personen anderen Geschlechts, anderer ethnischer Herkunft oder anderen Alters zu erkennen. Dies kann zur Fehlidentifikation führen und bestimmte Personengruppen benachteiligen. (vgl. Buolamwini & Gebru, 2018; Crawford, 2016)
Eine weitere Herausforderung besteht darin, dass KI-Systeme Entscheidungen treffen können, die für Menschen schwer nachvollziehbar und nicht erklärbar sind. Dies kann zu einem Mangel an Verantwortlichkeit führen und das Vertrauen in KI-Systeme untergraben. Daher ist es wichtig, dass KI-Systeme transparent und nachvollziehbar sind und ihre Entscheidungsfindung für Menschen verständlich ist.
Dass KI-Systeme zu unerwarteten und unerwünschten Ergebnissen führen können, ist bekannt. Selbstfahrende Autos, die schnelle und komplexe Entscheidungen treffen müssen, können hierfür als Beispiel dienen. Wenn ein selbstfahrendes Auto in eine Situation gerät, in der es zwischen dem Schutz der Insassen und dem Schutz von Passanten wählen muss, ist nicht klar, welche Entscheidung das KI-System treffen wird. Daher ist es wichtig sicherzustellen, dass KI-Systeme verantwortungsvoll und im Einklang mit ethischen und moralischen Grundsätzen eingesetzt werden. Darüber hinaus gibt es eine Vielzahl weiterer ethischer und moralischer Herausforderungen, die sich aus der Entwicklung und Anwendung von KI ergeben. Dazu gehören Fragen des Datenschutzes, der Privatsphäre, der Sicherheit und der Haftung. Um diesen Herausforderungen zu begegnen, ist es wichtig, dass alle an der Entwicklung und Anwendung von KI beteiligten Akteure gemeinsam an Lösungen arbeiten, die im Einklang mit ethischen und moralischen Grundsätzen stehen.

Die ethischen Fragen, die sich aus der Anwendung von KI ergeben
Die ethischen Fragen, die sich aus der Anwendung von KI ergeben, sind sicherlich sehr umfassend und tiefgreifend. Die folgenden Beispiele sollen zum Nachdenken anregen:
Autonome Waffensysteme: Es gibt eine Debatte darüber, ob autonome Waffensysteme eingesetzt werden sollten. Während einige argumentieren, dass sie effektiver und sicherer sind als von Menschen gesteuerte Waffensysteme, befürchten andere, dass die Entwicklung solcher Systeme zu einem Wettrüsten führen und unvorhersehbare Folgen haben könnte, insbesondere wenn sie in einem militärischen Konflikt eingesetzt werden. (vgl. Scharre, 2018; Bryson, 2018)
Datenschutz und Privatsphäre: Der zunehmende Einsatz von KI-Systemen wirft Fragen des Datenschutzes und der Privatsphäre auf. KI-Systeme sammeln und analysieren häufig große Datenmengen, darunter auch personenbezogene Daten, die ohne Zustimmung der betroffenen Personen verwendet werden können. Es wird befürchtet, dass der Einsatz von KI-Systemen zu einer Verletzung der Privatsphäre führen und das Recht auf informationelle Selbstbestimmung einschränken könnte. (vgl. Floridi & Taddeo, 2016; Mittelstadt et al., 2016)
Verantwortung und Haftung: Eine weitere ethische Frage betrifft die Verantwortung und Haftung im Kontext des Einsatzes von KI-Systemen. Wer haftet, wenn ein autonomes Fahrzeug einen Unfall verursacht? Wer haftet, wenn ein KI-System aufgrund fehlerhafter Programmierung eine falsche Entscheidung trifft, die zu einem Schaden führt? Auf diese Fragen gibt es derzeit keine eindeutigen Antworten und es ist davon auszugehen, dass weitere Debatten und rechtliche Entwicklungen in diesem Bereich folgen werden. (vgl. Calo, 2015; Bostrom & Yudkowsky, 2014)
Manipulation von Meinungen und Verhaltensweisen: KI-Systeme können eingesetzt werden, um Meinungen und Verhalten von Nutzern zu manipulieren. Beispielsweise können personalisierte Empfehlungen auf Online-Plattformen dazu führen, dass Nutzer in einer „Filterblase“ gefangen sind und nur Informationen erhalten, die ihre bestehenden Überzeugungen bestätigen. Es wird auch befürchtet, dass KI-Systeme zur Überwachung und Kontrolle des Verhaltens eingesetzt werden könnten, was zu einer Einschränkung der Meinungsfreiheit und der individuellen Freiheit führen könnte. (vgl. Tufekci, 2018; Zuboff, 2019)
Diskriminierung und Vorurteile: Wie bereits erwähnt, können KI-Systeme diskriminierend wirken, wenn sie auf der Grundlage von Daten trainiert werden, die schon bestehende Vorurteile widerspiegeln. Dies kann dazu führen, dass Nutzer aufgrund ihrer Rasse, ihres Geschlechts oder anderer Merkmale diskriminiert werden. Es besteht die Sorge, dass KI-Systeme dazu beitragen könnten, bestehende Ungleichheiten in der Gesellschaft zu verstärken, anstatt sie abzubauen. (vgl. Buolamwini & Gebru, 2018; Eubanks, 2018)
Soziale Isolation und Einsamkeit: KI-Systeme können auch dazu beitragen, dass Nutzer sozial isoliert und einsam werden. Beispielsweise können virtuelle Assistenten wie Siri oder Alexa dazu führen, dass Benutzer weniger menschliche Interaktionen haben und sich zunehmend von anderen Menschen isolieren. Es wird befürchtet, dass dies zu einer Verschlechterung der psychischen Gesundheit und des Wohlbefindens der Nutzer führen könnte. (vgl. Turkle, 2011; Twenge, 2019)
Praktische Anwendung geeigneter Prinzipien und Richtlinien
Um sicherzustellen, dass KI-Systeme ethischen und moralischen Grundsätzen folgen, bedarf es nicht nur der Entwicklung geeigneter Prinzipien und Richtlinien, sondern auch ihrer praktischen Umsetzung. Im Folgenden werden einige Beispiele für die praktische Anwendung ethischer Grundsätze im Zusammenhang mit KI genannt:
Verantwortungsvolle Datensammlung und -nutzung: KI-Systeme sollten auf der Grundlage umfassender, vielfältiger und unvoreingenommener Daten trainiert werden. Es ist wichtig sicherzustellen, dass die Daten ethisch und rechtmäßig erhoben wurden und dass die Nutzung der Daten transparent und fair erfolgt.
Berücksichtigung von Ethik und Moral bei der Entwicklung von KI: Entwickler und Ingenieure von KI-Systemen sollten bei der Konzeption und Implementierung von KI-Systemen ethische und moralische Erwägungen berücksichtigen. Dazu gehört die Berücksichtigung von Prinzipien wie Fairness, Transparenz und Verantwortlichkeit bei der Entscheidungsfindung.
Einsatz von Überprüfungs- und Kontrollmechanismen: Es ist wichtig, Überprüfungs- und Kontrollmechanismen einzusetzen, um sicherzustellen, dass KI-Systeme ethischen und moralischen Grundsätzen entsprechen. Solche Mechanismen können unter anderem unabhängige Bewertungen, interne Audits oder die Überwachung durch Ethikkommissionen sein.
Kontinuierliche Evaluierung und Verbesserung: KI-Systeme sollten kontinuierlich evaluiert und verbessert werden, um sicherzustellen, dass sie ethischen und moralischen Grundsätzen entsprechen. Dies kann durch Feedbackschleifen und regelmäßige Überprüfungen erreicht werden, um sicherzustellen, dass das System fair, transparent und rechenschaftspflichtig bleibt.
Sensibilisierung und Schulung: Es ist wichtig, ein Bewusstsein für die ethischen und moralischen Herausforderungen im Zusammenhang mit KI zu schaffen und Schulungen anzubieten, um sicherzustellen, dass die beteiligten Personen, einschließlich Entwickler, Ingenieure und Nutzer, über die Grundsätze informiert und geschult sind.
Buolamwini, J., & Gebru, T. (2018). Gender nuances: Intersectional accuracy differences in commercial gender classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, 77-91. | Eubanks, V. (2018). Automating inequality: how high-tech tools profile, police and punish the poor. St Martin’s Press. | Tufekci, Z. (2018). Twitter and Tear Gas: The Power and Fragility of Networked Protest. Yale University Press. | Turkle, S. (2011). Alone Together: Why we expect more from technology and less from each other. Basic Books. | Twenge, J. M. (2019). iGen: Why Today’s Super-Connected Kids Are Growing Up Less Rebellious, More Tolerant, Less Happy-and Completely Unprepared for Adulthood-and What It Means for the Rest of Us. Atria Books. | Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future on the New Frontier of Power. PublicAffairs. | European Commission. (2019). Ethical guidelines for trustworthy artificial intelligence. | IEEE Global Initiative on the Ethics of Autonomous and Intelligent Systems. (n.d.). Global inventory of AI ethics guidelines. | Future of Life Institute. (n.d.). AI Principles. | UK Government Office for AI. (n.d.). AI Ethics Impact Group. | European Parliament and Council. (2016). General Data Protection Regulation (GDPR). | Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. | European Commission High-Level Expert Group on AI. (2019). Ethical guidelines for trustworthy AI. Brüssel: Europäische Kommission.

Potenzielles Datenleck bei OpenAI
OpenAI, das Unternehmen hinter der bekannten KI-Plattform ChatGPT, untersucht derzeit einen möglichen Sicherheitsvorfall, bei dem bis zu 20 Millionen Nutzerdaten kompromittiert worden sein könnten. Laut einem Bericht von Heise Online besteht der Verdacht, dass ein Cyberangriff sensible Informationen betroffen hat. Dieser Vorfall wirft erneut Fragen zur Cybersicherheit von Technologieunternehmen und dem Schutz persönlicher Daten auf.

Zeichen der Zeit
Ohne die globale Reichweite des ITSM hätten wir keine standardisierten Prozesse, die heute Unternehmen weltweit verbinden. Incident Management, Change Management und Service Level Agreements wären isolierte nationale Ansätze geblieben, was zu fragmentierten und ineffizienten Strukturen geführt hätte. ITIL oder COBIT haben uns ein gemeinsames Verständnis und bewährte Praktiken ermöglicht, die Grenzen überwinden und Unternehmen unabhängig von ihrer Herkunft zusammenbringen.
Agile Scrum
Agile und Scrum umfassen den Aufbau funktionsübergreifender, selbstorganisierter Teams, die am Ende jeder Iteration, bzw. jedes Sprints ein funktionierendes Inkrement liefern.
SIAM Foundation
SIAM™ ist eine Methodik, mehrere IT-Service Provider zu steuern und nahtlos zu einer kundenorientierten IT-Organisation zu integrieren.
Business Resilience
Resilienz wird im organisatorischen Kontext definiert als „die Fähigkeit, sich schnell von Schwierigkeiten zu erholen“

Black Friday – Hochsaison für Phishing
Black Friday, der alljährlich im November stattfindende Shopping-Event, bringt nicht nur eine Welle an Rabatten, sondern auch eine Welle an Cyberangriffen mit sich. Gerade Phishing-Attacken erreichen in dieser Zeit ihren Höhepunkt und sind auf ein leichtgläubiges Publikum ausgerichtet, das in der Schnäppchenjagd oft unvorsichtig wird. Aus der Sicht des IT-Service Managements stellt dies eine erhebliche Herausforderung dar, da die Sicherheit von Endnutzern, Daten und Geschäftsinformationen in dieser intensiven Zeit eine besonders präventive und reaktionsschnelle Strategie erfordert.

Community Day | KI Auswirkungen im Multi-Provider-Management
Diese zweite Online-Veranstaltung zum Thema „KI im Multi-Provider-Management“ widmet sich den tiefgreifenden Veränderungen, die durch den Einsatz von künstlicher Intelligenz (KI) in komplexen Provider-Ökosystemen entstehen. Experten werden beleuchten, wie KI die Zusammenarbeit mit und das Management von mehreren IT-Dienstleistern beeinflusst. Dabei werden sowohl technologische als auch organisatorische Herausforderungen diskutiert. Der Schwerpunkt liegt auf dem notwendigen Aufbau von Kompetenzen sowie den kulturellen Anpassungen, die Organisationen vornehmen müssen, um von den Vorteilen der KI-Technologien zu profitieren und ihre Wettbewerbsfähigkeit zu sichern.

Community Day | KI im Multi-Provider-Management
Diese Online-Veranstaltung ist ganz dem Thema KI im Multi-Provider-Management widmet. Technologien im Bereich Künstliche Intelligenz (KI) haben sich seit der Marktpräsenz von ChatGPT rasant entwickelt und immer neue Anwendungsgebiete erschlossen. Wir werfen in dieser Veranstaltung einen Blick auf konkrete Anwendungsbereiche im Multi-Provider-Management. Erfahren Sie in einer Podiumsdiskussion mit Experten, wie KI Aufgaben im Provider-Management vereinfachen und Entscheidungen erleichtern kann.