Ethisches und moralisches Verhalten

im Umgang mit “Künstlicher Intelligenz” (TEIL 1/3)

Künstliche Intelligenz (KI) ist ein immer stärker werdendes Phänomen in unserer modernen Welt. Ob in der Medizin, der Industrie, der Wissenschaft oder im Alltag: KI-Systeme sind heute allgegenwärtig und prägen unsere Gesellschaft nachhaltig auf vielfältige Weise. Wie jede neue Technologie bringt diese jedoch auch Herausforderungen mit sich, die ethische und moralische Fragen aufwerfen, die zur rechten Zeit berücksichtigt werden wollen und müssen.

Definitionen von KI, Ethik und Moral

Dieser dreiteilige Artikel wird sich mit unterschiedlichen Fragen beschäftigen und anhand von vorhandenen Erfahrungswerten untersuchen, wie man ethisch und moralisch verantwortungsvoll mit KI-Systemen umgehen kann. Es werden Grundsätze erörtert, die für den Umgang mit KI gelten sollten, und Vorschläge gemacht, wie man KI-Systeme regulieren und kontrollieren kann, um ihre positiven Auswirkungen zu maximieren und ihre negativen Auswirkungen zu minimieren.

Zu diesem Zweck müssen wir uns zunächst mit den Grundlagen von KI, Ethik und Moral befassen, bevor wir uns den spezifischen Herausforderungen der KI-Ethik zuwenden. Anschließend werden wir uns mit den Prinzipien befassen, die im Umgang mit KI beachtet werden sollten, sowie mit der Regulierung und Governance von KI-Systemen. In einem weiteren Abschnitt werden wir Beispiele für ethische und unethische KI-Anwendungen betrachten, um zu verdeutlichen, wie wichtig es ist, ethische und moralische Prinzipien im Umgang mit KI zu beachten. Den Abschluss bildet ein Ausblick auf zukünftige Entwicklungen, Schlussfolgerungen und Empfehlungen. Insgesamt sollen diese Beispiele und Überlegungen dazu beitragen, ein tieferes Verständnis für die Herausforderungen und Chancen der KI-Ethik zu vermitteln und aufzuzeigen, wie wir verantwortungsvoll mit dieser neuen Technologie umgehen können, die gekommen ist, um zu bleiben.

Herausforderungen der KI-Ethik

Auswirkungen von KI auf Gesellschaft und Individuum

Künstliche Intelligenz (KI) hat das Potenzial, unsere Gesellschaft auf vielfältige Weise zu verändern. Die Möglichkeiten reichen von der Automatisierung von Arbeitsprozessen hin zu neuen Formen der Gesundheitsversorgung und Bildung. Sie bringt aber auch Herausforderungen mit sich, die ethische und moralische Fragen aufwerfen.

Eine mögliche ungewollte Auswirkung von Künstlicher Intelligenz auf die Gesellschaft ist die Verdrängung und Verlagerung von Arbeitskräften. KI-Systeme können menschliche Arbeitskraft in vielen Bereichen simulieren oder gar ersetzen, was zu Erwerbslosigkeit und sozialer Ungleichheit führen kann. Ferner können solche Systeme auch zur Diskriminierung führen, wenn sie aufgrund von Vorurteilen oder mangelnder Vielfalt in ihren Trainingsdaten verzerrte Entscheidungen treffen. Auf individueller Ebene kann eine automatisierte künstliche Intelligenz an der richtigen Schnittstelle negative Auswirkungen haben. KI-Systeme können etwa personenbezogene Daten sammeln und analysieren, was zu einem Verlust der Privatsphäre, einem oft unterschätzen und bewahrenswerten Gut führen kann. Sie können eine Auswahl treffen, die sich direkt auf das finanzielle Interesse der Menschen auswirkt, wie automatische Entscheidungen über Kreditwürdigkeit oder gruppenbezogene, skalierte Versicherungstarife.

Sind diese Bedenken bereits dazu geeignet, den vor uns liegenden Innovationssprung abzubrechen, bevor er genutzt wurde? Nein! Es ist wichtig, diese Auswirkungen zu verstehen und geeignete Maßnahmen zu ergreifen, um sicherzustellen, dass solche Systeme keine negativen Folgen für die Gesellschaft und den Einzelnen haben.

Eine Chance besteht darin, KI-Systeme so zu gestalten, dass sie ethischen und moralischen Grundsätzen folgen und keine diskriminierenden oder schädlichen Entscheidungen treffen. Beispielsweise hat die Forschungsgruppe “Algorithmic Justice League” von Dr. Joy Buolamwini gezeigt, dass viele Systeme zur Gesichtserkennung schlechter funktionieren, wenn sie auf Menschen mit dunklerer Hautfarbe angewendet werden. Dies liegt daran, dass die Trainingsdaten, die zur Entwicklung dieser Systeme verwendet werden, hauptsächlich aus Bildern von Personen mit hellerer Hautfarbe bestehen. Die “Algorithmic Justice League” hat sich dafür eingesetzt, dass die Entwickler:innen von KI-Systemen vielfältigere Trainingsdaten verwenden, um Verzerrungen zu vermeiden. Ein weiteres Beispiel für die Gestaltung von KI-Systemen nach ethischen und moralischen Grundsätzen ist das “AI Fairness 360 Toolkit” von IBM Research. Dieses Toolkit soll Entwickler:innen dabei unterstützen, Systeme fair und diskriminierungsfrei zu gestalten. Es bietet verschiedene Funktionen zur Überprüfung von KI-Systemen, darunter die Analyse von Trainingsdaten auf Verzerrungen und die Bewertung von Entscheidungen anhand von Kriterien wie Fairness, Transparenz und Verantwortlichkeit.

Ein weiterer wichtiger Schritt ist die Verpflichtung von Unternehmen und Regierungen, ethische Leitlinien für den Einsatz von KI-Systemen zu entwickeln und umzusetzen. Im Jahr 2019 hat die Europäische Kommission ihre “Ethischen Leitlinien für vertrauenswürdige KI” veröffentlicht, die darauf abzielen, Systeme zu schaffen, die rechtmäßig, ethisch vertretbar und robust sind. Ähnliche Leitlinien wurden auch von anderen Organisationen und Regierungen veröffentlicht, z. B. die “AI Ethics Guidelines Global Inventory” der IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, die “AI Principles” des Future of Life Institute oder die “AI Ethics Impact Group” des UK Government Office for AI.

Um sicherzustellen, dass diese Leitlinien tatsächlich umgesetzt werden, sind auch Mechanismen zur Überwachung und Regulierung von KI-Systemen erforderlich. Die Bestimmungen der Datenschutz-Grundverordnung (DSGVO) der Europäischen Union, die vorschreiben, dass KI-Systeme nur im Einklang mit den Datenschutzgrundsätzen eingesetzt werden dürfen und dass Einzelpersonen das Recht haben, Informationen darüber zu erhalten, wie ihre Daten von KI-Systemen verwendet werden, sind ein anschauliches Beispiel hierfür.

Insgesamt sind ethische und moralische Überlegungen bei der Entwicklung und dem Einsatz von Künstlichen Intelligenzen von entscheidender Bedeutung. Es muss sichergestellt werden, dass KI-Systeme keine negativen Auswirkungen auf die Gesellschaft und den Einzelnen haben, sondern dazu beitragen, eine bessere Zukunft für alle zu schaffen.

Die Herausforderungen, die sich aus der Entwicklung und Anwendung von KI ergeben

Die rasante Entwicklung von KI-Technologien bringt eine Reihe von akuten Herausforderungen im Zusammenhang mit ethischen und moralischen Fragen mit sich, die für unseren gemeinschaftlichen Entscheidungsprozess ungewöhnlich schnell bedacht und umgesetzt werden muss. Eine der größten Herausforderungen besteht darin, sicherzustellen, dass KI-Systeme nicht diskriminierend sind und keine Vorurteile gegenüber bestimmten Personengruppen haben. Dies kann insbesondere dann ein Problem darstellen, wenn KI-Systeme auf der Grundlage von Daten trainiert werden, die bereits bestehende gesellschaftliche Vorurteile widerspiegeln. Ein Beispiel für die Herausforderung, sicherzustellen, dass KI-Systeme nicht diskriminierend sind, sind algorithmische Entscheidungen im Bereich der Kreditvergabe oder der Arbeitssuche. Wenn KI-Systeme auf der Grundlage von Daten trainiert werden, die bereits bestehende Vorurteile widerspiegeln, besteht die Gefahr, dass sie diese Vorurteile in ihren Entscheidungen wiederholen und verstärken. Dies kann zur Diskriminierung bestimmter Personengruppen führen, z. B. aufgrund des Geschlechts, des Alters oder der ethnischen Herkunft. Ein weiteres Beispiel für den Einfluss gesellschaftlicher Vorurteile auf KI-Systeme sind Gesichtserkennungssysteme. Wenn diese Systeme mit Daten trainiert werden, die hauptsächlich Bilder von weißen Männern enthalten, können sie Schwierigkeiten haben, Gesichter von Personen anderen Geschlechts, anderer ethnischer Herkunft oder anderen Alters zu erkennen. Dies kann zur Fehlidentifikation führen und bestimmte Personengruppen benachteiligen. (vgl. Buolamwini & Gebru, 2018; Crawford, 2016)

Eine weitere Herausforderung besteht darin, dass KI-Systeme Entscheidungen treffen können, die für Menschen schwer nachvollziehbar und nicht erklärbar sind. Dies kann zu einem Mangel an Verantwortlichkeit führen und das Vertrauen in KI-Systeme untergraben. Daher ist es wichtig, dass KI-Systeme transparent und nachvollziehbar sind und ihre Entscheidungsfindung für Menschen verständlich ist.

Dass KI-Systeme zu unerwarteten und unerwünschten Ergebnissen führen können, ist bekannt. Selbstfahrende Autos, die schnelle und komplexe Entscheidungen treffen müssen, können hierfür als Beispiel dienen. Wenn ein selbstfahrendes Auto in eine Situation gerät, in der es zwischen dem Schutz der Insassen und dem Schutz von Passanten wählen muss, ist nicht klar, welche Entscheidung das KI-System treffen wird. Daher ist es wichtig sicherzustellen, dass KI-Systeme verantwortungsvoll und im Einklang mit ethischen und moralischen Grundsätzen eingesetzt werden. Darüber hinaus gibt es eine Vielzahl weiterer ethischer und moralischer Herausforderungen, die sich aus der Entwicklung und Anwendung von KI ergeben. Dazu gehören Fragen des Datenschutzes, der Privatsphäre, der Sicherheit und der Haftung. Um diesen Herausforderungen zu begegnen, ist es wichtig, dass alle an der Entwicklung und Anwendung von KI beteiligten Akteure gemeinsam an Lösungen arbeiten, die im Einklang mit ethischen und moralischen Grundsätzen stehen.

Die ethischen Fragen, die sich aus der Anwendung von KI ergeben

Die ethischen Fragen, die sich aus der Anwendung von KI ergeben, sind sicherlich sehr umfassend und tiefgreifend. Die folgenden Beispiele sollen zum Nachdenken anregen:

Autonome Waffensysteme: Es gibt eine Debatte darüber, ob autonome Waffensysteme eingesetzt werden sollten. Während einige argumentieren, dass sie effektiver und sicherer sind als von Menschen gesteuerte Waffensysteme, befürchten andere, dass die Entwicklung solcher Systeme zu einem Wettrüsten führen und unvorhersehbare Folgen haben könnte, insbesondere wenn sie in einem militärischen Konflikt eingesetzt werden. (vgl. Scharre, 2018; Bryson, 2018)

Datenschutz und Privatsphäre: Der zunehmende Einsatz von KI-Systemen wirft Fragen des Datenschutzes und der Privatsphäre auf. KI-Systeme sammeln und analysieren häufig große Datenmengen, darunter auch personenbezogene Daten, die ohne Zustimmung der betroffenen Personen verwendet werden können. Es wird befürchtet, dass der Einsatz von KI-Systemen zu einer Verletzung der Privatsphäre führen und das Recht auf informationelle Selbstbestimmung einschränken könnte. (vgl. Floridi & Taddeo, 2016; Mittelstadt et al., 2016)

Verantwortung und Haftung: Eine weitere ethische Frage betrifft die Verantwortung und Haftung im Kontext des Einsatzes von KI-Systemen. Wer haftet, wenn ein autonomes Fahrzeug einen Unfall verursacht? Wer haftet, wenn ein KI-System aufgrund fehlerhafter Programmierung eine falsche Entscheidung trifft, die zu einem Schaden führt? Auf diese Fragen gibt es derzeit keine eindeutigen Antworten und es ist davon auszugehen, dass weitere Debatten und rechtliche Entwicklungen in diesem Bereich folgen werden. (vgl. Calo, 2015; Bostrom & Yudkowsky, 2014)

Manipulation von Meinungen und Verhaltensweisen: KI-Systeme können eingesetzt werden, um Meinungen und Verhalten von Nutzern zu manipulieren. Beispielsweise können personalisierte Empfehlungen auf Online-Plattformen dazu führen, dass Nutzer in einer “Filterblase” gefangen sind und nur Informationen erhalten, die ihre bestehenden Überzeugungen bestätigen. Es wird auch befürchtet, dass KI-Systeme zur Überwachung und Kontrolle des Verhaltens eingesetzt werden könnten, was zu einer Einschränkung der Meinungsfreiheit und der individuellen Freiheit führen könnte. (vgl. Tufekci, 2018; Zuboff, 2019)

Diskriminierung und Vorurteile: Wie bereits erwähnt, können KI-Systeme diskriminierend wirken, wenn sie auf der Grundlage von Daten trainiert werden, die schon bestehende Vorurteile widerspiegeln. Dies kann dazu führen, dass Nutzer aufgrund ihrer Rasse, ihres Geschlechts oder anderer Merkmale diskriminiert werden. Es besteht die Sorge, dass KI-Systeme dazu beitragen könnten, bestehende Ungleichheiten in der Gesellschaft zu verstärken, anstatt sie abzubauen. (vgl. Buolamwini & Gebru, 2018; Eubanks, 2018)

Soziale Isolation und Einsamkeit: KI-Systeme können auch dazu beitragen, dass Nutzer sozial isoliert und einsam werden. Beispielsweise können virtuelle Assistenten wie Siri oder Alexa dazu führen, dass Benutzer weniger menschliche Interaktionen haben und sich zunehmend von anderen Menschen isolieren. Es wird befürchtet, dass dies zu einer Verschlechterung der psychischen Gesundheit und des Wohlbefindens der Nutzer führen könnte. (vgl. Turkle, 2011; Twenge, 2019)

Praktische Anwendung geeigneter Prinzipien und Richtlinien

Um sicherzustellen, dass KI-Systeme ethischen und moralischen Grundsätzen folgen, bedarf es nicht nur der Entwicklung geeigneter Prinzipien und Richtlinien, sondern auch ihrer praktischen Umsetzung. Im Folgenden werden einige Beispiele für die praktische Anwendung ethischer Grundsätze im Zusammenhang mit KI genannt:

Verantwortungsvolle Datensammlung und -nutzung: KI-Systeme sollten auf der Grundlage umfassender, vielfältiger und unvoreingenommener Daten trainiert werden. Es ist wichtig sicherzustellen, dass die Daten ethisch und rechtmäßig erhoben wurden und dass die Nutzung der Daten transparent und fair erfolgt.

Berücksichtigung von Ethik und Moral bei der Entwicklung von KI: Entwickler und Ingenieure von KI-Systemen sollten bei der Konzeption und Implementierung von KI-Systemen ethische und moralische Erwägungen berücksichtigen. Dazu gehört die Berücksichtigung von Prinzipien wie Fairness, Transparenz und Verantwortlichkeit bei der Entscheidungsfindung.

Einsatz von Überprüfungs- und Kontrollmechanismen: Es ist wichtig, Überprüfungs- und Kontrollmechanismen einzusetzen, um sicherzustellen, dass KI-Systeme ethischen und moralischen Grundsätzen entsprechen. Solche Mechanismen können unter anderem unabhängige Bewertungen, interne Audits oder die Überwachung durch Ethikkommissionen sein.

Kontinuierliche Evaluierung und Verbesserung: KI-Systeme sollten kontinuierlich evaluiert und verbessert werden, um sicherzustellen, dass sie ethischen und moralischen Grundsätzen entsprechen. Dies kann durch Feedbackschleifen und regelmäßige Überprüfungen erreicht werden, um sicherzustellen, dass das System fair, transparent und rechenschaftspflichtig bleibt.

Sensibilisierung und Schulung: Es ist wichtig, ein Bewusstsein für die ethischen und moralischen Herausforderungen im Zusammenhang mit KI zu schaffen und Schulungen anzubieten, um sicherzustellen, dass die beteiligten Personen, einschließlich Entwickler, Ingenieure und Nutzer, über die Grundsätze informiert und geschult sind.

Author picture

Mit einem Master in Psychologie (Master of Science) und einem Diplom in darstellenden Künsten hat er einzigartige Perspektiven und Fähigkeiten entwickelt, die er in seiner Arbeit im Change Management, Transition / Transformation und Service Management erfolgreich einsetzt. Seit vielen Jahren leitet er erfolgreich Projekte in diesen Bereichen und hat dabei seine Neugierde und Begeisterungsfähigkeit für Neuerungen und Innovationen nie abgelegt.
Buolamwini, J., & Gebru, T. (2018). Gender nuances: Intersectional accuracy differences in commercial gender classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, 77-91. | Eubanks, V. (2018). Automating inequality: how high-tech tools profile, police and punish the poor. St Martin’s Press. | Tufekci, Z. (2018). Twitter and Tear Gas: The Power and Fragility of Networked Protest. Yale University Press. | Turkle, S. (2011). Alone Together: Why we expect more from technology and less from each other. Basic Books. | Twenge, J. M. (2019). iGen: Why Today’s Super-Connected Kids Are Growing Up Less Rebellious, More Tolerant, Less Happy-and Completely Unprepared for Adulthood-and What It Means for the Rest of Us. Atria Books. | Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future on the New Frontier of Power. PublicAffairs. | European Commission. (2019). Ethical guidelines for trustworthy artificial intelligence. | IEEE Global Initiative on the Ethics of Autonomous and Intelligent Systems. (n.d.). Global inventory of AI ethics guidelines. | Future of Life Institute. (n.d.). AI Principles. | UK Government Office for AI. (n.d.). AI Ethics Impact Group. | European Parliament and Council. (2016). General Data Protection Regulation (GDPR). | Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. | European Commission High-Level Expert Group on AI. (2019). Ethical guidelines for trustworthy AI. Brüssel: Europäische Kommission.
itSMF BLOG Wegweiser zur Automatisierung im ITSM Grafik

Wegweiser zur Automatisierung im ITSM

Im digitalen Zeitalter werden Geschwindigkeit und Effizienz großgeschrieben. Unternehmen streben stetig danach, ihre Servicequalität zu verbessern und gleichzeitig die operativen Kosten zu senken. Eine Schlüsselrolle spielt dabei das IT-Service-Management (ITSM), das die Planung, Lieferung, Verwaltung und Verbesserung von IT-Dienstleistungen an Geschäftsprozesse anlehnt. Doch wie können diese Ziele erreicht werden, ohne dabei die menschliche Arbeitskraft zu überlasten? Die Antwort findet sich in einem Begriff, der in der IT-Branche zunehmend an Bedeutung gewinnt: Automatisierung.

Weiterlesen »

Top-Trends im IT-Service Management 2024

Mit rasender Geschwindigkeit eilen wir in eine Ära, in der Technologie nicht nur eine ergänzende Rolle spielt, sondern das Herzstück unserer täglichen Operationen bildet. Die IT-Service Management (ITSM) Welt ist keine Ausnahme, sie entwickelt sich ständig weiter, um mit den Bedürfnissen eines digitalisierten Zeitalters Schritt zu halten. Im Jahr 2024 stehen wir vor wesentlichen Trends, die das Gesicht des ITSM grundlegend verändern werden. In diesem Beitrag werfen wir einen Blick auf die Zukunft und entdecken, welche Entwicklungen im ITSM uns im kommenden Jahr besonders beschäftigen werden.

Weiterlesen »

Corporate Sustainability Reporting Directive (CSRD)

Eines ist unbestritten: Nachhaltigkeit rückt immer mehr in den Fokus von Unternehmen, Investoren und Konsumenten. Die Einführung der Corporate Sustainability Reporting Directive (CSRD) durch die Europäische Union ist ein bahnbrechender Schritt hin zu mehr Transparenz und Verantwortlichkeit. Die Richtlinie, die Anfang 2023 in Kraft trat, markiert einen wichtigen Wendepunkt in der Art und Weise, wie Unternehmen über ihre Auswirkungen auf Umwelt und Gesellschaft berichten. Mit der CSRD verfolgt die EU das Ziel, die Nachhaltigkeitsberichterstattung zu standardisieren, zu vertiefen und letztlich die Nachhaltigkeitspraktiken von Unternehmen zu verbessern.

Weiterlesen »

UMFRAGE: Multi Provider Management

Multi-Provider-Management spielt eine immer wichtigere Rolle im IT Service Management, da sich Unternehmen zunehmend auf die Integration und das Management von IT Services verschiedener Anbieter konzentrieren. Ziel dieser Umfrage ist es, Einblicke in die Praktiken, Strategien und Erfahrungen von IT-Professionals im Kontext von Multi-Provider-Management zu gewinnen.

Weiterlesen »

Das europäische KI-Gesetz

Die Einführung des europäischen KI-Gesetzes stellt eine wichtige Entwicklung bei der Regulierung der Künstlichen Intelligenz (KI) dar. Das Gesetz spiegelt das wachsende Bewusstsein und die Notwendigkeit wider, eine fortschrittliche Technologie zu regulieren, die tiefgreifende Auswirkungen auf die Wirtschaft, die Gesellschaft und die Rechte des Einzelnen hat. In einer Zeit, in der KI-Technologien zunehmend in kritische und alltägliche Anwendungen integriert werden – von Gesundheits- und Finanzdienstleistungen bis hin zu öffentlicher Sicherheit und persönlicher Assistenz – stellt das Gesetz einen entscheidenden Schritt dar, um die Entwicklung und den Einsatz von KI im Einklang mit europäischen Werten und Standards zu gestalten.

Weiterlesen »

Test Account Management

Die Einführung neuer Softwarelösungen in Unternehmen ist eine regelmäßige Notwendigkeit in der heutigen digitalen Landschaft. Ein häufiger erster Schritt in diesem Prozess ist die Einrichtung von kostenlosen Test- und Probeaccounts. Obwohl diese Accounts eine scheinbar risikofreie Möglichkeit bieten, die Funktionalitäten neuer Software zu erkunden, bergen sie dennoch erhebliche Risiken und Herausforderungen. In diesem Artikel zeigen wir in sechs Schritten, wie Unternehmen mit diesen Herausforderungen umgehen und die Vorteile von Testaccounts optimal nutzen können.

Weiterlesen »

Bye Bye Birdie!

Heute verkünden wir als itSMF Deutschland, Berufs- und Fachverband für IT Service Management offiziell unseren Abschied von X (ehemals Twitter). Nach intensiven Überlegungen und Diskussionen innerhalb unserer Organisation haben wir uns entschieden, unsere Accounts auf dieser Plattform zu deaktivieren und deren Löschung zu beantragen.

Weiterlesen »

ITSM 2023 – Danke!

Die ITSM 2023 war ein eindrucksvolles Beispiel dafür, wie das enorme Wissen und die Erfahrung unserer Community allen Mitgliedern zugutekommt. Ihre aktive Teilnahme, sei es durch das Stellen von Fragen, den Austausch von Ideen oder einfach durch Ihre Anwesenheit, hat unsere Veranstaltung bereichert und inspiriert. Wir sind stolz darauf, Teil einer so dynamischen und engagierten Gemeinschaft zu sein. Ihr Beitrag macht das itSMF Deutschland zu einer lebendigen und wertvollen Plattform für alle, die im Bereich IT Service Management tätig sind.

Weiterlesen »