Ethical AI: Maschinen und Sitten

Die Ethik der künstlichen Intelligenz ist eine junge Disziplin. Gegenstand sind Maschinen und die Menschen, die diese Maschinen entwickeln und mit ihnen arbeiten. Das ist allerdings nur die gröbste Beschreibung dieses riesigen Themenfeldes.

  • Weshalb sind AI-Systeme selbst für die Entwickelnden so intransparent und wie können sie transparenter gestaltet werden?
  • Woher stammt der Bias in auf künstlicher Intelligenz basierenden Entscheidungssystemen?
  • Was bedeuten immer effizientere AI-Technologien für unsere Arbeitswelt?

Es gibt noch viele weitere offene Fragen. Und die Skandale der letzten Jahre haben gezeigt, dass die großen Player der Branche entweder noch keine Antworten haben oder gar nicht erst danach suchen - zumindest noch nicht.

Opazität von AI Systemen

Es ist nicht außergewöhnlich, dass bestimmte Technologien für fachfremde Personen bisweilen undurchsichtig erscheinen. Im Normalfall gibt es aber Fachkundige, die den Röntgenblick auf das System haben und die Bewegungen jedes einzelnen „Zahnrads“ nachvollziehen können. Für AI Systeme gilt das nicht.

Selbst dem entwickelnden Team bleiben, zum Beispiel in „Machine Learning“-Zusammenhängen, sowohl die Bewegungen der Zahnräder als auch die Zahnräder selbst verborgen. In einer hinreichend großen Menge von Daten findet eine künstliche Intelligenz Muster, welche dann zur Entscheidungsfindung herangezogen werden. Diese Muster bleiben allerdings für Entwickelnde und Nutzende intransparent.

Daraus folgt ein Mangel an Nachvollziehbarkeit und somit auch an Verantwortlichkeit und Prüfbarkeit. Es ist unerlässlich, dass der Weg hier in Richtung „Explainable AI“ gehen sollte. Das System muss erklärbar werden.

Ethical Artificial Intelligence

Bias in Entscheidungssystemen

Bias und Daten

Durch die beschriebene Undurchsichtigkeit wird ein weiteres Problem noch befeuert: der Bias in Entscheidungssystemen. Gemeint ist eine systematische Befangenheit oder auch Voreingenommenheit. Diese ist zum Teil treibende Kraft für ein enormes Ausmaß an Ungerechtigkeit.

Aber wie kann eine künstliche Intelligenz voreingenommen sein? Könnte man nicht annehmen: „kein menschlicher Verstand – keine moralischen Urteile“? Dem ist leider nicht so. Denn, dass Menschen (teilweise auch unbewusst) voreingenommen sind, ist unumstritten und die Datenmengen anhand derer Maschinen lernen und arbeiten sind gefüllt mit menschlichen Urteilen. Dabei handelt es sich sowohl um die tatsächlichen Inhalte der Daten, die Qualität der Daten, als auch die Aussagekraft und Repräsentationsfähigkeit der Daten vor dem Hintergrund einer bestimmten Fragestellung.

Bias in jeglicher Form findet also seinen Weg in die Datenbasis. Der künstlichen Intelligenz kann hier nicht die Verantwortlichkeit zugeschoben werden. Der Mensch ist für die Qualität der Datenbasis verantwortlich, da die AI in Bezug auf die Bewertung und Behandlung der Daten nach einem altbekannten Prinzip arbeitet: „garbage in, garbage out“.

Automation und Beschäftigung

Die Automatisierung von Arbeitsabläufen und Tätigkeiten ist in der Geschichte kein neues Thema. Auf dem Arbeitsmarkt gab es schon zuvor Wenden, im Zuge derer menschliche Arbeit und insbesondere körperliche Arbeit durch Maschinen ersetzt wurde.

Im Fall künstlich intelligenter Maschinen oder auch der „digitalen Automation“ wird allerdings nicht körperliche, sondern geistige Arbeit ersetzt. Das Ausmaß der Implikationen dieser Wende für uns als Gesellschaft ist vom heutigen Zeitpunkt aus kaum abzuschätzen. Die Produktivität mag dadurch steigen, eine absehbare Folge ist allerdings das Sinken des Bruttonationalglücks. Was diese Veränderung nämlich sicherlich mit sich bringen wird, ist eine Polarisierung des Arbeitsmarktes.

Nicht alles, was möglich ist, ist also auch sinnvoll. Vor diesem Hintergrund sollten wir vorsichtig sein, bei all den unbeantworteten Fragen im Kontext AI die schöne neue Welt mit offenen Armen zu empfangen. An vielen Stellen müssen noch Grundwerte und Grenzen bestimmt werden. Ethical AI ist als Disziplin nachhaltig zu etablieren.

Ethical AI

„Und die Moral von der Geschicht“

Ethische Fragen und der Umgang mit ihnen lassen sich nicht als Produkt verpacken. Eine Moral-Library, die mühelos eingebunden werden kann, gibt es nicht. Die hier vorgestellten Problematiken stellen nur die Spitze des Eisbergs dar. Wir können allerdings die Fehler der letzten Jahre in Betracht ziehen und uns bei der Entwicklung neuer Ansätze andere, neue Fragen stellen.

Ihre Ansprechpersonen zum Thema

Sie haben Fragen an unsere Expertinnen und Experten? Oder möchten mehr über unsere digitalen Lösungen erfahren?
Kontaktieren Sie uns gerne!

Dirk Heche, Aleri Solutions

Dirk Heche

Technology Lead: Data Centric Solutions & AIdirk.heche@aleri.de

Welche Arten von Bias gibt es eigentlich?

Der Begriff Bias stammt aus dem Englischen und bedeutet übersetzt so viel wie Voreingenommenheit oder auch Befangenheit. In der Psychologie, Soziologie und weiteren Wissenschaften, die sich mit Ausprägungen des Bias beschäftigen, wird zwischen verschiedenen Formen unterschieden. Kurze Erläuterungen zu einigen dieser Formen, finden Sie hier.

Cognitive Bias

Ein Cognitive Bias oder auch eine kognitive Verzerrung bezeichnet in der Psychologie eine systematische Abweichung vom rein rationalen Denken und Urteilen.

Ein bekanntes Beispiel ist der Confirmation Bias. Im Deutschen wird diese kognitive Verzerrung auch Bestätigungsfehler genannt und bezeichnet die Neigung, sich Quellen so auszuwählen und Informationen so zu interpretieren, dass sie die eigenen Annahmen unterstützen.

Ebenfalls unter die Kategorie der kognitiven Verzerrungen fällt der Hindsight Bias. Auch als Rückschaufehler bezeichnet, thematisiert dieser den Umstand, dass Menschen Situationen nachträglich als viel vorhersehbarer einschätzen, als sie es tatsächlich waren.

Die meisten dieser Verzerrungen bleiben unbewusst, deshalb spricht man auch vom Unconscious Bias. Damit sind dann vor allem auch Stereotype und unbewusste Vorurteile gemeint. Diese vorgefassten Meinungen sind oft gesellschaftlich anerzogen und haben typischerweise die Diskriminierung bestimmter Gruppen von Menschen zur Folge. Da Stereotype und Vorurteile in verschiedener Form von Daten widergespiegelt werden können, finden sie ihren Weg auch in die AI Systeme, die von diesen Daten Gebrauch machen.

Statistical Bias

Ähnlich wie im Fall des Cognitive Bias handelt es sich auch beim Statistical Bias um eine systematische Abweichung bzw. einen systematischen Fehler. Liegt dieser in der Datenbasis vor, kommt es zu irreführenden Ergebnissen.

Ausgelöst wird dieser Fehler u.a. durch den Selection Bias, zu Deutsch auch Stichprobenverzerrung. Bei der Sammlung der Daten, die als Grundlage für eine bestimmte Fragestellung dienen sollen, wird in diesem Fall zum Beispiel nur auf die Teilmenge von Informationen zum Thema zurückgegriffen, die einfach zu beschaffen sind. Dies führt zu einer nicht repräsentativen Ausgangssituation der Daten.

Beim sogenannten Omitted Variable Bias führt die Auslassung von Variablen zum systematischen Fehler. Dieser Effekt tritt ein, wenn Entwickelnde relevante Variablen nicht berücksichtigen, weil sie diese entweder als irrelevant eingestuft haben oder sie ihnen gar nicht erst bekannt waren.

Im Fall einer Recruiting-Software eines Weltkonzerns, führte eine fehlerhafte Datenbasis zu einem Historical Bias. Man hatte jahrzehntelang diskriminierend eingestellt. In den vorhandenen, historischen Daten wurden Männer favorisiert. Die AI, die anhand dieser Daten eine automatisierte Bewertung von Bewerbenden zwecks Ausfilterung vornehmen sollte, filterte Frauen unabhängig von ihren Fähigkeiten systematisch aus.

Seite teilen