Lesezeit ca. 9 Minuten
Guten Morgen. Starten wir gemeinsam in diesen Dienstag. Denn wie immer gilt auch heute wieder: "Es ist durchaus möglich, sowohl rational als auch falsch zu sein."
Debiasing KI
Unsere Entscheidungen sind zu drei Vierteln Noise, sagt der Nobelpreisträger Daniel Kahnemann in diesem Interview bei McKinsey über Managing system noise.
Noise, engl. Rauschen, Krach, bedeutet im Zusammenhang mit menschlichen Urteilen eine unerwünschte Bandbreite an Meinungen. Unerwünscht ist diese Bandbreite zum Beispiel bei ärztlichen Diagnosen. Habe ich diese Krankheit oder habe ich sie nicht? Ich möchte es eindeutig wissen. Wenn ich zwei verschiedene Ärzte frage, möchte ich zwei Mal dieselbe Diagnose, dann weiß ich, woran ich bin.
Es gibt Noise sogar innerhalb einer einzelnen Person.
In zahlreichen Studien haben Daniel Kahnemann und seine Kollegen nachgewiesen, wie abhängig unsere Erinnerungen, Beurteilungen und unsere Entscheidungen von unser momentanen körperlich-mentalen Verfassung sind. Ob ein Untersuchungshäftling vom Richter einen Haftprüfungstermin erhält, hängt zum Beispiel stark davon ab, ob der Richter, wenn er die Akte in die Hand nimmt, um zu entscheiden, bereits zu Mittag gegessen hat, oder ob er hungrig ist.
Für welche Vorsichtsmaßnahme gegen ein drohendes Unheil wollen wir uns entschließen? Die Antwort auf diese wichtige Frage kann unter anderem sehr stark davon abhängen, mit welchen Worten uns die objektive Sachlage und die rechnerische Wahrscheinlichkeit des Eintritts des Unheils vorgetragen wird. Professor Erb von Helmut Schmidt Universität erklärt das anhand des “Asian Desease Problem”.
Wenn ich eine Entscheidung aufgrund von Fakten treffe und einige Zeit später noch einmal dieselbe Entscheidung aufgrund der selben Fakten treffe und dabei zu unterschiedlichen Ergebnissen komme, nur weil die Fakten anders präsentiert wurden und ich nicht gemerkt habe, dass es zwei mal dieselbe Entscheidung ist, habe ich ein Problem. Ein Noise Problem.
Um dieses Noise-Problem geht es auch bei den anderen kognitiven Verzerrungen, die wir hier im CBO Nugget besprechen.
Bei der Entscheidung, welchen Mitarbeiter ich zum Vorstellungsgespräch einladen möchte, oder wen ich befördern soll, will ich keinen Noise.
Der nach Aktenlage vielversprechendste Kandidat oder die vielversprechendste Kandidatin soll die Chance bekommen. Dabei soll keine Rolle spielen, ob der Entscheider schon gefrühstückt hat, ob er generell Menschen mit grünen Augen oder einer bestimmten Religionszugehörigkeit mag, ob er selbst an der gleichen Universität studiert oder im selben Regiment gedient hat, wie der Kandidat, ob er Frauen für grundsätzlich ebenso kompetent hält wie Männer und so weiter.
Um was es geht
Wir wollen Objektivität. Da liegt es nahe, sich von künstlicher Intelligenz helfen zu lassen. Künstliche Intelligenz arbeitet rein logisch. Also macht sie keine logischen Fehler. Perfekt, oder?
Aber: Logik alleine liefert keine Ergebnisse! Man muss die Logik schon auf etwas Konkretes anwenden. Die Künstliche Intelligenz braucht Daten. Und Entscheidungskriterien.
Ich muss ihr schon sagen, was ich mir unter einem hervorragenden Kandidaten genau vorstelle. Kann ja nicht so schwierig sein.
Der HR-Manager überlegt:
„Für diesen Job muss man Mathematik und Maschinenbau auf Topniveau beherrschen und außerdem muss man sehr gut mit internationalen Kunden reden und verkaufen können. Man muss sich in unserer Branche bestens auskennen und am Besten auch in unserem Betrieb. Außerdem muss man Teamplayer sein, weil man sehr eng mit den anderen Abteilungsleitern zusammenarbeiten muss. Eine breite Allgemeinbildung und Erfahrung in interdisziplinärer Zusammenarbeit sind sehr hilfreich. Es muss auch menschlich passen! Wie erkläre ich das der KI?“
Dann die rettende Idee:
„Wir geben der KI einfach die Daten unserer bisherigen Mitarbeiter, die diesen Job in den vergangenen zwanzig Jahren am besten gemeistert haben! Dann soll sie unter den Bewerbern diejenigen auswählen, die unseren bisherigen Top-Performern objektiv am ähnlichsten sind.
Das ist dann so ähnlich wie die look-alike-Audience bei Facebook Werbeanzeigen. Da kann ich die Profile meiner besten Kunden angeben und der Algorithmus sucht mir Menschen mit ähnlichem Klickverhalten raus, die ähnliche Sachen liken und kommentieren, ähnliche Dinge einkaufen u.s.w. und zeigt denen meine Anzeige.“
Klingt das vernünftig? Als ich zum ersten Mal davon las, dachte ich, „klar, gute Idee. Lernen aus Erfahrung.“ So, oder so ähnlich wurde es gemacht.
Das Unternehmen war sehr modern und legte Wert auf diskriminierungsfreie Unternehmenskultur. Schließlich war unbewusste Diskriminierung einer der Gründe, warum man sich die KI angeschafft hatte.
Das von der künstlichen Intelligenz vorgelegte Ergebnis war seltsam. Weird, wie man im Englischen sagt. Nicht nur weird, es war WEIRD. Ein „WEIRD sample“.
Das Acronym steht für White, Educated, Industrialized, Rich, and Democratic.
Es waren nur Weiße, die der demokratischen Partei nahestanden! Dabei gab es doch auch so viele Bewerber anderer Hautfarbe und Weltanschauung mit den erforderlichen Abschlüssen. Waren die alle nicht gut? Oder war es mit der unbestechlichen Logik der künstlichen Intelligenz doch nicht so weit her?
Niemand hatte das beabsichtigt. Die KI hatte ihren Job perfekt erledigt.
In den vergangenen zwanzig Jahren hatten nur weiße, wohlhabende, gebildete Demokraten aus Industrienationen Führungspositionen in dieser Firma inne gehabt. Niemand hatte der KI gesagt, dass sie ihre Suche auch auf andere Personenkreise ausdehnen soll. Schwarze Frauen zum Beispiel. Oder Frauen überhaupt. Leute aus Indien oder Afrika.
Warum das wichtig ist
Die kognitive Verzerrung, die zu dem seltsamen Ergebnis führte, rührte nicht von der KI, sondern von den ihr zur Verfügung gestellten Daten.
Shit in, shit out.
Es ist wie bei der Kindererziehung. Wir geben nicht nur das weiter, was wir geplant haben, unsere Kinder zu lehren. Sie lernen auch unsere unbewussten Vorannahmen, unsere Denkgewohnheiten, Mindfucks und Biases.
Die KI hatte ihre unbewussten Vorurteile von ihren menschlichen Programmierern geerbt, obwohl diese persönlich nicht rassistisch waren. Die historischen Daten waren ungeeignet für die Gegenwart und Zukunft.
Einige solcher Fälle sind schon bekannt geworden. Welchen diskriminierenden Bias Amazon bei seiner künstlichen Intelligenz für HR entdecken musste, warum einige Programme zur Gesichtserkennung nur weiße Menschen erkennen und was das Blackbox Problem ist, erklärt dieser Artikel des t3n Magazins.
Was können wir tun, um die Denkfehler unserer natürlichen Intelligenz nicht versehentlich an unsere künstliche Intelligenz weiterzugeben?
Im WEISSBUCH Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen wird eine Aufbewahrungspflicht empfohlen:
„...Dokumentation der für Programmierung 53 und Training verwendeten Methoden, der für Aufbau, Erprobung und Validierung der KI-Systeme eingesetzten Verfahren und Techniken, ggf. unter Beachtung von Sicherheitsanforderungen und unter Vermeidung von Verzerrungen, die zu verbotenen Diskriminierungen führen könnten….“
Das europäische Parlament denkt auch an Data Poisoning, wobei absichtlich ein falscher Datensatz eingegeben wird.
„...P. in der Erwägung, dass KI-Systeme, die von den Strafverfolgungs- und Justizbehörden eingesetzt werden, auch anfällig sind für KI-unterstützte Angriffe auf Informationssysteme und die Verfälschung von Daten („Data poisoning“), bei der absichtlich ein falscher Datensatz eingegeben wird, um verzerrte Ergebnisse zu erzielen; in der Erwägung, dass in diesen Situationen der daraus resultierende Schaden potenziell sogar noch bedeutender ist und zu einem exponentiell höheren Schadensausmaß sowohl für Einzelpersonen als auch für Gruppen führen kann;…“
Künstliche Intelligenz wird Menschen dabei helfen, über sich hinaus zu wachsen und innerhalb kürzester Zeit wahre Wunderwerke zu vollbringen.
Patienten in den entlegensten Winkeln der Erde viele Kilometer von der nächsten Krankenstation entfernt, werden von Ferndiagnosen profitieren. Wir werden innerhalb kürzester Zeit bahnbrechende Erfindung machen können, mit denen wir die drängendsten Probleme unser Zeit bewältigen.
Wir Menschen werden das, was was wir tun, schneller, eleganter leichter und wirkungsvoller tun als jemals zuvor.
Ich selbst bin fasziniert und begeistert. Und vorsichtig.
Künstliche Intelligenz potenziert, was in uns steckt.
Nicht nur das, von dem wir wissen oder wünschen, dass es in uns steckt. Auch das andere, unsere dunkle Seite, all die Vorurteile und unbegründeten Vorannahmen. Das, was in den Daten steckt, mit denen wir unsere KI trainieren.
Nach welchen Kriterien wählen wir die Daten aus?
Werden wir noch weitere Biases entdecken, wenn künstliche Intelligenz uns den Vergrößerungsspiegel vorhält?
Hilft diese Technologie uns vielleicht sogar dabei, kognitive Verzerrungen zu vermeiden?
Zum Beispiel den Confirmation Bias. Der Confirmation Bias sorgt dafür, dass wir Aussagen eher glauben, wenn sie unsere bisherige Meinung unterstützen. Wir merken uns solche Fakten auch leichter, wenn sie unser Weltbild bestätigen. Dadurch fallen sie uns schneller als Beispiele ein, wenn wir uns fragen, wie groß die Wahrscheinlichkeit eines bestimmten Ereignisses ist.
Das ist der Verfügbarkeitsfehler, Availability Bias, der eng mit dem Bestätigungsfehler, dem Confirmation Bias zusammenhängt. Er sorgt dafür, dass wir eine Schätzfrage nach der Eintrittswahrscheinlichkeit eines Ereignisses mit der Antwort auf eine ganz andere Frage beantworten. Ohne es zu bemerken antworten wir auf die Frage: „Wie groß schätzen Sie die Wahrscheinlichkeit, dass Ereignis X eintritt?“ mit der Antwort auf die Frage „Wie leicht fallen mir Beispiele für X ein?“
Gegenmaßnahme gegen den Confirmation Bias:
Wenn Sie bereits eine künstliche Intelligenz wie die frei zugängliche Chat GPT nutzen, um Texte zu schreiben, die ihre Meinung vertreten, („bringe Argumente mit Beispielen für die These XY“) machen Sie es auch einmal anders herum!
Sagen sie, „Bringe Argumente mit Beispielen gegen die These XY.“
Vielleicht sind Sie darüber erstaunt, wie folgerichtig und schlüssig sowohl ihre These als auch deren Antithese dargelegt werden kann.
Weitere Gegenmaßnahmen gegen vererbbare Biases:
Informieren Sie sich über kognitive Verzerrungen und prüfen Sie gemeinsam mit anderen menschlichen Denkern, ob ihre Entscheidungen durch einen oder mehrere dieser Biases beeinflusst wurden. Wir informieren Sie in diesem CBO-Nugget wöchentlich über Biases und freuen uns riesig, dass unser Newsletter so gut angenommen wird. Bleiben Sie offen und neugierig!
Auch der Ingroup Bias hat mit dem Confirmation Bias zu tun. Wir halten Personen aus unserer Gruppe für glaubwürdiger als Fremde Menschen. Verlassen Sie gelegentlich gezielt Ihre Filterblase. Gefahr durch die Filterblase - "Manipuliert" mit Sascha Lobo.
Gehen Sie auf Entdeckungsreise und schicken Sie ruhig auch einmal eine KI, um Anregungen für Ihre ausgewogene Recherche einzuholen. Spielen Sie mit der Technologie! Achten Sie dabei darauf, wie Sie sich intuitiv leiten lassen und was Ihnen die künstliche Intelligenz über ihre und Ihre unausgesprochenen Vorannahmen verrät. Lässt die KI erkennen, wes Geistes Kind sie ist? Legt sie ihre Quellen offen, oder muss man sie eindringlich dazu auffordern? Formulieren Sie Ihre Prompts um und schauen Sie, ob Sie dadurch andere Ergebnisse erzielen!
Die KI-Technologin Kriti Sharma beschreibt in ihrem TED Talk eindrücklich die Verebung menschlicher Biases auf künstliche Intelligenz und hält ein leidenschaftliches Plädoyer für diese Technologie mit ihren fantastischen Möglichkeiten. Wir haben als menschliche Gesellschaft die Chance, mithilfe von verantungsvoll angelernter KI fairer, gerechter und erfolgreicher zu werden.
Unterm Strich
KI ist jetzt gerade dabei, Entscheidungen zu treffen, die das persönliche Leben von Milliarden von Menschen betreffen.
Sie arbeitet rein logisch.
Dabei ist sie nicht schlauer als ein Meter Feldweg und kann den größten Blödsinn verzapfen, ohne es zu merken und muss aus den Daten lernen, die wir ihr geben.
Allerdings ist sie sehr gut darin, Muster zu erkennen und Daten zusammenzusetzen.
Sie hilft uns, über uns hinaus zu wachsen und das zu potenzieren, was in uns steckt.
Die Möglichkeiten sind gigantisch.
Damit wir Menschen unsere Vorurteile und kognitiven Verzerrungen nicht versehentlich auf unsere künstliche Intelligenz übertragen, müssen wir sorgfältig mögliche Biases ausschließen.
Nicht nur unsere Schul- und Kinderbücher sollten frei von Rassismus und Diskriminierung sein. Das Trainingsmaterial, mit dem wir unsere KI “erziehen” hat einen sehr konkreten unmittelbaren Einfluss darauf, wie über unser Leben entschieden wird.
Ein CBO, Chief Behavioral Officer, identifiziert mögliche Fehlerquellen in der Auswahl der Daten, mit denen die KI trainiert wird und vollzieht nach, welche “Schlüsse” die KI aus den angebotenen Informationen zieht, die auf unseren Biases beruhen.
Wie müssen wir in Zukunft sein, um KI zum Wohle aller einzusetzen und keine Angst vor Jobverlust haben zu müssen?
Vivienne L’Ecuyer Ming, theoretische Neurowissenschaftlerin und Expertin für künstliche Intelligenz soll das letzte Wort in unserem heutigen Nugget haben.
Die Financial Times fragte sie: „So we can built smarter people using AI?“
Die Antwort hat es in sich!
Chief Behavioral Officer gesucht
Wo werden täglich Managemententscheidungen getroffen, die immer noch vom logisch handelnden Menschen ausgehen? Wo können Sie diese Woche selbst ein Chief Behavioral Officer sein?
Wir sehen uns kommenden Dienstag.
Wenn Sie uns Tipps oder Feedback senden möchten, dann schicken Sie uns eine E-Mail an redaktion@cbo.news. Vielen Dank.