Der Wunsch nach Transparenz ist sehr verständlich, aber nicht so leicht zu erfüllen, vor allem bei komplexen Systemen. Solche KI-Modelle werden oft als “Blackboxen” bezeichnet, weil ihre internen Prozesse für Außenstehende nicht transparent sind. Selbst die Entwickler können manchmal nicht genau erklären, wie das Modell zu einer bestimmten Entscheidung gekommen ist. Oft wird ein zweites Programm "hinterhergeschickt", das begründete Vermutungen darüber anstellt, wie die ursprüngliche Entscheidung zustande gekommen sein könnte.
Nein, wir sind noch nicht weiter. Vor allem steht diesem Ansatz auch die menschliche Bequemlichkeit im Weg. Selbst wenn es alles transparent verfügbar wäre, wie die Outputs der KI-Modelle zustande kommen......wer würde es schon lesen? Außer die 0,0001% die daran arbeiten ;-)
Auch die AGBs sorgen für Transparenz und keiner liest sie 😂
Wir haben Arbeitsteilung auch in der Informationsverarbeitung. Es ist unmöglich für einen Menschen, alle relevanten Informationen über sämtliche Lebensbereiche aus ersten Quellen selbst zusammenzusuchen und zu interpretieren. Wir sind darauf angewiesen, dass jemand oder etwas die Informationen für uns sammelt und interpretiert. Vertrauen ist dabei das Wichtigste. Ich will nicht alles wirklich selbst lesen. Ich will nur sicher sein, dass ich es lesen könnte und dass es jemand gelesen hat, dem ich fachlich und menschlich vertrauen kann.
Richtig. Und genau das ist der Grund, weshalb wir zwar auf der einen Seite immer auf der Suche nach noch mehr Daten und Informationen sind, um mit scheinbar mehr Information bessere Entscheidungen zu treffen, nur um dann, wegen all der komplexen Information, doch wieder auf die eine oder andere Institution als Informant und Berater zurückzugreifen. Ein Kreislauf
Der Wunsch nach Transparenz ist sehr verständlich, aber nicht so leicht zu erfüllen, vor allem bei komplexen Systemen. Solche KI-Modelle werden oft als “Blackboxen” bezeichnet, weil ihre internen Prozesse für Außenstehende nicht transparent sind. Selbst die Entwickler können manchmal nicht genau erklären, wie das Modell zu einer bestimmten Entscheidung gekommen ist. Oft wird ein zweites Programm "hinterhergeschickt", das begründete Vermutungen darüber anstellt, wie die ursprüngliche Entscheidung zustande gekommen sein könnte.
https://link.springer.com/chapter/10.1007/978-3-662-64408-9_4
Dieser Artikel von 2021 erklärt das gut. Sind wir mittlerweile weiter?
Nein, wir sind noch nicht weiter. Vor allem steht diesem Ansatz auch die menschliche Bequemlichkeit im Weg. Selbst wenn es alles transparent verfügbar wäre, wie die Outputs der KI-Modelle zustande kommen......wer würde es schon lesen? Außer die 0,0001% die daran arbeiten ;-)
Auch die AGBs sorgen für Transparenz und keiner liest sie 😂
Wir haben Arbeitsteilung auch in der Informationsverarbeitung. Es ist unmöglich für einen Menschen, alle relevanten Informationen über sämtliche Lebensbereiche aus ersten Quellen selbst zusammenzusuchen und zu interpretieren. Wir sind darauf angewiesen, dass jemand oder etwas die Informationen für uns sammelt und interpretiert. Vertrauen ist dabei das Wichtigste. Ich will nicht alles wirklich selbst lesen. Ich will nur sicher sein, dass ich es lesen könnte und dass es jemand gelesen hat, dem ich fachlich und menschlich vertrauen kann.
Richtig. Und genau das ist der Grund, weshalb wir zwar auf der einen Seite immer auf der Suche nach noch mehr Daten und Informationen sind, um mit scheinbar mehr Information bessere Entscheidungen zu treffen, nur um dann, wegen all der komplexen Information, doch wieder auf die eine oder andere Institution als Informant und Berater zurückzugreifen. Ein Kreislauf