Der Roboter Pepper kommuniziert mit einem Tablet mit den Menschen.

Ihre Meinung zu Forschung will KI nachvollziehbarer machen

Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Von M. Lang und R. Kraft.

...mehr ...weniger
Dieser Artikel auf tagesschau.de
Kommentieren beendet
124 Kommentare

Kommentare

Sisyphos3

im Klartext 

nachvollziehbare Intelligenz welche auch ein Dummer versteht

1 Antwort einblenden 1 Antwort ausblenden
Ole Aap

"nachvollziehbare Intelligenz welche auch ein Dummer versteht"

Genau das, was die Welt braucht. Bloß dass die Dummen auch Blödsinn glauben und der Intelligenz den Finger zeigen, wenn es ihnen besser in den Kram passt.

Grossinquisitor

Die Europäische Datenschutz-Grundverordnung schreibt vor, dass die Menschen ein Recht darauf haben, die Gründe für algorithmenbasiierte Entscheidungen, von denen sie betroffen sind, in einer nachvollziehbaren Weise zu erfahren. Seit 2023 gilt außerdem der Artificial Intelligence Act. Solange das Problem der Nachvollziehbarkeit nicht gelöst ist, können KI- Verfahren in Europa nur eingeschränkt zum Einsatz kommen. Wenn es gelingt, die Black Box zu verstehen, wäre ein Einsatz von KI auch rechtlich möglich. 

nie wieder spd

„Eine genaue Abwägung der Maßnahmen erfordert allerdings, dass die Vorhersagen transparent sind. Ohne den Entscheidungsprozess nachvollziehen zu können, könnten Landwirte nicht feststellen, weshalb ein möglicher Ernteausfall droht.“

Dass man gerne wissen will, wie genau eine KI zu ihren Ergebnissen kommt, kann ich mir vorstellen. Aber diese Erklärung ist falsch. Es ist gar nicht nötig, zu wissen, auf welchem verschlungenen Weg die KI dazu kommt, solange solche Ergebnisse richtig sind und Vorhersagen zu - und eintreffen.

Vielleicht könnte ja auch jemand eine KI konstruieren, die speziell dazu dient, die Arbeitsweise von KI zu erklären. 

Lichtinsdunkle

"Die Forschenden in Kaiserslautern wollen auch Prüfkriterien für KI-Anwendungen entwickeln, analog zu einem TÜV-Siegel. So sollen KI-Anwendungen am Ende ein entsprechendes Gütesiegel bekommen. Das Ziel des DFKI in Kaiserslautern ist dabei: vertrauenswürdige KI "Made in Germany"

Ich musste tatsächlich kurz laut lachen. Ein KI-TÜV. Donnerwetter! 

Spaß beiseite, ist definitiv eine gute Idee zu versuchen mehr und besser zu verstehen und zu "kontrollieren"(da wird's interessant), aber wenn man wie Deutschland jetzt nicht unbedingt als silicon valley 2.0 bekannt ist, sollte man sich vielleicht vorher erstmal um die Infrastruktur kümmern bevor man großspurig von Innovations- und Qualitätszentrum spricht. Wir dürfen nicht vergessen, dass das für uns alle Neuland ist, nicht wahr? 

Frohes Schaffen wünsche ich wohl dennoch! 

5 Antworten einblenden 5 Antworten ausblenden
frosthorn

Wir dürfen nicht vergessen, dass das für uns alle Neuland ist, nicht wahr?

Für Frau Merkel war es Neuland. Und vielleicht ist es für Sie Neuland. Es gibt aber in Deutschland noch mehr Menschen als Sie und Frau Merkel.

Lichtinsdunkle

Wie man einen solchen Satz nach vorherigem Kontext so interpretieren kann ist mir schleierhaft.

Ich weiß ehrlich gesagt nicht, ob ich versuchen soll es Ihnen zu erklären oder nicht. Vielleicht kommen Sie von selbst drauf. 😉 

frosthorn

Nein, versuchen Sie es nicht. Ich ärgere mich bei diesem und ähnlichen Themen regelmäßig darüber, dass die Überzeugung weit verbreitet ist, es gäbe in DE niemanden, der was von KI versteht, und überhaupt wüssten nur US-Amerikaner und Chinesen, was Hard- und Software sei und wie die funktionieren. Und  genau diese Überzeugung vertreten Sie ja in Ihrem Beitrag auch. Soll ich das zitieren?

Mauersegler

Nein, es war kein Neuland für Frau Merkel. Einer dieser aus dem Zusammenhang gerissenen Sätze, mit denen man so schön diskreditieren kann. 

schabernack

➢ Wir dürfen nicht vergessen, dass das für uns alle Neuland ist, nicht wahr?

Neuland in größerem Rahmen von Anwendung ist KI für alle Beteiligten.

Entwickler, Programmierer, Anwender. Auch für die,
die KI einen begrenzenden rechtlichen Rahmen geben wollen.

Heinz Schäfer

Soll jetzt jeder die KI verstehen?  Wetten, dass die wenigsten Menschen den Kühlschrank verstehen. Bisher haben wir den Datenschutz um den Fortschritt zu verhindern.  Kommt jetzt ein weiterer Hemmschuh?  Die Entscheidungen der Schufa sind seit Jahren intransparent und es wird nichts geändert.  Was der Arzt mit der Krankenkasse abrechnet, bleibt für den Kassenpatient intransparent.  Es gibt (vorher) noch viel zu tun.

2 Antworten einblenden 2 Antworten ausblenden
Sisyphos3

Die Entscheidungen der Schufa

---

gutes Beispiel Kreditvergabe

was verdient einer, wie vertrauenswürdig ist der, wo schafft er, wie oft gekündigt, wie alt ist der,

bestimmt 2 Dutzend Punkte jedes vielleicht noch mit Wertigkeit versehen

dann gibts ne Summe an Punkten und es klappt mit dem Darlehen oder auch nicht

so wird es auch bei komplexen Entscheidungen bei der KI Ablaufen

nur dass es da hunderte oder mehr Kriterien gibt die bewertet werden

dann kann es der Mensch gleich selber machen wenn er dem mißtraut 

 

Piorko

Sie können jederzeit von Ihrem Arzt Rechenschaft über Diagnosen oder Abrechnungen verlangen, oder Sie rufen bei der Krankenkasse an. So transparent sind die schon. Man darf bei vielen Stellen und Behörden Auskunft über seine Daten verlangen.

Mit meinem Kühlschrank unterhalte ich mich vergleichsweise selten. 😉

Coachcoach

Ich bin da skeptisch, wünsche aber viel Erfolg - vor allem bei der wirtschaftlichen Nutzung, denn hat D noch Lernbedarf ;)

JM

KI kann nur so gut sein wie der Programierer und das ist ein Mensch.

5 Antworten einblenden 5 Antworten ausblenden
artist22

Stimmt leider nicht ganz. Das ist ja das Schlimme. Gerade da, wo es kritisch ist, wird der KI mehr vertraut - von den Investoren! - als dem Menschen, der es kontrollieren soll.

Ich befinde mich gerade im Wettlauf mit der KI, was meine zahlentheoretischen Erkenntnisse angeht. Noch bin ich klar im Vorteil,  aber wie lange..

Mauersegler

Sie haben das Projekt offenbar nicht verstanden. Es geht um die Transparenz des Programmierten.

Neutrale Stimme

Falsch, eine AI kann selber lehrnen und intiligenter werden als der Mensch der die Standart Software dafuer geschrieben hat. Der Mensche kann vielleicht die Kontrolle ueber AI haben. Natuerlich kommt es auch darauf an um was fuer eine AI es sich handelt.

JM

KI wird vom MENSCHEN PROGRAMKIRT. sucht dann im internet systematisch nach neuen informationen.wAHRHEITSGEHALT eher bescheiden da jeder im internet alles veröffentlichen kann. KI lernt aber niemand kann die richtigkeit überprüfen.

Klärungsbedarf

KI kann auch schon selbst  programmieren.

Claus

Da KI seine Schlüsse aus dem Internet speist, liegt dann wohl auch die Entscheidungsfindung dort.

Und es ist doch schön, daß KI wohl nur positive Auswirkungen auf Medizin und Landwirtschaft hat.

Und jetzt schreiben wg der Ausgewogenheit die Herren Michael Lang und Richard Kraft vom SWR sicher noch einen Artikel über die Gefahren von KI. Hacken, Bilder/Videos verändern um Menschen zu schaden, oder Wahlen zu verschieben.

3 Antworten einblenden 3 Antworten ausblenden
Mauersegler

Ihr Beitrag geht am Thema vorbei.

Claus

"@Claus

Ihr Beitrag geht am Thema vorbei."

Wieso? Nur in eine Richtung ohne Für und Wider zu schreiben, scheint wohl der neue Journalismus zu sein. Begegnet mir immer öfter bei den Offentlich Rechtlichen. Auch wenn Information  bei den ÖR noch Meilen besser ist, als anderswo, ist und wird er immer schlechter. Dieser ist ein Beispiel, wenn man KI über den grünen Klee lobt, und die Gefahren völlig außen vor läßt, ist das nicht gut. Genauso, wie KI nicht immer gut ist, und mißbraucht werden kann..

Mauersegler

Wieso? Weil das Thema des Artikels nicht positive oder negative Auswirkungen von KI sind und KI auch nicht "über den grünen Klee" gelobt wird. 

Es werden schlicht spezifische Projekte vorgestellt, in denen bestimmte KI-Anwendungen transparenter gemacht und  verlässliche Qualitätsstandards entwickelt werden sollen. Darauf gehen Sie in Ihrem Kommentar aber gar nicht ein. 

Lucinda_in_tenebris

Einem ICE hinterherlaufen gelingt selten. Ich glaube dass es schlicht ein Merkmal der AI ist, dass sie vom Mnschen nicht mehr verstanden werden können.

5 Antworten einblenden 5 Antworten ausblenden
Mauersegler

Da die Anwendungen von Menschen programmiert werden, werden sie zumindest von denen auch verstanden. Genau gegen solchen Irrglauben wie den Ihren will das Projekt angehen.

Grossinquisitor

Bisher ist das bei lernenden Verfahren nicht möglich. Die Forscher bekommen von der KI nur ein Ergebnis. Wissen aber nicht, auf welcher Entscheigungsgrundlage das Ergebnis zustande gekommen ist. Wie eine KI grundsätzlich funktioniert, wissen sie natürlich schon. Aber sie können ihr nicht beim "denken" zuschauen. 

Mauersegler

Ja, das ist mir schon klar, insofern war meine Antwort zu schnell rausgehauen. Worum es mir ging, war die apodiktische Aussage, dass diese Anwendungen von Menschen nicht mehr verstanden werden können. 

Klärungsbedarf

Warum eigentlich nicht. Debugging geht immer, es sei denn, es scheitert rein quantitativ.

artist22

"es scheitert rein quantitativ." Der Punkt ist bei einigen Modellen längst erreicht.

Juwa

KI funktionier so: Alle Ausgangsdaten werden von der KI durch den von der KI selbst entwickelten Lösungsweg analysiert und interpretiert um dann zu einem Endergebnis zu kommen. Derzeit ist es so, dass nur die Ausgangsdaten und das Endergebnis bekannt sind nicht aber der Lösungsweg der KI. Wenn aber der Lösungsweg nicht bekannt ist, dann kann nicht bewertet werden ob der Lösungsweg richtig ist und damit das Endergebnis verlässlich ist. Es stellt sich daher die Frage wie man Zugang zum Inneren der KI erlangen kann. Einfach reinschauen geht nicht, man kann auch beim Menschen nicht einfach in den Kopf schauen, aber Menschen kann man fragen wie sie auf die Lösung eines Problems kommen. Ob das bei der KI genauso gut oder besser funktioniert?

Vector-cal.45

Kürzlichen Dialog zwischen einem Menschen und einer KI:


„Wie viele „r“ enthält das Wort „strawberry“?“


„Ich erkenne zwei „r““


„Bist du sicher?“


„Ja“


„Ich sehe drei „r““


„Da hast du recht“


Es gibt noch ähnliche Beispiele.

Da ist sicher noch deutlich Luft nach oben und eine KI sollte keinesfalls irgendwelche Entscheidungen treffen, geschweige denn schwer wiegende.

5 Antworten einblenden 5 Antworten ausblenden
Mauersegler

Habe ich gerade mal überprüft.

Eingabe: 
Wie viele „r“ enthält das Wort „strawberry“?

Antwort: Das Wort „strawberry“ enthält zwei Buchstaben „r“.

Eingabe: Oha. Zählen ist wohl nicht deine Stärke.

Antwort: Haha, erwischt! Da war ich wohl zu schnell. Aber keine Sorge, ich kann zählen! Lass es uns noch einmal machen: Das Wort „strawberry“ enthält tatsächlich drei „r“.

Aber die Billigausgabe von ChatGBT hat rein gar nichts mit den Anwendungen zu tun, um die es in dem Artikel geht. 

Montag

Nobody is perfect.

Mendeleev

So ist es. Leider gibt es die Tendenz KI eben nicht nur für Scientific Writing („schreibe mir einen Essay, Länge: 5000 Worte!“) einzusetzen oder um Nachrichtentexte zu generieren, sondern um besonders schwerwiegende Entscheidungen wo es um Fragen von „Leben und Tod“ geht, von KI entscheiden zu lassen, zB in der Medizin, im Straßenverkehr oder der Luftfahrt - und auch beim Militär. 

Vector-cal.45

Beim Militär, das wäre ja noch „schöner“.


Wenn schon die Verantwortung für Menschenleben durch Entscheidungen übernommen werden muss dann, dann sollen diese bitte von Menschen getroffen werden.

Wer weiß, vielleicht finden wir uns ansonsten irgendwann in einer Art  realistischen Version von „Terminator“ wieder, wenn die bewaffnete KI uns als Bedrohung sieht.

artist22

"Wer weiß, vielleicht finden wir uns ansonsten irgendwann in einer Art  realistischen Version von „Terminator“ wieder," Irgendwann? Das geschieht schon heute beim Militär bei ausgewählten Projekten. Wird halt nur nicht laut gesagt, da selbst im Wertewesten illegal ;-) 

odiug

Das ganze beherrschen sicher wieder die Amerikaner und Chinesen. Wir Europäer werden von denen abhängig sein, wie bei nahezu allen digitalen Entwicklungen.

Juwa

Wie kann man KI vertrauenswürdig machen?

Ich denke man braucht eine zusätzliche KI, die in die eigentliche KI integriert ist und die Ergebnisse der KI überprüft. Dabei kommt eine neue Frage auf. Wie schafft man es diese zusätzliche KI auch noch transparent zu machen, damit auch deren Ergebnisse überprüft werden können? Braucht man dann eine weitere zusätzliche KI?

Mendeleev

KI kann eine Hilfe sein in der Wissenschaft, wenn es darum geht in großen Datenmengen die „Nadel im Heuhaufen“ zu finden man aber den genauen Zusammenhang nicht programmieren kann weil man ihn nicht kennt (also bei implizit nicht-deterministischen Problemen, zB in der Neutrinoastronomie oder beim SETI Projekt also der Suche nach Signalen Außerirdischer). 


Fragen von  Leben und Tod sollte man nicht allein von einer KI beantworten lassen, sonst sind wir bei dem Szenario des Films „Wargames“ (1983), wo eine KI die Simulation eines sowjetischen Angriffs mit ICBM‘s als echte Attacke interpretiert und beinahe ein nukleares Inferno auslöst …das kam der Wahrheit mal sehr nahe als ein sowjetischer Computer den Sonnenaufgang als Startblitz einer Minuteman Rakete fehlinterpretierte … 

natootan

Es gibt keine KI. Das, wovon immer gesprochen wird, sind Chat Roboter. Mehr auch nicht. Und die basieren auf diversen Algorithmen. 

2 Antworten einblenden 2 Antworten ausblenden
Mauersegler

Ach, "Chat Roboter" analysieren die Bilddaten von Geweben? Wenn Sie meinen ...

natootan

Ja. Exakt. Anaylseprogramme, die danach Text generieren. Nach einprogrammierten Vorgaben. 

das ding

"Ohne den Entscheidungsprozess nachvollziehen zu können, könnten Landwirte nicht feststellen, weshalb ein möglicher Ernteausfall droht. "

Die Landwirte koennten doch 'ne KI fragen, eine von Google oder Microsoft oder OpenAI, gibt doch genug. 

 "Hallo, KI! Warum droht ein Ernteausfall?"

(Satire? Zynismus? Ganz wie Sie wollen.)

eberlems

Die meisten kennen es bisher als Einzelfallentscheidung oder einfach nur als Geraten, Gewürfelt oder Haluzination.

Anna-Elisabeth

"Der Arzt kann nicht nachvollziehen, wie das System zu einer Entscheidung kam." 

Das erinnert mich jetzt an die "42", die Antwort auf alle Fragen. Da haben Douglas Adams' Weltraumbewohner woh auch nicht gewusst, wie der Riesencomputer zu diesem Ergebnis kam.

1 Antwort einblenden 1 Antwort ausblenden
frosthorn

Das war denen aber auch egal. Deren Problem war, dass sie die Frage nicht mehr wussten, die sie dem Riesencomputer gestellt hatten.

pasmal

Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar, genauso, wie bei unseren Politikern. Ob die vielleicht nur Ki-Versuche der ersten Generation sind?

1 Antwort einblenden 1 Antwort ausblenden
Sisyphos3

da haben sie wohl recht !

Moderation

Schließung der Kommentarfunktion

Liebe Community,

die Kommentarfunktion für dieses Thema wird nun geschlossen.

Danke für Ihre rege Diskussion.

Mit freundlichen Grüßen

Die Moderation