Der Roboter Pepper kommuniziert mit einem Tablet mit den Menschen.

Ihre Meinung zu Forschung will KI nachvollziehbarer machen

Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Von M. Lang und R. Kraft.

...mehr ...weniger
Dieser Artikel auf tagesschau.de
Kommentieren beendet
124 Kommentare

Kommentare

Glasbürger

KI zur Hilfe bei der medizinischen Diagnostik und Behandlung, dass ist sicher völlig in Ordnung, doch z.B. in der Justiz hat sie nichts verloren. KI ist kein Wundermittel und nicht überall gleich anwendbar. 

16 Antworten einblenden 16 Antworten ausblenden
Lichtinsdunkle

"KI ist kein Wundermittel und nicht überall gleich anwendbar. "

Bei dem nicht gleich anwendbar bin ich ganz bei Ihnen, mit den "kein Wundermittel" würde ich sagen, das kommt ganz darauf an, was Sie unter einem Wundermittel verstehen.

Wenn ein Wundermittel etwas ist, was in der Lage ist, innerhalb relativer kurzer Zeit eine Gesellschaft grundlegend zu verändern, würde ich durchaus Wundermittel benutzen.

Wenn ein Wundermittel etwas sein soll, was alle Probleme der Welt verschwinden lässt, bin ich wieder ganz bei Ihnen - das ist die KI nicht. Jedenfalls nicht unter gegebenen gesellschaftlichen Umständen.

Glasbürger

Es wird momentan ziemlich gehypt. Wie man es mit einem potentiellen Wundermittel eben so macht. 

Nettie

„KI ist kein Wundermittel und nicht überall gleich anwendbar.“

Ersteres stimmt, Letzteres nicht.

Glasbürger

Warum nicht? Wo ist der Fehler?

Nettie

Ich muss mich hier nicht für meine Meinung bzw. Sicht der Dinge rechtfertigen. Nicht mal, die erläutern (‚erklären‘).

schabernack

➢ Ich muss mich hier nicht für meine Meinung bzw. Sicht der Dinge rechtfertigen.
Nicht mal, die erläutern (‚erklären‘).

Müssen Sie nicht, sollten Sie aber tun.

So ist das Wesen von Diskussion. Aussage - Nachfrage - Antwort.

«Wie haben Sie das gemeint - können Sie ein Beispiel nennen?»
«Ja - beispielsweise bei / im Fall von (x) ist es so und so.»

rainer4528

Sagen Sie doch einfach: Ich weiß es nicht.

R A D I O

Wo KI nützt, und wo sie nichts verloren hat (bzw. endgültig nichts verloren haben wird?), könnte sich noch herausstellen. Forschung oder ... ist hier die Frage.  

Glasbürger

Forschung!

Lucinda_in_tenebris

Warum nicht in der Justiz? Reine Schriftverfahren in der ersten Instanz könnten evtl. funktionieren. Die Justiz aollte ja eigentlich so funktionieren, dass zwei Richter zu einem Urteil kommen. Sind die Parteien unzufrieden, dann knnen sie Widerspruch einlegen und bekommen einen Richter zugewiesen. Nehmen sie das Urteil an, haben viellleicht alle Geld , Zeit und Nerven gespart.

Anna-Elisabeth

"Die Justiz aollte ja eigentlich so funktionieren, dass zwei Richter zu einem Urteil kommen." 

Eigentlich. Ist aber leider nicht so. Wenn zum Beispiel Richter (wie am Oberlandesgericht in Celle) auf alle guten Sitten verzichten und dem Kläger nicht einmal in der vorgeschriebenen Weise eine mündliche Verhandlung ermöglichen wollen, weil ihr Urteil bereits feststeht und das, obwohl schon mehrere Urteile in vergleichbaren Fällen ergangen sind (zugunsten des Klägers), dann hilft auch keine KI. Ich beziehe mich hier auf einen Fall, der in dem Buch >>Die digitale Bevormundung<< beschrieben wird. Viele Dinge, die dort geschildert werden, möchte man kaum glauben.

Glasbürger

KI kann niemals so feine Unterscheidunge machen, wie der Mensch.  Und in der Justiz kommt es gerade darauf an. 

Ichbinfassungslos

Sie wollen also einen Computer Recht sprechen lassen? Ich finde das befremdlich und würde das nicht wollen. 

Claus

Wieso hat sie in der Justiz nichts zu suchen, wenn man Beweise durch sie wieder herstellen kann. Man müßte dann nur sicher sein, daß es wirklich Beweise sind, und kein Mummenschanz.

Kürzlich brachte hier ein Forengast vor, er würde eine wissenschaftliche Expertenregierung bevorzugen, dann doch gleich eine KI, und schon sind wir bei der Spielfilmreihe Terminator angekommen.

Glasbürger

Ok. Aber nicht als "Richter ".

Ichbinfassungslos

Der aktuelle Stand der KI hat das Niveau der KI, wie man sie in "Terminator" sah, bereits vor mehr als 10 Jahren überholt. Die aktuelle KI, insbesondere die, die für militärische Zwecke entwickelt wurde, ist deutlich weiter. 

Nettie

„Ab wann ist eine KI vertrauenswürdig?“

Wenn es je ein Forschungsgebiet gab, das wirklich jeden Aufwand lohnt, um bei der Beantwortung dieser Frage zu vertrauenswürdigen (für jedermann nachvollziehbaren, also zuverlässigen) Ergebnissen kommen zu können, dann das.

3 Antworten einblenden 3 Antworten ausblenden
Eequ3eji

Mir wäre es deutlich lieber, wenn die Politiker diesen Landes absolut vertrauenswürdig wären.

Klärungsbedarf

Bei Menschen ist es ja so, dass sich auch die Intelligentesten irren können. Und eine KI im engeren Sinne muss auch ein Ergebnis liefern können, was nicht direkt gelernt wurde. Der Mensch kann das durch Analogien etc. Vertrauen ist etwas für zwischenmenschliche Beziehungen. In anderen Fällen sollte man die Wahrscheinlichkeiten für richtige Ergebnisse zur Grundlage machen.

Ichbinfassungslos

Ganz klar NEIN!

Sie können doch unmöglich derart naiv sein. 

Parsec

"Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert."

Das dürfte der Schlüssel sein, wenn KI überhaupt in wichtige Bereiche eingesetzt werden "will".

Der Mensch muss und wird die Oberhand behalten, wenn es um Entscheidungen geht, die KI-basiert sein sollen: es muss absolut nachvollziehbar sein, warum eine KI welche Entscheidung getroffen hat.

10 Antworten einblenden 10 Antworten ausblenden
Sisyphos3

es muss absolut nachvollziehbar sein, warum eine KI welche Entscheidung getroffen hat.

---

ob das bei Menschen immer der Fall ist

keine Entscheidungen durchs "Bauchgefühl"

wenn ich mir da nur Entscheidungen zur Personal Einstellung anschaue ... bei der Mietvergabe ... Partnerwahl ))grins((

Piorko

Bei Partnerwahl oder Einstellungen spielen oft Intuition und Bauchgefühl eine Rolle, da entscheidet man nicht nach Fakten. Das war früher bei arrangierten Ehen.

Bei Wettervorhersagen oder Warnungen vor Unterzucker sehe ich das noch ein, manche Tiere haben ja auch ein Gespür dafür. Aber ansonsten bin ich etwas skeptisch, was KI angeht. Wie schon erwähnt, da sollten Fachleute die Kontrolle haben.

Sisyphos3

dann sind wir beim Punkt Fakten oder Bauchgefühl

also warum dann überhaupt KI !

Sisyphos3

Nachtrag zum Thema Partnerwahl

das ist gar nicht so abwegig !!

wie funktioniert das denn bei Heiratsinstituten

da gibt doch jeder sein (mehr oder weniger ehrliches ) Persönlichkeitsprofil  an

der Computer vergleicht die mit denen des potentiellen Partners

bingo (oder nicht)

Klärungsbedarf

Wenn es "absolut nachvollziehbar" ist, dann dürfte man es eher mit schlichter Programmierung unter Ausnutzung der heutigen Rechen- und Speicherkapazitäten zu tun haben, also kybernetische Systeme.

Mauersegler

Da traue ich den Spezialisten und Spezialistinnen in Kaiserslautern, das schon seit vielen Jahren unser führender KI-Stützpunkt ist, einfach mal mehr Sachkenntnis zu als Ihnen.

Klärungsbedarf

Naja, komplexe Programme für den Praxiseinsatz habe ich auch schon geschrieben. Insofern fehlt Ihnen für Ihre Aussage jede Beurteilungsgrundlage. Übrigens deckt sich meine Aussage ohnehin im Kern mit den Kaiserlauterern, die ja für mehr Transperenz sorgenn wollen. Eins ist jedenfalls sicher: Vieles von dem, was uns als KI verkauft wird, ist weit davon entfernt, eine solche zu sein.

artist22

"Vieles von dem, was uns als KI verkauft wird, ist weit davon entfernt, eine solche zu sein."  Exakt.

artist22

"einfach mal mehr Sachkenntnis zu als Ihnen." Was nützt Ihnen die, wenn Sie es selbst nicht beurteilen können ;-)

Soweit sind wir nämlich schon. 

Nettie

Das dürfte der Schlüssel sein, wenn KI überhaupt in wichtige Bereiche eingesetzt werden "will".

Die KI will überhaupt nichts. Etwas wollen können nur die Programmierer ihrer Algorithmen.

Mendeleev

Mediziner sollten KI nicht zu sehr und auch nicht allein vertrauen sonst verschreibt die KI noch „Kaliumcyanid“ als Mittel gegen chronische Schmerzen …:-)


Das ist nicht so absurd wie es klingt.

Ich habe ChatGPT selbst auf den Zahn gefühlt. Die KI war bei ein paar Fragen aus dem naturwissenschaftlichen Bereich K.O. … und hat sich immer wieder für Fehler entschuldigt, was ich albern fand. 


Die Schwedische Akademie der Wissenschaften testete neulich erst KI um zukünftige Nobelpreisträger vorherzusagen (probieren Sie es aus! Ist ein günstiger Zeitpunkt dafür):


Dazu sollte die KI die Nobelpreisträger der Vergangenheit anhand der bis dahin verfügbaren Daten vorhersagen (in einer Art „Zeitreise“). Das Ergebnis soll ganz ok gewesen sein, aber für 1957 sagte die KI Pippi Langstrumpf als „Nobelpreisträgerin für Physik“ für die „Entdeckung superstarker Materialien“ voraus :-) 
 

25 Antworten einblenden 25 Antworten ausblenden
Oberlehrer

Wer glaubt ChatGPT wäre die KI die zum Beispiel für die Analyse von bildgebenden Verfahren in der Medizin eingesetzt wird, tut ausgesprochen naiv oder ist es.

Mendeleev

Ich habe nicht behauptet, „ChatGPT“ würde in der Medizin zum Einsatz kommen. 

Denn wie der Name schon sagt: bei dieser Software handelt es sich um ein Dialogprogramm das auf Sprache spezialisiert ist. 

Ich habe das Prinzip erläutert. 

Mauersegler

Welches Prinzip?

Mendeleev

Versuchen Sie bitte meinen Post gründlich zu lesen und zu verstehen. 

Lichtinsdunkle

Naiv würde ich es nicht nennen. Unwissend vielleicht. Was meinen Sie wie viele nicht mal schemenhaft verstehen, wie Technologien funktionieren. Für so manche Menschen sind das Zauberkästen, auf den man einen Knopf drückt und es passiert etwas. Viele Menschen verfügen nicht über mehr als das Wissen, was sie benötigen, um ihr Leben in allen Aspekten zu meistern und es besteht kaum Interesse daran, Dingen näher auf den Grund zu gehen. Das ist dabei komplett wertfrei, denn der "Wert" eines Menschen ergibt sich nicht aus der Summe seines Wissens, der Geldbörse oder seinem Titel. Warum es so viele desinteressierte Menschen gibt kann ich nicht abschließend beantworten. Ich wünschte mir es wäre anders. Aber ich verurteilen niemanden dafür, etwas nicht zu wissen. Nur hat sich bei vielen eine Beharrlichkeit auf der eigenen Meinung festgesetzt, ohne dabei die nötigen Informationen selbst gesichtet zu haben und geben nur wieder, was ihnen auf verschiedenen Kanälen vorgegeben wird. 

 

melancholeriker

Toll, was Sie so alles über das Wissen wissen, daß "viele Menschen" nicht wissen wollen und niemals nicht verurteilen, daß die im Dunkeln auf "Zauberkisten" starren. 

Zum Glück fehlt Ihnen die "Beharrlichkeit" der festgesetzten Meinung. Man könnte ja sonst denken, hier arbeite eine KI an der Zersetzung des Mündigkeitsschwellenwertes dieser vielen Menschen. Hier in diesem Forum habe ich bis jetzt wenig bis keine dieser Desinteressierten gesehen, über denen das Licht ganz umsonst ausgeschüttet wird. 

 

Mendeleev

Bei bildgebenden Verfahren ist zuerst viel Rechenpower notwendig um ein Bild zu berechnen aufgrund einer Menge von Messungen, ein sogenanntes „Inverses Problem“:

Das sind Gleichungen mit Integraloperatoren die da iterativ  gelöst werden müssen - mit KI hat das nichts zu tun. 

KI kommt dann ins Spiel wenn man versucht in einem Bild zB ein Lungenkarzinom zu erkennen, also als Expertensystem auf Basis von einem lernenden Algorithmus (neuronales Netz). 

Auch echte Mediziner machen hier manchmal „falsch positive“ Fehler, indem sie den Krebs mit einer verkapselten TbC verwechseln … wichtig ist es deshalb das die Trainingsbilder immer zu histologisch oder pathologisch verifizierten Diagnosen gehören ..

Oberlehrer

Was genau haben Sie an meiner Aussage "Analyse von bildgebenden Verfahren" nicht verstanden?

Mendeleev

Sie haben mir (s.o) unterstellt, dass ich diese Anwendung mit der von ChatGPT verwechseln würde … 

Grossinquisitor

ChatGPT in der Medizin ist ungefähr so, wie wenn der Arzt mit dem Werkzeugkasten des Handwerkers zum Notfallpatienten eilt. 

Mendeleev

Es geht nicht um ChatGPT. Trotzdem kann KI jederzeit geradezu absurde Fehler machen, weil sie keine „Vernunft“ hat. 

Es gibt Berichte von schweren Unfällen aus USA mit selbstfahrenden Autos weil die KI in Einzelfällen katastrophal die Verkehrslage falsch eingeschätzt hat. In einem Protokoll war das nachzulesen: die KI konnte sich bis zuletzt nicht entscheiden ob das Objekt voraus ruhend oder bewegt war und nicht vorhersagen in welche Richtung es sich bewegt … als die KI ihren Fehler bemerkte, war es für die Notbremsung oder ein Ausweichmanöver zu spät .. 

Mauersegler

Was haben Ihre Ausflüchte mit dem Thema des Artikels zu tun?

Mendeleev

Das Sie meine Erläuterungen als „Ausflüchte“ (wovon?) bezeichnen, zeigt wie wenig Sie von der Materie verstehen.. 

Account gelöscht

"Ich habe ChatGPT selbst auf den Zahn gefühlt."

Haben Sie die KI mal gefragt, ob es den menschengemachten Klimawandel gibt und was man dagegen tun kann?

Mendeleev

Wir haben über den Klimawandel „gesprochen“, ja. 

Aber die KI kann die Fakten ja garnicht bewerten. Denn sie „weiß“ nur das was man sicher wissen kann (wenn Sie ALLE Veröffentlichungen gelesen und verstanden hätten sind Sie auf demselben Stand…)

Aber mich hat mehr die Einschätzung zum Ukrainekonflikt interessiert. Das verblüffende daran war, dass die KI ziemlich genau die Eskalation des Konflikts vorhersagen konnte. 

Denn die Datenbasis reichte damals nur bis Ende 2021, das Gespräch fand etliche Monate nach Kriegsbeginn statt…

Account gelöscht

"Wir haben über den Klimawandel „gesprochen“, ja. 
Aber die KI kann die Fakten ja garnicht bewerten."

Der menschengemachte Klimawandel ist eine wissenschaftlich belegte Kausalkette, da gibt es nichts zu bewerten. Und wer wie Sie kürzlich am 2. Hauptsatz der Thermodynamik rumkrittelt und dabei die Gültigkeit des ersten HS ausblendet (und nebenbei die Tatsache ignoriert, dass es sich um die Änderung der Zusammensetzung eines Gasgemisches handelt), muss wohl Religionswissenschaftler sein.

Mauersegler

Wieder ein schönes Beispiel, wie Sie aus Ihren privaten, durchaus sachunkundigen Anekdoten große Weisheiten ableiten wollen.  

Was hat ChatGBT (vermutlich auch noch die simple kostenlose Version) mit Programmen zur Ernteprognose oder Gewebeerkennung zu tun?

Lichtinsdunkle

Warum so herablassend? Wollen Sie die gelebten Erfahrungen eines anderen Menschen so mir nichts dir nichts als Schwachsinn abtun, weil daraus eine zu Ihnen konträre Meinung entsteht? 

Verstehen Sie viel von künstlicher Intelligenz und können die Aussage des Users somit argumentativ entkräften?

Mendeleev

Das kann ich Ihnen gerne erklären. In allen diesen Fällen kommen neuronale Netze zum Einsatz (im Fall von ChatGPT als Basis eines „Large Language Models“). 

Diese neuronalen Netze sind Programme die ein Prinzip unserer neuronalen Verknüpfungen im Gehirn replizieren: wenn man lernt werden bestimmte Verbindungen von Neuronen häufiger und immer wieder benutzt und das Gehirn „merkt“ sich das so entstehende Muster. 

Bei einer KI werden die Netze mit Trainingsdaten gespeist, anhand derer das Programm „lernt“. Dadurch lässt sich so ein Programm schließlich zur Vorhersage von Ergebnissen einsetzen auch bei noch bisher unbekannten Inputdaten. 

Mauersegler

Ich wiederhole meine Frage: Was hat ChatGBT mit Programmen zur Ernteprognose oder Gewebeerkennung zu tun?

Butterblume'

Haha.  Die KI hat sich bei Pipi Langstrumpf  so geirrt, wie Oslo bei mehreren Friedenspreisträgern , ohne Namen näher zu erwähnen,  sonst werde ich wieder blockiert 

asimo

Eine KI ist so gut wie ihr Trauningsdatensatz. Generell sind feed forward netze kein Hexenwerk und bei Mustererkennung extrem effizient. 

Trainiert man eine KI nun speziell mit selektierten Daten z.B. auf die Anslyse von Röntgenbildern, dann wird eine solche KI schnell an den Punkt kommen, sehr viel schneller und treffsicherer diese Bilder auszuwerten als es ein Radiologe kann. Die KI muss aber gut trainiert sein. Außerdem kann diese KI den Patienten nicht anderweitig einschätzen. Sie ist ein super Tool für Radiologen. Vertrauenswürdig und effizient. Aber kein Arzt.

 

ChstGPT ist ein Textsynthesetool, eloquent aber inhaltlich oft Quark. Das Training ist mit massiv vielen Daten erfolgt, damit die Textsynthese gut klappt. Inhaltlich ist da aber ein großes Grundrauschen drin, darauf ist dieses Tool nicht optimiert. Es ist eine „Labermaschine“. Es wird aber auch als solche beworben (wenngleich mit netteren Worten).

artist22

"Trainiert man eine KI nun speziell mit selektierten Daten z.B. auf die Anslyse von Röntgenbildern, dann wird eine solche KI schnell an den Punkt kommen, sehr viel schneller und treffsicherer diese Bilder auszuwerten als es ein Radiologe kann."

Da widerspricht wohl keiner, der sich etwas auskennt. Dummerweise ist das aber nicht das Problem. Das Problem ist, wenn der conformation bias in die Trainingsmodelle einfliesst. Und das tut er ständig ab einer gewissen Komplexität

asimo

Ja, da bin ich voll bei Ihnen. Der conformation bias wirkt sich vor allem bei breiter aufgestellen Systemen aus. Das fast schon klassische Beispiel der Röntgenbilderauswertung ist ein sehr geschlossenes. Die Ausgangsdaten sind ohnehin selektiert, aber auch hier ist ein gewisser Bias dabei (entspricht näherungsweise dem gesamtbias der Ärzteschaft, die pi Daumen zu männlich, weiß und industrienational unterwegs ist).

Bei breiter aufgestellten Anwendungen gibt es viel mehr Möglichkeiten durch „falsche“ Trainingsdaten „eigentümlich“ abzubiegen. Solche generellen KIs sind daher grundsätzlich erstmal weniger vertrauenswürdig.

Mendeleev

Das ist alles richtig was Sie sagen. 

KI ist ein „Tool“ - mehr nicht. 

Als mit die schönste und nützlichste Anwendung empfinde ich KI im Einsatz in der Wirkstoffforschung:

Um ein neues Medikament zu finden braucht die Pharmaforschung bis zu 10 Jahre! Mit KI lassen sich die ersten Phasen der Wirkstoffsuche extrem verkürzen (um ca. 2-3 Jahre). Das spart Unsummen in der Forschung ! 

WirSindLegion

Nun, das ist wie mit "klassischer" Software auch:  NULL Vertrauen in Closed Source und ausschließlich Open Source wird vertraut. Punkt.  Meine beste Entscheidung war 2021 privat alles von Microsoft über Bord zu werfen - seither nur noch 100% Open Source (OS, Apps....).  Mir reicht das Elend von Windows und O365, Azure etc. in der Firma mitzuerleben.  Es geht - der Befreiungsschlag - man muss es nur wirklich wollen.

14 Antworten einblenden 14 Antworten ausblenden
Klärungsbedarf

Ich bin ja auch Open Source Anhänger. Alle Quelle schaue ich mir dennoch nicht an. Schon die schiere Menge hindert. Und so wird aus Open dann doch wieder irgendwie Closed.

Eequ3eji

Sie sollten nicht von sich auf andere schließen.

Klärungsbedarf

Was wollen Sie eigentlich sagen ? Dass Sie von jeder Software, die Sie einsetzen, zunächst die kompletten Quellen gelesen und verstanden haben ? Und bei jejder neuen Version wieder von vorne ?

Lichtinsdunkle

100%!

Man könnte die Liste des "Elends" noch beliebig weiterführen, doch ich glaube dazu fehlt es hier auch an Interesse.

"Es geht - der Befreiungsschlag - man muss es nur wirklich wollen."

Das ist auf fast jede Lebenslage anwendbar im Persönlichen. So kann man sich als Mensch Stück für Stück seine Souveränität wahren und auch wiederherstellen.

Es ist und bleibt nur leider viel einfacher "convenient" zu leben und so ziemlich alles an irgendwelche Organe, Institutionen, Unternehmen, Qualitätszentren, Ideologien hinzugeben. Man nimmt an, was vorgesetzt ist. 

fathaland slim

Es ist und bleibt nur leider viel einfacher "convenient" zu leben und so ziemlich alles an irgendwelche Organe, Institutionen, Unternehmen, Qualitätszentren, Ideologien hinzugeben. Man nimmt an, was vorgesetzt ist.

Manche Menschen finden es einfacher, in vorgegebenen Strukturen zu leben. Es gibt ihnen das Gefühl von Sicherheit.

Sisyphos3

ob das immer so falsch ist ?

Straßen Verkehr => Ball => Kind =>Vollbremsung

das wäre ne vorgegebene Struktur

wenn der Mensch jetzt ne individuelle Entscheidung treffen täte im Großhirn

würde es ne halbe Sekunde länger dauern

vielleicht gerade die entscheidende !

Lichtinsdunkle

"ob das immer so falsch ist ?

Straßen Verkehr => Ball => Kind =>Vollbremsung

das wäre ne vorgegebene Struktur"

Ich glaube Sie meinen etwas anderes. Um das vielleicht ein wenig zu erklären, ich meine keine Anarchie oder Abschaffen von Regeln, die ein Zusammenleben ermöglichen. 

In der von Ihnen geschilderten Situation macht niemand eine "individuelle Entscheidung" wie Sie sagen, das ist ein Reflex. Darum geht es nicht..

Sisyphos3

es geht um ne Antwort auf einen Beitrag von @fathaland slim

>>Manche Menschen finden es einfacher, in vorgegebenen Strukturen zu leben<<

Reflexartige Entscheidungen / bewährte Entscheidungen

Lichtinsdunkle

Exakt, Sie sagen es. Es ist einfacher, wie ich auch schrieb.

Ich kann das von einem gewissen Standpunkt auch durchaus nachvollziehen, jedoch glaube ich dass Menschen das Handwerkzeugs gelehrt werden sollte, das Gefühl der Sicherheit in sich selbst und seiner unmittelbarem Umgebung zu finden. Damit hätten vorgegebene Strukturen weniger Macht über das eigene Handeln. 

Das erfordert alles Mut, Zeit, Geduld und Arbeit, aber es bringt einem Menschen am Ende definitiv mehr, als das jene sehr oberflächlich gewobenen Strukturen vermögen. In einer Gesellschaft, die geprägt ist von enorm vielen psychologischen Problemen wie Depressionen, Burnout, Zwangsverhalten und Abhängigkeiten und viele weitere denke ich wäre es sehr hilfreich, Menschen stärker und robuster, selbstsicherer zu machen. 

fathaland slim

In einer Gesellschaft, die geprägt ist von enorm vielen psychologischen Problemen wie Depressionen, Burnout, Zwangsverhalten und Abhängigkeiten und viele weitere denke ich wäre es sehr hilfreich, Menschen stärker und robuster, selbstsicherer zu machen.

Selbstverständlich.

Aber es ist immer noch die Entscheidung eines jeden Einzelnen, wieviel Freiheit er bzw. sie sich zumuten möchte.

Lichtinsdunkle

"Aber es ist immer noch die Entscheidung eines jeden Einzelnen, wieviel Freiheit er bzw. sie sich zumuten möchte."

Ich denke hier gehen unsere Meinungen auseinander:

Auch wenn ich grundsätzlich zustimme, dass es natürlich prinzipiell eines jeden Entscheidung ist, glaube ich nicht, dass es so einfach ist.

Es Beispielsweise sind sich viele Menschen garnicht über - sagen wir Alternativen bewusst, sodass sie keine Entscheidungsfreiheit besitzen, einen Grad von Eigenständigkeit zu wählen oder entwickeln. Das liegt auch an der mächtigen Präsenz der Medien und mit Medien meine ich nicht die Tagesschau oder einen YouTube-Kanal sondern alle Medien im alltäglichen Leben der Menschen. 

Darüber hinaus ist auch das - nennen wir es System (schwer dafür Begriffe zu finden) nicht flexibel genug um derartiges zu ermöglichen ohne einen großen sozialen Risikofaktor. 

Das ist eine sehr komplexe Debatte, die geführt werden sollte, wenn wir weiter zusammen auf diesem Planeten existieren wollen.

fathaland slim

Medienkompetenz ist ein ganz wichtiges Lernziel. Man ist der Flut sonst hilflos ausgeliefert.

asimo

Der Quellcode bringt bei KI nur wenig. Natürlich ist der wichtig, aber aus dem Source sehen Sie weder die verwendeten Trainingsdaten, noch die Gewichtung von Node x nach Iteration z. 

Ist ein wenig do, wie wenn Sie zwar due Linierung eines Notizbuches einsehrn können (Source), die verwendete Schrift aber nicht oder nur mit höchstem Aufwand lesen/verstehen können.

Dennoch: OS ist gewiss nachvollziehbarer als CS.

asimo

Um da noch was draufzusetzen: Ich programmiere auf Mittelniveau ohne so etwas wie selbstmodifizierenden Code oder so. Aber oft mit hochparametrisierten Daten und da kann ich teilweise selbst nicht genau bestimmen, was bei meinen Programmen rumkommt. Es ist und bleibt zwar deterministisch, aber selbst bei meinen eher noch übersichtlichen Projekten wäre es weit zu viel Aufwand alles durchzurechnen. Die Programme werden parametrisiert und generell getestet, aber nicht voll durchgerechnet.  

Sisyphos3

im Klartext 

nachvollziehbare Intelligenz welche auch ein Dummer versteht

1 Antwort einblenden 1 Antwort ausblenden
Mauersegler

Nein.