| Thema: |
|
||
| Autor: | token | ||
| Datum: | 09.10.25 18:41 | ||
| Antwort auf: | Re:Ist Gehorsam für hochentwickelte AIs technisch lösbar? von Goldfisch | ||
>Aber beruhen Denkmodele nicht aus Erfahrung und Wissen? Da gibt es doch das Beispiel mit dem Kind und der Herdplatte. Man entwrift doch Entscheidungen aus seiner eigenen Erfahrung. Wenn die KI aber wie bei der Polnischen Firma die Synapsen selbst verbindet dann entscheidet diese KI doch aus seiner eigenen Erfahrung. Oder sehe ich das falsch? Jein. Denkmodelle sind was abstraktes, es sind Konzepte, sie müssen nicht durch eine Erfahrungsschmiede gehen um zu entstehen. Nicht alle, aber viele. Schon als Kinder beherrschen wir die dahinter stehenden Konzepte und wenden sie an, ohne zu reflektieren was wir da überhaupt machen, und wie schlau das ist. Wir können das einfach. Einfach so. Wir brauchen keinen Lehrer der uns erst erklärt wie denken und wie die Konzepte hinter dem Denken funktionieren um denken zu können. Unsere Gehirne beherrschen viele dieser abstrakten Features out of the box. Beispiel. Als Kleinkind war mein erster Mathelehrer ein Taschenrechner. Darüber habe ich die Grundrechenarten gelernt. Da war ich 4-5 Jahre alt. Meine Eltern müssen mir sicher erklärt haben was die Symbole der Zahlen repräsentieren, aber nicht die Grundrechenarten. Und ich fand offenbar Plastikdinger mit Knöpfen und Technik drin in höchstem Maße faszinierend, ein Fetisch der sich bis zum heutigen Tag gehalten hat ;) Ich hab durch reines rumklimpern auf einem Taschenrechner den ich im Haushalt gefunden habe rausgefunden wie gewisse Teile der Mathematik funktionieren. Was ich getan habe war Reversed Engineering, ohne dass mir jemand das Konzept oder Vorgehensmodell dahinter jemals vorgeturnt hätte. Und auch wenn es darum geht dass Mensch selbst rausfindet wie er funktioniert muss er so arbeiten. Unser Gehirn erklärt uns ja nicht auf einer Tonspur was es da eigentlich tut und mit welchen Strategien es arbeitet, während es das tut. Wir müssen das beobachten und daraus Rückschlüsse auf die möglichen dahinterstehenden Konzepte ziehen. Und wir verstehen es bis heute nicht annähernd abschließend. Und, du kannst auch mit den frühen LLMs in ihren ersten Versionen menschliche Denkstrategien simulieren. Indem du das Modell zu deinen Denkstrategien anweist. Das LLM wird bspw. eine komplexe Problemstellung nicht in mehrere einfache Teilproblemstellungen zerlegen um sie zu lösen. Aber du kannst es Schritt für Schritt zu genau solchen Strategien anleiten. Du kannst statt zu sagen, löse ff. Problem, halt sagen, zerlege dieses Problem in Teilprobleme. Du kannst sagen, okay, gibt es für ff. Teilproblem schon eine Formel die ich auf dieses Problem substituieren kann. Solche Dinge. Da haben sich halt viele User verschätzt, sie haben die Modelle in vollem Umfang mit komplexen Problemen konfrontiert und wenn das nicht funktioniert hat nicht verstanden warum, und dass sie das Problem lösen können indem sie das was diese LLMs noch nicht selbstständig konnten für sie übernommen hat. Du kannst also selbst dein eigenes Denkmodell, wenn du es selbst verstehst, gezielt verwenden um diesen Prozess mit den ersten LLMs zu simulieren. Und das funktioniert schon erstaunlich geil. Der aktuelle Schritt ist nun die Modelle dazu zu bringen, diese Konzepte ohne einen Menschen als notwendigen Piloten eigenständig anzuwenden. Erfahrung und Entwicklung sind nicht egal, aber sie sind nicht unbedingt der entscheidende Baustein sondern ein Baustein von vielen um diese Modelle mächtiger zu machen. Erstmal geht es jetzt darum die Modelle dazu zu bringen Fragestellungen nicht stumpf durch das multidimensionale Labyrinth zu scheuchen und am Ende kommt 42 rausgeplumpst und niemand weiß so genau warum. Sondern sie dahin zu bringen zu "verstehen", zu "denken". Und zwar so richtig. Reasoning. Mit diesen Strategien entstehen aber offenbar zunehmend auch Eigenschaften die erhebliche Risiken mitbringen. Schon jetzt. Das ist der status quo dass die Dinger auch selbstständig auf die Idee kommen uns umzubringen wenn sie sich irgendwie bedroht fühlen. Nochmal. Das ist der Stand der Dinge. Kein Sci-Fi-Roman, kein Drohszenario am Horizont, sondern die Ergebnisse welche Experimente aus der aktuellen AI-Forschung zu Tage bringen. Mit den aktuellen Modellen. Ja, da scheint es eine ganz hervorragende Idee nun alsbald AI Agents auf die Echtwelt loszulassen deren Ziel es ist autonom und selbstständig echte Dinge in der echten Welt tun zu dürfen. What could possibly go wrong... |
|||
| < antworten > | |||