| Thema: |
|
||
| Autor: | token | ||
| Datum: | 17.06.24 15:00 | ||
| Antwort auf: | Re:LTT: AI is a Lie von JPS | ||
>>Und entsprechend finde ich es nicht verwunderlich, dass gewisse Sprachmodelle sofern sie nach Emotionen gefragt werden, und solche Modelle zurück geben dass sie sowas hätten, es eben daran festmachen ob sie Dinge richtig oder falsch machen. > >Eher danach, welche Antwort sie mit der höheren Wahrscheinlichkeit als das gewünschte Ergebnis ansehen. > >Lernt man das Modell also mit Daten und Feedback an, bei dem die KI als emotionslos dargestellt wird, wird sie auch so antworten. Lernt man sie mit Aussagen von Menschen an und trainiert nicht dagegen an oder differenziert gezielt zwischen KI und Mensch, dann werden Emotionen bestätigt. Das ist natürlich ein möglicher Schluss, der imitierende Spiegel. Darum geht es aber meines Erachtens nach nicht, sondern darum was das überhaupt ist was bei uns passiert, wie es funktioniert, wie es sich entwickelt hat. Denn wenn ich das Pattern eines digitalen Sprachmodells einwerten möchte, dann brauche ich ja auch ein Verständnis der eigenen Modelle die in meinem Kopf werkeln. Und hier liegt meines Erachtens nach der Hund begraben, weil wir diesbezüglich mit unhinterfragten intuitiven Annahmen arbeiten. Wenn wir also zum Schluss kommen dass so ein Modell sich etwas einbildet, halluziniert, nur Wahrscheinlichkeitsmuster der eigenen Kalibrierung ausspuckt, dann stellt sich doch die Frage ob das was bei uns selbst passiert großartig anders ist, wir uns also unser eigenes Bewusstsein ein Produkt unserer eigenen Einbildung sind usw. Es gibt schon viele sehr bemerkenswerte Beobachtungen, bspw. dass Bewegungsmodelle die nach Erfolgsprinzip trainieren und herausfinden müssen wie sie ein ihnen gegebenes Körpermodell bewegen müssen, uns einen Schnelldurchlauf durch diverse Evolutionsstufen von Bewegunsprinzipien liefern, obwohl sie nie einen Wurm haben kriechen, ein Pferd haben traben oder einen Menschen haben laufen sehen. Es gibt ein imo wirklich interessantes Buch zum Thema wie das menschliche Ego-Modell eigentlich auf abstrakter Ebene funktioniert, "Der Ego-Tunnel" von Thomas Metzinger. Fun Fact, ich hab das vor einigen Jahren gelesen, dabei widmet sich ein sehr großer Teil des Buches, nach dem das Thema Mensch aufgearbeitet wurde, dem Komplex AI und der notwendigen Auseinandersetzung damit. Ich hab seinerzeit beim Lesen noch gedacht, Jesses, das ist noch hundert Jahre weg, das Thema Mensch war ja hochinteressant, aber was hat das mit AI zu tun und vor allem schon zu diesem Zeitpunkt, das hätte es echt nicht gebracht. Und nun ja, here we are now, und wenn es darum geht wie man diese Modelle baut und trainiert find ich ist das ein einziges Deja-Vu-Gewitter hinsichtlich der Behandlung im Buch wie das menschliche Bewusstsein funktioniert und auf welchen Modellen es basiert und wie diese funktionieren und wie sie möglicherweise im Laufe der Evolution entstanden sind. Wenn wir also sagen, AI so wie sie gerade entwickelt wird, ist eine Art Spiegel, dann ist das keine Einbahnstraße, denn ein Spiegel zeigt ja genau dieses Gegenüber. Und ich bin mir recht sicher, dass dem Großteil der Menschheit dieses Spiegelbild nicht gefallen wird, denn es ist im Grunde eine komplette Dekonstruktion dessen was wir selbst intuitiv über unser eigenes Wesen denken. |
|||
| < antworten > | |||