Thema:
Re:Oh wow! Opferumkehr der unkritischen Fanboys... flat
Autor: token
Datum:11.03.25 11:30
Antwort auf:Re:Oh wow! Opferumkehr der unkritischen Fanboys... von thestraightedge

>Danke für die Einsichten.
>
>Ich glaube schon dass die Menschen Bock drauf haben; ich glaube aber auch dass es wie Du schreibst aktuell oft eher enttäusche Hoffnungen gibt und man vielleicht auch noch gar nicht so recht weiss, wo AI nun wirklich supporten wird. Der "Kaufanreiz" ist noch nicht konkret genug imo, und ich bekomme in meinem Umfeld aktuell eher ernüchterte Meinungen mit als dass man sagt "das wird alles ändern!". Es geht eher um "das braucht noch Zeit" und das ist auch ein wenig mein eigenes Fazit.
>
>Gerade mit Blick auf ein neues Gerät glaube ich eben, dass das Thema noch nicht so relevant ist wie manche meinen. iPhone 17 oder 18 werden sich mit oder ohne AI in unvernünftigen Mengen verkaufen.
>

Ich denke schon dass du einen tollen Hebel im Markt hast wenn du einen bemerkenswerten integrativen Durchbruch auf Kette kriegst. Und gerade Apple steht ja wie kaum ein anderes Unternehmen für Lösungen, von denen du nicht mal wusstest dass du sie wolltest, auf die du aber schon nach kurzer Nutzung nicht mehr verzichten magst. Hierbei ist es aber auch wichtig aus dem Stand zu überzeugen, sonst verliert sich auch das grundsätzliche Interesse.

>Vielleicht hat Wurzelgnom auch Recht: Apple kommt an die gleichen Grenzen wie andere Modelle und sagt: das ist nicht unser Anspruch! Und deshalb wird die nächsten Entwicklungsstufe abgewartet, bevor man AI Siri ausrollt, die den gleichen Crap erzählt wie viele andere im Moment.

Ich denke wie gesagt ist das Hauptproblem die Integrationen über mehrere Insellandschaften. Es ist eine Sache so ein Modell einfach nur irgendwas zu fragen. Da ist das alles trotz aller Halluzinationen schon wahnsinnig gut, das was schon heute schon geht war noch vor einigen Jahren Star-Trek-Sci-Fi.

Eine komplett andere Übung ist aber so ein Modell auch Dinge "tun" zu lassen.
Das Ding ist halt, sobald du so eine Modellinsel verlässt und anfängst diese Inseln zu verknüpfen, dann musst du das Modell implizit auch Dinge "tun" lassen, es geht nicht anders, das liegt in der Natur der Sache.

Aber wer passt darauf auf was dieses "Ding" da eigentlich macht, sobald es anfängt Telefonanrufe zu tätigen, Nachrichten zu schreiben und zu verschicken, Einträge zu editieren, Werkzeuge aufzurufen, deine Hausgeräte zu steuern, Dinge die Konsequenzen haben, Dinge die nicht der erste "Arbeitschritt" sind, sondern ggf. der zehnte Arbeitsschritt im vierten Tool.

Wie sehen die Kontrollmechanismen aus die darauf aufpassen was das Ding da eigentlich macht? Soll wenn du Siri ein Kommando gibst, bei jedem API-Aufruf der dafür erforderlich ist, eine Nachfrage beim User erfolgen, ob es das darf und das überhaupt das ist was er bestellt hat?

Imo veranschaulicht das autonome Fahren über maschinelles Lernen die Problematik und woran es hakt sehr gut. Zum einen FICKT die grundsätzliche Leistungsfähigkeit des trainierten Modells über Fahrerdaten eine über viele Jahre entwickelte klassische Programmierung in Grund und Boden. Das ist aus dem Stand fast in allen Dingen besser im Auto fahren als du oder ich. Aber schon beim Stoppschild siehst du das Problem. Es versteht nicht was es tut und warum. Es hat Praxisdaten, aber die dahinter stehende Theorie wird von so einem Modell ja nicht reflektiert. Und so verstößt es in seinem Verhalten schon gegen grundsätzliche Verkehrsregeln, wie am Stopp-Schild anzuhalten.

Dem begegnet man allem Anschein mit einem hybriden Verfahren. Du hast das angelernte Modell, aber du hast offenbar auch einen klassisch programmierten Aufpasser der in solchen Situationen wie ein Fahrlehrer eingreift. Das würde eben dieses Anhalten, Anfahren, und dann ruckartig wieder bremsen erklären. Es liegt auch auf der Hand, du kannst ja in ein trainiertes Modell nicht einfach nach belieben Eingreifen. Da ist ja kein Code, das ist einfach nur ein wirres Geflecht von dem du genauso gut weißt was es kann oder nicht kann wenn du drauf schaust, wie wenn du beim Betrachten eines Gehirns zu verstehen versuchst was es denkt und warum.

Und das ist die Krux. Einerseits beherrschen diese Modelle absurde Komplexitäten von denen man niemals gedacht hätte dass sowas geht, andererseits weißt du nur "warum" es funktioniert, hast aber nur sehr spärliche Kontrolle und Eingriffsmöglichkeiten darüber was es tut. Und wenn du Aufpasser mit klassischer Programmierung einflechtest, dann stehst du wieder auf Anfang, nämlich dass du dann mit Komplexitäten konfrontiert wirst, denen man mit klassischer Programmierung nicht mehr begegnen kann.

Einfaches Beispiel, ich sage dem AI-Unternehmensberater, ist ja alles schön und gut, aber mir fehlt die integrative Vernetzung über die Unternehmenslandschaft. Und der sagt, aber diese Brücken kannst du doch selber bauen. Du kannst etwas nehmen, es ins Modell schmeißen, es automatisiert prompten, und dann das Ergebnis nehmen und damit automatisiert etwas machen. Und dann sag ich halt, Nope. Mach ich nicht. Ich kann doch nicht eine Reihe an Berichten nehmen, einen Prompt bauen der das wie gewünscht zusammenfasst, und so ein Ergebnis automatisch an Interessenträger verschicken. Weil ich nicht weiß, ob das was ich im Test sehe, auch dann stabil bleibt, wenn sich Formate der Vorlagen ändern.

Weil ich nicht weiß, ob eine Änderung im Backend weil was neu trainiert wurde, morgen das gleiche macht, was es gestern gemacht hat. Und wenn die Infomail dann nicht die Zusammenfassung enthält, sondern ein "Fickt euch ihr Psychos", dann muss am Ende ich selbst dafür gerade stehen. Und was mir Prüfer zu solchen Lösungen wo gefragt wird, warum funktioniert das, warum ist das sicher, nicht mehr antworten kann, als keine Ahnung, und auf die Frage, wie passt du darauf auf dass nichts dummes passiert, nur entgegnen kann, kann ich nicht, alles müsste streng genommen von einem Menschen geprüft werden, um das zu bewerten, erzählen, darüber brauchen wir gar nicht erst anfangen. Dann kann ich mich erstmal wieder hinlegen und darauf warten dass die AI-Unternehmen dieses Problem lösen.

Und, ich spekuliere hier, aber ich glaub das ist halt aktuell das eigentliche Problem mit Sprachassistenten und AI, ist, Sprachassistenten machen halt in der echten Welt Dinge. Und wie kontrollierst du das, wie stellst du sicher dass du einem Modell einerseits diverse Dinge erlaubst, es aber keinen Quatsch macht. Bspw. im Urlaub nicht dein Garagentor zu öffnen wenn du es ein Uber rufen lässt?

Was da an die Interfaces geht ist ja derart komplex und uneinheitlich, dass der Aufpasser ja eigentlich ebenfalls nur von einer AI geleistet werden kann. Aber da beißt sich der Hund in den Schwanz. Und wenn ich den Funktionshaushalt aus Sicherheitsgründen zu stark verschränke, dann kann sich so ein Modell zwar im Gespräch eleganter ausdrücken, aber auch nicht mehr leisten als die alten Sprachassistenten. Das ist dann wieder automatisierte Sprachsteuerung mit besserem Ausdrucksmodell, aber eben nicht der persönliche kluge Assistent welcher den Durchbruch markiert.


< antworten >