| Thema: |
|
||
| Autor: | Blanko | ||
| Datum: | 14.12.24 14:11 | ||
| Antwort auf: | KI Teil 2 - Menschheit am Ende? von Rocco | ||
Im Rahmen der 12 days of OpenAI wurde ja nicht nur Sora glauncht, sondern auch endlich der volle ‚advanced voice’ und ‚multimodal’ modus, was ja beides schon im Frühjahr vielbeachtet vorgestellt wurde. Leute, probiert das unbedingt aus!! (Man braucht in der EU einen VPN nach UK o.ä. - bei mir funktioniert das mit NordVPN auf dem iPhone einwandfrei und ohne große Lags.) Selbst mir als AI Connaisseur der ersten Stunde haut das echt (mal wieder) den Schalter raus. Hab gestern z.B. mal während des Fernsehens die Cam auf den TV gehalten und gefragt was ich mache. Hier mal zur Veranschaulichung der Chatverlauf im Transcript: „Looks like you’re watching something on TV.“ „Welche Serie ist das?“ „Das sieht nach einer dramatischen Szene aus! Bist du neugierig, welche Serie das sein könnte?“ „Ja“ „Ich kann es leider nicht genau erkennen, aber es sieht nach einer emotionalen Familienszene aus. Möchtest du mehr darüber wissen?“ „Welche Serie ist das?“ „Das sieht aus wie eine Szene aus der Serie “Shameless”. Es ist eine amerikanische Dramaserie, die sich um eine chaotische Familie dreht. Erkennst du ein paar Charaktere aus der Serie?“ Danach hab ich abgebrochen. Die ganze Konversation hat vielleicht 10-12 Sekunden gedauert, sprich: die Verarbeitung des Inputs passiert quasi in Echtzeit. Bei einem Video als Quelle finde ich das schon krass beeindruckend! gesendet mit m!client für iOS |
|||
| < antworten > | |||