| Thema: |
|
||
| Autor: | KO | ||
| Datum: | 05.07.25 01:54 | ||
| Antwort auf: | Animationen: A & O von mat | ||
>Und nicht nur die Animationen der NPCs, auch die der Kamera. Dieser Bodycam-Shooter von dem mal Videos kursierten, hat da für mich Augen geöffnet, genauso wie das Video, wo eine deutsche S-Bahn-Station per Gaussian Splatting begehbar war. Wenn sich die Kamera bewegt wie in echt (Bodycam-Game-Vid), macht das bei okeher Grafik schon einiges aus auf dem Weg zum "Foto"-Realismus. Wenn dagegen (S-Bahn-Station / Gaussian Splatting) die Grafik perfekt ist, reicht die Videogame-artige Kamera für den Eindruck, dass alles nicht echt ist. Ja, das hat einen erstaunlichen Effekt erzeugt, der so lange angehalten bis die ersten Gegner erschienen sind ;) >Und die NPCs, naja. Bis das mal halbwegs realistisch aussieht... So lange die NPCs und ihre Gliedmaßen (in der normalen Laufanimation) nicht wirklich in der Physik-Engine auftauchen, sondern die Entität "NPC" auf ihrem Pfad durch die Welt gleitet und die Animationen sich so gut wie möglich daran anpassen, werden NPCs immer so weird aussehen, dass ich noch nicht mal vom Uncanny Valley sprechen möchte. Denn da ist der Grundgedanke, dass etwas fast echt aussieht, der winzige Unterschied aber den Uncanny-Valley-Effekt erzeugt - und die NPCs sehen durch die Animationen halt alles andere als "fast realistisch" und halt wie... NPCs aus. >Anstelle dessen müsste der Agent seine Gliedmaßen bewegen um Kräfte auf seine Umgebung auszuwirken, die wiederum auf ihn selbst zurückwirken und die Bewegung im Raum erzeugen. Da müssten vermutlich hochkomplexe Verfahren aus der Robotik her, die man ggf noch erweitern müsste, um den körperlichen Eigenschaften und evtl kleinen Zipperleins des NPCs Rechnung zu tragen. Oder KI-Modelle, eins für jeden NPC. Mit der Welt/Umgebung und der "Absicht" des NPCs als Input und den Muskelkontraktionen als Output. Das seh ich alles noch nicht so. Ja, etwas in der Richtung könnte auch klappen, also das der Körper physik basierend ist und jeder Fußgänger direkt auf die Umgebung reagiert. Technisch evtl. schon machbar aber vermutlich zu teuer für Massen an Fußgängern. Vielleicht würde es aber auch schon reichen wenn es eine vorgefertige Lauf Animation ist, diese aber sehr lang ist, also über hunderte Meter geht, ggfs. motion gecaptured und es nicht nur einen Bewegungsablauf gibt der sich ständig wiederholt bis der Fuß an der gleichen Stelle ist. Da wäre die Idee das die KI sowas durch genug solcher Walking Videos selbst lernt und dann auf die Fußgänger im Spiel übertragen kann und weiß in welcher Umgebung wo welche Animation abgespielt wird. Wie kompliziert sowas zu machen wäre, keine Ahnung :) Wenns abgesehen davon noch zuviele Bugs und Probleme mit dem Spiel selbst gibt konzentriert man sich darauf. Ich bin mal gespannt wie gut sie das in GTA VI hinbekommen haben. |
|||
| < antworten > | |||