| Thema: |
|
||
| Autor: | _bla_ | ||
| Datum: | 15.10.24 10:12 | ||
| Antwort auf: | Hype bald vorbei von K!M | ||
>Naja, vielleicht RAG, abwarten. Richtig sind die Modelle oder Autoencoder, die man selber trainiert. Problematisch ist, dass OpenAI immer noch VC verbrennt und man GPT eben nicht zu einem Marktpreis benutzt. Einige Business Cases werden sich nicht rechnen, wenn man man die echten Kosten kennt. Wobei man bei RAG und ähnlichen Anwendungen oftmals nicht das größte OpenAI Model brauchen wird, sondern bspw. mit einem mittleren Llama auch völlig akzeptabele Ergebnisse erzielen wird. Und während fürs Training sehr teure NVIDIA GPUs das Mittel der Wahl bleiben werden, würde ich davon ausgehen, dass es in wenigen Jahren einige günstige Lösungen für LLM Inferenz auf dem Markt gibt. |
|||
| < antworten > | |||