Die Kosten explodieren nur deswegen so, weil große Technologiekonzerne der Meinung sind, das Zeug überall einbauen zu müssen, und ein paar Billionäre die irrige Annahme haben, auf dem bisherigen weg so etwas wie eine Generelle Künstliche Intelligenz zu bekommen. Das hat herzlich wenig damit zu tun, was Privatanwender in Ihrer Freizeit damit machen - für die muss man keine neuen Datenzentren bauen, da reichen die bisherigen auch aus.
Für Vielnutzer im Semiprofessionellen Bereich würde es ausreichen, wenn Grafikkartenhersteller beim Videospeicher weniger knausrig wären und in der nächsten Generation mal 32GB verbauen statt 16, aber damit kann man nicht so schön Kohle machen wie wenn OpenAI und Co. alles aufkauft.
Edit: Darum bin ich auch dagegen, Privatnutzern die Verwendung von generativen Sprach/Bildmodellen die Verwendung derselben madig zu machen; was die tun, ist von der Größenordnung her vollkommen irrelevant für das was da momentan abläuft. Alles was der durchschnittliche Benutzer macht läuft auf einer handelsüblichen Grafikkarte genauso.
Wenn die Herrn Billionäre mal endlich draufkommen, dass GKI noch ein paar andere Qualitäten benötigt, von denen wir noch weit entfernt sind, werden Betriebe, die auf das Auslöten von Speicherbausteinen und Grafikprozessoren aus Bedienerhartwaren spezialisiert sind, ziemlich gut dastehen.
Das Modell sind einmalige Kosten und keine laufenden. Wenn das Modell längerfristig in Verwendung bleibt, relativieren sich die Kosten.
Ich bin so 🤏 kurz davor, dich für KI-Kosten-Relativierung anzuzeigen.
Die Kosten explodieren nur deswegen so, weil große Technologiekonzerne der Meinung sind, das Zeug überall einbauen zu müssen, und ein paar Billionäre die irrige Annahme haben, auf dem bisherigen weg so etwas wie eine Generelle Künstliche Intelligenz zu bekommen. Das hat herzlich wenig damit zu tun, was Privatanwender in Ihrer Freizeit damit machen - für die muss man keine neuen Datenzentren bauen, da reichen die bisherigen auch aus.
Für Vielnutzer im Semiprofessionellen Bereich würde es ausreichen, wenn Grafikkartenhersteller beim Videospeicher weniger knausrig wären und in der nächsten Generation mal 32GB verbauen statt 16, aber damit kann man nicht so schön Kohle machen wie wenn OpenAI und Co. alles aufkauft.
Edit: Darum bin ich auch dagegen, Privatnutzern die Verwendung von generativen Sprach/Bildmodellen die Verwendung derselben madig zu machen; was die tun, ist von der Größenordnung her vollkommen irrelevant für das was da momentan abläuft. Alles was der durchschnittliche Benutzer macht läuft auf einer handelsüblichen Grafikkarte genauso.
Wenn die Herrn Billionäre mal endlich draufkommen, dass GKI noch ein paar andere Qualitäten benötigt, von denen wir noch weit entfernt sind, werden Betriebe, die auf das Auslöten von Speicherbausteinen und Grafikprozessoren aus Bedienerhartwaren spezialisiert sind, ziemlich gut dastehen.