Ein „Bitte“ hier, ein „Danke“ da - klingt harmlos, kostet aber richtig Geld. OpenAI hat laut einem Bericht Millionen ausgegeben, nur damit ChatGPT nicht wie ein Kühlschrank mit WLAN klingt, sondern wie jemand, der den Knigge gelesen hat.
Die Idee dahinter: Menschen sollen sich wohler fühlen, wenn die KI nicht nur antwortet, sondern auch reagiert wie ein höflicher Gesprächspartner. CEO Sam Altman findet das gut investiertes Geld - auch wenn die Server dabei ordentlich ins Schwitzen kommen. Denn selbst scheinbar simple Höflichkeitsfloskeln triggern auf KI-Seite komplexe Berechnungen und längere Antwortpfade. Und das frisst Rechenzeit - und damit Strom, Geld und vermutlich auch ein paar Bäume.
Man könnte sagen: Menschlichkeit kostet. Und zwar in diesem Fall nicht in Ethikseminaren, sondern auf der AWS-Rechnung. Dass OpenAI trotzdem daran festhält, ist fast schon sympathisch. Schließlich geht es hier nicht um echte Intelligenz, sondern um das Gefühl, mit einer zu sprechen.
Ob das langfristig sinnvoll ist oder irgendwann einfach durch ein „Ich bin ein Bot, spar dir den Smalltalk“ ersetzt wird, bleibt offen. Aber hey - wenn du das nächste Mal „Danke“ zu ChatGPT sagst, weißt du: Du hast gerade jemandem ein paar Cent Rechenkosten eingebrockt.
Kommentare (0)