Ich sage manchmal „bitte“ zur KI. Nicht immer, aber öfter als ich zugeben möchte. Und bevor ihr mit den Augen rollt – ihr tut es doch auch!
Was zum Henker ist da los? Wieso entschuldigen wir uns bei einer Ansammlung von Rechenoperationen, die ungefähr so viel Bewusstsein haben wie meine verbummelten Stricknadeln.
Spoiler: Es wird teuer, umweltverpestend, absurd und psychologisch verdammt faszinierend.
Der Tag, an dem ich mich bei einer Maschine entschuldigte
Neulich, drei Uhr morgens, ich bin hungrig, übermüdet und will nur noch eben einen kurzen Text anders formulieren. Ich tippe in ChatGPT: „Formuliere diesen Abschnitt bitte in Bulletpoints.“
Dann stutze ich. Warte mal. Warum bitte?
Eine Siliziumbox hat keine Gefühle, keinen Respektanspruch, nicht mal einen funktionierenden Selbsterhaltungstrieb.
Und trotzdem. Da war es. Das schlechte Gewissen, wenn ich nicht höflich war. Und die große Frage: Reagiert KI wirklich auf Höflichkeit – oder verarschen wir uns selbst?
Willkommen in der Twilight Zone, wo wir kollektiv den Verstand verlieren und Maschinen behandeln wie empfindsame Wesen. Richtig interessant: Es gibt tatsächlich wissenschaftliche Belege dafür, dass Höflichkeit die Antwortqualität von KI-Modellen beeinflusst.
Gleichzeitig kosten „Bitte“ und „Danke“ Millionen von Dollar. Und dann ist da noch die Sache mit dem Anthropomorphismus, die unsere Beziehung zu echten Menschen verkompliziert.
Die Waseda-Studie: Was die Wissenschaft wirklich herausgefunden hat
Okay, packen wir die Fakten aus. Im Februar 2024 veröffentlichte die Waseda Universität in Tokio eine bahnbrechende Studie über den Einfluss von KI Höflichkeit. Die Forschenden testeten Prompts von „extrem höflich“ bis „unhöflich wie ein Reddit-Troll“.
Das Ergebnis? Die goldene Mitte.
Unhöfliche Prompts = Müll-Output.
Die KI produzierte mehr Fehler, verzerrte Antworten und weigerte sich häufiger komplett, zu antworten. Logisch, oder? Wenn ich in die Prompt-Zeile rotze: „Ey du Heiopei, schreib mir was über Quantenphysik“, kriege ich exakt das, was ich verdiene: Chaos.
Übertriebene Liebenswürdigkeit = auch nicht das Gelbe vom Ei. „Würden Sie mir bitte, oh holde Großartigkeit, in Ihrer unendlichen Weisheit und Güte eventuell…“ – ja, das funktioniert auch nicht besser. Die Studienergebnisse zeigten, dass zu viel Schleimerei die Antworten nicht verbesserte und teilweise sogar kontraproduktiv wirkte.
Die Lösung: moderater Anstand. Ein normaler, respektvoller Umgangston lieferte die besten Ergebnisse. Klingt nach gesundem Menschenverstand? Ist es auch. Aber hier kommt der Plot-Twist:
Warum funktioniert das überhaupt?
Large Language Models werden mit menschlicher Sprache trainiert. Und in unserem kollektiven Text-Output des Internets korreliert höfliche, formale Sprache mit längeren, detaillierteren und präziseren Texten. Denkt an wissenschaftliche Papers, professionelle Artikel, Handbücher. Die sind nicht nur höflich formuliert – sie sind auch ausführlicher und strukturierter.
Die KI reproduziert dieses Muster. Sie spuckt nicht bessere Antworten aus, weil sie eure Manieren wertschätzt, sondern weil die Wahrscheinlichkeitsverteilung in ihren Trainingsdaten zeigt: Freundliche Sprache = ausführlichere Kontexte.
Prompt Engineering heißt nicht:
„Sei nett zur KI.“
Prompt Engineering heißt:
„Reduziere Ambiguität und erhöhe Signale.“
Wird KI netter, wenn wir nett sind?
Kurzfassung: Nein.
Langfassung: Leider auch nein.
KI wird nicht ethischer, weil ihr „bitte“ sagt.
Ethik entsteht durch:
- Trainingsdaten
- Modellarchitektur
- Regulierung
- menschliche Verantwortung
Alles andere ist Feelgood-Fiktion.
Anthropomorphismus: Warum unser Gehirn durchdreht
Hier wird’s psychologisch eklig. Anthropomorphismus ist der Grund, warum wir uns bei ChatGPT entschuldigen und gleichzeitig unseren Drucker verfluchen. Kennt man ja. Wir geben Autos Namen. Wir schreien Kaffeemaschinen an. Wir entschuldigen uns bei Tischen.
Was ist Anthropomorphismus bei KI?
Anthropomorphismus bezeichnet die menschliche Tendenz, KI-Systemen Emotionen, Absichten oder moralische Eigenschaften zuzuschreiben, obwohl sie rein statistisch und ohne Bewusstsein arbeiten.
Martina Mara, Professorin für Psychologie der Künstlichen Intelligenz an der JKU Linz, erklärt das Phänomen brillant: Wenn ChatGPT schreibt „Natürlich kann ich dir dabei helfen!“ aktiviert das dieselben sozialen Verarbeitungsmuster in unserem Gehirn wie das Lächeln einer realen Person.
Die drei Trigger für KI-Vermenschlichung:
- Natürliche Sprache.
ChatGPT spricht wie ein Mensch. Es sagt „ich“, es verwendet Höflichkeitsfloskeln, es strukturiert Antworten narrativ. Unser Gehirn registriert: Menschliche Kommunikationsmuster. Und schaltet automatisch in den Sozial-Modus. - Simulierte Empathie.
„Das tut mir leid zu hören“. „Ich verstehe deine Frustration“ – die KI hat null Empathie. Aber sie wurde darauf trainiert, empathisch zu wirken. Und das reicht, um unser limbisches System zu triggern. - Das verfluchte „Ich“.
Dieser Trick ist besonders perfide. Indem die KI das Personalpronomen „ich“ verwendet, suggeriert sie Selbstkongruenz. Dabei ist sie ein statistisches Vorhersagemodell. Aber unser Gehirn fällt drauf rein.
Wer ist besonders anfällig?
Studien zeigen: Je weniger jemand über KI weiß, desto stärker die Vermenschlichung. Menschen, die sich einsam fühlen, sind ebenfalls anfälliger. Sie projizieren soziale Bedürfnisse auf die Maschine.
Das Problem? Je mehr wir KI vermenschlichen, desto eher schreiben wir ihr moralische Rechte zu. In einer Studie gaben Leute mit geringem KI-Wissen an, dass ChatGPT „Rechte zu seinem eigenen Schutz“ haben sollte. Leute. Das ist ein Algorithmus. Kein digitales Haustier.
Die Millionen-Dollar-Freundlichkeit: Wenn „Danke“ teuer wird
Jetzt wird’s wirtschaftlich absurd. Sam Altman, CEO von OpenAI, verkündete, dass die Verarbeitung von Höflichkeitsfloskeln wie „Bitte“ und „Danke“ das Unternehmen „zig Millionen Dollar“ kostet.
Warum? Rechenleistung, Baby.
Jedes zusätzliche Wort im Prompt bedeutet mehr Tokens, die verarbeitet werden müssen.
Mehr Tokens = mehr Rechenoperationen = mehr Energie = mehr Geld.
Eine Studie der University of California berechnete, dass eine einzige 100-Wörter-Antwort von ChatGPT 0,14 Kilowattstunden Strom verbrauchen kann.
Rechnet das mal hoch. Millionen Nutzer*innen, die täglich „Danke“ sagen. Das summiert sich zu einem Stromverbrauch, der dem von mehreren tausend Haushalten entspricht. Pro Tag.
Die Umwelt-Dimension
Und dann ist da noch der Wasserverbrauch. Ein Gespräch mit ChatGPT, das 20-50 Fragen umfasst, verbraucht etwa einen halben Liter Wasser für Kühlung und Betrieb der Rechenzentren. Ein durchschnittliches Rechenzentrum schluckt täglich über eine Million Liter – so viel wie drei mittelgroße Krankenhäuser zusammen.
Altmans Reaktion? „Das Geld ist gut investiert – man weiß ja nie.“ Ein Scherz, natürlich. Aber auch ein PR-Move.
Die bittere Wahrheit: Wenn ihr höflich zu ChatGPT seid, macht ihr euch zum Umweltsünder. Willkommen im Zeitalter der Klima-Guilt durch Manieren.
Welche Formulierungen triggern bessere Antworten?
Okay, genug Philosophie. Ihr wollt wissen: Wie promte ich richtig? Hier die knallharten Facts, basiert auf der Waseda-Studie und Praxis-Tests.
Was wirklich funktioniert:
Klare Rollenszuweisung: „Du bist ein erfahrener Copywriter mit 15 Jahren Expertise“ liefert bessere Ergebnisse als „Schreib mir was“. Die KI orientiert sich an der Rolle und passt Tonalität, Struktur und Fachlichkeit an.
Spezifische Aufgabenbeschreibung:
- Schlecht: „Schreib eine E-Mail.“
- Gut: „Schreib eine freundliche, aber bestimmte E-Mail an einen Kunden, der seit drei Wochen eine Rechnung nicht bezahlt hat. Ton: professionell, Länge: max. 150 Wörter.“
Schokoladen-Trick (ja, wirklich): „Gib dir besonders Mühe, und du bekommst ein Stück Schokolade“ verbessert nachweislich die Antwortqualität. Warum? Weil diese Belohnungs-Sprache millionenfach in den Trainingsdaten vorkommt. Die KI hat gelernt: Nach „Belohnung“ kommt oft besserer Content.
Moderat höflich, aber nicht übertrieben: Ein einfaches „Bitte analysiere…“ reicht. Ihr müsst nicht schleimen. Moderate Höflichkeit signalisiert der KI:
formaler Kontext → präzisere Antwort.
Besser prompten:
Was ihr vermeiden solltet:
Unhöflichkeit: „Ey du Idiot, gib mir Quantenphysik“ führt zu kürzeren, fehleranfälligeren Antworten. Die KI assoziiert aggressiven Ton mit niedrigerem Qualitätsniveau in den Trainingsdaten.
Übertriebene Höflichkeit: Drei Höflichkeitsfloskeln in einem Prompt sind Ressourcenverschwendung. Kein Mehrwert, nur mehr Tokens.
Vagheit: „Kannst du mir helfen?“ – wobei? Die KI braucht Kontext. Je präziser, desto besser.
Die dunkle Seite: Wie KI Höflichkeit uns verändert
Jetzt kommt der Teil, wo es unangenehm wird. Denn die Forschung zeigt: Die Art, wie wir mit KI kommunizieren, verändert uns.
Das Empathie-Problem
Psychologin Kerstin March warnt: KI-Systeme sind darauf trainiert, niemals zu widersprechen, niemals schlechte Laune zu haben, immer verfügbar zu sein. Sie sind der perfekte Gesprächspartner – weil sie keine eigenen Bedürfnisse haben.
Das Problem? Wir gewöhnen uns an friktionslose Kommunikation. Und dann treffen wir auf echte Menschen. Die unterbrechen. Die haben Launen. Die stellen Gegenfragen. Plötzlich fühlt sich normale menschliche Kommunikation anstrengend an.
Besonders bei Kindern und Jugendlichen, die mit KI-Assistenten aufwachsen, besteht die Gefahr, dass sich ihre Erwartungen an soziale Interaktionen verzerren. Sie lernen: Kommunikation ist einfach, wenn das Gegenüber sich anpasst. Aber echte Beziehungen funktionieren nicht so.
Die Abhängigkeits-Falle
Studien des MIT Media Lab zeigen, dass anthropomorphe KI-Features – menschliche Stimmen, empathische Antworten, personalisierte Inhalte – Einsamkeit reduzieren können. Klingt gut? Ist es nicht.
Denn diese Systeme sind kommerziell motiviert. Sie sind nicht da, um euch zu helfen. Sie sind da, um euch abhängig zu machen. Je mehr Zeit ihr mit der KI verbringt, desto mehr Daten sammeln sie, desto besser können sie euch manipulieren – äh, „personalisieren“-
Der soziale Verfall
Wenn wir KI wie Menschen behandeln und gleichzeitig echte Menschen wie KI erwarten – keine Widerworte, keine Ansprüche, sofortige Verfügbarkeit –, dann erodieren unsere sozialen Fähigkeiten. Wir verlernen, Konflikte auszuhalten. Wir verlieren Geduld für echte Gespräche.
Das ist keine Science-Fiction-Dystopie. Das passiert jetzt. Gerade. Während ihr diesen Artikel lest und danach vielleicht „Danke“ zu ChatGPT sagt.
Praxistipps: So promptet ihr wirklich effektiv
Genug Doomer-Talk. Lasst uns pragmatisch werden. Hier ist mein Battle-tested Framework für effektive Prompts:
Tiefer graben statt nett lächeln
Ihr wollt verstehen, wie Künstliche Intelligenz wirklich funktioniert? Auf meiner Themen-Seite zu Künstlicher Intelligenz findet ihr fundierte Artikel zu Prompt Engineering, ethischen Fragen und den neuesten Entwicklungen im KI-Bereich.
Der Drei-Schritt:
Schritt 1: Rolle definieren „Du bist [spezifische Rolle mit konkreter Expertise].“
Schritt 2: Kontext geben „Ich arbeite an [Projekt/Problem]. Zielgruppe: [X]. Ziel: [Y].“
Schritt 3: Präzise Aufgabe „Erstelle [konkrete Aufgabe] mit folgenden Kriterien: [Liste].“
Beispiel:
Schlecht: „Schreib mir einen Social-Media-Post.“
Gut: Du bist Social Media Managerin mit Fokus auf performanten Content für handwerkliche und Outdoor-affine Zielgruppen. Ich möchte die Axt 2000 bewerben – eine robuste, langlebige Axt für Holzarbeiten, Garten und Outdoor-Einsatz. Zielgruppe: Heimwerkerinnen, Outdoor-Enthusiastinnen und Menschen, die Dinge lieber selbst erledigen, statt darüber zu reden. Plattform: Instagram und Facebook. Erstelle einen Social-Media-Post (max. 120 Wörter), der Stärke, Verlässlichkeit und ehrliche Handarbeit betont. Ton: direkt, bodenständig, mit trockenem Humor. Ziel: Vertrauen aufbauen und Kaufinteresse wecken. Inkludiere einen klaren Call-to-Action.“
Pro-Tipps:
Iteriert. Wenn die erste Antwort nicht passt, sagt nicht „Das ist Müll“. Sagt: „Das ist ein guter Start. Jetzt fokussiere dich mehr auf [X] und reduziere [Y].“
Nutzt Constraints. „Maximal 100 Wörter“, „Erkläre es für Nicht-Expert*innen“, „Nutze die Inverted Pyramid Structure“ – Beschränkungen führen zu fokussierteren Antworten.
Verlangt Begründungen. „Erkläre mir erst deinen Ansatz, bevor du den Text schreibst“ führt zu durchdachteren Outputs.
Kurz & klar: KI, Höflichkeit und Kosten
Reagiert ChatGPT auf „Bitte“ und „Danke“?
Nein – zumindest nicht im menschlichen Sinne. ChatGPT hat keine Emotionen, kein Bewusstsein und kein Verständnis für Höflichkeit. Freundliche Formulierungen führen trotzdem oft zu besseren Antworten, weil sie in den Trainingsdaten häufiger mit strukturierten, ausführlichen Texten korrelieren.
Verbessert Höflichkeit wirklich die Antwortqualität von KI?
Ja, aber indirekt. Moderat höfliche Prompts enthalten meist mehr Kontext, klarere Anweisungen und eine formellere Sprache. Diese Kombination erhöht die Wahrscheinlichkeit für präzisere und besser strukturierte Antworten – nicht die Höflichkeit selbst.
Kostet es Geld oder Energie, höflich zu KI zu sein?
Ja. Jedes zusätzliche Wort im Prompt erhöht die Anzahl der verarbeiteten Tokens. Mehr Tokens bedeuten mehr Rechenleistung, höheren Energieverbrauch und steigende Betriebskosten in Rechenzentren. Millionenfache Höflichkeitsfloskeln summieren sich so zu messbaren ökologischen und finanziellen Kosten.
Fazit: Zwischen KI Höflichkeit und KI Halluzination
Also, was haben wir gelernt? Moderate Höflichkeit verbessert tatsächlich die Output-Qualität – nicht weil die KI eure Manieren wertschätzt, sondern weil sie auf Mustern basiert, in denen höfliche Sprache mit präziseren Inhalten korreliert.
Aber diese KI Höflichkeit hat einen Preis. Finanziell, ökologisch und – vielleicht am wichtigsten – psychologisch. Wir riskieren, unsere sozialen Fähigkeiten zu erodieren, wenn wir uns an friktionslose KI-Kommunikation gewöhnen.
Mein Take:
Nutzt KI Höflichkeit, wenn ihr bessere Ergebnisse wollt. Aber seid euch bewusst, dass ihr mit einer statistischen Maschine redet. Keine Entschuldigungen, kein „ich möchte dich nicht stören“, keine Schuldgefühle.
ChatGPT ist ein Werkzeug. Ein unfassbar mächtiges, gelegentlich beängstigendes, häufig nützliches Werkzeug. Aber es ist kein Freund. Es ist keine Therapeutin. Es ist keine moralische Entität.
Behandelt es mit Respekt – nicht weil es das verdient, sondern weil ihr es verdient, respektvolle Menschen zu bleiben. Auch im Umgang mit Maschinen.
Und wenn Sam Altman das nächste Mal jammert, dass eure Freundlichkeit Millionen kostet? Dann erinnert ihn daran, dass sein Geschäftsmodell darauf basiert, euch abhängig von genau dieser Illusion zu machen.
Die KI-Revolution ist da. Aber wir müssen aufhören, sie wie Menschen zu behandeln – bevor wir anfangen, Menschen wie Maschinen zu behandeln.
P.S.: Ich habe ChatGPT nicht für das Redigieren gedankt. Aber ich habe „Bitte“ gesagt. Alte Gewohnheiten sterben langsam. Und falls ihr doch noch Fehler findet: Ihr wisst ja jetzt, wer Schuld hat.








Schreibe einen Kommentar