Haben Sie zu Beginn Ihrer Karriere gelernt, „einen Computer zu bedienen“? Oder haben Sie das als Digital Native schon in der Vorpubertät absolviert? Sprachlich haben wir jedenfalls die Tatsachen schon immer zurechtgerückt: wir bedienen den Computer, nicht umgekehrt. Computer bedienen uns nicht, sie dienen uns höchstens – vorausgesetzt, wir verhalten uns entsprechend.
Es ist frappierend, dass sich das gleiche Phänomen nun im Umgang mit Künstlicher Intelligenz zu wiederholen scheint. Es ist an uns zu lernen, wie wir dem Chatbot mit seinen Billionen Sprachparametern unsere Anforderungen und Wünsche vermitteln. Das geschieht über das sogenannte Prompt, die Eingabezeile, in der Befehle in natürlicher Sprache erfasst und dann vom KI-System interpretiert werden. Das Prompt kennen wir allerdings schon aus den Anfängen der „elektronischen Datenverarbeitung“, als ebenfalls über ein Prompt, Befehle in einem äußerst eingeschränkten Sprachumfang gegeben werden mussten. Viel geändert hat sich also nicht.
Oder doch? Aktuelle Studien zeigen jetzt, dass Chatbots wie ChatGPT offensichtlich sehr empfindlich auf den Tonfall reagieren, in dem die Prompts formuliert werden. Höflichkeitsfloskeln wie „Bitte“, „Danke“ oder auch „Die Antwort wäre sehr wichtig für meine Karriere“ werden offensichtlich von den Sprachmodellen goutiert, während unhöfliche oder gar politisch inkorrekte Formulierungen geradezu Unwillen hervorrufen. Kann das denn wahr sein?
Es kann. Die Ursache liegt keinesfalls darin, dass Chatbots einen Charakter oder gar Bewusstsein entwickeln, sondern im üblichen Sprachgebrauch in den Texten, die den Sprachmodellen zugrunde liegen. Gerade im angloamerikanischen Sprachraum sind Höflichkeitsfloskeln deutlich weiter verbreitet als im germanischen oder romanischen Sprachumfeld. Selbst vorsichtige Kritik wird dort mit einem „bei allem Respekt“ eingeleitet. Es wäre einen Versuch wert, dem nächsten Prompt ein achtungsvolles „Sir“ anzuhängen.
Es ist nur ein Beispiel für die Richtigkeit der sehr pauschalen Aussage, KI werde unsere Arbeitswelt grundlegend verändern. KI revolutioniert unsere Arbeitswelt, indem sie eben nicht einfach nur binär funktioniert (obwohl sie immer noch auf einem binären System aufsetzt), sondern Nuancen und Varianten zulässt. Das ist sicher eine Herausforderung für so manchen gestandenen Ingenieur, der eindeutige und vor allem wiederholbare Ergebnisse erwartet. Es ist auch einer der Gründe, warum mittelständische Unternehmer vor dem KI-Einsatz zurückschrecken. Sie spüren, dass mit KI-Systemen eine andere Firmenkultur Einzug hält.
KI-Innovation ist anders als die grüne Energiewende. Hier kann man berechnen, welche CO2-Einsparungen sich ergeben, wenn diese oder jene Maßnahmen im Unternehmen eingeleitet werden. Bei KI-Systemen weiß man das nicht. Doch wer die Wahl hat zwischen einem gewissen Ertrag und einem ungewissen, wird die Sicherheit wählen. Das gilt erst recht, wenn der Mittelstand angesichts knapper Ressourcen und Kassen jeden Euro nur einmal ausgeben kann. Die Begeisterung für die grüne Revolution im Unternehmen geht derzeit nach guten Anfängen wieder zurück. Die Euphorie für KI im Unternehmen kommt im Mittelstand gar nicht erst in die Gänge.
Hinzu kommt, dass die Prognosen über die Auswirkungen von KI im Unternehmen alles andere als konkret sind. Die Erwartung, dass Mitarbeiter von unnötigen Bürokratieaufwänden und Routinearbeit entlastet werden, klingt viel zu unkonkret, um einen Einstieg zu wagen. Die Vermutung, dass sich Mitarbeiter in der Folge kreativeren und damit wertschöpfenden Tätigkeiten zuwenden können, ist ebenfalls äußerst spekulativ.
Gleichzeitig zeigt sich aber, wie die Schere im Wettlauf um unsere KI-Zukunft immer weiter auseinander geht. Während im deutschen Mittelstand KI-Engagements mit kleinem Budget favorisiert werden, sind es die milliardenschweren Investitionen der Weltkonzerne, die das Innovationstempo in Sachen Künstliche Intelligenz weiter hoch halten. So hat Microsoft nicht nur innerhalb von zwei Jahren zehn Milliarden Dollar an echtem Geld in das Startup OpenAI investiert, sondern zusätzlich weitere drei Milliarden Dollar an Sachdienstleistungen wie Cloud-Services eingebracht.
Jetzt will Open AI in der kommenden Finanzierungsrunde eine Marktbewertung von 150 Milliarden Dollar erreichen und hofft dabei auf Engagements von Apple und dem Chip-Hersteller Nvidia. Auch Meta wird als möglicher Investor genannt, während gleichzeitig Google seine Milliarden aus den Suchmaschinen- und Werbeerlösen in die eigene KI-Entwicklung steckt.
Benötigt wird das Geld, weil die nächsten Sprachmodelle über ein Vielfaches an Parametern der bisherigen Sprachmodelle verfügen sollen und ihr Training Unsummen verschlingt. Denn dabei sind wir wieder im Prompt gefangen und „bedienen“ ein System, das uns umgekehrt beibringt, wie wir mit ihm, dem unbekannten Wesen, umzugehen haben. Ist es ein Wunder, wenn der Mittelstand sich dabei überfordert fühlt?