Ziemlich beste Freunde?
19.10.2023
Foto: © STBSTD - stock.adobe.com
Ist ein Chatbot nun tatsächlich die Killer-Applikation, auf die alle gewartet haben? The Next Big Thing seit der allumfassenden Digitalisierung von Wirtschaft, Gesellschaft und Kultur? Die Verwirklichung des ewigen Menschheitstraums von der gesteuerten künstlichen Intelligenz, die den Durchschnittsnutzer demokratisiert und das Unternehmen effizienter, kreativer und strategischer agieren lässt? Oder ist ChatGPT der Beginn eines trügerischen Informations-Automatismus?
Künstliche Intelligenz (KI), beziehungsweise Artificial Intelligence (AI), gilt offiziell als Begriff seit dem Jahr 1955. Zwar hat die Idee von menschenartigen Robotern oder intelligenten Maschinenwesen schon immer die Fantasie von Wissenschaftlern, Technikern und Kreativen beflügelt, doch ein bescheidenes Forschungsvorhaben am Carnegie Institute of Technology sollte den Startschuss der modernen KI-Technologie markieren. Rund 70 Jahre später wird die Leistungsfähigkeit der KI-Entwicklung vor allem durch Sprachmodelle definiert – und populär gemacht. OpenAI, das Unternehmen hinter ChatGPT, wurde 2015 gegründet, das erste Sprachmodell mit dem Namen GPT-1 stammt aus dem Jahr 2018. Die endgültige Version wurde im Juni 2020 freigegeben und war erstmals in der Lage, unterschiedliche Aufgaben zu erledigen: Verfassen von Texten und E-Mails, Übersetzungen, Erstellung von Programmiercodes sowie frei formulierte Fragen von Nutzern zu beantworten. Die Popularität von KI-Systemen wie ChatGPT, Jasper, Neuroflash & Co. wächst rasant. Schon seit geraumer Zeit befasst sich die Fachwelt intensiv mit den potenziellen Einsatzbereichen Künstlicher Intelligenz bzw. KI in Online-Marketing und E-Commerce. Längst hat die Technologie in diesen Bereichen Fuß gefasst – unter anderem in Form von Chat- und Voicebots, die den direkten, persönlichen Austausch zwischen Anbietern und Kunden in automatisierte Kommunikation überführen.
Eine Frage der Kommunikation
Laut der W3B-Studie von Fittkau & Maaß Consulting entstehen entscheidende Vorteile: Viele befragte Unternehmen versprechen sich langfristige Kosteneinsparungen, etwa durch den Wegfall von Personal im Kundenservice-Bereich. Aber auch Vorzüge auf Endverbraucher-Seite werden genannt, z. B. dass deren Anliegen schneller und gezielter beantwortet werden können. Dies soll die Qualität der Kundenkommunikation verbessern und daher auch den Interessen der Endverbraucher zugutekommen. Immer vorausgesetzt, die Technologie funktioniert und die KI hält, was sie verspricht: intelligentes, fortwährendes Lernen und Verbessern. Also alles im Lot auf dem Chatbot? Wohl kaum. Immer mehr Branchen-Stimmen warnen vor dem allzu unbekümmerten Umgang mit KI und ChatGPT. So erklärt Bildungs- und Beratungsexperte Bernhard Kuntz, Geschäftsführer und Inhaber von Die PRofilBerater GmbH, in einem Beitrag für finanzwelt, dass ChatGPT nicht „out of the Box“ denken kann. Die Beraterszene habe den Nutzen der Chat-Programme für sich erkannt – „zu Recht, denn mit ihnen lassen sich sehr schnell und einfach zumindest erste Entwürfe solcher Werbetexte wie Blogbeiträge, Werbeschreiben oder Posts für Social Media generieren, die man dann weiterbearbeiten kann“. Doch zuweilen treibe die ChatGPT-Nutzung seltsame Blüten, beispielsweise weil „Berater zu einem neuen Produkt Kernbotschaften und die inhaltliche Stoßrichtung formulieren sollen und dann Texte liefern, die erkennbar von ChatGPT erstellt wurden.“
Auch Peter Schreiber, Inhaber der B2B-Vertriebs- und Managementberatung Peter Schreiber & Partner, warnt, dass Chatprogramme (noch) nicht selbstständig und eigeninitiativ denken können. „Sie brauchen den von Menschen gegebenen Impuls bzw. Prompt genannten Auftrag ‚Suche nach…‘ und ‚Generiere daraus…‘. Und die Qualität der von ihnen gelieferten Ergebnisse (Texte, Bilder, Zeichnungen, Videos usw.) hängt weitgehend von der Qualität der Prompts ab – also von der Intelligenz und Kompetenz ihrer menschlichen User. „Doch selbst dann können die Programme letztlich nur die Inhalte verarbeiten und in mehr oder minder effektiver Form wiedergeben, die sich schon im Netz befinden“, so Peter Schreiber weiter. „Herumspinnen und träumen, fantasieren und ganz neue Ideen sowie Lösungsansätze entwickeln, das können die rein logisch denkenden Programme (noch) nicht. Das ist noch ein Privileg von uns Menschen.“
Fragt man einmal ChatGPT selbst nach potenziellen Gefahren, so bekommt man sehr spannende Antworten:
Fehlinformationen: ChatGPT kann aufgrund der Art und Weise, wie es trainiert wurde, falsche oder irreführende Informationen liefern.
Voreingenommenheit: ChatGPT kann voreingenommene oder diskriminierende Antworten geben, da es auf den Daten basiert, mit denen es trainiert wurde.
Missbrauch: ChatGPT kann von Menschen missbraucht werden, um schädliche oder betrügerische Aktivitäten durchzuführen.
Manipulation: ChatGPT kann von Menschen manipuliert werden, um unerwünschte oder gefährliche Inhalte zu generieren.
Abhängigkeit: Es besteht die Gefahr, dass Menschen zu stark von ChatGPT abhängig werden und ihre Fähigkeit zur kritischen Denkweise oder zur eigenständigen Problemlösung verringern.
Berater sollten, so die Empfehlungen aus der Branche, ChatGPT für Analysen nutzen, für die Recherche von Markttrends, Erstellung von Geschäftsplänen und die Durchleuchtung der Wettbewerber. Es lassen sich SWOT-Analysen (Stärken, Schwächen, Chancen, Risiken) des eigenen Unternehmens oder eines Konkurrenten durchführen oder detailliertere Angaben zu einer bestimmten Schwachstelle. ChatGPT kann auch dazu verwendet werden, Personas zu erstellen und ein klares Verständnis darüber zu erlangen, wer die Zielgruppe ist. Nur eines sollte ein Berater nicht: unreflektiert Texte, Mails oder Social-Media-Posts erzeugen und diese dann als eigene Leistung verkaufen. (sg)
Bernhard Kuntz
Geschäftsführer und Inhaber
Die PRofilBerater GmbH