Studie: Ein Viertel der Unternehmen hat keine Richtlinien für die Nutzung von generativer KI für Social-Media-Inhalte. Sie müssen einen Weg finden, um die Vorteile von GenAI zu nutzen und gleichzeitig negative Auswirkungen auf das Vertrauen der Verbraucher in ihre Marke zu vermeiden.
In diesem Artikel
- Die größten Vorteile von GenAI für Social-Media-Inhalte: Effizienz, Ideenfindung, Contentproduktion
- Risiken von GenAI: Zwei Drittel der Unternehmen befürchten, dass ihre GenAI-generierten Social-Media-Inhalte Falschinformationen verbreiten könnten
- 4 Schritte zur Steigerung des Vertrauens in die KI-Inhalte deines Unternehmens
- Aktiv werden und das Vertrauen in KI für Social-Media ausbauen
Der Aufstieg von KI-generierten Inhalten für Social-Media bringt viele Möglichkeiten für Kreativität, Innovation und Produktivität mit sich. Gleichzeitig gibt es bei Verbrauchern und Unternehmen Bedenken hinsichtlich der Risiken von KI-generierten Inhalten, wie zum Beispiel Voreingenommenheit (Bias), unethisches Vorgehen und Missbrauch. So sind 67 % der Arbeitnehmer besorgt, dass die von generativer KI (Englisch: Generative AI, GenAI) generierten Inhalte ihres Unternehmens in den sozialen Medien Fehlinformationen verbreiten könnten. Annahmen dieser Art können das Vertrauen von Verbrauchern in die Marke schwächen und den Ruf des Unternehmens negativ beeinflussen.
Da Vertrauen eine wesentliche Voraussetzung dafür ist, ihre Zielgruppe anzusprechen und zu binden, sollten sich Unternehmen, die KI im Social-Media-Marketing einsetzen und besorgt sind, wie sich dies auf ihr Markenimage und folglich das Vertrauen der Verbraucher auswirken kann, auf diese vier Prinzipien konzentrieren: Authentizität, Transparenz, Qualitätssicherung und Feedback.
Unternehmen müssen einen Weg finden, um von den vielen Vorteilen des Einsatzes von GenAI für Social-Media-Inhalte zu profitieren und gleichzeitig mögliche negative Auswirkungen auf das Vertrauen der Verbraucher in ihre Marke zu vermeiden. Dafür haben wir insgesamt 1.680 Beschäftigte aus elf Ländern zu den Vor- und Nachteilen von generativer KI für die Erstellung von Social-Media-Inhalten befragt. Die Studie gibt Unternehmen nicht nur einen Überblick darüber, wie andere Unternehmen generative KI einsetzen sowie welche Vorteile und Risiken sie mit der Technologie verbinden. Sie bietet darüber hinaus praktische Strategien, die dazu beitragen können, KI-generierte Inhalte glaubwürdiger und relevanter zu machen.
Der Artikel fokussiert sich auf die Antworten aller Studienteilnehmer. Die vollständige Methodik befindet sich am Ende des Artikels.*
Highlights der Studie:
- Ein vielversprechender Anfang: 49 % der Social-Media-Manager geben an, dass KI-generierte Inhalte besser abschneiden als Inhalte, die nur von Menschen erstellt werden
- Die Risiken bleiben: Trotz der vielversprechenden Ergebnisse sind 67 % besorgt, dass die GenAI-generierten Social-Media-Inhalte ihres Unternehmens Falschinformationen verbreiten könnten
- Richtlinien erforderlich: 26 % haben keine Richtlinien für die Nutzung von generativer KI in ihrem Unternehmen
- Transparenz kann helfen: 78 % kennzeichnen ihre KI-Inhalte auf Social-Media-Plattformen
Die größten Vorteile von GenAI für Social-Media-Inhalte: Effizienz, Ideenfindung, Contentproduktion
Die Entwicklungen im Bereich der generativen KI versprechen einen nie dagewesenen Boom an Produktivität und Kreativität bei der Erstellung von Inhalten.
Tatsächlich prognostiziert Gartner [1], dass mehr als 80 % der Unternehmen bis 2026 GenAI-fähige Anwendungen getestet oder eingesetzt haben - im Jahr 2023 waren es noch weniger als 5 %. Diese Vorhersage legt nahe, dass Unternehmen sich jetzt mit GenAI befassen sollten, um eine Führungsrolle in diesem Bereich zu übernehmen, anstatt der Konkurrenz hinterherzuhinken.
In unseren Ergebnissen lässt sich ebenfalls ein Aufwärtstrend für die Nutzung von GenAI feststellen: So planen Unternehmen weltweit bis 2026 durchschnittlich 48 % ihrer Social-Media-Inhalte auf generative KI (GenAI) umzustellen, im Vergleich zu 39 % im Jahr 2024.
Unsere Befragten sehen dabei einen klaren Nutzen in der Verwendung von generativer KI für ihre Social-Media-Marketing-Strategie. So sagen 49 %, dass von GenAI generierte Inhalte eine bessere Performance (z.B. Interaktion, Engagement) erzielen als nur von Menschen erstellte Inhalte.
Als größte Vorteile nennen die Befragten die gesteigerte Effizienz (38 %), leichtere Ideenfindung (34 %) und erhöhte Produktion von Inhalten (33 %). Der Fokus deutscher Unternehmen ist dagegen etwas anders gelagert. Während die Effizienzsteigerung mit 40 % ebenfalls an erster Stelle der Vorteile steht, folgen auf den Plätzen zwei und drei die erhöhte Kreativität (38 %) und reduzierte Kosten (36 %).
Darüber hinaus stimmen 24 % der Aussage voll und ganz zu, dass GenAI-Tools Menschen bei fortgeschrittenen Aufgaben in Marketingabteilungen ersetzen können und 33 % sind sogar davon überzeugt, dass in fünf Jahren alle Aufgaben im digitalen Marketing mit Unterstützung von GenAI-Tools erledigt werden.
Auf den ersten Blick scheint die Investition in generative KI für die Social-Media-Strategie ein No-Brainer zu sein. Aber wie jede neue Technologie hat auch GenAI eine Kehrseite der Medaille.
Risiken von GenAI: Zwei Drittel der Unternehmen befürchten, dass ihre GenAI-generierten Social-Media-Inhalte Falschinformationen verbreiten könnten
Unternehmen verfolgen bei der Contenterstellung normalerweise zwei Ziele: Leser anzuziehen und eine bestimmte Konversion zu erzielen (z.B. die Steigerung der Markenbekanntheit oder der Verkauf von Produkt/ eine Dienstleistung zu kaufen) sowie ihr Suchmaschinenranking zu verbessern.
Dabei kommen sie an Googles EEAT-Standard (Artikel in Englisch) [2] nicht vorbei. EEAT steht für „Experience, Expertise, Authoritativeness und Trustworthiness”, also Erfahrung, Expertise, Autorität und Vertrauenswürdigkeit. Anhand dieser Merkmale entscheidet Google über gute, rangfähige Inhalte. Um mit ihren Inhalten erfolgreich zu sein, sollten Unternehmen also darauf achten, originelle, qualitativ hochwertige Inhalte zu produzieren, die die Qualitäten von EEAT zeigen.
Eine der Gefahren von KI-generierten Inhalten besteht darin, dass sie nicht mit dem EEAT-Standard übereinstimmen. Das trifft insbesondere auf den Faktor Vertrauenswürdigkeit zu, denn wenn Inhalte fehlerbehaftet sind oder unter einem Bias erstellt wurden, sind sie nicht vertrauenswürdig.
Damit haben unsere Befragten weltweit bereits Erfahrungen gemacht. Als unbeabsichtigte Konsequenz bei der Nutzung von GenAI für die Inhaltserstellung haben schon 30 % erlebt, dass die KI unsinnige oder irrelevante Antworten generiert, 28 % berichten von inhaltlichen oder faktischen Fehlern, 24 % von fehlerhafter Kommunikation mit Kunden und 21 % fanden Bias/Voreingenommenheiten in den Ergebnissen.
Eine Lösung für die Eliminierung von Bias ist, KI-Modelle mit vielfältigen Datensätzen zu trainieren, um Verzerrungen und Bias zu vermeiden. Diese Strategie wird von 28 % der Unternehmen bereits umgesetzt.
Angesichts der erwähnten unbeabsichtigten Konsequenzen, die Unternehmen bereits erlebt haben, ist nachvollziehbar, dass 67 % besorgt sind, dass die GenAI-generierten Social-Media-Inhalte ihres Unternehmens Falschinformationen verbreiten könnten, die ihrem Unternehmen schaden. In Deutschland teilen immerhin 56 % der Unternehmen diese Sorge.
Die Verbreitung von Falschinformationen kann dazu führen, dass ein Unternehmen an Glaubwürdigkeit verliert, was wiederum seinem Ruf schadet. Vor diesem Hintergrund ist es nicht überraschend, dass 43 % der weltweit Befragten die Wahrung der Authentizität als größte Herausforderung bei der Integration von GenAI in ihre Social-Media-Marketing-Strategien sehen. Aber auch mit Bias oder fehlerbehafteten Inhalten umzugehen ist für 25 % eine der größten Herausforderungen.
Wie können Unternehmen vertrauenswürdige, mit künstlicher Intelligenz generierte Inhalte für ihre Social-Media erstellen, die ihre Zielgruppe ansprechen und überzeugen, statt Misstrauen zu erzeugen und dem Ruf der Marke zu schaden?
4 Schritte zur Steigerung des Vertrauens in die KI-Inhalte deines Unternehmens
Gartner zufolge [3] glauben 55 % der für die Markenreputation verantwortlichen Personen, dass GenAI ein erhebliches Risiko für ihr Unternehmen darstellen wird, doch nur 21 % der Unternehmen verfügen über eine ausführliche Anleitung, wie sie eine Nutzung vermeiden können, die ein Reputationsrisiko darstellt.
Unterstützung durch KI in Anspruch zu nehmen, muss nicht automatisch zu den oben genannten Nachteilen führen. Es lassen sich jedoch durchaus Praktiken identifizieren, mit denen Unternehmen die Risiken mindern können, die den Erfolg von KI-generierten Inhalten beeinträchtigen könnten.
1. Authentizität mit klaren Richtlinien aufrechterhalten: 26 % haben keine Guidelines für die Nutzung von GenAI
Ein Schlüsselfaktor zur Förderung des Vertrauens der Verbraucher in GenAI-Inhalte besteht darin, als Marke authentisch zu bleiben. Unternehmen sollten sicherstellen, dass die von der generativen KI erstellten Inhalte den ethischen Richtlinien und Werten des Unternehmens entsprechen. Die Inhalte sollten nicht irreführend oder manipulativ, sondern für den Verbraucher relevant sein.
Der erste Schritt in Richtung mehr Authentizität ist die firmeninterne Einrichtung von Richtlinien, die Mitarbeiter anleiten, wie sie generative KI für die Erstellung von Inhalten verwenden können und sollten. Mehr als ein Viertel (26 %) der Teilnehmer räumte ein, dass ihr Unternehmen über keine GenAI-Richtlinie verfügt. Compliance-Software kann beim Richtlinienmanagement unterstützen.
Neben der Festlegung von Leitlinien sollten Mitarbeiter, die mit generativer KI arbeiten, entsprechend geschult und sensibilisiert werden, um sicherzustellen, dass sie die Richtlinien und Standards der Marke einhalten. Für diesen Zweck können Arbeitgeber Schulungsplattformen einsetzen. Sie automatisieren Bildungsaktivitäten für Mitarbeiter und lassen sich häufig an die Bedürfnisse spezifischer Organisationen anpassen.
2. Die Bedeutung von Transparenz für das Kundenvertrauen: 1 von 5 Unternehmen kennzeichnen ihre KI-Inhalte nicht
Unternehmen sollten offen kommunizieren, wenn generative KI für die Erstellung von Inhalten verwendet wird. Transparenz kann das Vertrauen der Verbraucher in die Marke stärken und Missverständnisse vermeiden.
Mit 48 % gibt die Mehrheit der Befragten an, „manchmal” darüber zu informieren, dass Inhalte für Social-Media durch KI oder mit der Hilfe von KI erstellt wurden, wenn sie KI-generierte Inhalte auf den Social-Media-Kanälen ihres Unternehmens veröffentlichen. Dreißig Prozent informieren „immer” und 18 % informieren „nicht”. Unter den Befragten aus Deutschland sieht die Verteilung etwas anders aus: 63 % informieren „manchmal”, 24 % informieren „immer” und 12 % informieren nicht.
Es ist möglich, dass bald eine Kennzeichnungspflicht für KI-generierte Inhalte kommt. Dies sieht der Gesetzesentwurf „Artificial Intelligence Act” der Europäischen Union [4] zur Regulierung von künstlicher Intelligenz vor. Die meisten Befragten haben damit kein Problem. Nur 12 % glauben, dass sich die Kennzeichnungspflicht negativ auf ihre Social-Media-Kampagnen auswirken würde.
Die Ergebnisse aus Deutschland weichen vom globalen Durchschnitt teilweise ab: Eine Verordnung, die die Kennzeichnung von KI-Inhalten vorschreibt, hätte für 33 % keine Auswirkungen, für 31 % etwas positive Auswirkungen, für 19 % sehr positive Auswirkungen und für 17 % etwas negative Auswirkungen.
3. Qualitätssicherung: 62 % der deutschen Unternehmen prüfen die Richtigkeit ihrer GenAI-generierten Social-Media-Inhalte
Unternehmen sollten die generative KI überwachen und gegebenenfalls eingreifen können, wenn sie beispielsweise gegen geltende Gesetze und Vorschriften verstößt oder Fehler auftreten, denn sie stehen in der Verantwortung, die Technologie verantwortungsvoll zu nutzen.
Es gibt verschiedene Arten von menschlicher Kontrolle, die zu diesem Zweck durchgeführt werden können. Die meisten Unternehmen (55 %) prüfen die Richtigkeit ihrer KI-generierten Inhalte, dicht gefolgt von einer Sprach- und Grammatikprüfung (54 %), wobei die deutschen Ergebnisse mit jeweils 62 % etwas höher liegen.
Kontrollmechanismen führen nicht selten dazu, dass Fehler entdeckt werden, die durch den Menschen behoben werden müssen. Die Meinungen der Befragten darüber, wie arbeitsintensiv es ist, GenAI-Inhalte zu korrigieren, gehen auseinander: So sind 43 % der Meinung, dass die Überarbeitung in der Regel etwa so viel Arbeit erfordert wie erwartet, 26 % finden dagegen, dass sie mehr Arbeit erfordert als erwartet.
Qualitätssicherung bedeutet jedoch nicht nur, einen Faktencheck durchzuführen oder die Grammatik zu überprüfen. Content-Ersteller sollten auch sicherstellen, dass ihre Inhalte hochwertig sind und dem Verbraucher einen Mehrwert bieten.
Die Wahrscheinlichkeit ist groß, dass es zu jedem Beitrag bereits unzählige ähnliche Beiträge von Konkurrenten gibt, die mehr oder weniger dieselben Informationen enthalten. Content-Ersteller sollten ihren Lesern etwas bieten, was aus einem faden und unoriginellen Inhalt einen ansprechenden, informativen, genauen und einzigartigen macht. KI-generierter Content kann zum Beispiel mit dem persönlichen Standpunkt von Fachexperten oder dem CEO angereichert werden und so eine Vordenkerrolle einnehmen, die vielen KI-generierten Inhalten fehlt. Content Collaboration-Tools eignen sich für Content, an dem mehrere Personen gemeinsam arbeiten. Sie bieten einen zentralen Arbeitsbereich, in dem Inhalte hochgeladen, geteilt, synchronisiert, verwaltet und gemeinsam bearbeitet werden können.
4. Feedback: 40 % holen Input von ihrer Zielgruppe ein
Ein weiterer vertrauensfördernder Faktor ist, Verbrauchern die Möglichkeit fürFeedback zu geben. Damit zeigen Unternehmen, dass sie offen für Bedenken und Kritik sind und ihnen daran gelegen ist, die Kundenerwartungen zu erfüllen.
Der weltweite Durchschnitt liegt bei 40 % der Befragten, die angeben, dass sie Feedback von ihrer Zielgruppe einholen.
Umfragetools können das Sammeln von Feedback erleichtern. Sie automatisieren das Entwerfen, Planen, Veröffentlichen und Durchführen von Umfragen und bieten eine Vielzahl von Feedback-Formaten, wie Optionsfelder, Kontrollkästchen, Dropdown-Menüs und Freiform-Textfelder.
Aktiv werden und das Vertrauen in KI für Social-Media ausbauen
In einer Zeit, in der KI die Content-Landschaft umgestaltet und die Content-Erstellung automatisiert, ist die Schaffung von Vertrauen in KI-generierte Inhalte für den Unternehmenserfolg von entscheidender Bedeutung. Die in diesem Artikel vorgestellten Strategien und Best Practices zur Authentizität, Transparenz, Qualitätssicherung und der Einholung von Feedback zielen darauf ab, diesen Bedarf zu decken, indem sie einen Plan für die Erstellung vertrauenswürdiger und wertvoller KI-generierter Inhalte bieten.
Im nächsten Schritt geht es darum, diesen Plan Schritt für Schritt in die Tat umzusetzen.
Quellen:
- Harness the Power of Democratized Generative AI to Transform Your Business, Gartner
- Google E-E-A-T: What Is It & How To Demonstrate It For SEO, Search Engine Journal
- How Marketing Can Capitalize on AI Disruption, Gartner
- AI-Act: Die EU reguliert künstliche Intelligenz (KI), IHK Stuttgart
Methodik:
* GetApps GenAI for Social Content Survey wurde im Mai 2024 unter 1.680 Befragten in den USA (n=190), Kanada (n=108), Brasilien (n=179), Mexiko (n=199), Großbritannien (n=197), Frankreich (n=135), Italien (n=102), Deutschland (n=90), Spanien (n=123), Australien (n=200) und Japan (n=157) durchgeführt. Ziel der Studie war es, mehr über die Auswirkungen von generativer KI auf Social-Media-Marketingstrategien zu erfahren. Die Befragten waren in den Bereichen Marketing, PR, Vertrieb oder Kundenservice in Unternehmen aller Größen tätig. Jeder Befragte gab an, dass er mindestens einmal im Monat generative KI zur Unterstützung des Social-Media-Marketings in seinem Unternehmen einsetzt.