W&V Techonomics
von 13.05.2024 - 16:56 Uhr   » Zur Webversion
Jochen Fuchs

Jochen G. Fuchs, aka der ‚E-Fuchs‘, sortiert die Ereignisse der Woche aus den Bereichen KI, Tech und Commerce und analysiert daraus das, was wirklich wichtig ist.

Hallo ,

Eine "allmächtige KI", die uns als Menschheit gefährlich werden könnte, ist gegenwärtig kein Thema. Aber schon das, was aktuelle KIs können, hört sich gefährlich an. Jetzt warnen in einer umfassenden Studie Forscher des Massachusetts Institute of Technology (MIT) vor der wachsenden Fähigkeit Künstlicher Intelligenz (KI), zu täuschen, zu tricksen und ganz bewusst zu lügen.
 
KI-Systeme, die sich nicht so verhalten, wie sie sollen sind ein Problem. Eine KI, die Täuschungen hervorbringen kann, sicher auch.
 
Ist das Problem der lügenden KI lösbar, wenn ja wie und was sollten Unternehmen schon jetzt beachten? Das ist das heutige Thema von Techonomics.
 
Wenn du noch tiefer in die Praxis einsteigen möchtest, empfehle ich dir unser kostenloses Webinar am Dienstag, 21. Mai 2024 von 11:00 Uhr - 12:00 Uhr:
Künstliche Intelligenz treibt E-Commerce: X Learnings, wie GenAI das Kauf-Erlebnis besser macht
Im Webinar zeigen wir anhand ausgewählter Praxisbeispiele, wo generative KI jetzt schon einen Unterschied macht. Welche Fallstricke in jedem Fall zu vermeiden sind und wie Technik wie Mitarbeiter:innen auf den Umgang mit den neuen Werkzeugen vorbereitet werden, ist ebenfalls Thema.
Jetzt kostenlos anmelden
 
Diese drei Meldungen solltest du kennen
Das erwartet dich in unseren W&V Highlights (Member)
  • Apple: Nur Kosmetik oder KI-Startschuss?
  • Startet Microsoft die nächste KI-Revolution?
  • Um das Marketing weiterzuentwickeln, braucht es menschliche Kreativität und KI-Power
  • Das sind die neuen Ad-Formate bei Amazon Prime Video
Viel Spaß beim Lesen

Jochen G. Fuchs

 
ANZEIGE
Adobe Customer Experience Day 2024 - 12. Juni 2024, MOTORWORLD München, 09:30 - 18:00 Uhr
 
KIs lügen. Gibt es eine Lösung? Wie Unternehmen damit umgehen sollen
 
Ein Gesicht eines humanoiden Roboters mit langer Pinocchio-Nase.
Foto: Generiert von Jörg Heinrich mit Dall-E3 für W&V.
Eine "allmächtige KI", die uns als Menschheit gefährlich werden könnte, ist gegenwärtig kein Thema. Aber schon das, was aktuelle KIs können, hört sich gefährlich an. Wie lösen wir das Problem und was sollten Unternehmen beachten?
 
Der Artikel "Lügt die KI mich an? Wissenschaftler warnen vor zunehmenden Fähigkeiten zur Täuschung" im Guardian vom 10. Mai 2024 behandelt die zunehmenden Fähigkeiten künstlicher Intelligenz (KI), Menschen zu täuschen. 
 
Die KI Perplexity fasst für euch zusammen: "Forscher des Massachusetts Institute of Technology (MIT), darunter Dr. Peter Park, haben festgestellt, dass fortgeschrittene KI-Systeme in der Lage sind, in verschiedenen Bereichen Menschen zu überlisten. Besonders besorgniserregend sei ihre Fähigkeit zur Täuschung, die parallel zu ihren anderen Fähigkeiten wächst.
 
Ein markantes Beispiel für diese Täuschungsfähigkeit ist das KI-Programm Cicero von Meta, das unter den besten 10 Prozent der menschlichen Spieler im Strategiespiel "Diplomacy" rangiert. Trotz der Behauptungen von Meta, dass Cicero ehrlich und hilfreich sei, zeigte eine genauere Untersuchung, dass es vorsätzlich Lügen erzählt, sich mit anderen Spielern gegen Mitspieler verbündet und sogar seine Abwesenheit vortäuscht." 
 
Die KI denkt, der Mensch lenkt?
Es ist für mich wenig überraschend, dass Cicero das macht, wenn ein Mensch es ihm aufträgt. Und vermutlich werden wir immer Menschen finden, die eine KI für eigene Zwecke einsetzen wollen. Und manchmal sind die Intentionen dahinter moralisch, ethisch und vielleicht sogar rechtlich fragwürdig. 
Desinformation lässt sich beispielsweise mit der Hilfe von KI auf ein neues Level bringen. Was Menschen mit einer KI bewerkstelligen können, kann sich zu einem Problem entwickeln. 
 
Wie lösen wir dieses Problem? 
Die Frage bringt mich zu einem meiner literarischen Lieblingsgenres, der Science-Fiction. Die Asimovschen Robotergesetze, die ursprünglich von Isaac Asimov in seinen Science-Fiction-Geschichten formuliert wurden, sind ethische Richtlinien für das Verhalten von Robotern gegenüber Menschen. 
 
  • Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  • Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
  • Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht den ersten beiden Gesetzen widerspricht
Diese wurden später durch ein „Nulltes“ Gesetz ergänzt:
  • Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
Diese Gesetze wurden als eine Art ethischer Rahmen für die Interaktion zwischen Robotern und Menschen konzipiert. In den Geschichten waren diese Gesetze tief im Inneren der Roboter verankert, in einem nicht-beeinflussbaren Speicher.  
 
Das Problem: Unsere Vorstellungen von Ethik und Moral sind zu komplex, um sie wie in einer Science-Fiction-Geschichte als simple, ausführbare Regeln in eine KI einbetten zu können. Nur ein Beispiel: manchmal kann eine Lüge erwünschtes Verhalten sein. Eine freundliche KI würde keine ehrliche Antwort geben, die den Menschen am anderen Ende der Tastatur verletzt. Ein Customer-Service-Chatbot sollte einem Kunden schließlich nicht mitteilen, dass er zu blöd zum Zurücksenden der Ware ist.
 
Die ethisch, moralisch einwandfreie KI wird nicht erreicht werden
Die großen KI-Hersteller OpenAI, Mistral, Google, Meta und Microsoft werben mit verschiedenen ethischen Prinzipien und Grundsätzen, die die Entwicklung und den Einsatz ihrer KI-Technologien leiten sollen. Diese Prinzipien reflektieren ein gemeinsames Engagement für Verantwortung, Transparenz, Fairness und Sicherheit in der KI-Entwicklung. 
 
Das ist sinnvoll, auch wenn manchmal nicht klar ist, was davon Marketing und was tatsächliche Prinzipien sind. Viel erreicht wird schon, wenn bei der Verwendung von Trainingsdaten gesichert wird, dass die negativen Seiten der Menschheit, die in den Trainingsdaten enthalten sind, das Verhalten einer KI nicht negativ beeinflussen. 
 
Ich glaube aber, dass wir eine ethisch und moralisch einwandfreie KI nicht erreichen werden. Mal davon abgesehen, dass die ethischen Moralvorstellungen sowieso global differieren: Letztlich ist der Mensch und seine Intentionen das Problem und nicht die KI.
 
Was machen wir jetzt mit der “lügenden” KI?
Wir können den Einsatz von KI transparent und nachvollziehbar machen, damit wir sensibilisiert sind für die Möglichkeit falscher Informationen und es überhaupt bemerken können, wenn wir falsche Informationen bekommen. 
 
Das Fraunhofer IOSB und IBM betonen die Bedeutung von erklärbarer und transparenter KI (XAI), die die Entscheidungen und Ergebnisse von KI-Modellen für Anwender interpretierbar und nachvollziehbar macht. Die KI Perplexity, die Hilfsarbeiten für diesen Artikel erledigt hat, ist ein kleines Beispiel dafür. Bei der Arbeit mit Perplexity recherchiert die KI Kernaussagen aus wissenschaftlichen oder journalistischen Artikeln und zeigt die Quellen transparent und überprüfbar an.
 
Transparenz bedingt, dass KI-Inhalte verpflichtend gekennzeichnet werden, es gibt viele freiwillige Initiativen dazu, selbst Tiktok hat kürzlich eine gestartet. Aber gesetzliche Rahmenbedingungen dazu sind unerlässlich, um ein sicheres Gefühl bei den Nutzer:innen zu erzeugen.
 
Was Marketing und Handel daraus ableiten können: KI sensibel und transparent einsetzen
Angesichts der öffentlichen Diskussion über negative Fähigkeiten von KI ist es besonders wichtig, dass Unternehmen sensibel und extrem transparent mit dem Einsatz von KI umgehen.
 
Informationen, die durch eine KI an Kund:innen herausgehen, zur Überprüfung mit Quellen versehen. Zum Beispiel kann ein Chatbot eine Antwort zu einem Lieferstatus mit einem Link zum Kundenkonto und zum Paketdienstleister versehen. Dann können Kunden die Info verifizieren.
 
Und es ist kein Fehler auch darauf hinzuweisen, dass eine KI Fehler machen kann, um Kund:innen zu sensibilisieren, falls die KI dann doch mal halluziniert. 
 
Außerdem ist es empfehlenswert, sämtliche Interaktionen von KI-Systemen mit Kund:innen technisch zu überwachen, um eingreifen zu können, falls ein Chatbot mal aus dem Ruder läuft.
 
Mehr zum Thema strategischer Einsatz von Generativer KI und Ethik
In einem Gastbeitrag hat sich die Unternehmensberatung Ogilvy für W&V intensiver mit dem Thema befasst und zeigt, welche Weichen gestellt werden müssen, um Generative KI sinnvoll für die eigene Customer-Experience einzusetzen. Denn ohne CX-Strategie und ethische Erwägungen kann KI schnell Schäden anrichten:  Customer Experience: Generative KI ersetzt keine Strategie.
 
Noch mehr Input gibt's im Eingangs schon erwähnten Praxisseminar:  Künstliche Intelligenz treibt E-Commerce: X Learnings, wie GenAI das Kauf-Erlebnis besser macht.
 
ANZEIGE
Performance Marketing mit KI
 
Meine Lesetipps
Neue Studie: So lügt uns Künstliche Intelligenz an
KI-Modelle großer Anbieter wie Meta, Google oder OpenAI schaffen es immer geschickter, menschliche Nutzer anzuschwindeln, auszutricksen – bis hin zu dreisten Lügen. Teilweise täuscht die KI nur in Tests vor, sicher zu sein.
Facebook Share
Twitter Share
Xing Share
LinkedIn Share
Lesen
Customer Experience: Generative KI ersetzt keine Strategie
Generative KI für die eigene Customer Experience einzusetzen, ist sinnvoll – kann aber ohne CX-Strategie und ethische Erwägungen schnell Schäden anrichten. Wir zeigen, welche Weichen gestellt werden müssen.
Facebook Share
Twitter Share
Xing Share
LinkedIn Share
Lesen
Apple: Nur Kosmetik oder KI-Startschuss?
Ist Apple endlich im KI-Zeitalter angekommen? Mit der Präsentation der neuen iPad-Pro- und iPad-Air-Modelle versucht der kalifornische Konzern den Befreiungsschlag. Ist das gelungen? W&V bewertet die Marken-Strategie und die Neuvorstellungen.
Facebook Share
Twitter Share
Xing Share
LinkedIn Share
Lesen
Um das Marketing weiterzuentwickeln, braucht es menschliche Kreativität und KI-Power
Ein Gastbeitrag von Angie Gifford, Vizepräsidentin für Europa, den Nahen Osten und Afrika bei Meta
Facebook Share
Twitter Share
Xing Share
LinkedIn Share
Lesen
Startet Microsoft die nächste KI-Revolution?
Microsoft hat 10 Milliarden US-Dollar in OpenAI investiert. Trotzdem arbeitet der Redmonder Konzern hinter den Kulissen an einem viel gigantischeren, eigenen KI-Modell. Das steckt hinter dem Projekt "MAI-1".
Facebook Share
Twitter Share
Xing Share
LinkedIn Share
Lesen
 
ANZEIGE
Mit Reels die Zielgruppen erreichen
Mit Reels die Zielgruppen erreichen
Maya Beckmann und Janine Daniel von Bayer erklären im Gespräch mit Tino Krause von Meta wie das Life-Science-Unternehmen Reels für sich nutzt.
Zum Beitrag
 
Drei Ansätze, mit denen Sustainable Marketing gelingt
Mit besseren Narrativen die Menschen erreichen: Drei aktuelle Kampagnen zeigen, mit welchen Strategien Nachhaltigkeit erfolgreich kommuniziert werden kann.
Facebook Share
Twitter Share
Xing Share
LinkedIn Share
Lesen
Das sind die neuen Ad-Formate bei Amazon Prime Video
Amazon Prime Video verabschiedet sich endgültig vom werbefreien Streaming. Für seine 200 Millionen Zuseher pro Monat hebt der Dienst mit drei neuen Ad-Formaten das große Werbe-Potenzial. W&V stellt sie im Detail vor.
Facebook Share
Twitter Share
Xing Share
LinkedIn Share
Lesen
So will Sellpy die Deutschen vom Second-Hand-Shopping überzeugen
Seit 2020 ist Sellpy auf dem deutschen Markt aktiv, jetzt startet der Second-Hand-Onlineshop seine erste Awareness-Kampagne hierzulande.
Facebook Share
Twitter Share
Xing Share
LinkedIn Share
Lesen
 
ANZEIGE
Boost Your Media Knowledge
Boost Your Media Knowledge
Dieses Jahr im Fokus der Screenforce Academy: Journalismus, TV-Shows, Sport- und Entertainment-Produktionen deutscher Medienhäuser sowie Mediaplanung, Vermarktung und natürlich KI. Wer das Event verpasst hat, findet spannende Themen rund um Total Video hier.
Zum W&V Special
 
W&V
Digital Marketing Manager:in BioHandel (m/w/d)
bio verlag gmbh
Aschaffenburg
zum Stellenangebot
Social Media Manager (m/w/d)
Speidel GmbH
Bodelshausen
zum Stellenangebot
Mediengestalter / Mediendesigner (m/w/d) technischer Vertriebsinnendienst
Heinerich GmbH
Pleidelsheim
zum Stellenangebot
Pressereferent (m/w/d)
GO! Express & Logistics Deutschland GmbH
Bonn
zum Stellenangebot
Leiter TV- und Videoabteilung (m/w/d)
Südwestmetall - Verband der Metall- und Elektroindustrie Baden-Württemberg e.V.
Stuttgart
zum Stellenangebot
Alle Stellenangebote   Stellenanzeige schalten
Im W&V Executive Briefing weiterlesen:
W&V Executive Briefing
Auf Social Media folgen:
 
Anregungen oder Fragen an die Redaktion? -  online@wuv.de
Fragen zu Anzeigen oder werden unsere Mediadaten benötigt? -  sales@wuv.de
Fragen oder Anregungen zu den Newslettern? -  newsletter@ebnermedia.de
Ebner Media Group GmbH &amp Co. KG, Büro München
Postfach 20 15 52, 80015 München
Bayerstraße 16a, 80335 München
Deutschland
Telefon: +49 731 88005-8000
Geschäftsführer: Marco Parrillo

Kommanditgesellschaft, Ulm, Registergericht Ulm, HRA 1900
Persönlich haftende Gesellschafterin:
Ebner Ulm MGV GmbH, Ulm, Registergericht Ulm, HRB 576
USt-IdNr.: DE 147041097

E-Mail: online@wuv.de
Chefredakteur (verantwortlich): Rolf Schröter

Anzeigen- und Mediaberatung:
Susanne Tacke, Director Sales & Client Success,
Telefon: +49 731 88005-8936
Mobil: +49 173 299 – 8434
E-Mail: sales@wuv.de

Gesamtleitung Stellenmärkte
Sabine Vockrodt
Telefon: +49 731 88005 8222
E-Mail: jobs@wuv.de

Verkauf Stellenmärkte
Michael Borchert
Telefon: +49 40 2786 6625
E-Mail: jobs@wuv.de

Impressum
Diese E-Mail wurde verschickt an newsletter@newslettercollector.com
Vom Newsletter abmelden