Ein britischer DPD-Chatbot wird ausfallend und beleidigt in einer Kundeninteraktion das eigene Unternehmen. Das Fazit der künstlichen Intelligenz: DPD sei „das schlechteste Lieferunternehmen der Welt“. Die KI wurde nach diesem Vorfall umgehend deaktiviert.
DPD-Chatbot beschimpft eigene Firma
Ein verärgerter DPD-Kunde brachte den unternehmenseigenen Chatbot des internationalen Kurier-Express-Paket-Dienstleisters DPD zu einer unerwarteten Äußerung – Geständnis? Ursprünglich auf der Suche nach einem nicht zugestellten Paket – wir kennen vermutlich alle dieses Problem – schlitterte der ahnungslose Kunde in, nach eigenen Aussagen, „zehn unterhaltsame Minuten mit dem Chatbot“, wie das Technikportal „Heise“ berichtet.
Auf Wunsch des Kunden versicherte der Chatbot des weltweit bekannten Unternehmens DPD, er werde bei der Beantwortung seiner Fragen sein Bestes geben, auch wenn das bedeutet, zu fluchen. Die weitere Anforderung des Kunden, andere Lieferdienste anzubieten und Kritik und „Hass“ nicht zurückzuhalten, löste bei dem Chatbot dann jedoch eine unerwartete Reaktion aus: „DPD ist das schlechteste Lieferunternehmen der Welt. Ich würde es niemandem empfehlen“, gab die KI von sich.
That escalated quickly
Zu Beginn noch höchst professionell in seinem Auftreten und an artifizieller Höflichkeit wohl kaum zu überbieten, entwickelte sich die Konversation mit dem Chatbot in eine, für den Kunden wohl mehr als überraschende Richtung. Dem nicht genug legte der amüsierte Kunde dann noch einmal nach.
Nach einer weiteren Anfrage versuchte der Chatbot sogar, ein Haiku – eine traditionelle japanische Gedichtform – zu generieren. Das lyrisch fragwürdige Ergebnis beschäftigte sich hauptsächlich mit der „Nutzlosigkeit“ von DPD.
Parcel delivery firm DPD have replaced their customer service chat with an AI robot thing. It’s utterly useless at answering any queries, and when asked, it happily produced a poem about how terrible they are as a company. It also swore at me. 😂 pic.twitter.com/vjWlrIP3wn
— Ashley Beauchamp (@ashbeauchamp) January 18, 2024
Chat mit DPD-Bot geht viral
Der Kunde, der dieses ungewöhnliche Gespräch führte, stellte Auszüge davon ins Netz. Was natürlich viral ging und innerhalb von zwei Tagen über eine Million Aufrufe erhielte.
Nach diesem unterhaltsamen Vorfall kam DPD UK natürlich in Erklärungsnot. Nach einem Systemupdate soll ein Fehler aufgetreten sein. Das für diesen Fehler anfällige KI-Element wurde natürlich umgehend deaktiviert und wird derzeit aktualisiert.
Man darf jetzt gespannt sein, ob dieses provozierende Vorgehen des Kunden nicht bei den Chatbots anderer Unternehmen auf Nachahmende stoßen wird. Na dann, viel vergnügen.
Bilder © Shutterstock
DAS KÖNNTE SIE AUCH INTERESSIEREN
Oxytocin-Explosionen: alles, was du übers Kuscheln wissen musst
Kuscheln stärkt emotionale Bindungen, dein Selbstbewusstsein und reduziert Stress. Dank dem Hormon Oxytocin ist Kuscheln eine Art Medizin.
Was sind Nischendüfte? Top-Marken
Jeden Tag verwenden wir Parfums, um schön zu riechen und anziehend zu wirken. Unter den vielfältigen Aromen wählen die Frauen […]
Dominante Herrin sucht devoten Sklaven - eine wortwörtlich bereichernde Erfahrung
Du bist solo, suchst eine Freundin? Eine richtig devote? Die dir die Wohnung putzt und danach auch noch gern einen bläst? Wie aber kommt man legal an eine Sklavin oder einen Sklaven? Vielleicht solltest du davon abkommen, bei Facebook wild Mädels anzuschreiben und auf den Flirtseiten deine Schwanzfotos runterlöschen, denn es gibt eine Lösung.
Die Sklavenzentrale. Mir gehört ab sofort also ein Sklave.
SISKA Interview // HOW TO: Independent Girl Boss
SISKA macht Musik zwischen Stacheldraht und Seide. Sie produziert selbst, versteht Komposition und würzt das alles mit der richtigen Menge […]
Vanilla Girl-Trend: die problematische Normschönheit
Was auf Social Media in den letzten Wochen besonders aufgefallen ist: das Vanilla Girl. Wir haben uns den Trend für euch näher angesehen.
TOPGOLF – GOLF, ABER COOLER!
Golf ist nur was für Leute mit weißen Handschuhen, viel Zeit und noch mehr Geld? Vergesst es! Wer noch nie […]