Posts Tagged ‘Chatbot’

XXXLutz setzt auf KI-Lucy

12. Februar 2025

Im vergangenen Jahr setzte die Textilkette Mango auf ein KI-Model für seine Sommerkollektion. Nun geht das Möbelhaus XXXLutz einen Schritt weiter und präsentiert Lucy.

Lucy Heimfeld oder – Homefield, wie sie sich online nennt – ist ein ebenso positiver wie achtsamer KI-Charakter, der sich den Themen Einrichtung, Wohnen, Dekoration und Lifestyle widmet. Lucy ist freundlich zu sich und ihrer Umwelt, liebt den Austausch mit anderen, aber auch die ruhigen Momente der Reflexion, so heißt es bei XXXLutz. Ihr Stil und ihre Persönlichkeit seien geprägt von einer Balance zwischen Aktivität und Ruhe – ebenso wie ihr Tagesablauf. In ihrer hochwertig sanierten Altbauwohnung inmitten einer pulsierenden Stadt wie Hamburg lebt sie ihre Leidenschaft für stilvolle und harmonische Räume als Content Creator aus. Mit Ende Zwanzig hat sie bereits reichlich Erfahrung als Einrichtungsberaterin und ist fest entschlossen, ihre Community daran teilhaben zu lassen und eine „echte“ Hilfe zu sein, berichtet XXXLutz in einer Mitteilung. Als Influencerin tummelt sich Lucy erst einmal auf Instagram (@lucy_homefield).Es soll aber noch mehr kommen.

Nun ich hatte keine Probleme in der Vergangenheit mich von Animation- oder Zeichentrickfiguren unterhalten zu lassen, warum nicht heute auch von KI-Wesen. Hat sich da wirklich etwas geändert?

Von Menschen für Menschen und doch KI-generiert – ein Widerspruch? „Ganz im Gegenteil“, betont Konrad Nill, CMO bei XXXLutz Deutschland: „Lucy bringt das Wissen unserer Einrichtungsberater und -Beraterinnen mit: immer am Puls internationaler Trends, begeisternd sowie inspirierend und als KI-Person ist sie ,always on‘.“ Lucy ist räumlich und zeitlich flexibel einsetzbar: jederzeit an jedem Ort, gleichzeitig auf den unterschiedlichen Kanälen und auch kurzfristig einsatzbereit. Wenn Lucy als Chatbot umfänglich zum Einsatz kommt, kann sie/es wirklich eine Bereicherung sein und mehr als nur ein Marketinggag.

„Was uns wichtig ist und worauf wir Wert legen: Unsere Kampagne ist weiterhin von echten Menschen getragen. Der hochgezahlte Markenträger Matthias Schweighöfer als Markenbotschafter kann aber logischerweise nicht rund um die Uhr Kundenanfragen beantworten oder mehrmals pro Woche virtuell in seine Wohnung einladen, um angesagte Trends zu präsentieren.“, weiß Nill: „Für diese Aufgaben ist seine digitale Kollegin wie geschaffen.“

Spätestens beim Einsatz als Chatbot liegen die Vorteile auf der Hand. KI-Tools, in diesem Fall Large Language Modelle, sind wichtiger Baustein, um künftig Kundenanfragen besser zu verstehen und passgenauere Antworten ausspielen zu können. Ihnen dabei auch einen Namen und ein Gesicht zu geben, ist nicht nur aus Marketingsicht sinnvoll. Menschen unterhalten sich einfach lieber mit einem Charakter, als mit einer Maschine – und bei XXXLutz ist das (auch) „Lucy Homefield“. Und dennoch: Lucy ist eine Maschine und muss trainiert werden. Auf Standardantworten kann ich als Kunde verzichten auch wenn das Gesicht noch so hübsch und freundliche ist.

KI fester Bestandteil bei XXXLutz
KI-Anwendungen werden weiter eine stark wachsende Rolle beim Branchenprimus der Möbelbranche spielen. Und das nicht nur in der Kommunikation. „Mit Lucy ist ein weiterer Schritt in eine digitale Zukunft gemacht,“ freut sich Konrad Nill. XXXLutz launchte bereits vor drei Jahren Deutschlands größtes virtuelles Küchenstudio. „Wer Trends im Einrichten setzen möchte, muss auch Trends in der Vermarktung setzen“, sagt Nill. Mal sehen, ob Kunden sich mit Lucy anfreunden können. Mir als Münchner kommt eine Hamburger Einrichtungsberaterin skeptisch vor, aber ich lasse mich gerne überzeugen. Ich gebe der KI eine Chance, egal ob sie Lucy oder Elvira heißt.

Wenn die KI Halluzinationen hat

15. Februar 2024

Ich beschäftige mich gerade damit, wie vertrauensvoll eigentlich die Ergebnisse von KI sind. Ich bereite dazu ein Online-Seminar vor. Wir wissen alle, dass ChatGPT und Co falsche Aussagen liefern können und es gibt genügend Beispiele, wie folgenreich waren. Wir erinnern uns: Im Frühjahr 2023 sanktionierte ein US-Richter eine US-Anwaltskanzlei, weil sie in einem Schriftsatz, den ein Chatbot verfasst hatte, Rechtsgutachten mit gefälschten Zitaten zitiert hatte.

Und dennoch setzte ich in meiner täglichen Arbeit Werkzeuge wie ChatGPT ein, prüfe aber die Ergebnisse gewissenhaft. Fast schon ein wenig psychedelisch nennen die Experten diese Fehler dann auch Halluzinationen.

Aber wie lassen sich diese Halluzinationen eindämmern, vor allem wenn sie im beruflichen Umfeld genutzt werden? In Unternehmen, die Chatbots für Kunden und Mitarbeiter einsetzen, kann nur eine einzige KI-Erfindung Unternehmen vor Gericht bringen und den Ruf ruinieren.

Mit der wachsenden Zahl von KI-gestützten Chatbots steigen also die Risiken, dass diese nicht wie gewünscht funktionieren. Unsinnige oder ungenaue Ausgaben oder Antworten, die nicht aus den Large Language Modells (LLMs) herausgefiltert werden können, verbleiben in dem Daten-Pool der Chatbots und versauen die Antworten.

Schlechte Trainingsdateien
Halluzinationen treten auf, wenn die Daten, die zum Trainieren von LLMs verwendet werden, von schlechter Qualität oder unvollständig sind. Die Häufigkeit liegt bei den meisten KI-Plattformen zwischen 3 % und 8 %. Bei Customer-Service-Chatbots kann die Bereitstellung falscher Ratschläge oder Informationen wichtige Ziele wie die Kundenzufriedenheit negativ beeinflussen. Sie können auch in hochkomplexen (und regulierten) Sektoren wie dem Gesundheitswesen oder dem Finanzwesen zu Verwirrung und Schaden führen.

Folgenreich
In IT-Organisationen richten KI-Pannen auch auf andere Weise verheerende Schäden an. Chatbots können Service-Tickets falsch zuweisen, ein Problem ungenau beschreiben oder Arbeitsabläufe stören und zu erheblichen systemischen Problemen führen.
Für Ingenieure kann ein KI-generierter Code, der in der Softwareentwicklung verwendet wird, Sicherheitslücken oder geistiges Eigentum enthalten, das während des Trainings aufgenommen wurde. KI-Systeme können auch komplexe Fehler oder Sicherheitsprobleme übersehen, die nur ein Entwickler erkennen und beheben würde.

Was ist zu tun?
Also was ist zu tun, um die Risiken zu minimieren?
Inhaltsfilter: Eine Vielzahl von technischen oder richtlinienbasierten Leitplanken kann vor unangemessenen oder schädlichen Inhalten schützen. Beispielsweise können Inhaltsfilter die Beantwortung von Fragen zu sensiblen Problemen oder Themen ablehnen. Beim Customer-Service sollte ein Chatbot eine Anfrage schnell an einen menschlichen Mitarbeiter übergeben, wenn er verwirrt ist oder nicht in der Lage ist, die genaue Antwort zu finden.
Besser Datenqualität: Bei der Schulung von LLMs sollten IT-Teams die Daten validieren, um sicherzustellen, dass sie qualitativ hochwertig, relevant und umfassend sind. Trainingsdaten sollten regelmäßig überprüft werden, um sich vor „Modelldrift“ oder Leistungseinbußen zu schützen, die aufgrund von Änderungen des zugrunde liegenden Datenmodells im Laufe der Zeit auftreten.
Leitplanken: Durch die Einschränkung der Fähigkeit der Chatbots, sich mit Apps und Diensten von Drittanbietern zu verbinden, wird die Möglichkeit vermieden, irreführende, ungenaue oder potenziell schädliche Daten zu generieren. Nebeneffekte des Sandboxings des Chatbots auf diese Weise sind eine bessere Leistung (weniger Abhängigkeiten) und eine verbesserte Compliance für die Branchen, in denen dies unerlässlich ist.

Forschung arbeitet an Lösungen
Halluzinationen mögen heute ein Problem sein, aber die Forschung ist im Gange, das Problem zu lösen. In dem Bemühen, sowohl die Genauigkeit als auch die Zuverlässigkeit zu verbessern, wird alles untersucht, von der Erstellung größerer Modelle bis hin zur Selbstdurchführung der Faktenprüfung durch LLMs.
Und erste Schritt werden unternommen. Das von CISPA Helmholtz-Zentrum für Informationssicherheit unterstützte Startup QuantPi wird mit 2,5 Millionen Euro vom European Innovation Council (EIC) gefördert. Das Geld soll für den Aufbau einer Plattform für vertrauenswürdige generative Künstliche Intelligenz (KI) verwendet werden.

Diese Förderung unterstützt QuantPi bei seiner Pionierarbeit für die sichere Nutzung generativer KI. Das Startup arbeitet daran, der Gesellschaft ein sicheres und selbstbestimmtes Leben mit Künstlicher Intelligenz zu ermöglichen. Die Fördersumme will das Unternehmen dafür einsetzen, die aktuelle auf KI basierende Testtechnologie weiterzuentwickeln, um somit die erste automatisierte Risikomanagement-Plattform aufzubauen, die Sicherheit, Fairness und Erklärbarkeit generativer KI-Systeme ermöglicht.
Die Technologie von QuantPi bietet Anbietern generativer KI-Systeme die Chance, höchste ethische Standards auf ihre Produkte anzuwenden. Firmen, die GenAI-Tools kaufen möchten, können mit Hilfe der Plattform Risikobewertungsprozesse während der Beschaffung automatisieren – zum Schutz ihrer Kunden und zur Sicherstellung, dass lediglich hochwertige KI gekauft wird. Zudem wird geprüft, ob die KI-Systeme den strengen Tests zur Einhaltung von EU-Standards standhalten können.

Der CEO von QuantPi, Philipp Adamidis, äußerte sich begeistert über die Förderung und erklärte: „Dies ist ein Beweis für die harte Arbeit und das Engagement des gesamten QuantPi-Teams. Wir freuen uns, dass wir diese Mittel nutzen können, um den sicheren und verantwortungsvollen Einsatz von KI zu gewährleisten, ohne dabei den Fortschritt zu bremsen. Die Förderung beschleunigt nicht nur unsere Forschungs- und Entwicklungsbemühungen, sondern unterstützt auch unser Engagement, einen positiven Beitrag für die Gesellschaft zu leisten.“

Buchtipp: Können Maschinen denken? von Alan Turing

14. April 2021

Immer wieder erwische ich mich, dass ich mich tiefer in das Computerzeugs hineinarbeite. Ich meine jetzt nicht unbedingt Hard- und Software, sondern ich beschäftige mich auch gerne mit den gesellschaftskritischen und philosophischen Aspekten des Themas. Gerade im Zeitalter von KI sollten wir uns darüber Gedanken machen. Nach Joseph Weinzenbaum und Kurzweil habe ich mich am Wochenende mit Alan Turing beschäftigt.

Alan Turing in München.
Alan Turing in München.

Dabei meine ich nicht nur den sehenswerten Film The Imitation Game – Ein streng geheimes Leben, sondern seine Streitschrift Können Maschinen denken? Der Reclam-Verlag hat mir dankenswerterweise ein zweisprachiges Exemplar des Buches Können Maschinen denken? überlassen, das unter der Reihe Great Papers Philosophie herausgegeben wurde. 1950 hat Turing, den viele als den Enigma-Knacker kennen und der im Grunde die Wende gegen Hiterdeutschland eingeleitet hat, diese Schrift veröffentlicht. Nun liegt sie in neuer Übersetzung und ausführlicher Kommentierung vor, so dass auch ich als interessierter Laie den Ausführungen folgen kann.

Der Turingtest ist in vielen meiner Seminare zum Thema KI fester Bestandteil. Antwortet eine Maschine so, dass ein Mensch die Antworten als menschlich einordnet und nicht mehr erkennt, dass eine Maschine antwortet, dann ist der Turingtest bestanden. Die Rechner zu Zeiten Alan Turings waren dazu nicht in der Lage, aber er widmete sich theoretisch diesem spannenden Thema und diskutierte es in dieser Streitschrift Können Maschinen denken?.

Eliza von Joseph Weizenbaum
Immer wieder erinnere ich mich an meine Begegnung mit Eliza im Jahre 2017 im Computerspielemuseum in Berlin. Elizas Schöpfer war Joseph Weizenbaum. Eliza stammt aus dem Jahre 1966. Eliza war Teil von Joseph Weizenbaums Forschung im Bereich Mensch-Maschine-Kommunikation. Seine Idee, den Computer ein Gespräch simulieren zu lassen, sorgte damals international für Aufsehen und markiert einen wichtigen Wendepunkt im Verhältnis zu Computern. Es war im Grunde ein Versuch eines Gesprächs mit einem elektronischen Psychologen. Das Ergebnis mutet heute humorvoll an, war aber bahnbrechend.

Eliza von Joseph Weizenbaum
Eliza von Joseph Weizenbaum

Ich denke, dass Siri, Alexa, Chatbots oder ein anderes System bald soweit sind und den Turingtest bestehen. Bis es soweit ist, bleibt die theoretische Auseinandersetzung mit diesem Thema. Hier hat Alan Turing entscheidende Grundlagenarbeit geleistet. Spät wurde ihm die Anerkennung zuteil, die er verdient. Für mich ist er einer der Helden der IT und das Buch Können Maschinen denken? eine empfehlenswerte Lektüre.