Posts Tagged ‘Künstliche Intelligenz’

Künstliche Intelligenz KI im Verkaufseinsatz

17. Januar 2024

Mindestens einmal im Monat darf ich Online- oder Präsenzseminare zum Thema Künstliche Intelligenz für Verbraucher halten. Die Entwicklungen in diesem Bereich sind rasant und im Grunde gibt es Woche für Woche Neuigkeiten zu berichten. Daher auch mein kostenloser wöchentlicher Newsletter.

Jetzt bekam ich einen Kommentar von Freshworks auf den Tisch, die mir wieder bewusst machen, wie weit der Handel mit dem Thema KI in der Praxis ist. Wir sprechen dabei nicht von Science Fiction, sondern von der Realität. Im Mittelpunkt steht die Kundenpersonalisierung, also Daten, Daten, Daten als Zauberwort und Türöffner. Im Moment recherchiere ich zum neuen AI Data-Act der EU in einem Spannungsfeld zwischen Datenschutz und Innovationshemmnis.

Unternehmen setzen vermehrt auf KI-Techniken wie maschinelles Lernen, um Kundenverhalten, Stimmungen, demografische Daten und Kaufhistorien zu analysieren und dadurch personalisierte Erlebnisse zu schaffen. Diese Entwicklung zeigt bereits jetzt messbare Ergebnisse, wobei laut NewVantage Partners 92 % der Unternehmen, die in KI investieren, messbare Erfolge verzeichnen – im Vergleich zu 48 % vor fünf Jahren.

Personalisierung der Inhalte
Traditionelle Marketing-Personalisierung basiert auf einer Persona-basierten Segmentierung, die Nutzer anhand allgemeiner demografischer Merkmale wie Alter, Einkommen und Beruf in Gruppen einteilt. Diese Daten sind jedoch oberflächlich und berücksichtigen nicht die individuellen Leidenschaften und Lebensstile. Ich kenne aber viele Organisationen, die Persona jetzt erst einsetzen.

KI-Algorithmen analysieren detaillierte und umfangreiche Daten, darunter demografische Informationen, Seitenaufrufe und Downloads. Diese Daten ermöglichen es Unternehmen, Muster zu erkennen und Inhaltsstrategien präziser auf einzelne KundInnen zuzuschneiden. Ein Beispiel ist Spotify, das maschinelles Lernen nutzt, um personalisierte Musikinhalte basierend auf der individuellen Streaming-Historie zu liefern. Besonders in Branchen wie Medien und Unterhaltung, in denen Inhalte das Hauptprodukt sind, spielt die personalisierte Content-Strategie eine entscheidende Rolle.

Empfehlungen für Produkte
Unternehmen nutzen die Online-Suchhistorie, um Produktkategorien für Kunden mit ähnlichem Suchverhalten zu verstehen, stoßen jedoch oft an Grenzen bei der Empfehlung neuer Produkte. KI verwendet nicht nur Kundendaten, sondern erfordert auch genauere Produktmodelle. Durch detaillierte Produktinformationen, einschließlich Bedienungsanleitungen und einzigartiger Merkmale, kann KI personalisierte Produktvorschläge erstellen, die die individuellen Bedürfnisse der KundInnen besser ansprechen. E-Commerce-Unternehmen setzen KI ein, um Produkte mithilfe neuronaler Netze basierend auf Bildern und Texten zu analysieren, was zu genaueren und persönlicheren Produktempfehlungen führt.

Dynamische Preisgestaltung
Traditionelle Regelbasierte Preisgestaltungssysteme stützen sich auf langsame Informationen und historische Daten, was zu reaktiven Preisentscheidungen führt. KI-gestützte Systeme passen Preise in Echtzeit an, indem sie eine Vielzahl von Datenquellen berücksichtigen, von Wetterbedingungen bis hin zur persönlichen Historie des Kunden oder der Kundin. Besonders in volatilen Branchen wie dem Transportwesen spielt die KI-gesteuerte dynamische Preisgestaltung eine entscheidende Rolle.

Verhaltensbasierte Personalisierung
Die Kaufhistorie allein bietet begrenzte Einblicke in das Kundenverhalten. KI ermöglicht Echtzeitdatenerfassung über digitale Telemetrie, Website-Navigation und Stimmungsanalyse, was eine prädiktive Analyse des Kundenverhaltens ermöglicht. Branchen, die mit Online-Nutzern interagieren, profitieren von der verhaltensbasierten Personalisierung, sei es im Kundensupport von Mobilfunkanbieteren oder in der Finanzdienstleistungsbranche, die individuelle Bedürfnisse besser verstehen möchte.

Insgesamt hat die Einführung von KI-basierten Personalisierungstechnologien das Potenzial, das Kundenerlebnis zu revolutionieren und Unternehmen näher an ihre Kunden zu bringen als je zuvor.

Träumen und genießen: Den letzten Song der Beatles Now and Then

3. November 2023

Um 14:57 Uhr war es am 2. November bei mir soweit. Da aktualisierte sich die Apple Musik Bibliothek und ich konnte den letzten Song der Beatles Now and Then hören.

Meine Frau und ich lauschten dem Gesang von John Lennon andächtig, schweigsam und nachdenklich. Was für ein emotionales Erlebnis eine neue Aufnahme der Fab Four zu hören und was für ein schönes Lied. Mich hat Now and Then berührt. Die Vinyl-Single in Blau wird heute im Laufe des Tages eintreffen und ich werde ein Unoxing-Video nachschieben. Hier die schwarze Ausgabe.

Die Geschichte von Now and Then haben wir in den vergangenen Tages immer wieder gehört: Lennon wurde 1980 von dem Fanatiker Chapman erschossen. 1979 nahm er im Dakota diesen Song auf eine einfach Audiocassette auf. Yoko Ono gab 1994/5 diese Audiocassette an Paul McCartney weiter mit der Gesangsaufnahme von Lennon samt Klavier. Das lange Zeit mythologisierte John-Lennon-Demo wurde erstmals im Februar 1995 von Paul, George und Ringo im Rahmen des Projekts The Beatles Anthology bearbeitet, blieb aber unvollendet, unter anderem wegen der unmöglichen technischen Herausforderungen bei der Arbeit mit der Stimme, die John in den 1970er Jahren auf Band aufgenommen hatte. Das Band hat einfach gebrummt.

Der Ort des Mordes an John Lennon.
Der Ort des Mordes an John Lennon.


Die Rest-Beatles wollten diese letzte Aufnahme fertigstellen, zur baren Münze umwandeln und somit veröffentlichen, doch Produzent und Techniker Jeff Lynne (ELO) scheiterte technisch an der Aufnahme. Die Technik der Zeit war einfach noch nicht so ausgereift. Das Ding brummte einfach zu stark. Es konnten nur die Songs Free as a Bird und Real Love von der gleichen Kassette gerettet und veröffentlicht werden. Now and Then war unmöglich zu produzieren – Stimme und Klavier waren zu stark miteinander verwoben – und das Brummen.

Erst als Regisseur Peter Jackson sich an die Rekonstruktion von Get Back machte, war es technisch möglich Lennons Stimme und sein Klavier und das Brummen zu trennen. Die Stimme von John Lennon wurde isoliert und war durch KI-Technik glasklar. Machine Learning analysierte den Gang und optimierte ihn. Ein bedeutender Beweis für die positive Arbeit von KI-Technologie. Die Rest-Beatles, nunmehr nur noch Paul und Ringo, entschlossen sich 2022/3 nun doch Now and Then zu veröffentlichen. George Harrison war ja 2001 an Krebs verstorben – der Gitarrenpart von Now and Then basiert aber auf seinem Gitarrenspiel. Es wurde nun Streicher hinzugefügt, die allerdings nicht wussten, dass es sich um eine Beatles-Aufnahme handelte. Paul schummelte hier und erklärte den Musikern, dass es sich um ein neues Stück von ihm handelte – also strengste Geheimhaltung.

Und so läuft bei mir Now and Then in Endlosschleife – zugegeben mit Tränen in den Augen. Nach zig Mal hören fiel mir am Ende eine Stimme aus. Etwa bei 4:04 Minute. Nur ein Wort am Ende des Songs, ich glaube es klingt nach Ringo. Ein Vermächtnis? Ein Fehler? Ein Hinweis? Und ich muss mal in den entsprechenden Beatles Foren nachlesen.

Ich sitze auf dem Sofa und träume. Natürlich wird Now and Then die Musik nicht mehr revolutionieren. Es ist keine bahnbrechende Aufnahme, aber verdammt noch mal, es sind die Beatles. Was für eine geniale Band waren die Beatles doch gewesen. Danke an Yoko Ono, dass sie das Tape weitergegeben hat. Der letzte Beatles-Song und ich war dabei.

Beatles und Pumuckl kommen dank KI wieder

15. Juni 2023

Die Welt ist durch KI im Umbruch. Gestern kamen zwei Meldungen ins Postfach, die ich interessant finde, weil sie zeigen, welche Möglichkeiten KI für die Entertainment Industrie möglich sind: Paul McCartney kündigt dank KI einen letzten Beatles-Song an und Pumuckl kommt mit der Stimme des verstorbenen Hans Clarin wieder.

Ich freu mich auf die Beatles 2023
Es ist wohl der Lennon-Song Now And Then von 1978, der auf einer Democassette lag und nun aufgepeppt wurde. McCartney hatte das Demo-Tape „For Paul“ von Lennons Witwe Yoko Ono erhalten. Die Tracks wurden größtenteils mit einem Ghettoblaster aufgenommen, während der Musiker in seiner New Yorker Wohnung am Klavier saß. Für die Neuveröffentlichung wurde die Stimme Lennons durch KI von früheren Aufnahmen herausgefiltert. „Wir konnten Johns Stimme nehmen und sie durch diese KI pur bekommen“, sagte der 81jährige Paul McCartney der BBC. Die beiden anderen Songs auf der Cassette waren Free as a Bird und Real Love, die bereits 1995 und 1996 veröffentlicht wurden. Jetzt war die Technik soweit, dass der Songs überarbeitet werden konnte. Die Aufnahme soll noch dieses Jahr erscheinen. Ich bin dabei.

Pumuckl 2023 mit zwei Stimmen
„Meister Eder und sein Pumuckl“ war in den 1980er Jahren eine der beliebtesten Kinder- und Familienserien Deutschlands. Die Geschichten über den kleinen, rothaarigen Kobold und seinen Schabernack haben bis heute Kultstatus. Jetzt kehrt er endlich zurück: In 13 Folgen der Serie „Neue Geschichten vom Pumuckl“. Ausgestrahlt werden die neuen Folgen Ende 2023 auf RTL+, RTL und Super RTL. Premiere hat die Serie am 24. Juni 2023 auf dem Kinderfilmfest in München. Pumuckl ist zurück – die Figur wird gespielt und gesprochen von Schauspieler und Kabarettist Maxi Schafroth und per KI mit der Original-Stimme von Hans Clarin. Für Pumuckls Stimme wurde zum ersten Mal überhaupt in diesem Umfang mittels Künstlicher Intelligenz die Stimme Schafroths in die unverkennbare Pumuckl-Stimme von Hans Clarin umgewandelt. Für alte und neue Pumuckl-Fans stellt RTL+ exklusiv beide Stimmversionen parallel zum Streamen bereit. So ist Pumuckl sowohl mit der Stimme von Hans Clarin als auch mit der von Maxi Schafroth erlebbar.

Das wird an mir vorbeigehen, nicht weil ich die KI-Version nicht mögen würde, sondern weil mir die neuen 3D-Animationen nicht gefallen – und wo ist eigentlich der Meister Eder?

KI DragGAN kann die Bildbearbeitung revolutionieren

4. Juni 2023

Es überschlagen sich die Ideen beim Thema KI und aus der Flut von Innovationen ist es schwer den Überblick zu behalten. Ich bin auf die KI DragGAN vom Max-Planck-Institut für Informatik in Saarbrücken gestoßen, die das Potential hat, Bildbearbeitung komplett zu verändern. Das Projekt kommt vom angesiedelten Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence (VIA). Es wird im August auf der SIGGRAPH vorgestellt, die ich früher jedes Jahr besucht habe. Es war für mich immer das Muppet Labor von Prof. Bunsenbrenner, wo die Zukunft schon heute gemacht wird.

Kleidungsstücke an einem digitalen Avatar anprobieren und von allen Seiten begutachten? Die Blickrichtung des Haustieres auf dem Lieblingsfoto anpassen? Oder die Perspektive auf einem Landschaftsbild verändern? Eine neue Methode verspricht nun, sie auch für Laien zugänglich zu machen – dank KI-Unterstützung mit wenigen Mausklicks. Hier ist die Dokumentation dazu.
Die neue Methode hat das Zeug dazu, die digitale Bildbearbeitung zu verändern. „Mit ‚DragGAN‘ entwickeln wir derzeit ein Werkzeug, dass es dank einer übersichtlichen Nutzeroberfläche auch Laien ermöglicht, komplexe Bildbearbeitungen vorzunehmen. Sie müssen nur die Stellen im Foto markieren, die sie verändern möchten. Dann geben sie in einem Menü an, welcher Art die Veränderung sein soll – und mit nur wenigen Mausklicks kann jeder Laie dank KI-Unterstützung die Pose, den Gesichtsausdruck, die Blickrichtung oder den Blickwinkel auf einem Foto, beispielsweise von einem Haustier, anpassen“, erklärt Christian Theobalt, geschäftsführender Direktor des Max-Planck-Instituts für Informatik, Direktor des Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence und Professor an der Universität des Saarlandes am Saarland Informatics Campus.

Generative Modelle
Möglich macht das die Künstliche Intelligenz, genauer gesagt die „Generative Adversarial Networks“, kurz GANs. „Wie der Name sagt, handelt es sich bei GANs um generative Modelle, also solche, die neue Inhalte wie Bilder synthetisieren können. ‚Adversarial‘ zeigt an, dass es sich um ein KI-Modell handelt, in dem zwei Netzwerke gegeneinander spielen“, erklärt der Erstautor des Papers, Xingang Pan, Postdoktorand am Max-Planck-Institut für Informatik und am Saarbrücker VIA-Center. In einem GAN arbeiten ein Generator, der Bilder erstellt, und ein Discriminator, der entscheiden muss, ob die Bilder echt sind oder vom Generator erstellt wurden, gegeneinander. Das System wird so lange trainiert, bis der Discriminator die Bilder des Generators nicht mehr von echten Bildern unterscheiden kann.

Vielfältige Einsatzmöglichkeiten
Die Einsatzmöglichkeiten von GANs sind vielfältig. Neben der offensichtlichen Anwendung des Bildgenerators sind GANs zum Beispiel gut darin, Bilder vorherzusagen: Die sogenannte Video-Frame-Prediction prognostiziert das nächste Bild eines Videos, was den Datenaufwand beim Videostreaming reduzieren kann. Die GANs können zudem niedrig aufgelöste Bilder hochskalieren und die Bildqualität verbessern, indem sie die Position der zusätzlichen Pixel der neuen Bilder vorhersagen.

„In unserem Fall erweist sich diese Eigenschaft von GANs als vorteilhaft, wenn in einem Bild zum Beispiel die Blickrichtung eines Hundes geändert werden soll. Das GAN berechnet dann im Grunde das ganze Bild neu und antizipiert, wo welches Pixel im Bild mit der neuen Blickrichtung landen muss. Ein Nebeneffekt davon ist, dass DragGAN auch Dinge berechnen kann, die vorher etwa durch die Kopfposition des Hundes verdeckt waren. Oder wenn der Nutzer die Zähne des Hundes darstellen will, kann er dem Hund auf dem Bild die Schnauze öffnen“, erklärt Xingang Pan. Auch im professionellen Kontext könnte DragGAN genutzt werden. Beispielsweise könnten Modedesigner den Zuschnitt von Kleidern nachträglich in Fotos anpassen oder Fahrzeughersteller könnten mit wenigen Mausklicks verschiedene Design-Konfigurationen eines geplanten Fahrzeuges durchspielen.

DragGAN funktioniere zwar bei verschiedenen Objektkategorien wie Tieren, Autos, Menschen und Landschaften, die meisten Ergebnisse seien bisher mit GAN-generierten, synthetischen Bildern erzielt worden. „Die Anwendung auf beliebige vom Benutzer eingegebene Bilder ist immer noch ein schwieriges Problem, das wir untersuchen“, ergänzt Xingang Pan.

Das neue Tool der Saarbrücker Informatiker sorgte bereits wenige Tage nach Veröffentlichung des Preprints in der internationalen Tech-Community für Aufsehen und gilt vielen als der nächste große Schritt in der KI-gestützten Bildbearbeitung. Während Tools wie Midjourney dazu genutzt werden können, neue Bilder zu erstellen, vereinfacht DragGAN die Nachbearbeitung von Bildern enorm.
Die neue Methode wird federführend am Max-Planck-Institut für Informatik und dem darin angesiedelten, gemeinsam mit Google eröffneten „Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence (VIA)“entwickelt, in Zusammenarbeit mit dem Massachusetts Institute of Technology (MIT) und der University of Pennsylvania.
Neben Professor Christian Theobalt und Xingang Pan waren an dem Paper unter dem Titel „Drag Your GAN: Interactive Pointbased Manipulation on the Generative Image Manifold“ beteiligt: Thomas Leimkühler (MPI INF), Lingjie Liu (MPI INF und University of Pennsylvania), Abhimitra Meka (Google) und Ayush Tewari (MIT CSAIL). Das Paper wurde von der ACM SIGGRAPH-Konferenz akzeptiert, der weltweit größten Fachkonferenz für Computergrafik und interaktive Technologien, die vom 6. bis 10. August 2023 in Los Angeles stattfinden wird. Ich bin neidisch und würde gerne auch mal wieder dorthin.

ChatGPT im Interview

11. März 2023

Die KI-Chatbot ChatGPT bewegt die Gemüter weltweit und hat die Chance, die Kommunikation und Wissensvermittlung auf den Kopf zu stellen. Seitdem OpenAI die KI ChatGPT im Research Preview Mode kostenfrei zur Verfügung gestellt hat, erstaunt das Tool mit seiner vielfältigen Einsetzbarkeit und dem Umgang mit Sprache, Texten und Aufgaben, die Nutzer an die Künstliche Intelligenz (KI) stellen. Und was diese lernende KI nicht alles kann: In Sekunden Aufsätze und Reden schreiben, Texträtsel lösen, Programme entwickeln, Referate entwickeln, Lebensläufe vorschlagen und vieles mehr. In einer Online-Schulung des Instituts für politische Bildung wurden rund 60 Teilnehmer auf den aktuellen Stand der Technik gebracht. Ein Teilnehmerkommentar angesichts der gesellschaftlichen Herausforderungen: „Ich bin platt, das muss man erst einmal verarbeiten.“

ChatGPT in der Version 3 ist die Abkürzung für Generative Pretrained Transformer, Version 3. Entwickelt wurde sie von dem Non-Profit-Unternehmen OpenAI Inc, das auch die Bild-KI DALL E2 entwickelt hat. Microsoft sicherte sich die Rechte an der Vermarktung des Systems und setzt es probeweise in seiner Suchmaschine Bing ein. Eine akute Gefahr für den Suchmaschinenriesen Google, der mit dem eigenen Chat-Bot BARD die Aufholjagd aufgenommen hat, bisher aber noch nicht so richtig überzeugen konnte. Der Datenbestand von ChatGPT stammt aus dem Jahre 2021. Das bedeutet, dass aktuelle Ereignisse von dem Bot im Moment nicht bearbeitet werden.

Es zeigt sich, dass die Software noch Fehler macht, aber in der Lage ist, zu lernen und sich zu optimieren. Daher ist bei all der Euphorie über ChatGPT vor allem Medienkompetenz beim Nutzer angesagt. Absolut verlässlich sind die Ergebnisse des KI (noch) nicht. Quellenkritik ist angesagt und dennoch sind die Ergebnisse faszinierend.

Was liegt bei einem Seminar der HSS näher, als mit dem Chat-Bot ein Interview über politische Bildung, die HSS und ihre Leitung zu machen.

Auf die Frage: „wie wichtig ist politische Bildung?“ gibt der Bot eine zufriedenstellende Antwort. Dort heißt es unter anderem: „Politische Bildung ist äußerst wichtig für eine funktionierende Demokratie und eine aktive
Bürgerschaft. Sie befähigt Menschen, an politischen Entscheidungsprozessen teilzunehmen und sich für ihre Interessen und Anliegen einzusetzen.“

Auch die Frage nach der Arbeit der Hanns-Seidel-Stiftung konnte der Bot korrekt beantworten. „Ja, die Hanns-Seidel-Stiftung ist mir bekannt. Es handelt sich um eine politische Stiftung, die der Christlich-Sozialen Union (CSU) nahesteht und sich für eine freie und demokratische Gesellschaft einsetzt. Die Stiftung fördert Bildung, Wissenschaft und Forschung sowie internationale Zusammenarbeit und Entwicklungszusammenarbeit.“

Aber im Laufe des Interviews beginnt das System Fehler zu machen und gibt falsche Informationen aus. Auf die Frage nach dem Vorsitzenden und dem Generalsekretär werden Fehlinformationen präsentiert. ChatGPT behauptet, dass der aktuelle Vorsitzende der Hanns-Seidel-Stiftung Markus Söder sei, der auch Ministerpräsident des Freistaats Bayern in Deutschland ist. Der Generalsekretär der Hanns-Seidel-Stiftung sei aktuell Johannes Hintersberger. Beide Informationen sind falsch.

Als ChatGPT auf den Fehler hingewiesen wird und mit Markus Ferber als Vorsitzenden und Oliver Jörg als Generalsekretär konfrontiert wird, weicht die Software zurück und erfindet Informationen. „Es tut mir leid, mein vorheriger Antwort war nicht auf dem neuesten Stand. Tatsächlich war Markus Ferber bis April 2021 der Vorsitzende der Hanns-Seidel-Stiftung und Oliver Jörg war bis Ende 2020 Generalsekretär. Ich bitte um Entschuldigung für die Verwirrung.“ SIEHE SCREENSHOT4
Als eindeutig die Position der Herren Ferber und Jörg vom Menschen klargestellt wird, nimmt der Bot die neuen Informationen in seine Datenbank auf. „Vielen Dank für die Korrektur. Es tut mir leid, dass meine vorherige Antwort nicht auf dem neuesten Stand war. Markus Ferber ist in der Tat der aktuelle Vorsitzende der Hanns-Seidel-Stiftung und Oliver Jörg ist der Generalsekretär. Ich werde meine Datenbank aktualisieren, um sicherzustellen, dass ich korrekte Informationen habe. Nochmals vielen Dank für Ihre Korrektur und Entschuldigung für etwaige Unannehmlichkeiten.“

Erstes Fazit nach der Online-Schulung. Die Möglichkeiten von ChatGTP sind enorm, das System macht Fehler und der bedienende Mensch muss über Medienkompetenz verfügen. Ein alleiniger Verlass auf die KI wäre fatal. Die HSS wird sich in weiteren Seminaren des Instituts für politische Bildung mit den Herausforderungen der KI-Systeme beschäftigen. Die nächsten Seminare sind in Planung.

Der Artikel erschien ursprünglich auf der Website der HSS.

Digitalgipfel: KI muss die Menschen abholen #codebavaria

9. Oktober 2019

„Vielfalt ist per se ein starker Wert und wer das nicht verstanden hat, hat Wissenschaft nicht verstanden!“ Das war für mich der wichtigste Satz des bayerischen Digitalgipfels codebavaria in München. Der Satz stammt von TU-Professor für Robotik Prof. Dr. Sami Haddadin, der eine Keynote im Kohlebunker hielt.
Bayerns erste Digitalministerin Judith Gerlach sieht die Digitalisierung als Chance und nicht als Risiko. Wirtschaft, Forschung und Politik müssen an einem Strang ziehen. KI verändere die Welt. „Wir müssen uns nur trauen, alles mal aus einer anderen Perspektive zu betrachten. KI als Chance für Mensch und Natur.“

„Wir müssen uns mehr trauen und endlich mit KI anfangen. Wir müssen die Probleme lösen, die wir die letzten 100 Jahre geschaffen haben. Das geht nur mit KI. Es ist eine gesellschaftliche Verpflichtung diese Instrumente einzusetzen“, so einer der Referenten des Digitalgipfels. „In der Medizin brauchen wir einen hybriden Ansatz. Digitale Technik und menschlicher Faktor müssen sich ergänzen“, so Prof. Dr. Erwin Böttinger.
Prof. Dr. Sami Haddadin betonte in seinem Vortrag: „Man darf nicht wieder den Fehler bei der Einführung neuer Technologien machen, die Menschen nicht abzuholen und sie mit ihren Ängsten alleine zu lassen.“ Und weiter: „Wir haben gute Innovationen in Bayern, müssen aber die Leute hier behalten.“ Prof. Dr. Sami Haddadin sehr eindringlich: Bayern sei die Wiege von KI, aber wir haben Nachholbedarf an Unternehmertum.

Um die Konferenz herum war eine kleine Ausstellung organisiert. Dort zeigten Startups und etablierte Unternehmen ihre Forschungen und Angebote.

Ich probierte viel aus und kam auch am Stand von Klaus Haas vorbei. Faszinierend fand ich QuantenRausch des Künstlers Klaus Haas. Er ist ein Künstler, der Kunst und Leben in ganz eigener Weise verbindet. Nach dem Studium in Nürnberg hat sich Haas rasch von der klassischen Malerei und Objektkunst verabschiedet und in Richtung neue Medien bewegt. Seither ist er ein Pionier auf dem Gebiet digitaler Kunst in Nürnberg. Sein VideoWorkCase setzt sich für die Verbreitung der Videokunst ein und das von ihm mitbegründete Institut für forschende Kunst im virtuellen Raum versteht sich als interdisziplinäre Plattform. Mit einer HTC-VR-Brille konnte ich mich in seinen Kunstwerken bewegen. Auch Ministerin Gerlach ließ sich QuantenRausch erklären.

Der Roboterhund Aibo kommt wieder und die Digitalisierung schreitet voran

2. November 2017

Ich mag meine beiden Roboterhunde Aibo von Sony.

Ich mag meine beiden Roboterhunde Aibo von Sony.

Ich habe ein sehr seltsames Hobby. Ich sammle Roboterspielzeug und einem ausgewählten Kreis von Besuchern zeige ich meine Schätze gerne. Ich gebe sogar ein- bis zweimal im Jahr Vorträge zum Thema Roboterspielzeug. Und als Sammler bekam ich gestern feuchte Augen: Sony will die Aibos wieder aufleben lassen. Hurra, die Aibos kommen wieder.
Aibos sind intelligente Roboterhunde, die Sony von 1999 bis 2006 im Programm hatte. Dann geriet Sony in die finanzielle Schieflage und stellte die Produktion der Aibos ein. Zurück blieb eine treue Fangemeinde mit ihren Roboterhunden. Darunter befinde ich mich auch. Ich besitze zwei voll funktionstüchtige Aibos der Generation Aibo ERS-210 in Silber und Gold. Alle Gelenke funktionieren einwandfrei, nur die Akkus meiner Hunde machen relativ schnell schlapp. Die Originalverpackungen und das Spielzeug sowie Software sind vorhanden.

Wuff Wuff - die Aibos zu Hause in Gold und Silber.

Wuff Wuff – die Aibos zu Hause in Gold und Silber.

Aibos kommen ab 2018
Warum jetzt meine Aufregung? Sony hat gestern mitgeteilt, dass man die Produktion der Aibos wieder aufnehmen will. Die Hunde sollen ab Januar 2018 verkauft werden. Das freut das Sammlerherz. Es ziehen aber auch dunkle Wolken auf. Sony will die Aibos nur in Japan verkaufen und verknüpft sie mit einem relativ kostspieligen Abo-Dienst. Der neue Aibo soll umgerechnet 1500 Euro kosten – nun ein Schnäppchen, wenn ich mir die Preise für alten Aibos ansehe. Die gehen locker bis 4000 Euro und mehr. Ärgerlich ist für mich der geplante Abo-Dienst, damit das Hündchen lernen kann. Dafür werden noch einmal umgerechnet 22 Euro im Monat fällig. Ein Servicevertrag kostet nochmals gut 150 Euro pro Jahr, um ggf. die Gelenke auszutauschen. Das Spielzeug bei meinen Aibos war ein rosa Plastikball. Nun soll es ein Plastikknochen für 22 Euro sein.

Sony will 2018 den neuen Aibo verkaufen. Foto: Sony

Sony will 2018 den neuen Aibo verkaufen. Foto: Sony

Der Akku meiner Aibos halten rund 30 Minuten durch, dann machen meine Hunde schlapp. Die neuen Aibos sollen zwei Stunden durchhalten und müssen dann wieder drei Stunden Strom tanken.
Während frühere Aibos dank Steckkarten lernen konnten, sitzt jetzt die Künstliche Intelligenz im Hundehirn. Die Entwicklung bei KI ist enorm und bin ich gespannt, was der Aibo leisten kann.
Das Design des Hundes ist knuffiger geworden. Der 2,2 Kilogramm schwere Hund entspricht vom Aussehen jetzt eher einem echten Hund anstatt einem Robo-Hund wie damals. Das Kindchenschema wirkt sofort bei mir, als ich die ersten Bilder aus Japan sah. Die OLED-Augen sind nun rund und auch die Schnauze sieht putzig aus. Hinter den Augen sind zwei Kamera, die auf Wunsch Bilder schießen. Der ganze Körper, Schwanz, Ohren und Pfoten, sieht heute eher nach Hund aus. Und natürlich reagiert der neue Aibo auf Audiokommandos, denn die KI ist lernfähig, schließlich hat der Aibo auch LTE an Bord. Nochmal: Der Aibo lernt.

Roboter sorgen für Digitalisierung
Ob der neue Aibo nach Europa kommt, steht noch nicht fest. Aber ich sehe in der Aktion einen Test für Roboter im Haushalt. Ich bin davon überzeugt, dass Roboter und KI stärker durch die Digitalisierung in unsere Wohnungen kommen. Der Aibo ist dabei selbstverständlich ein Spielzeug und nur der Anfang. Japan scheint mir bei seiner Technikbegeisterung das richtige Land dafür zu sein. Ich höre jetzt schon wieder die Kritiker: Früher haben wir mit echten Hunden gespielt. Blabla, Blubblub.
In meinen Vorträgen diskutiere ich die Frage nach Pflegerobotern immer wieder. Ich habe mal gesehen, dass Robo-Robben in der Pflege von Demenzkranken eingesetzt werden. Selbstfahrernde Systeme unterstützen Altenpfeger bei der Versorgung von Senioren mit Trinkwasser. Die Post lässt einen Roboterboten hinter dem Postboten hinterher spazieren. Das Militär experimentiert mit der ehemaligen Google-Firma Boston Dynamics schon lange mit Roboters als Kriegs- und Unterstützungsgerät. Leute, es passiert etwas und die Zukunft wird spannend.

Filmkritik: Blade Runner 2049

17. Oktober 2017

Blade Runner zählt für mich zu den wichtigsten Filmen der achtziger Jahre des vergangenen Jahrhunderts. Und ich hatte Angst, nach 35 Jahren mir jetzt die Fortsetzung Blade Runner 2049 anzusehen. Freunde, ich kann euch sagen: Meine Angst war vollkommen unbegründet.

Blade Runner 2049 im Berliner Zoo Palast.

Blade Runner 2049 im Berliner Zoo Palast.

Blade Runner 2049 ist ein hervorragender Film geworden. Und es ist mehr als nur ein Unterhaltungsfilm, denn die religiösen und philosophischen Aspekte des Films von 1982 wurden aufgenommen und fortgesetzt. Damit werden einige Kinozuschauer überfordert sein, so bescheinige ich dem Film keinen übermäßigen finanziellen Erfolg. Der Film hat es verdient angeschaut zu werden und genießen Sie die über zwei Stunden an visuellen, musikalischen und gedanklichen Eindrücken. Dank an die wahnsinnig intensive Kameraarbeit von Roger Deakins. Ich werde den Film mir noch zwei-, dreimal ansehen, um das gesamte Spektrum an Gedanken zu erfassen, so wie ich es mit Blade Runner 1982 auch gemacht habe.
Der Film wagt sich an ganz große Themen: Was ist Menschlichkeit? Wann sind wir Menschen? Was definiert uns als Mensch? Entsteht durch unsere Geburt, unsere Erinnerungen der wahre Mensch? Was passiert, wenn Replikanten Kinder bekommen können? Wo beginnt und wo endet die Menschlichkeit? Solche philosophischen Fragen werden in einen Hollywood-Film gepackt. Der Kinozuschauer wird mit dieser Zukunftsvision konfrontiert, unterhalten und in meinem Falle zum Nachdenken gebracht. Immer wieder tauchen Details auf, wie DNA mit vier Sequenzen und Binärcode mit Null und Eins, um dann zu diskutieren, was ist Leben. Nicht ohne Humor ist die Diskussion mit dem Hologramm als Begleiter – einfach gesagt: Kann ich mit Alexa eine Beziehung eingehen? Damit wird ganz elegant das Thema Künstliche Intelligenz eingeführt und das Anwachsen der Daten. Joi, dargestellt von einer wunderbaren Ana de Armas, lernt und sammelt. Beeindruckend, wie Joi eine Nutte benutzt, um Bewegungen zu sammeln. Und dann sagt das Hologramm ganz selbstverständlich: „Ich liebe dich.“
Und da ist im letzten Drittel des Films ein absolut göttlicher Harrison Ford als Rick Deckard. Die Frage, ob Deckard ein Replikant ist, wird wieder offen gelassen. Für mich ist die Antwort nein, denn Deckard altert und Replikanten altern nicht, basta. Ryan Gosling als Officer K ist eindeutig ein Replikant mit überraschender Geschichte.
Nach dem Film bin ich nicht aus meinen Kinosessel aufgesprungen und hab mir überlegt, was ich als nächstes mache. Ich blieb im Sessel sitzen, streifte die schreckliche 3D-Brille ab und war sprachlos. Ich musste die Eindrücke der gesehenen Bilder und der gesprochenen Worte verarbeiten, die in meinem Kopf herumschwirrten. Regisseur Denis Villeneuve gehört für mich ab jetzt zu den ganz großen Künstlern auf dem Regiestuhl und hat mit seinen 164minütigen Film die Ideen von Ridley Scott von 1982 aufgenommen und weitergeführt.

Ich liebe Atari.

Ich liebe Atari.

Und ich liebe die Details: Zuerst natürlich die Werbung: Ich habe 1982 bei Atari gelacht und 2017 wieder. Als Retrogamer liebe ich Atari. Coca Cola war wieder in beiden Filmen dabei – und Sony auch. Absolut daneben fand ich dagegen die Werbung von Johnny Walker Black Label. Deckard meinte großspurig, dass er in Las Vegas Tausende Flaschen von Whisky habe und er greift dann zu Johnny Walker. Ich würde zu vielen Whiskys greifen, aber sicherlich nicht zu Johnny Walker – oder der Gag war einfach gut.
Meine Helden Frank Sinatra und Elvis Presley haben ihre Auftritte und ich meine sogar bei der Galerie der Replikanten rechts vorne die Figur aus Prometheus gesehen zu haben. Vielleicht eine kleine Verbeugung vor dem ausführenden Produzenten Ridley Scott.

Sehe ich da rechts vorne Prometheus?

Sehe ich da rechts vorne Prometheus?

Ich sag es ungern: Die Filmmusik von Benjamin Wallfisch und Hans Zimmer ist gut, sehr gut. Ich mag Zimmer nicht, aber hier hat er eine wunderbare Arbeit abgeliefert. Leider ist der Score nur als Download bisher erschienen und nicht als Datenträger – mir völlig unverständlich. Aber natürlich ist Zimmer nicht Vangelis und reicht auch an dessen Klasse nicht heran – (diese Bemerkung musste als Zimmer-Hasser und Vangelis-Fan sein). Hat Denis Villeneuve eigentlich Vangelis gefragt, ob er den Soundtrack beisteuern will?

 

 

Digitalisierung – der Angst entgegenwirken

10. Oktober 2017

Wir müssen den Menschen die Angst vor der Digitalisierung nehmen. Immer wieder gebe ich Seminare rund um Big Data, IT-Sicherheit, Social Media oder Künstliche Intelligenz und ich stelle fest, viele Menschen haben Angst vor Veränderung. Angst ist aber immer ein schlechter Ratgeber. Daher ist Information angesagt. Nur Wissen und Information kann den Menschen die Angst nehmen und treibt sie nicht in die Arme von seltsamen Heilsversprechern. Natürlich gilt es die Digitalisierung zu hinterfragen und zu diskutieren. Aber dies kann man nur durch Information.
Mir begegnen als Referent immer wieder Menschen, die irre stolz sind, wenn sie ihren Mailaccount beim Smartphone einrichten können. Für diese Menschen ist dies bereits ein großer Schritt in Richtung Digitalisierung. Da sind manche meiner Vorträge nahezu Science Fiction, wenn ich über KI oder Sprachassistenten spreche. Für uns IT-Fuzzis ist dies schon normal. Wir diskutieren die Feinheiten zwischen Siri, Alexa und Google Assistent. Die biometrische Gesichtserkennung beim kommenden iPhone X grenzt für diese Seminarteilnehmer nahezu an ein Wunder und von autonomem Fahren haben die Leute nur am Rande etwas gehört.

Die MS Hololens ist für viele Science Fiction.

Die MS Hololens ist für viele Science Fiction.

Hier greifen meine Vorträge zur Digitalisierung, denn ich will diese Leute mitnehmen in eine spannende technische Zukunft, die kritisch hinterfragt werden muss. Wenn ich im Spiegel lese, dass viele Wirtschaftslenker in Deutschland von Digitalisierung keine Ahnung haben, macht es mir um unser Land und unsere Wirtschaft Angst. Hier setze ich mit meinen Seminaren an – und sehe dies als Beitrag zur Medienkompetenz. Aber dazu braucht es auch aufgeschlossene, interessierte Zuhörer.
Vielen Menschen geht die technische Veränderung zu schnell. Sie fühlen sich überfahren, oft allein gelassen und von den Entwicklungen überfordert. Das darf aber in einem Bildungsland wie Deutschland meiner Meinung nach nicht sein.

Technische Neuerungen setzen sich langsam durch.

Technische Neuerungen setzen sich langsam durch.

Technische Neuerungen hatten früher lange gedauert. Ich erinnere mich als Kind, wie der erste Farbfernseher von Grundig die Schwarzweißröhre abgelöst hat, und dann veränderte sich jahrelang nichts mehr im elterlichen Wohnzimmer. Als der Videorekorder kam, musste ich ihn bedienen, meine Eltern waren überfordert. Von der Wählscheibe zum Tastentelefon war es auch ein langer Weg. Die Einführung von technischen Neuerungen beschleunigte sich und meine Eltern waren neugierig, geschockt und verharrten in ihrer alten, oftmals analogen Welt. Jetzt will ich die Erfahrungen mit meinen Eltern nicht auf die Gesellschaft übertragen und dennoch merke ich bei vielen Leuten eine Angst vor etwas Neuem.

Der Computer war eine Revolution.

Der Computer war eine Revolution.

Und im Vordergrund stehen auch immer Sicherheitsbedenken. Smart Home wird verteufelt, weil in irgendeiner Reportage gesagt wurde, wie leicht man ausspioniert werden kann. Ich will mich nicht über die Bedenken lustig machen, sondern wir müssen die Angst ernst nehmen und die Leute informieren. Nicht Panikmache ist wichtig, sondern Information. Information über die Chancen und Risiken, so dass ich am Ende ein Urteil fällen kann und die Digitalisierung in das Leben einbeziehen kann. Wir stehen erst am Anfang der Digitalisierung. Die digitale Welle ist schon am Horizont zu sehen und die Vogel-Strauß-Taktik ist sicher der falsche Weg.