Posts Tagged ‘Künstliche Intelligenz’

Trainiert Adobe die KI künftig mit meinen Nutzerdaten?

7. Juni 2024

Wie kann man sich seinen Ruf als Unternehmen versauen? Der Hersteller von Kreativsoftware Adobe hat es geschafft. Die Werkzeuge wie Photoshop, Lightroom und Co gehören zum quasi Industriestandard der Branche, aber ein Update der US-Allgemeinen Geschäftsbedingungen AGB haben einen Sturm der Entrüstung im Netz ausgelöst. Was ist passiert?

Man ist als US-Nutzer gezwungen, den AGB zuzustimmen, sonst verweigert die Cloud-gesteuerte Software ihren Dienst. Künftig sollen die Kreativprodukte des Users automatisch durch Algorithmen geprüft werden. Hinzu kommt auch eine mögliche manuelle Analyse durch Adobe-Mitarbeiter. Und es kommt noch besser: Es sind maschinelle Lernanalysen der produzierten Inhalte vorgesehen. Adobe gehts noch?

Für mich bedeutet es, dass Adobe durch die Hintertür mit den Nutzerprodukten ihre hauseigene leistungsstarke KI trainieren will, die in der Adobe Cloud gespeichert sind. Je mehr Trainingsdaten eine KI zur Verfügung hat, desto leistungsfähiger wird eine Künstliche Intelligenz. Ich zahle jetzt schon viel Geld für die Adobe Produkte und die Ergebnisse meiner kreativen Arbeit sollen ggf nun als kostenlose Trainingsdaten für Adobe verwendet werden. Sonst geht es euch noch gut, oder?

Wer sich den Abschnitt 4.2 der US-AGB anschaut stellt noch eine unglaubliche Sauerei fest: Hier wird Adobe eine kostenlose Lizenz zur Nutzung, Vervielfältigung und Veränderung der eigenen Werke einräumt.

Bisher betrifft die Änderung nur die Ausgabe in den USA. Wenn das nach Deutschland kommt, dann gibt es heiße Ohren. Hallo US-Firma, kennt ihr eigentlich die Bedeutung des deutschen Urheberrechts in euerer US-Firmenzentrale?

Ich bin schon auf Affinity-Produkte von Serif umgezogen und nutze nur noch einen alten Acrobat. Ich wollte jetzt zu Premiere Pro wechseln, weil mir das Abo von Final Cut zu doof ist. Ich nehme jetzt Da Vinci als Videoschnittsoftware.

Es gibt Alternativen
Es gibt eine schöne Liste von Open Source Tools als Alternative zu Adobe Produkten.

Open AI mit GTP 4o – der nächste Schritt

14. Mai 2024

Gebannt verfolgte ich die Neuerungen, die Open AI-Technikchefin, Mira Murati gestern Nacht vorstellte. Open Ai ist der Hersteller von ChatGTP und DALLE, ein Software-Hersteller, der mein Leben auf den Kopf stellt. Vorgestellt wurde GT4o für Jedermann. Bisher mussten die kostenlosen Nutzer der Software mit der Version 3.5 Vorlieb nehmen, jetzt bekommen sie das Update auf 4o für umsonst. Und es gab Verbesserungen im Bereich Sprache, Text und Bild. Gestestet habe ich sie bisher noch nicht, die Software wird in den nächsten Tagen ausgerollt.

Die 26minütige Präsentation war nicht ohne Fehler, aber die Vision dahinter ist enorm. Die kostenlose Version soll nun auch sprechen können. Die Kommunikation mit dem Chatbot läuft also jetzt auch über Sprache. Meine Amazon Echo-Geräte mit Alexa werden beleidigt sein. Hier die komplette Vorstellung:

Die KI soll nicht nur mathematische Aufgaben lösen können (das konnte sie bisher auch schon), sie soll jetzt Hilfestellung beim Lösungsweg geben und eine Art Nachhilfecoach darstellen. Auch Live-Übersetzungen von Sprache mit Sprachausgabe ist nun möglich – der Universalübersetzer der Enterprise ist damit Realität. Murati sprach auf Italienisch, die KI übersetzte auf Englisch. Das Team sprach auf Englisch und die KI übersetzte auf Italienisch. Adieu Langenscheidts Wörterbuch für den Urlaub.

ChatGPT am Mac
ChatGPT 4o von Open AI wird nun als Desktop-Anwendung auf dem Mac laufen zugänglich. Die soll es einfacher machen, auf das System zuzugreifen. Ich habe bisher die Anwendung MacGTP laufen. Von Windows wurde bei der Keynote nicht gesprochen. Wahrscheinlich werden Neuerungen auf der Apple Keynote WWDC am 10. Juni von Tim Cook verraten, wenn ChatGTP in das iOS18 von Apple integriert wird. Das Wirtschaftsmagazin Bloomberg berichtete unlängst, dass die Kooperation zwischen Open AI und Apple in trockenen Tüchern sei. Was wohl Microsoft dazu sagt?

Das Zauberwrt ChatGTP 5 wurde in der Übertragung nicht gewöhnt. Die Version 4 kam vor 14 Monaten auf den Markt. So wird 4o wohl nur ein Zwischenschritt sein. Die Erwartungen auf den nächsten Schritt sind bei mir groß.

Sora – Text-to-Video Modell von OpenAI- ich werde (wieder) Filmemacher

17. Februar 2024

Als ich Sora zum ersten Mal gesehen habe, begann ich zu träumen. Wie toll ist Sora? Was wäre mit Sora alles möglich? Nein, nicht dass Sie mich missverstehen. Ich bin glücklich verheiratet und Sora ist kein weibliches Wesen. Sora ist das neue Text-to-Video Modell von OpenAI, also eine KI-Anwendung mit der per Eingabe/Promt bewegte Bilder entstehen.

Als ich die ersten Videos von OpenAI gesehen hatte, setzte bei mir eine Zeitreise in das Jahr 1982/83 ein. Damals sah ich als Jugendlicher im Kino den Disney-Spielfilm Tron. Hier werden Menschen in den Speicher eines Computers versetzt und kämpfen als Bits und Bytes als Videospiele gegeneinander. Die visuelle Darstellung von Tron haute mich aus den Socken. Ich ging aus dem Kino und wollte so etwa mit meinem Heimcomputer machen, mit dem VC20 und dann dem Commodore C64. Also einen Film auf VHS drehen und vom C64 kommen die Effekte. Das Ganze ist krachend gescheitert, aber die Idee war gut.

Vielleicht greife ich ein neues Projekt des Filmemachens mit Sora neu an. Sora erstellt realistische Videosequenzen aus einfachen Texteingaben. Es sollen 60 Sekunden Clips möglich sein. Noch steht Sora nicht zur allgemeinen Nutzung bereit, aber ich stehe bereit und warte auf die Freischaltung for the rest of us. Ich kann ja inzwischen an einem Drehbuch-Script arbeiten und auf das Go durch OpenAI warten.

Allgemein kann ich mir vorstellen, dass Sora und Co wie Googles Gemini die Welt es Filmemachens verändern werden. Die Stock-Agenturen, die jetzt Filmclips verkaufen, werden ins Straucheln geraten.

Natürlich sind wir erst in der Frühphase von Sora. Das aktuelle Modell hat Schwächen. Es kann Schwierigkeiten haben, die Physik einer komplexen Szene genau zu simulieren, und kann bestimmte Fälle von Ursache und Wirkung nicht verstehen. Zum Beispiel könnte eine Person einen Bissen aus einem Keks nehmen, aber danach hat das Cookie möglicherweise keine Bissmarkierung. Ich bin gespannt auf die nähere KI-Zukunft und freu mich darauf.

Wenn die KI Halluzinationen hat

15. Februar 2024

Ich beschäftige mich gerade damit, wie vertrauensvoll eigentlich die Ergebnisse von KI sind. Ich bereite dazu ein Online-Seminar vor. Wir wissen alle, dass ChatGPT und Co falsche Aussagen liefern können und es gibt genügend Beispiele, wie folgenreich waren. Wir erinnern uns: Im Frühjahr 2023 sanktionierte ein US-Richter eine US-Anwaltskanzlei, weil sie in einem Schriftsatz, den ein Chatbot verfasst hatte, Rechtsgutachten mit gefälschten Zitaten zitiert hatte.

Und dennoch setzte ich in meiner täglichen Arbeit Werkzeuge wie ChatGPT ein, prüfe aber die Ergebnisse gewissenhaft. Fast schon ein wenig psychedelisch nennen die Experten diese Fehler dann auch Halluzinationen.

Aber wie lassen sich diese Halluzinationen eindämmern, vor allem wenn sie im beruflichen Umfeld genutzt werden? In Unternehmen, die Chatbots für Kunden und Mitarbeiter einsetzen, kann nur eine einzige KI-Erfindung Unternehmen vor Gericht bringen und den Ruf ruinieren.

Mit der wachsenden Zahl von KI-gestützten Chatbots steigen also die Risiken, dass diese nicht wie gewünscht funktionieren. Unsinnige oder ungenaue Ausgaben oder Antworten, die nicht aus den Large Language Modells (LLMs) herausgefiltert werden können, verbleiben in dem Daten-Pool der Chatbots und versauen die Antworten.

Schlechte Trainingsdateien
Halluzinationen treten auf, wenn die Daten, die zum Trainieren von LLMs verwendet werden, von schlechter Qualität oder unvollständig sind. Die Häufigkeit liegt bei den meisten KI-Plattformen zwischen 3 % und 8 %. Bei Customer-Service-Chatbots kann die Bereitstellung falscher Ratschläge oder Informationen wichtige Ziele wie die Kundenzufriedenheit negativ beeinflussen. Sie können auch in hochkomplexen (und regulierten) Sektoren wie dem Gesundheitswesen oder dem Finanzwesen zu Verwirrung und Schaden führen.

Folgenreich
In IT-Organisationen richten KI-Pannen auch auf andere Weise verheerende Schäden an. Chatbots können Service-Tickets falsch zuweisen, ein Problem ungenau beschreiben oder Arbeitsabläufe stören und zu erheblichen systemischen Problemen führen.
Für Ingenieure kann ein KI-generierter Code, der in der Softwareentwicklung verwendet wird, Sicherheitslücken oder geistiges Eigentum enthalten, das während des Trainings aufgenommen wurde. KI-Systeme können auch komplexe Fehler oder Sicherheitsprobleme übersehen, die nur ein Entwickler erkennen und beheben würde.

Was ist zu tun?
Also was ist zu tun, um die Risiken zu minimieren?
Inhaltsfilter: Eine Vielzahl von technischen oder richtlinienbasierten Leitplanken kann vor unangemessenen oder schädlichen Inhalten schützen. Beispielsweise können Inhaltsfilter die Beantwortung von Fragen zu sensiblen Problemen oder Themen ablehnen. Beim Customer-Service sollte ein Chatbot eine Anfrage schnell an einen menschlichen Mitarbeiter übergeben, wenn er verwirrt ist oder nicht in der Lage ist, die genaue Antwort zu finden.
Besser Datenqualität: Bei der Schulung von LLMs sollten IT-Teams die Daten validieren, um sicherzustellen, dass sie qualitativ hochwertig, relevant und umfassend sind. Trainingsdaten sollten regelmäßig überprüft werden, um sich vor „Modelldrift“ oder Leistungseinbußen zu schützen, die aufgrund von Änderungen des zugrunde liegenden Datenmodells im Laufe der Zeit auftreten.
Leitplanken: Durch die Einschränkung der Fähigkeit der Chatbots, sich mit Apps und Diensten von Drittanbietern zu verbinden, wird die Möglichkeit vermieden, irreführende, ungenaue oder potenziell schädliche Daten zu generieren. Nebeneffekte des Sandboxings des Chatbots auf diese Weise sind eine bessere Leistung (weniger Abhängigkeiten) und eine verbesserte Compliance für die Branchen, in denen dies unerlässlich ist.

Forschung arbeitet an Lösungen
Halluzinationen mögen heute ein Problem sein, aber die Forschung ist im Gange, das Problem zu lösen. In dem Bemühen, sowohl die Genauigkeit als auch die Zuverlässigkeit zu verbessern, wird alles untersucht, von der Erstellung größerer Modelle bis hin zur Selbstdurchführung der Faktenprüfung durch LLMs.
Und erste Schritt werden unternommen. Das von CISPA Helmholtz-Zentrum für Informationssicherheit unterstützte Startup QuantPi wird mit 2,5 Millionen Euro vom European Innovation Council (EIC) gefördert. Das Geld soll für den Aufbau einer Plattform für vertrauenswürdige generative Künstliche Intelligenz (KI) verwendet werden.

Diese Förderung unterstützt QuantPi bei seiner Pionierarbeit für die sichere Nutzung generativer KI. Das Startup arbeitet daran, der Gesellschaft ein sicheres und selbstbestimmtes Leben mit Künstlicher Intelligenz zu ermöglichen. Die Fördersumme will das Unternehmen dafür einsetzen, die aktuelle auf KI basierende Testtechnologie weiterzuentwickeln, um somit die erste automatisierte Risikomanagement-Plattform aufzubauen, die Sicherheit, Fairness und Erklärbarkeit generativer KI-Systeme ermöglicht.
Die Technologie von QuantPi bietet Anbietern generativer KI-Systeme die Chance, höchste ethische Standards auf ihre Produkte anzuwenden. Firmen, die GenAI-Tools kaufen möchten, können mit Hilfe der Plattform Risikobewertungsprozesse während der Beschaffung automatisieren – zum Schutz ihrer Kunden und zur Sicherstellung, dass lediglich hochwertige KI gekauft wird. Zudem wird geprüft, ob die KI-Systeme den strengen Tests zur Einhaltung von EU-Standards standhalten können.

Der CEO von QuantPi, Philipp Adamidis, äußerte sich begeistert über die Förderung und erklärte: „Dies ist ein Beweis für die harte Arbeit und das Engagement des gesamten QuantPi-Teams. Wir freuen uns, dass wir diese Mittel nutzen können, um den sicheren und verantwortungsvollen Einsatz von KI zu gewährleisten, ohne dabei den Fortschritt zu bremsen. Die Förderung beschleunigt nicht nur unsere Forschungs- und Entwicklungsbemühungen, sondern unterstützt auch unser Engagement, einen positiven Beitrag für die Gesellschaft zu leisten.“

Alarm: Vertrauen in Demokratie bei Jugendlichen sinkt

9. Februar 2024

Als Medien-Fuzzi bin ich frustriert und motiviert zugleich. 60 % der 18- bis 30-jährigen Deutschen miss­trauen den Medien, sagt eine Studie der Bertelsmann Stiftung. Über diese Zahl bin ich entsetzt und gleichzeitig stelle ich fest, wie wichtig meine Seminare zur Medienkompetenz sind.

Die Ergebnisse der Studie sind heftig. Ermutigend ist das Vertrauen in Bildung und Wissen­schaft, das je drei Viertel der Befragten zum Ausdruck bringen. Und nun wieder heftig: Der EU vertrauen 62 %, der Demokratie sogar nur 59 %. Ich fühle mich als Europäer und Demokrat und ich fühle mich aufgefordert, gegen diese Werte anzukämpfen. Die untersuchte Generation in der Bundesrepublik bringt der Demokratie und der Europäischen Union allerdings mehr Vertrauen entgegen als im Durchschnitt anderer europäischer Länder. Das ist schön, aber noch immer schlecht. Bundesregierung und Bundestag stehen sie jedoch kritischer gegenüber.

Was ist denn in unserem Land los? Natürlich ist Europa und Demokratie anstrengend, aber wenn ich nicht für diese Werte einstehe, dann gehen diese Werte flöten. Veränderung ist wichtig, aber nicht zerstören.

Manipulation der Medien
Ich hielt vor kurzem einen Vortrag über KI und FakeNews und versuchte den Besucherinnen und Besuchern die Veränderung der Welt zu erläutern. Einige von den älteren Gästen wollten davon nichts wissen, sondern lenkten die Diskussion auf die vermeintliche Manipulation der Medien sprechen. Sie haben den Begriff Systemmedien nicht in den Mund genommen, vielleicht gedacht. Es war zu spüren, dass sie mit der Berichterstattung in klassischen Massenmedien, vor allem Radio und Fernsehen nicht einverstanden sind. „Die wollen uns manipulieren, die berichten nicht die Wahrheit“, war zu hören. Zeitung wurde nicht genannt, liegt wahrscheinlich daran, dass eine Zeitung sowieso kaum einer mehr abonniert hat.

Weiter mit der Bertelsmann-Umfrage und den Themen der Jugend. Laut Umfrage machen sie sich die meisten Sorgen um Verletzungen von Menschenrechten, den Klimawandel sowie sexuelle Belästigung. Insbesondere in Bezug auf den Klimawandel sind ihre Befürchtungen allerdings nicht höher als die der älteren Generation. Tatsächlich geben aus der Gruppe der ebenfalls befragten 31- bis 70-Jährigen mehr Menschen an, einer umweltbewussten Lebensweise zu folgen, als es die jüngeren Befragten tun. „Die jungen Erwachsenen sorgen sich weiterhin um den Klimawandel, aber sie besetzen das Thema längst nicht mehr allein. Daher wäre es grundlegend falsch, ihre Sorgen und Ängste darauf zu reduzieren. Wir als Gesellschaft müssen genauer hinsehen, was sie belastet“, betont Anja Langness, Jugendexpertin der Bertelsmann-Stiftung.

Eine große Rolle für junge Menschen spielt zum Beispiel die mentale Gesundheit: 41 Prozent von ihnen geben an, darüber besorgt zu sein – deutlich mehr als ältere Befragte (26 Prozent). Zudem fühlen sich viel mehr junge Erwachsene allein, als es bei den 31- bis 70-Jährigen der Fall ist. Und: Ebenso wie die älteren Befragten gehen sie davon aus, dass sich ihre mentale Gesundheit in den kommenden Jahren verschlechtern wird.

Künstliche Intelligenz KI im Verkaufseinsatz

17. Januar 2024

Mindestens einmal im Monat darf ich Online- oder Präsenzseminare zum Thema Künstliche Intelligenz für Verbraucher halten. Die Entwicklungen in diesem Bereich sind rasant und im Grunde gibt es Woche für Woche Neuigkeiten zu berichten. Daher auch mein kostenloser wöchentlicher Newsletter.

Jetzt bekam ich einen Kommentar von Freshworks auf den Tisch, die mir wieder bewusst machen, wie weit der Handel mit dem Thema KI in der Praxis ist. Wir sprechen dabei nicht von Science Fiction, sondern von der Realität. Im Mittelpunkt steht die Kundenpersonalisierung, also Daten, Daten, Daten als Zauberwort und Türöffner. Im Moment recherchiere ich zum neuen AI Data-Act der EU in einem Spannungsfeld zwischen Datenschutz und Innovationshemmnis.

Unternehmen setzen vermehrt auf KI-Techniken wie maschinelles Lernen, um Kundenverhalten, Stimmungen, demografische Daten und Kaufhistorien zu analysieren und dadurch personalisierte Erlebnisse zu schaffen. Diese Entwicklung zeigt bereits jetzt messbare Ergebnisse, wobei laut NewVantage Partners 92 % der Unternehmen, die in KI investieren, messbare Erfolge verzeichnen – im Vergleich zu 48 % vor fünf Jahren.

Personalisierung der Inhalte
Traditionelle Marketing-Personalisierung basiert auf einer Persona-basierten Segmentierung, die Nutzer anhand allgemeiner demografischer Merkmale wie Alter, Einkommen und Beruf in Gruppen einteilt. Diese Daten sind jedoch oberflächlich und berücksichtigen nicht die individuellen Leidenschaften und Lebensstile. Ich kenne aber viele Organisationen, die Persona jetzt erst einsetzen.

KI-Algorithmen analysieren detaillierte und umfangreiche Daten, darunter demografische Informationen, Seitenaufrufe und Downloads. Diese Daten ermöglichen es Unternehmen, Muster zu erkennen und Inhaltsstrategien präziser auf einzelne KundInnen zuzuschneiden. Ein Beispiel ist Spotify, das maschinelles Lernen nutzt, um personalisierte Musikinhalte basierend auf der individuellen Streaming-Historie zu liefern. Besonders in Branchen wie Medien und Unterhaltung, in denen Inhalte das Hauptprodukt sind, spielt die personalisierte Content-Strategie eine entscheidende Rolle.

Empfehlungen für Produkte
Unternehmen nutzen die Online-Suchhistorie, um Produktkategorien für Kunden mit ähnlichem Suchverhalten zu verstehen, stoßen jedoch oft an Grenzen bei der Empfehlung neuer Produkte. KI verwendet nicht nur Kundendaten, sondern erfordert auch genauere Produktmodelle. Durch detaillierte Produktinformationen, einschließlich Bedienungsanleitungen und einzigartiger Merkmale, kann KI personalisierte Produktvorschläge erstellen, die die individuellen Bedürfnisse der KundInnen besser ansprechen. E-Commerce-Unternehmen setzen KI ein, um Produkte mithilfe neuronaler Netze basierend auf Bildern und Texten zu analysieren, was zu genaueren und persönlicheren Produktempfehlungen führt.

Dynamische Preisgestaltung
Traditionelle Regelbasierte Preisgestaltungssysteme stützen sich auf langsame Informationen und historische Daten, was zu reaktiven Preisentscheidungen führt. KI-gestützte Systeme passen Preise in Echtzeit an, indem sie eine Vielzahl von Datenquellen berücksichtigen, von Wetterbedingungen bis hin zur persönlichen Historie des Kunden oder der Kundin. Besonders in volatilen Branchen wie dem Transportwesen spielt die KI-gesteuerte dynamische Preisgestaltung eine entscheidende Rolle.

Verhaltensbasierte Personalisierung
Die Kaufhistorie allein bietet begrenzte Einblicke in das Kundenverhalten. KI ermöglicht Echtzeitdatenerfassung über digitale Telemetrie, Website-Navigation und Stimmungsanalyse, was eine prädiktive Analyse des Kundenverhaltens ermöglicht. Branchen, die mit Online-Nutzern interagieren, profitieren von der verhaltensbasierten Personalisierung, sei es im Kundensupport von Mobilfunkanbieteren oder in der Finanzdienstleistungsbranche, die individuelle Bedürfnisse besser verstehen möchte.

Insgesamt hat die Einführung von KI-basierten Personalisierungstechnologien das Potenzial, das Kundenerlebnis zu revolutionieren und Unternehmen näher an ihre Kunden zu bringen als je zuvor.

Träumen und genießen: Den letzten Song der Beatles Now and Then

3. November 2023

Um 14:57 Uhr war es am 2. November bei mir soweit. Da aktualisierte sich die Apple Musik Bibliothek und ich konnte den letzten Song der Beatles Now and Then hören.

Meine Frau und ich lauschten dem Gesang von John Lennon andächtig, schweigsam und nachdenklich. Was für ein emotionales Erlebnis eine neue Aufnahme der Fab Four zu hören und was für ein schönes Lied. Mich hat Now and Then berührt. Die Vinyl-Single in Blau wird heute im Laufe des Tages eintreffen und ich werde ein Unoxing-Video nachschieben. Hier die schwarze Ausgabe.

Die Geschichte von Now and Then haben wir in den vergangenen Tages immer wieder gehört: Lennon wurde 1980 von dem Fanatiker Chapman erschossen. 1979 nahm er im Dakota diesen Song auf eine einfach Audiocassette auf. Yoko Ono gab 1994/5 diese Audiocassette an Paul McCartney weiter mit der Gesangsaufnahme von Lennon samt Klavier. Das lange Zeit mythologisierte John-Lennon-Demo wurde erstmals im Februar 1995 von Paul, George und Ringo im Rahmen des Projekts The Beatles Anthology bearbeitet, blieb aber unvollendet, unter anderem wegen der unmöglichen technischen Herausforderungen bei der Arbeit mit der Stimme, die John in den 1970er Jahren auf Band aufgenommen hatte. Das Band hat einfach gebrummt.

Der Ort des Mordes an John Lennon.
Der Ort des Mordes an John Lennon.


Die Rest-Beatles wollten diese letzte Aufnahme fertigstellen, zur baren Münze umwandeln und somit veröffentlichen, doch Produzent und Techniker Jeff Lynne (ELO) scheiterte technisch an der Aufnahme. Die Technik der Zeit war einfach noch nicht so ausgereift. Das Ding brummte einfach zu stark. Es konnten nur die Songs Free as a Bird und Real Love von der gleichen Kassette gerettet und veröffentlicht werden. Now and Then war unmöglich zu produzieren – Stimme und Klavier waren zu stark miteinander verwoben – und das Brummen.

Erst als Regisseur Peter Jackson sich an die Rekonstruktion von Get Back machte, war es technisch möglich Lennons Stimme und sein Klavier und das Brummen zu trennen. Die Stimme von John Lennon wurde isoliert und war durch KI-Technik glasklar. Machine Learning analysierte den Gang und optimierte ihn. Ein bedeutender Beweis für die positive Arbeit von KI-Technologie. Die Rest-Beatles, nunmehr nur noch Paul und Ringo, entschlossen sich 2022/3 nun doch Now and Then zu veröffentlichen. George Harrison war ja 2001 an Krebs verstorben – der Gitarrenpart von Now and Then basiert aber auf seinem Gitarrenspiel. Es wurde nun Streicher hinzugefügt, die allerdings nicht wussten, dass es sich um eine Beatles-Aufnahme handelte. Paul schummelte hier und erklärte den Musikern, dass es sich um ein neues Stück von ihm handelte – also strengste Geheimhaltung.

Und so läuft bei mir Now and Then in Endlosschleife – zugegeben mit Tränen in den Augen. Nach zig Mal hören fiel mir am Ende eine Stimme aus. Etwa bei 4:04 Minute. Nur ein Wort am Ende des Songs, ich glaube es klingt nach Ringo. Ein Vermächtnis? Ein Fehler? Ein Hinweis? Und ich muss mal in den entsprechenden Beatles Foren nachlesen.

Ich sitze auf dem Sofa und träume. Natürlich wird Now and Then die Musik nicht mehr revolutionieren. Es ist keine bahnbrechende Aufnahme, aber verdammt noch mal, es sind die Beatles. Was für eine geniale Band waren die Beatles doch gewesen. Danke an Yoko Ono, dass sie das Tape weitergegeben hat. Der letzte Beatles-Song und ich war dabei.

Beatles und Pumuckl kommen dank KI wieder

15. Juni 2023

Die Welt ist durch KI im Umbruch. Gestern kamen zwei Meldungen ins Postfach, die ich interessant finde, weil sie zeigen, welche Möglichkeiten KI für die Entertainment Industrie möglich sind: Paul McCartney kündigt dank KI einen letzten Beatles-Song an und Pumuckl kommt mit der Stimme des verstorbenen Hans Clarin wieder.

Ich freu mich auf die Beatles 2023
Es ist wohl der Lennon-Song Now And Then von 1978, der auf einer Democassette lag und nun aufgepeppt wurde. McCartney hatte das Demo-Tape „For Paul“ von Lennons Witwe Yoko Ono erhalten. Die Tracks wurden größtenteils mit einem Ghettoblaster aufgenommen, während der Musiker in seiner New Yorker Wohnung am Klavier saß. Für die Neuveröffentlichung wurde die Stimme Lennons durch KI von früheren Aufnahmen herausgefiltert. „Wir konnten Johns Stimme nehmen und sie durch diese KI pur bekommen“, sagte der 81jährige Paul McCartney der BBC. Die beiden anderen Songs auf der Cassette waren Free as a Bird und Real Love, die bereits 1995 und 1996 veröffentlicht wurden. Jetzt war die Technik soweit, dass der Songs überarbeitet werden konnte. Die Aufnahme soll noch dieses Jahr erscheinen. Ich bin dabei.

Pumuckl 2023 mit zwei Stimmen
„Meister Eder und sein Pumuckl“ war in den 1980er Jahren eine der beliebtesten Kinder- und Familienserien Deutschlands. Die Geschichten über den kleinen, rothaarigen Kobold und seinen Schabernack haben bis heute Kultstatus. Jetzt kehrt er endlich zurück: In 13 Folgen der Serie „Neue Geschichten vom Pumuckl“. Ausgestrahlt werden die neuen Folgen Ende 2023 auf RTL+, RTL und Super RTL. Premiere hat die Serie am 24. Juni 2023 auf dem Kinderfilmfest in München. Pumuckl ist zurück – die Figur wird gespielt und gesprochen von Schauspieler und Kabarettist Maxi Schafroth und per KI mit der Original-Stimme von Hans Clarin. Für Pumuckls Stimme wurde zum ersten Mal überhaupt in diesem Umfang mittels Künstlicher Intelligenz die Stimme Schafroths in die unverkennbare Pumuckl-Stimme von Hans Clarin umgewandelt. Für alte und neue Pumuckl-Fans stellt RTL+ exklusiv beide Stimmversionen parallel zum Streamen bereit. So ist Pumuckl sowohl mit der Stimme von Hans Clarin als auch mit der von Maxi Schafroth erlebbar.

Das wird an mir vorbeigehen, nicht weil ich die KI-Version nicht mögen würde, sondern weil mir die neuen 3D-Animationen nicht gefallen – und wo ist eigentlich der Meister Eder?

KI DragGAN kann die Bildbearbeitung revolutionieren

4. Juni 2023

Es überschlagen sich die Ideen beim Thema KI und aus der Flut von Innovationen ist es schwer den Überblick zu behalten. Ich bin auf die KI DragGAN vom Max-Planck-Institut für Informatik in Saarbrücken gestoßen, die das Potential hat, Bildbearbeitung komplett zu verändern. Das Projekt kommt vom angesiedelten Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence (VIA). Es wird im August auf der SIGGRAPH vorgestellt, die ich früher jedes Jahr besucht habe. Es war für mich immer das Muppet Labor von Prof. Bunsenbrenner, wo die Zukunft schon heute gemacht wird.

Kleidungsstücke an einem digitalen Avatar anprobieren und von allen Seiten begutachten? Die Blickrichtung des Haustieres auf dem Lieblingsfoto anpassen? Oder die Perspektive auf einem Landschaftsbild verändern? Eine neue Methode verspricht nun, sie auch für Laien zugänglich zu machen – dank KI-Unterstützung mit wenigen Mausklicks. Hier ist die Dokumentation dazu.
Die neue Methode hat das Zeug dazu, die digitale Bildbearbeitung zu verändern. „Mit ‚DragGAN‘ entwickeln wir derzeit ein Werkzeug, dass es dank einer übersichtlichen Nutzeroberfläche auch Laien ermöglicht, komplexe Bildbearbeitungen vorzunehmen. Sie müssen nur die Stellen im Foto markieren, die sie verändern möchten. Dann geben sie in einem Menü an, welcher Art die Veränderung sein soll – und mit nur wenigen Mausklicks kann jeder Laie dank KI-Unterstützung die Pose, den Gesichtsausdruck, die Blickrichtung oder den Blickwinkel auf einem Foto, beispielsweise von einem Haustier, anpassen“, erklärt Christian Theobalt, geschäftsführender Direktor des Max-Planck-Instituts für Informatik, Direktor des Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence und Professor an der Universität des Saarlandes am Saarland Informatics Campus.

Generative Modelle
Möglich macht das die Künstliche Intelligenz, genauer gesagt die „Generative Adversarial Networks“, kurz GANs. „Wie der Name sagt, handelt es sich bei GANs um generative Modelle, also solche, die neue Inhalte wie Bilder synthetisieren können. ‚Adversarial‘ zeigt an, dass es sich um ein KI-Modell handelt, in dem zwei Netzwerke gegeneinander spielen“, erklärt der Erstautor des Papers, Xingang Pan, Postdoktorand am Max-Planck-Institut für Informatik und am Saarbrücker VIA-Center. In einem GAN arbeiten ein Generator, der Bilder erstellt, und ein Discriminator, der entscheiden muss, ob die Bilder echt sind oder vom Generator erstellt wurden, gegeneinander. Das System wird so lange trainiert, bis der Discriminator die Bilder des Generators nicht mehr von echten Bildern unterscheiden kann.

Vielfältige Einsatzmöglichkeiten
Die Einsatzmöglichkeiten von GANs sind vielfältig. Neben der offensichtlichen Anwendung des Bildgenerators sind GANs zum Beispiel gut darin, Bilder vorherzusagen: Die sogenannte Video-Frame-Prediction prognostiziert das nächste Bild eines Videos, was den Datenaufwand beim Videostreaming reduzieren kann. Die GANs können zudem niedrig aufgelöste Bilder hochskalieren und die Bildqualität verbessern, indem sie die Position der zusätzlichen Pixel der neuen Bilder vorhersagen.

„In unserem Fall erweist sich diese Eigenschaft von GANs als vorteilhaft, wenn in einem Bild zum Beispiel die Blickrichtung eines Hundes geändert werden soll. Das GAN berechnet dann im Grunde das ganze Bild neu und antizipiert, wo welches Pixel im Bild mit der neuen Blickrichtung landen muss. Ein Nebeneffekt davon ist, dass DragGAN auch Dinge berechnen kann, die vorher etwa durch die Kopfposition des Hundes verdeckt waren. Oder wenn der Nutzer die Zähne des Hundes darstellen will, kann er dem Hund auf dem Bild die Schnauze öffnen“, erklärt Xingang Pan. Auch im professionellen Kontext könnte DragGAN genutzt werden. Beispielsweise könnten Modedesigner den Zuschnitt von Kleidern nachträglich in Fotos anpassen oder Fahrzeughersteller könnten mit wenigen Mausklicks verschiedene Design-Konfigurationen eines geplanten Fahrzeuges durchspielen.

DragGAN funktioniere zwar bei verschiedenen Objektkategorien wie Tieren, Autos, Menschen und Landschaften, die meisten Ergebnisse seien bisher mit GAN-generierten, synthetischen Bildern erzielt worden. „Die Anwendung auf beliebige vom Benutzer eingegebene Bilder ist immer noch ein schwieriges Problem, das wir untersuchen“, ergänzt Xingang Pan.

Das neue Tool der Saarbrücker Informatiker sorgte bereits wenige Tage nach Veröffentlichung des Preprints in der internationalen Tech-Community für Aufsehen und gilt vielen als der nächste große Schritt in der KI-gestützten Bildbearbeitung. Während Tools wie Midjourney dazu genutzt werden können, neue Bilder zu erstellen, vereinfacht DragGAN die Nachbearbeitung von Bildern enorm.
Die neue Methode wird federführend am Max-Planck-Institut für Informatik und dem darin angesiedelten, gemeinsam mit Google eröffneten „Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence (VIA)“entwickelt, in Zusammenarbeit mit dem Massachusetts Institute of Technology (MIT) und der University of Pennsylvania.
Neben Professor Christian Theobalt und Xingang Pan waren an dem Paper unter dem Titel „Drag Your GAN: Interactive Pointbased Manipulation on the Generative Image Manifold“ beteiligt: Thomas Leimkühler (MPI INF), Lingjie Liu (MPI INF und University of Pennsylvania), Abhimitra Meka (Google) und Ayush Tewari (MIT CSAIL). Das Paper wurde von der ACM SIGGRAPH-Konferenz akzeptiert, der weltweit größten Fachkonferenz für Computergrafik und interaktive Technologien, die vom 6. bis 10. August 2023 in Los Angeles stattfinden wird. Ich bin neidisch und würde gerne auch mal wieder dorthin.

ChatGPT im Interview

11. März 2023

Die KI-Chatbot ChatGPT bewegt die Gemüter weltweit und hat die Chance, die Kommunikation und Wissensvermittlung auf den Kopf zu stellen. Seitdem OpenAI die KI ChatGPT im Research Preview Mode kostenfrei zur Verfügung gestellt hat, erstaunt das Tool mit seiner vielfältigen Einsetzbarkeit und dem Umgang mit Sprache, Texten und Aufgaben, die Nutzer an die Künstliche Intelligenz (KI) stellen. Und was diese lernende KI nicht alles kann: In Sekunden Aufsätze und Reden schreiben, Texträtsel lösen, Programme entwickeln, Referate entwickeln, Lebensläufe vorschlagen und vieles mehr. In einer Online-Schulung des Instituts für politische Bildung wurden rund 60 Teilnehmer auf den aktuellen Stand der Technik gebracht. Ein Teilnehmerkommentar angesichts der gesellschaftlichen Herausforderungen: „Ich bin platt, das muss man erst einmal verarbeiten.“

ChatGPT in der Version 3 ist die Abkürzung für Generative Pretrained Transformer, Version 3. Entwickelt wurde sie von dem Non-Profit-Unternehmen OpenAI Inc, das auch die Bild-KI DALL E2 entwickelt hat. Microsoft sicherte sich die Rechte an der Vermarktung des Systems und setzt es probeweise in seiner Suchmaschine Bing ein. Eine akute Gefahr für den Suchmaschinenriesen Google, der mit dem eigenen Chat-Bot BARD die Aufholjagd aufgenommen hat, bisher aber noch nicht so richtig überzeugen konnte. Der Datenbestand von ChatGPT stammt aus dem Jahre 2021. Das bedeutet, dass aktuelle Ereignisse von dem Bot im Moment nicht bearbeitet werden.

Es zeigt sich, dass die Software noch Fehler macht, aber in der Lage ist, zu lernen und sich zu optimieren. Daher ist bei all der Euphorie über ChatGPT vor allem Medienkompetenz beim Nutzer angesagt. Absolut verlässlich sind die Ergebnisse des KI (noch) nicht. Quellenkritik ist angesagt und dennoch sind die Ergebnisse faszinierend.

Was liegt bei einem Seminar der HSS näher, als mit dem Chat-Bot ein Interview über politische Bildung, die HSS und ihre Leitung zu machen.

Auf die Frage: „wie wichtig ist politische Bildung?“ gibt der Bot eine zufriedenstellende Antwort. Dort heißt es unter anderem: „Politische Bildung ist äußerst wichtig für eine funktionierende Demokratie und eine aktive
Bürgerschaft. Sie befähigt Menschen, an politischen Entscheidungsprozessen teilzunehmen und sich für ihre Interessen und Anliegen einzusetzen.“

Auch die Frage nach der Arbeit der Hanns-Seidel-Stiftung konnte der Bot korrekt beantworten. „Ja, die Hanns-Seidel-Stiftung ist mir bekannt. Es handelt sich um eine politische Stiftung, die der Christlich-Sozialen Union (CSU) nahesteht und sich für eine freie und demokratische Gesellschaft einsetzt. Die Stiftung fördert Bildung, Wissenschaft und Forschung sowie internationale Zusammenarbeit und Entwicklungszusammenarbeit.“

Aber im Laufe des Interviews beginnt das System Fehler zu machen und gibt falsche Informationen aus. Auf die Frage nach dem Vorsitzenden und dem Generalsekretär werden Fehlinformationen präsentiert. ChatGPT behauptet, dass der aktuelle Vorsitzende der Hanns-Seidel-Stiftung Markus Söder sei, der auch Ministerpräsident des Freistaats Bayern in Deutschland ist. Der Generalsekretär der Hanns-Seidel-Stiftung sei aktuell Johannes Hintersberger. Beide Informationen sind falsch.

Als ChatGPT auf den Fehler hingewiesen wird und mit Markus Ferber als Vorsitzenden und Oliver Jörg als Generalsekretär konfrontiert wird, weicht die Software zurück und erfindet Informationen. „Es tut mir leid, mein vorheriger Antwort war nicht auf dem neuesten Stand. Tatsächlich war Markus Ferber bis April 2021 der Vorsitzende der Hanns-Seidel-Stiftung und Oliver Jörg war bis Ende 2020 Generalsekretär. Ich bitte um Entschuldigung für die Verwirrung.“ SIEHE SCREENSHOT4
Als eindeutig die Position der Herren Ferber und Jörg vom Menschen klargestellt wird, nimmt der Bot die neuen Informationen in seine Datenbank auf. „Vielen Dank für die Korrektur. Es tut mir leid, dass meine vorherige Antwort nicht auf dem neuesten Stand war. Markus Ferber ist in der Tat der aktuelle Vorsitzende der Hanns-Seidel-Stiftung und Oliver Jörg ist der Generalsekretär. Ich werde meine Datenbank aktualisieren, um sicherzustellen, dass ich korrekte Informationen habe. Nochmals vielen Dank für Ihre Korrektur und Entschuldigung für etwaige Unannehmlichkeiten.“

Erstes Fazit nach der Online-Schulung. Die Möglichkeiten von ChatGTP sind enorm, das System macht Fehler und der bedienende Mensch muss über Medienkompetenz verfügen. Ein alleiniger Verlass auf die KI wäre fatal. Die HSS wird sich in weiteren Seminaren des Instituts für politische Bildung mit den Herausforderungen der KI-Systeme beschäftigen. Die nächsten Seminare sind in Planung.

Der Artikel erschien ursprünglich auf der Website der HSS.