Zum heutigen Tag der Pressefreiheit starte ich ein neues Podcast-Projekt als Beiratsmitglied des PresseClubs München. Der PresseClub München startet mit „Ganz nah“ einen neuen Videopodcast, der hinter die Kulissen des Journalismus blicken will. Das Leitmotiv des Formats lautet: „Wir reden nicht über Schlagzeilen, sondern darüber, wie sie entstehen.“
In der ersten Folge spreche ich mit Dr. Uwe Brückner, dem Vorsitzenden des PresseClubs München. Im Mittelpunkt stehen der PresseClub als Ort des journalistischen Austauschs, Brückners persönlicher Weg in den Journalismus und die Frage, wie sich Medienarbeit in Zeiten von Digitalisierung, wirtschaftlichem Druck und Künstlicher Intelligenz verändert. Hier der Podcast zum Anschauen.
Brückner beschreibt den PresseClub München als einen besonderen Ort: als Netzwerk, Denkraum und Treffpunkt für Journalistinnen und Journalisten, Medienschaffende und Menschen aus dem öffentlichen Leben. Die Lage am Münchner Marienplatz, mit Blick auf das Rathaus, sei dabei mehr als nur ein Standortvorteil. Sie stehe sinnbildlich für Nähe zu Öffentlichkeit, Politik und Stadtgesellschaft. Der Club verstehe sich als Plattform für Austausch, Medienkompetenz und journalistische Qualität.
Im Gespräch blickt Brückner auch auf seine eigenen Anfänge zurück. Schon als Schüler kam er über ein Schüler-Presse-Seminar mit dem Journalismus in Berührung. Ursprünglich wollte er Pianist werden, doch schließlich führte ihn sein Weg in die Kulturberichterstattung, zum Fernsehen und später in leitende Funktionen bei verschiedenen Sendern. Journalismus sei für ihn mehr als ein Beruf, sagt Brückner: Er sei eine Haltung und vor allem eine Dienstleistung an der Gemeinschaft. Geprägt habe ihn dabei auch seine fränkische Herkunft und das Engagement seiner Eltern in Vereinen. Gemeinwohl, Zuhören und das genaue Hinsehen seien bis heute zentrale Motive seiner Arbeit.
Ein Schwerpunkt des Gesprächs ist die journalistische Arbeit hinter den Kulissen. Brückner betont die Bedeutung von Quellen, Netzwerken und persönlichem Vertrauen. Entscheidend sei nicht nur, was gesagt werde, sondern auch, wer etwas sage, in welchem Zusammenhang und mit welcher Haltung. Gerade in einer Zeit, in der Informationen immer schneller verbreitet werden, brauche es journalistische Sorgfalt, Distanz und Einordnung.
Auch über den Wandel der Medien spreche ich mit Brückner ausführlich. Themen wie wirtschaftlicher Druck, Lokaljournalismus, Online-Nutzung, Podcasts und Künstliche Intelligenz spielen dabei eine zentrale Rolle. Brückner sieht die Krise des Journalismus weniger als inhaltliche Krise, sondern vor allem als wirtschaftliche und strukturelle Veränderung. Vertrauen und Glaubwürdigkeit seien weiterhin die wichtigste Währung journalistischer Arbeit – besonders im Lokalen. Zugleich eröffneten neue Formate wie Podcasts Chancen, Themen vertiefend und nah an den Menschen zu erzählen.
Mit Blick auf Künstliche Intelligenz zeigt sich Brückner offen, aber kritisch. KI könne journalistische Arbeit unterstützen, dürfe aber nicht dazu führen, dass Menschen nur noch in ihrer eigenen Informationsblase bestätigt würden. Entscheidend bleibe, dass Quellen überprüfbar, Informationen faktenbasiert und journalistische Standards gewahrt bleiben.
Zum Abschluss richtet Brückner den Blick auf die Zukunft des PresseClubs München. Der Club wolle junge Journalistinnen und Journalisten stärker einbinden, Mentoring fördern und zugleich vom Erfahrungsschatz langjähriger Mitglieder profitieren. Themen wie Demokratiebildung, Medienkompetenz, Qualitätsjournalismus und der Austausch zwischen Generationen sollen künftig eine noch größere Rolle spielen. Damit setzt die erste Folge von „Ganz nah“ den Ton für ein Format, das nicht nur über Medien spricht, sondern den Entstehungsprozess von Journalismus sichtbar machen will. Geplant ist eine monatliche Fortsetzung der Reihe „Ganz nah“.
Im Bayerischen Wirtschaftsarchiv in München wird bayerische Wirtschaftsgeschichte nicht nur bewahrt, sondern lebendig vermittelt. Beim Besuch des PresseClub München begrüßte Archivleiter Dr. Harald Müller die Gäste gemeinsam mit seinem kleinen Team und gab zunächst einen Einblick in Aufgaben, Geschichte und Selbstverständnis der Einrichtung, bevor es später in die Magazine ging, dorthin also, wo Wirtschaftsgeschichte buchstäblich greifbar wird. Das Archiv, so machte Müller gleich deutlich, ist eine vergleichsweise junge Institution innerhalb der deutschen Archivlandschaft. Während staatliche, kommunale oder kirchliche Archive auf jahrhundertelange Traditionen zurückblicken, entstanden Wirtschafts- und Unternehmensarchive erst mit dem tiefgreifenden Wandel durch die Industrialisierung. Als sich im 19. Jahrhundert Produktionsweisen, Arbeitswelt und gesellschaftliche Strukturen massiv veränderten, wurde deutlich, dass moderne Geschichte ohne die Quellen der Wirtschaft gar nicht mehr angemessen geschrieben werden kann. Hinzu kam das Interesse der Unternehmen an ihrer eigenen Vergangenheit: Jubiläen, Traditionspflege und die Darstellung des eigenen Werdegangs nach außen machten historische Dokumente plötzlich zu einem wichtigen Gut. Aus diesem Zusammenspiel von wissenschaftlichem Interesse und unternehmerischem Selbstverständnis gingen die ersten Wirtschaftsarchive hervor.
Das Bayerische Wirtschaftsarchiv selbst hat seine Wurzeln in einer 1986 gegründeten Einrichtung der IHK für München und Oberbayern. Schon damals war die Idee angelegt, ein gesamtbayerisches Archiv zu schaffen, doch zunächst hielten sich die übrigen Industrie- und Handelskammern zurück. Erst als sich das Archiv positiv entwickelte, wuchs die Unterstützung. Einen wichtigen Schub brachte früh die Übernahme des Löwenbräu-Archivs, ein spektakulärer Bestand mit großer Symbolkraft für München. 1994 wurde daraus schließlich offiziell das Bayerische Wirtschaftsarchiv als Gemeinschaftseinrichtung aller bayerischen Industrie- und Handelskammern. Bis heute, erläuterte Müller, ist genau das der entscheidende Rahmen: Das Archiv wird im Wesentlichen von den bayerischen IHKs finanziert und versteht sich als Einrichtung der wirtschaftlichen Selbstverwaltung. Staatliche oder kommunale Zuschüsse erhält es nicht. Gerade darin liegt seine Besonderheit, aber auch seine Fragilität, denn ein regionales Wirtschaftsarchiv ist rechtlich keineswegs zwingend vorgesehen.
Anders als öffentliche Archive kann das Bayerische Wirtschaftsarchiv nicht auf eine gesetzliche Ablieferungspflicht bauen. Unternehmen sind, abgesehen von bestimmten steuerrechtlichen Aufbewahrungsfristen, nicht verpflichtet, ihre Unterlagen dauerhaft archivieren zu lassen. Deshalb funktioniert Wirtschaftsarchivwesen in gewisser Weise umgekehrt: Das Archiv wartet nicht auf Akten, sondern geht aktiv auf Unternehmen zu. Gesucht werden traditionsreiche Firmen, bedeutende Arbeitgeber, branchentypische Betriebe oder wirtschaftshistorisch besonders interessante Sonderfälle. Dabei ist oft viel Überzeugungsarbeit nötig, denn viele Unternehmen wissen selbst nicht genau, was sich noch in Kellern, Dachböden oder alten Aktenschränken befindet. Vor allem aber braucht es Vertrauen. Müller schilderte eindrucksvoll, wie lang dieser Weg sein kann: Die längste Übernahme seiner Laufbahn dauerte vom ersten Kontakt bis zur tatsächlichen Abgabe ganze 17 Jahre. Das Archiv der Firma Conradi, ursprünglich eine Bleistiftfabrik, später Hersteller hitzebeständiger Kohlenstoffprodukte, konnte erst nach dem Tod des Eigentümers übernommen werden. Solche Geschichten zeigen, dass Archivarbeit nicht nur fachliche Kompetenz, sondern auch Geduld, Fingerspitzengefühl und strategisches Denken verlangt.
Die Bestände des Bayerischen Wirtschaftsarchivs sind daher oft fragmentarisch. Häufig handelt es sich nicht um vollständig erhaltene Firmenüberlieferungen, sondern um ausgewählte Dokumente, die sich retten ließen. Das gilt auch für prominente Bestände wie das Krauss-Maffei-Archiv. Dieses kam aus einer konkreten Gefährdungslage heraus ins Archiv, als die Zukunft des Unternehmens unsicher war und man wichtige Unterlagen und historische Objekte in Sicherheit bringen wollte. Doch auch hier handelt es sich nicht um eine geschlossene Unternehmensüberlieferung, sondern um eine über Jahre von der Presse- und Öffentlichkeitsarbeit zusammengestellte Sammlung. Gerade solche Beispiele machen deutlich, dass Wirtschaftsarchive oft das bewahren, was andernfalls unwiederbringlich verloren wäre.
Bei der Auswahl der Unterlagen geht das Archiv mit großer Sorgfalt vor. Da Platz, Personal und Ressourcen begrenzt sind, kann nicht einfach alles übernommen werden. Ziel ist vielmehr, mit möglichst wenig Material möglichst viel wirtschaftshistorische Aussagekraft zu sichern. Besonders wichtig sind serielle Überlieferungen wie Jahresabschlüsse, Prüfberichte, Gesellschafterprotokolle, Werbemittel oder Produktinformationen, also Dokumente, aus denen sich Entwicklung, Struktur und Selbstverständnis eines Unternehmens nachvollziehen lassen. Gleichzeitig wird bewertet und reduziert: Nicht jede technische Detailzeichnung oder jede Einzelschraube eines Maschinenplans kann archiviert werden. Es geht darum, die wesentlichen Linien der Unternehmensgeschichte zu bewahren, ohne die Bestände unüberschaubar werden zu lassen.
Auch thematisch versucht das Archiv, die bayerische Wirtschaft in ihrer Breite abzubilden. Dabei spielen regionale und branchenspezifische Schwerpunkte eine große Rolle. In Oberfranken etwa sind Textilindustrie oder Spielwarenhersteller besonders relevant, in München Brauereien oder traditionsreiche Industriebetriebe. Zugleich wird darauf geachtet, Lücken in den Beständen gezielt zu schließen. Was bereits gut dokumentiert ist, muss nicht in derselben Dichte ein weiteres Mal gesammelt werden; dafür rücken andere Branchen oder Regionen stärker in den Fokus. So entsteht nach und nach ein facettenreiches Bild der bayerischen Wirtschaftsgeschichte.
Ein eigenes Kapitel ist die Zeit des Nationalsozialismus. Müller betonte, dass es in den Beständen des Bayerischen Wirtschaftsarchivs zwar durchaus kriegsbedingte Verluste gebe, etwa durch Bombenangriffe oder Zerstörungen wie in Bayreuth oder Würzburg, auffällige bewusste Säuberungslücken aber bislang kaum erkennbar seien. Zugleich verwies er darauf, dass die NS-Vergangenheit der großen Unternehmen in den vergangenen Jahrzehnten vielfach wissenschaftlich aufgearbeitet worden sei, nicht zuletzt im Zuge der Debatten um Zwangsarbeit und Entschädigung. Das habe auch das Wirtschaftsarchivwesen professionalisiert. Heute verschiebt sich das Interesse stärker hin zur Erforschung individueller Schicksale, etwa jüdischer Unternehmerfamilien oder arisierter Betriebe. Gerade hier können archivalische Splitter, einzelne Akten oder beschädigte Geschäftsbücher, die noch Brandspuren tragen, eine enorme historische Aussagekraft entfalten.
Ein zentrales Zukunftsthema ist die Digitalisierung. Dr. Müller machte dabei sehr deutlich, dass digitale Archivierung eine der größten Herausforderungen für Archive überhaupt darstellt. Einzelne digitale Unterlagen wie Fotosammlungen, Werbematerialien oder Gesellschafterprotokolle kann das Bayerische Wirtschaftsarchiv bereits übernehmen und systematisch erfassen. Schwieriger wird es jedoch bei komplexen digitalen Dokumentenmanagementsystemen, Datenbanken oder ganzen IT-Strukturen von Unternehmen, für deren dauerhafte Übernahme bislang oft die technischen Voraussetzungen fehlen. Hinzu kommen Fragen der Kompatibilität, der Datensicherheit und der langfristigen Lesbarkeit von Formaten. Auch die Erwartung, Archivgut umfassend im Internet verfügbar zu machen, sieht Müller kritisch. Zum einen sind viele Bestände Eigentum der Unternehmen, zum anderen wächst mit Künstlicher Intelligenz die Sorge vor Manipulation und Entstellung digitaler Quellen. Gerade deshalb, so sein zugespitztes Argument, gewinnen die Originale in Papierform eher wieder an Bedeutung. Digitalisiert wird dennoch, allerdings vor allem aus konservatorischen Gründen oder zur internen Nutzung. Ein möglicher nächster Schritt könnte ein geschützter digitaler Lesesaal sein, in dem Nutzer zeitlich begrenzten Zugriff auf ausgewählte Digitalisate erhalten. Eine vollständige Online-Stellung ganzer Archivbestände hält das Bayerische Wirtschaftsarchiv dagegen weder für realistisch noch für verantwortbar.
Neben der reinen Bewahrung historischer Quellen versteht sich das Archiv zunehmend auch als Dienstleister und Vermittler. Anfragen von Journalisten, Forschern oder Studierenden sind ausdrücklich willkommen und können unkompliziert per E-Mail gestellt werden. In den meisten Fällen, so betonten die Mitarbeiter, könne man weiterhelfen oder zumindest an andere Archive verweisen. Auch die Öffentlichkeitsarbeit wurde in den vergangenen Jahren ausgebaut, etwa über LinkedIn, Newsletter, Beiträge in IHK-Medien, Veranstaltungen wie die Lange Nacht der Münchner Museen oder den Tag der Archive. So wird deutlich, dass das Bayerische Wirtschaftsarchiv kein abgeschlossener Ort für Spezialisten sein will, sondern ein offenes Haus, das Wirtschaftsgeschichte für eine breitere Öffentlichkeit zugänglich macht.
Der Besuch des PresseClub München machte damit anschaulich, wie vielschichtig die Arbeit eines Wirtschaftsarchivs ist. Es geht um historische Forschung, um Rettung gefährdeter Quellen, um Vertrauen im Umgang mit Unternehmen und um die Frage, wie die Überlieferung der Wirtschaft in einer digitalen Welt gesichert werden kann. Vor allem aber wurde deutlich, dass das Bayerische Wirtschaftsarchiv mit seinem kleinen Team eine große Aufgabe erfüllt: Es bewahrt jene Spuren der Wirtschaft, ohne die sich die Geschichte Bayerns nicht vollständig erzählen ließe.
Im Moment berate ich einen Kunden, der KI verstärkt in seine Organisation einführt. Und ist stelle fest: Man muss ganz schön dicke Bretter bohren, denn eine solche Einführung ist ein komplexer Transformationsprozess, der weit über die reine Implementierung technischer Systeme hinausgeht. Sie stellt Organisationen vor eine Vielzahl strategischer, organisatorischer, technischer und ethischer Herausforderungen, die geplant und gesteuert werden müssen.
Eine der zentralen Herausforderungen liegt in der Datenbasis. KI-Systeme benötigen große Mengen qualitativ hochwertiger, strukturierter Daten, um zuverlässig arbeiten zu können. Viele Organisationen verfügen jedoch über unvollständige, veraltete oder isolierte Datensätze, die zunächst bereinigt, vereinheitlicht und zugänglich gemacht werden müssen. Jeder hat irgendwo eine Excel-Tabelle abgelegt, die er persönlich für seine Bedürfnisse verwaltet und pflegt. Der Aufbau einer robusten Dateninfrastruktur – einschließlich Datenschutz, Datensicherheit und Zugriffsmanagement – ist daher ein grundlegender Schritt. Und täglich neue Daten müssen erfasst und eingepflegt werden.
Darüber hinaus spielt die Akzeptanz der Mitarbeiter eine entscheidende Rolle. KI verändert Arbeitsabläufe, Entscheidungsprozesse und teilweise ganze Berufsbilder. Dies kann zu Unsicherheiten und Widerständen führen, insbesondere wenn Beschäftigte den Eindruck gewinnen, durch automatisierte Systeme ersetzt zu werden. Eine offene Kommunikation, die Beteiligung der Mitarbeiter am Veränderungsprozess sowie gezielte Schulungs- und Weiterbildungsmaßnahmen sind daher essenziell, um Vertrauen zu schaffen und Kompetenzen aufzubauen.
Auch auf der strategischen Ebene müssen Organisationen klare Ziele definieren: Soll KI Effizienz steigern, Entscheidungen verbessern oder neue Geschäftsmodelle ermöglichen? Ohne eine klare Zielsetzung drohen Insellösungen und Fehlinvestitionen. Zwar bekommt man durch gescheiterte Projekte eine Menge Erfahrung, aber Scheitern ist ja nicht der Sinn der Sache. Ein verantwortungsvolles KI-Management sollte zudem ethische Leitlinien entwickeln, um Transparenz, Nachvollziehbarkeit und Fairness sicherzustellen. Insbesondere der Umgang mit sensiblen Daten und algorithmischen Entscheidungen erfordert eine sorgfältige ethische und rechtliche Abwägung.
Nicht zuletzt stellt die technische Integration eine erhebliche Herausforderung dar. KI-Systeme müssen in bestehende IT-Landschaften eingebettet, mit vorhandenen Anwendungen kompatibel und kontinuierlich aktualisiert werden. Dies erfordert interdisziplinäre Zusammenarbeit zwischen allen Beteiligten.
Ich habe bei meiner Recherche einen interessanten Kommentar von Box gefunden. Bis ist ein Anbieter für intelligentes Content Management. Die Aussagen dieses Kommentars kann ich bestätigen. 90 % der Unternehmen planen, ihre Ausgaben für KI-Tools im nächsten Jahr zu erhöhen. Schon heute sind es lediglich 6 % der Befragten, die noch nicht in irgendeiner Form künstliche Intelligenz einsetzen. Alleine diese beiden Zahlen zeigen die aktuelle Transformation der Wirtschaft. Der Wandel zur „AI-First-Company“ ist in vollem Gange. Doch auf diesem Weg liegen einige Fallstricke, die den nachhaltigen Erfolg von KI-Strategien gefährden. Box hat die häufigsten dieser Hürden in seinem neuen Guide „Becoming an AI-First Company“ zusammengefasst.
Den Status Quo automatisieren und zementieren Bestehendes zu automatisieren kann dazu führen, dass es effizienter wird. Es kann allerdings auch die Einschränkungen der aktuellen Prozesse weiter verstärken. Besser ist es, das Momentum zu nutzen und zu fragen: Wie könnte diese Aufgabe aussehen, wenn KI-Tools zur Verfügung stehen?
Erfolg nur an Einsparungen messen KI ist kein Sparprogramm, sie ist ein Investment. Es ist gefährlich sie lediglich als Mittel zu sehen, die aktuelle Wertschöpfung günstiger herzustellen, denn das ignoriert ihr Potenzial für Innovation und die Expansion in neue Marktsegmente. Es gibt verschiedene Metriken, um den Erfolg von KI-Initiativen zu bewerten. 64 % der Unternehmen im State of AI-Report messen die Zeitersparnis, 51 % die Produktivitätsgewinne. Doch auch Kundenzufriedenheit (28 %) oder das Entwickeln neuer Angebote (19 %) können ein Erfolgsfaktor sein.
Daten und Strukturen sind nicht bereit Um das meiste aus der KI herauszuholen, braucht es strukturierte Daten. Niedrige Datenqualität, isolierte Content-Silos und inkonsistente Tagging können die KI-Leistung erheblich einschränken. Unternehmen sollten deshalb früh in Metadaten, Berechtigungen, Versionierung und Zugriffskontrolle investieren, um eine KI-fähige Infrastruktur sicherzustellen. Daten sind der Ausgangspunkt, nicht der Zwischenstopp.
KI ohne roten Faden Eine der größten Gefahren bei der KI-Transformation ist gerade bei großen Unternehmen, dass viele einzelne Projekte in Silos entstehen, die danach nicht ineinander übergreifen. Eine klare strategische Ausrichtung als roter Faden für das gesamte Unternehmen ist aber Pflicht, wenn am Ende Synergien und kohärente Prozesse stehen sollen. Empfehlenswert ist daher, klare Verantwortliche festzulegen, die einen gemeinsamen Plan umsetzen.
Meist ist mehr Change Management nötig als gedacht Die besten Ideen können scheitern, wenn sie nicht an die Mitarbeiter denken. Die Veränderung ist für diese enorm und wird zunächst häufig auch als Bedrohung gesehen. Damit das ganze Unternehmen „AI-first“ denkt und handelt, müssen die Angestellten mitgenommen werden. Klare Kommunikation, gezielte Schulungen, persönliche Unterstützung und ein Aufzeigen von Erfolgen sind ein Muss.
Der Traffic meines Blog geht ein wenig zurück seitdem KI in der Welt das draußen eingesetzt. Jetzt habe ich das Glück, dass ich in meinem Blog Dinge aus persönlicher Sichtweise berichte und kommentiere, so dass mich der KI-Trend nur am Rande betrifft. Wie dramatisch muss es bei Informations- oder Firmenseiten sein, wenn Browser mehr und mehr auf KI-Elemente setzen?
Google hat seinen KI-gestützten Suchmodus auf weitere Länder ausgeweitet. Seit dem 8. Oktober ist die Funktion nun auch in Deutschland, Österreich und der Schweiz verfügbar. Diese Einführung ist Teil eines umfassenden internationalen Rollouts, der über 40 neue Länder und 36 zusätzliche Sprachen abdeckt. Nutzer können den neuen Modus direkt über die Google-Startseite, die mobile App oder innerhalb der Suchergebnisse aktivieren.
Der KI-Suchmodus erweitert die klassische Google-Suche um intelligente Funktionen, die besonders bei komplexen oder erklärungsbedürftigen Fragen hilfreich sind. Zum Einsatz kommt dabei eine angepasste Version der Gemini-Sprachmodelle. Suchanfragen werden in einzelne Bestandteile zerlegt, analysiert und parallel verarbeitet, um tiefere und präzisere Antworten zu liefern – ohne dass mehrere Suchvorgänge nötig sind.
Ich will jetzt gar nicht auf die Kritik dazu eingehen, wie sie in den USA bei der Premiere auftauchten, weil unter anderem fehlerhafte und teils absurde Antwortvorschläge in den automatisierten Kurzüberblicken erschienen.
Für viele Suchende im Web reichen die KI Antworten aus und surfen nicht mehr auf die aufgelisteten Website. Dort bricht der Traffic ein und wer seine Seite mit Werbung finanziert, der verliert Reichweite und dadurch Geld.
Meine Vermutung werden jetzt von anderen bestätigt. Deutsche Unternehmen verlieren 7 % ihres Google-Traffics. Laut einer Analyse der Münchner Online-Marketing-Agentur Seokratie ist der Anteil der Websitebesucher, die über Google kamen, im Vergleich zum Vorjahr deutlich gesunken. Gleichzeitig wächst der Traffic über KI-Tools wie ChatGPT um das Siebenfache. Grundlage der Untersuchung waren anonymisierte Traffic-Daten von mehr als 100 deutschen Unternehmenswebsites mit insgesamt fast 70 Millionen Website-Besuchern.
Betrachte ich mein eigenes Verhalten. Ich suche deutlich mehr mit ChatGPT und Perplexity als mit Google. Beim Suchmaschinenriesen müssen die Alarmsignale läuten, wenn diese Entwicklung zu einem Massenphänomen wird. Es ist im Moment nur eine private Beobachtung, die von der Agentur bestätigt wird. Trotz des Wachstums bleibt ChatGPT in Deutschland bislang ohne nennenswerte Bedeutung für Website-Traffic. Der Anteil stieg zwar um das 7,4-Fache, von 0,08 % auf 0,66 %, bleibt aber auf niedrigem Niveau. „Noch hat der Traffic über ChatGPT keine Relevanz“, so die Münchner Online-Marketing-Agentur Seokratie.
Sie kommt zum Fazit: „Erstens verlangsamt sich die Verbreitung von ChatGPT erheblich. Zweitens integriert Google ChatGPT-ähnliche Funktionen direkt in die eigene Suche. Und drittens wissen Nutzer inzwischen, dass ChatGPT für die Suche nach konkreten Produkten oder Dienstleistern nicht die erste Wahl ist. Langfristig wird eher Google ChatGPT gefährlich als umgekehrt.“ Ich bin mal gespannt.
Ich bin ein Fan der Künstlichen Intelligenz KI, aber nicht immer und überall. Nachdem ich Meta zum Sammeln hauseigenen KI bei Facebook und Instagram abgeschaltet habe (WA nutze ich nicht), ist jetzt das Microsoft-Netzwerk Linkedin an der Reihe. Microsoft setzt bei LinkedIn eine Kombination aus Nutzerdaten, Interaktionsmustern und maschinellem Lernen ein, um seine KI-Modelle zu trainieren. Vereinfacht gesagt fließen drei Hauptquellen ein:
Profildaten und Lebensläufe LinkedIn verfügt über mehr als 1 Milliarde Nutzerprofile weltweit. Diese enthalten strukturierte Informationen wie Ausbildung, Berufserfahrung, Fähigkeiten oder Branchenzugehörigkeit. Daraus lassen sich Modelle für Karrierewege, Skill-Matching oder Empfehlungsalgorithmen trainieren. Interaktionsdaten Das Verhalten der Nutzer liefert wertvolle Signale: Welche Beiträge werden gelesen, geliked oder kommentiert? Welche Jobs werden gesucht oder aufgerufen? Welche Kontakte geknüpft? Solche Daten helfen der KI, Relevanz und Interessenprofile abzuleiten. Texte und Inhalte Beiträge, Artikel, Nachrichten und Stellenausschreibungen auf LinkedIn dienen als Trainingsmaterial für Sprachmodelle. Damit können KI-Systeme Themen erkennen, Texte zusammenfassen oder passende Inhalte empfehlen.
Alles schön und gut, aber ich habe die KI-Sammelwut bei Linkedin abgestellt. Wer dies auch will, gehe bitte zu Einstellungen Datenschutz. MS hat den Schieberegel für Daten zur Verbesserung generativer KI aktiviert.
Ich habe hier die Zustimmung verweigert. Ich möchte nicht, dass meine Daten zum Schulen von KI-Modellen verwendet werden, um Inhalte zu erstellen.
KI rauf und runter und die Künstliche Intelligenz stellt die Welt auf den Kopf. Berufe verändern sich radikal und mit der Einführung von Agents in ChatGTP wurde ein weiterer Schritt der Veränderung beschritten.
Agents In ChatGPT bezeichnen „Agents“ spezialisierte, eigenständige Instanzen des Sprachmodells, die für bestimmte Aufgaben oder Anwendungsbereiche konfiguriert sind. Diese Agents verfügen über spezifisches Wissen, Funktionen oder Werkzeuge, um Nutzern gezielt bei komplexen Fragestellungen oder Prozessen zu helfen. Beispielsweise kann ein Agent für Programmierung, Datenanalyse oder Textbearbeitung eingerichtet sein und entsprechend optimierte Antworten liefern. Dabei agieren Agents innerhalb des Systems wie digitale Assistenten mit bestimmten Rollen, unterscheiden sich jedoch von allgemeinen Chatverläufen durch ihre Spezialisierung und Zielorientierung.
Klingt kompliziert, bedeutet aber in einfachen Worten: In ChatGPT sind „Agents“ so etwas wie kleine, spezialisierte Helfer. Jeder Agent ist für eine bestimmte Aufgabe gedacht – zum Beispiel für Programmieren, Texte schreiben oder Daten auswerten. Man kann sich das wie verschiedene Expertinnen und Experten vorstellen, die jeweils auf ein Thema spezialisiert sind. Wenn man also eine bestimmte Frage hat, kann ein passender Agent dabei helfen, schneller und gezielter eine gute Antwort zu finden.
Wie wäre es, wenn die KI Vorschläge für eine Urlaubsreise macht. Das kann sich eine Mehrheit von 58 Prozent der deutschen Urlauber vorstellen. 25 Prozent würden demnach einer KI dabei auf jeden Fall vertrauen, weitere 33 Prozent eher. Unter den 16- bis 29-Jährigen würden sogar 66 Prozent einer KI die komplette Urlaubsplanung und -buchung überlassen, in der Altersgruppe ab 65 Jahren mit 46 Prozent aber auch noch fast die Hälfte. Das sind Ergebnisse einer repräsentativen Befragung unter 1.006 Personen ab 16 Jahren, darunter 955 Urlauberinnen und Urlauber, im Auftrag des Digitalverbands Bitkom.
Schon jetzt nutzen viele KI-Anwendungen wie ChatGPT oder Google Gemini, um sich die Urlaubsvorbereitung zu erleichtern, und zwar allen voran für Tipps zu Unterkünften und Reisezielen. 22 Prozent der Urlauber haben sich von einer KI-Anwendung Unterkünfte vorschlagen lassen, weitere 44 Prozent sind offen dafür. 18 Prozent haben sich bereits von KI Reiseziele vorschlagen lassen, und ebenfalls 44 Prozent können sich dies zukünftig vorstellen.
Für Vorschläge zu Ausflügen oder Aktivitäten am Urlaubsort wie Sehenswürdigkeiten, Freizeitaktivitäten oder Veranstaltungen haben 12 Prozent der Urlauber bereits KI genutzt. Offen wären dafür weitere 39 Prozent. 11 Prozent lassen sich bisher Routen vor Ort, zum Beispiel für Stadtrundgänge, vorschlagen und auch hier wären weitere 39 Prozent zukünftig für KI-Hilfe offen. Beim Kofferpacken und kurzfristigen Informationen sind die deutschen Urlauber hingegen noch eher zurückhaltend: Nur 8 Prozent haben sich von KI bereits Packlisten für Ihren Urlaub erstellen lassen. Und nur für weitere 15 Prozent kommt es zukünftig in Frage, sich von einer KI beim Kofferpacken helfen zu lassen. Auch bei aktuellen Informationen über das Reiseziel wie Reisewarnungen oder Impfungen vertraut bisher nur 1 Prozent KI-Anwendungen. Hier ist aber das Potential besonders hoch; zukünftig offen wären dafür 46 Prozent.
Die Katze ist aus dem Sack: Der Start von TRON: Ares ist für den 9. Oktober vorgesehen. Als Fan von Tron bin ich gespannt. Disney hat den ersten Trailer ins Netz gestellt. Und schon rattern meine Gedanken: Wie wird Tron fortgesetzt? Klar wird beim Betrachten des Trailers, dass der dritte Teil der Tron-Reihe die Grenzen zwischen digitaler und realer Welt weiter ausloten wird.
Hier ein bisschen Stochern im Nebel: Im Mittelpunkt steht Ares, ein hochentwickeltes KI-Programm, das erstmals die digitale Welt (das Grid) verlässt und in die reale Welt eintritt. Jared Leto verkörpert diese Figur, die auf eine gefährliche Mission geschickt wird – deren Details sind noch unklar. Die Wahl des Namens „Ares“ (nach dem griechischen Kriegsgott) deutet darauf hin, dass der Film möglicherweise Themen wie Konflikte zwischen Menschen und Maschinen behandelt.
Im Trailer kracht es gewaltig – visuell beeindruckend, aber auf den ersten Blick nicht sonderlich anders als übliches Popcorn-Kino. Bei Tron erwarte ich mir ehrlich gesagt mehr Tiefe.
Der Film unter der Regie von Joachim Rønning setzt auf den Ereignissen von Tron: Legacy (2010) auf. Während dort Quorra, ein Programm, in die menschliche Welt übertrat, scheint Tron: Ares diese Idee weiterzuführen und zu vertiefen. Kevin Flynn (Jeff Bridges), der Schöpfer des Grids, kehrt zurück und spielt offenbar eine Schlüsselrolle. Eine Begegnung zwischen Flynn und Ares wird im Trailer angedeutet.
Es gibt Spekulationen über einen möglichen Krieg zwischen Menschen und KI-Wesen. Der Film könnte sich mit ethischen und existenziellen Fragen auseinandersetzen, die durch das Eindringen von KI in die reale Welt entstehen. Der Trailer zeigt eine düstere Atmosphäre mit industriellen Elementen – was auf einen ernsteren Ton hinweist. Wie bei den Vorgängern wird auch Tron: Ares für seine beeindruckenden visuellen Effekte bekannt werden. Der Stil bleibt futuristisch und neonlastig. Der Soundtrack stammt von Nine Inch Nails – das unterstreicht die düstere Stimmung des Films musikalisch. Nach Wendy Carlos und Daft Punk liegt die Messlatte allerdings ziemlich hoch.
Tron – ein Meilenstein Der Film Tron (1982) gilt als Meilenstein in der Filmgeschichte, insbesondere wegen seiner visionären Nutzung von Computertechnologie und seiner thematischen Auseinandersetzung mit der digitalen Welt. Tron war einer der ersten Filme, der umfangreich auf Computer Generated Imagery (CGI) setzte. Obwohl nur etwa 15 Minuten des Films tatsächlich CGI enthalten, war das für die damalige Zeit revolutionär.
Der Film kombinierte CGI mit traditionellen Animationstechniken und Live-Action-Aufnahmen – das Ergebnis war eine einzigartige visuelle Ästhetik, die bis heute unverwechselbar bleibt. Ich wollte als Kind die Effekte mit meinem Commodore 64 nachbauen – und bin gnadenlos gescheitert.
Die innovative Darstellung einer virtuellen Welt inspirierte zahlreiche nachfolgende Filme und legte den Grundstein für die Entwicklung moderner visueller Effekte. Tron zeigte, dass digitale Technologien neue kreative Möglichkeiten für das Filmemachen eröffnen können – auch wenn es damals noch technische Einschränkungen gab.
Obwohl der Film an den Kinokassen nur mäßigen Erfolg hatte, entwickelte er eine starke Kultanhängerschaft. Besonders in der Videospiel-Community wurde er gefeiert, da er thematisch eng mit der aufkommenden digitalen Kultur verbunden war. Disney ging damals neue Wege – mit Filmen wie Tron oder Das schwarze Loch, die an den Kinokassen floppten, aber heute eine treue Fanbase haben. Ich warte noch immer auf die Bluray zum schwarzen Loch.
Interessanterweise wurde Tron nicht für den Oscar in der Kategorie „Beste visuelle Effekte“ nominiert, da die Academy CGI als „zu einfach“ ansah – ein Urteil, das heute geradezu ironisch erscheint angesichts der Komplexität moderner digitaler Effekte.
Die Vision hinter Tron Regisseur Steven Lisberger wollte eine virtuelle Realität erschaffen, in der Computerprogramme als lebendige Entitäten dargestellt werden. Diese Idee war ihrer Zeit weit voraus und spiegelte die wachsende Bedeutung von Computern und Netzwerken wider. Ich war als Kind fasziniert von dieser Vorstellung – und bin es bis heute.
Thematisch behandelt Tron den Konflikt zwischen Individuen und mächtigen Konzernen, die den Zugang zu Informationen kontrollieren wollen. Diese Thematik bleibt auch heute hochaktuell und unterstreicht die visionäre Qualität des Films. Die visuelle Gestaltung von Tron – mit seinen leuchtenden Farben und geometrischen Formen – war stark von Videospielen inspiriert und schuf ein futuristisches Bild, das es bis dahin im Kino nicht gegeben hatte. Lisberger ließ sich dabei von Spielen wie Pong inspirieren.
Das jüngste Update von ChatGPT lässt mich sprachlos zurück. Die Fortschritte der Bildgenerierung hauen mich vom Hocker. Im Moment gibt es das neue Feature in Sprachmodell 4o und bisher nur in der Pro-Version. ChatGPT-4o ist das neue Multimodal-Modell von OpenAI. Es kann Text, Bild, Audio und Video verarbeiten – und nun auch Bilder erstellen.
Jetzt kommt es natürlich auf den richtigen Prompt an und die Ergebnisse können sich wirklich sehen lassen. In meinen Seminaren vermittle ich das notwendige Praxiswissen zu Promst, da kommt mir meine Erfahrung als Bildjournalist zu gute. Ich probierte gleich mal ein paar neue Stile aus – hier verwandelte ich ein Foto von mir in den Gibli-Stil.
Beim Herumspielen und Testen des neuen Features kam mir eine Idee: Wie wäre es, wenn ich anloge und digitale Technologie mit meinem Fotos verbinde – so als eine Art Kunstprojekt.
Im Moment arbeite ich viel mit Polaroids. Ich habe meine alte Polaroid SX 70 wieder im Einsatz. Sie stammt aus dem Jahre 1974. Für mich zeichnen sich Polaroid-Fotos durch ihre Einzigartigkeit und Unmittelbarkeit aus. Jedes Bild ist ein Unikat – direkt nach der Aufnahme entwickelt, ohne Nachbearbeitung oder Filter. Die analoge Technik verleiht den Fotos eine besondere Ästhetik mit charakteristischen Farben und Bildfehlern, die den Moment authentisch und unverfälscht festhalten. In einer zunehmend digitalen Welt bieten Polaroids für mich ein haptisches, entschleunigtes Erlebnis der Fotografie.
Ich habe beispielsweise ein Selfie mit einer meiner Polaroid SX 70 gemacht.
Dann habe ich das Papierfoto mit dem Smartphone abfotografiert und ein wenig optimiert, ohne den Charakter zu verändern.
Der nächste Schritt war es, das Foto in die neue Version von ChatGPT hochzuladen und ein Vintage-Bild daraus zu genieren.
Im nächsten Schritt kam per Prompt das Einfärben des braunen Hutes (ein Barbisio von 1940) in einen roten Hut.
Der letzte Schritt war wiederum das Einfärben des Bildes. Aus den durchsichtigen Gläsern wurden gelbe Gläser, wie ich sie in Wirklichkeit trage.
Und weil es so schön war, noch ein Morphing-Film dazu:
Ich experimentiere tagtäglich mit KI herum: ChatGPT und Perplexity sind in meinen Alltag übergegangen. Nun ist Thorsten erschienen, eine kostenlose KI-Stimme.
Thorsten-Voice ist eine Text to Speech (TTS), bzw. künstliche Sprachausgabe ohne Internetzugriff. Wer die Stimme erstmal in hochdeutsch, hessisch oder emotional ausprobieren möchte, kann dies direkt im Browser machen. Hier der Link. Das hab ich bei der Vertonung eines Videos über das Corgi-Modell „Little Nellie“ ausprobiert. Das Ergebnis seht ihr hier.
Das System ist nicht perfekt, aber schon beachtenswert. Entwickler Thorsten Müller aus Florstadt hat sich viel Mühe gegeben und uns das Werkzeug geschenkt. Die kostenlose künstliche Thorsten-Voice TTS Sprachausgabe steht auf Basis von zwei unterschiedlichen KI-Programmen zur Verfügung. Und es macht einfach Spaß und ich sag Danke. Ich werde Thorsten in meine Seminare integrieren und im nächsten Schritt das System für längere Texte auf den Mac laden. Die genaue Anleitung gibt es hier.
Vor kurzem ging ich am Münchner Stachus zur S-Bahn. Über den Rolltreppen flimmerte an großen Monitoren die Werbung für das neue iPhone 16e. Persönlich warte ich auf September, wenn die neue 17-Genration kommt, aber ein Detail verblüffte mich an der Werbung.
Das iPhone 16e soll für Apple Intelligence optimiert sein. Das heißt, das neue Siri mit KI. Aber Apple kommt seinen Versprechungen nicht nach. Das Zeug, das ich gerne testen würde, ist (noch) nicht da.
Der Apple-KI-Manager für Siri Robby Walker musste eingestehen, dass es Schwierigkeiten gibt. „Hässlich und peinlich“ nannte er die Vorgänge in einer Mitarbeiterversammlung. Apple kündigte an, die KI-Funktionen zu verschieben. Man spricht sogar von 2026. Blöd ist nur, dass das Marketing voll auf diese Funktionen setz. Also Apple, komm in die Gänge.
Hinter den Kulissen rollen Köpfe. Dem für Künstliche Intelligenz verantwortlichen Manager John Giannandrea sei die Aufsicht über Siri entzogen worden, teilte Bloomberg.