Die Welt ist durch KI im Umbruch. Gestern kamen zwei Meldungen ins Postfach, die ich interessant finde, weil sie zeigen, welche Möglichkeiten KI für die Entertainment Industrie möglich sind: Paul McCartney kündigt dank KI einen letzten Beatles-Song an und Pumuckl kommt mit der Stimme des verstorbenen Hans Clarin wieder.
Ich freu mich auf die Beatles 2023 Es ist wohl der Lennon-Song Now And Then von 1978, der auf einer Democassette lag und nun aufgepeppt wurde. McCartney hatte das Demo-Tape „For Paul“ von Lennons Witwe Yoko Ono erhalten. Die Tracks wurden größtenteils mit einem Ghettoblaster aufgenommen, während der Musiker in seiner New Yorker Wohnung am Klavier saß. Für die Neuveröffentlichung wurde die Stimme Lennons durch KI von früheren Aufnahmen herausgefiltert. „Wir konnten Johns Stimme nehmen und sie durch diese KI pur bekommen“, sagte der 81jährige Paul McCartney der BBC. Die beiden anderen Songs auf der Cassette waren Free as a Bird und Real Love, die bereits 1995 und 1996 veröffentlicht wurden. Jetzt war die Technik soweit, dass der Songs überarbeitet werden konnte. Die Aufnahme soll noch dieses Jahr erscheinen. Ich bin dabei.
Pumuckl 2023 mit zwei Stimmen „Meister Eder und sein Pumuckl“ war in den 1980er Jahren eine der beliebtesten Kinder- und Familienserien Deutschlands. Die Geschichten über den kleinen, rothaarigen Kobold und seinen Schabernack haben bis heute Kultstatus. Jetzt kehrt er endlich zurück: In 13 Folgen der Serie „Neue Geschichten vom Pumuckl“. Ausgestrahlt werden die neuen Folgen Ende 2023 auf RTL+, RTL und Super RTL. Premiere hat die Serie am 24. Juni 2023 auf dem Kinderfilmfest in München. Pumuckl ist zurück – die Figur wird gespielt und gesprochen von Schauspieler und Kabarettist Maxi Schafroth und per KI mit der Original-Stimme von Hans Clarin. Für Pumuckls Stimme wurde zum ersten Mal überhaupt in diesem Umfang mittels Künstlicher Intelligenz die Stimme Schafroths in die unverkennbare Pumuckl-Stimme von Hans Clarin umgewandelt. Für alte und neue Pumuckl-Fans stellt RTL+ exklusiv beide Stimmversionen parallel zum Streamen bereit. So ist Pumuckl sowohl mit der Stimme von Hans Clarin als auch mit der von Maxi Schafroth erlebbar.
Das wird an mir vorbeigehen, nicht weil ich die KI-Version nicht mögen würde, sondern weil mir die neuen 3D-Animationen nicht gefallen – und wo ist eigentlich der Meister Eder?
Ich zocke gerne im virtuellen Raum mit dem Sony Playstation VR2 Headset auf der PS 5, nachdem ich lange auf die Konsole gewartet habe. Spätestens durch Apples Vision Pro bin ich wieder im VR-Fieber. Leider habe ich nicht soviel Zeit, um die gewaltigen Games zu spielen und das Headset liegt manches Mal einfach nur herum und droht einzustauben.
Endlich habe ich eine Lösung gefunden, die Brille und die beiden Controller sicher aufzubewahren, da sie sonst im Wohnzimmer nur im Weg sind. Ich habe mir die Skyreat-Aufbewahrungstasche angeschafft und darin PS VR2 Headset, Sense Controller, Kabel und Gaming-Zubehör aufbewahrt. Skyreat wird von Uvafly vertrieben. Ich kenne den Hersteller als Zubehör für Drohnen. Die Tragetasche ist robust und ich könnte sie mit Tragriemen oder Griff auch transportieren, was ich aber nicht vorhabe. Ich habe die runde Form gewählt, es gibt sie auch als rechteckige Variante.
Und sie ist flüssigkeitsabweisend falls doch mal ein Glas beim VR-Zocken umfällt – ich habe schon durch hektische Bewegungen im Wohnzimmer den einen oder anderen herumstehenden Staubfänger abgeräumt. Das Futter der Tasche besteht aus stoßabsorbierendem Schwamm, der Ihr Gerät effektiv vor Quetschungen, Stößen und Kratzern schützen kann. Im Inneren der Tasche befindet sich eine Netztasche zur Aufbewahrung von Kleinteilen wie Kabeln, Adaptern usw.
Es lag noch ein Linsenschutz dabei, den ich allerdings noch nicht ausprobiert habe. Das Silikonpad und die Objektivschutzabdeckung sind weich und scheinen langlebig zu sein.
Wenn Sie ein Kind der 90er Jahre sind, dann kennen Sie sicher noch das Tamagotchi. Bandai brachte 1997 das virtuelle Haustier auf den Markt und viele Kinder mussten mindestens einmal am Tag ihr Tamagotchi füttern oder streicheln. Ich weiß, Sie haben das nicht gemacht, aber 91 Millionen Kinder weltweit. Irgendwann ist dann das Tamagotchi verhungert, weil sich der Tierpfleger nicht mehr darum gekümmert hat.
Tamagotchi Uni (Pink & Purple) (CNW Group/Bandai Namco Toys & Collectibles America Inc.)
Aber nun kommt das Tamagotchi von Bandai wieder und zwar speziell mit einem eigenen Metaverse, Tamaverse genannt. Das Tamaverse soll ab Mitte Juli Fans der digitalen Haustiere auf der ganzen Welt verbinden. Für Deutschland sage ich mal einen Flop voraus, aber in asiatischen Ländern wird das Tamagotchi Uni sicherlich ein Erfolg werden. Im Tamaverse können sich Tamagotchi-Fans treffen und in der Tama-Arena sowie auf Tama-Partys miteinander spielen. Darüber hinaus gibt es Tama-Mode- und Tama-Reisefunktionen. Auch das Tamagotchi selbst erhält eine Reihe neuer Funktionen, die den Fans ihre eigene Erfahrung ermöglichen, einschließlich DIY-Aktivitäten, Erkundungen mit ihrem Charakter und einer sozialen Plattform im Gerät.
Tamagotchi Uni personalisiert das virtuelle Haustiererlebnis mit endlosen Charakteroptionen, so dass Tamagotchi-Charaktere jetzt unterschiedliche Looks, Persönlichkeiten und Hobbys haben können. Das Tamagotchi 2.0 ist eben ein Produkt der digitalen Welt und hat die Möglichkeit, sich mit Wi-Fi zu verbinden, um Charaktere auf Weise anzupassen und Zugang zu herunterladbaren Inhalten und Updates zu haben. Und anders wie das Tamagotchi aus den 90ern hängt das neue Tamagotchi Uni nicht mehr locker am Schulranzen, sondern wird als Armband getragen.
Global Brand Ambassadors Charli D’Amelio and Kemio (CNW Group/Bandai Namco Toys & Collectibles America Inc.)
Markenbotschafterin für das neue Spielzeug ist die Tiktokerin Charli D’Amelio und zeigt, wie wichtig soziale Kanäle zur Vermarktung des Spielzeugs sind. Charli D’Amelio ist eine US-amerikanische Influencerin. Sie erlangte durch das soziale Netzwerk TikTok internationale Bekanntheit, wo ihr über 140 Millionen Abonnenten folgen. D’Amelio besaß zeitweise den meistabonnierten TikTok-Account der Welt und bekam damit einen Eintrag im Guinness-Buch der Rekorde.
Es überschlagen sich die Ideen beim Thema KI und aus der Flut von Innovationen ist es schwer den Überblick zu behalten. Ich bin auf die KI DragGAN vom Max-Planck-Institut für Informatik in Saarbrücken gestoßen, die das Potential hat, Bildbearbeitung komplett zu verändern. Das Projekt kommt vom angesiedelten Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence (VIA). Es wird im August auf der SIGGRAPH vorgestellt, die ich früher jedes Jahr besucht habe. Es war für mich immer das Muppet Labor von Prof. Bunsenbrenner, wo die Zukunft schon heute gemacht wird.
Kleidungsstücke an einem digitalen Avatar anprobieren und von allen Seiten begutachten? Die Blickrichtung des Haustieres auf dem Lieblingsfoto anpassen? Oder die Perspektive auf einem Landschaftsbild verändern? Eine neue Methode verspricht nun, sie auch für Laien zugänglich zu machen – dank KI-Unterstützung mit wenigen Mausklicks. Hier ist die Dokumentation dazu. Die neue Methode hat das Zeug dazu, die digitale Bildbearbeitung zu verändern. „Mit ‚DragGAN‘ entwickeln wir derzeit ein Werkzeug, dass es dank einer übersichtlichen Nutzeroberfläche auch Laien ermöglicht, komplexe Bildbearbeitungen vorzunehmen. Sie müssen nur die Stellen im Foto markieren, die sie verändern möchten. Dann geben sie in einem Menü an, welcher Art die Veränderung sein soll – und mit nur wenigen Mausklicks kann jeder Laie dank KI-Unterstützung die Pose, den Gesichtsausdruck, die Blickrichtung oder den Blickwinkel auf einem Foto, beispielsweise von einem Haustier, anpassen“, erklärt Christian Theobalt, geschäftsführender Direktor des Max-Planck-Instituts für Informatik, Direktor des Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence und Professor an der Universität des Saarlandes am Saarland Informatics Campus.
Generative Modelle Möglich macht das die Künstliche Intelligenz, genauer gesagt die „Generative Adversarial Networks“, kurz GANs. „Wie der Name sagt, handelt es sich bei GANs um generative Modelle, also solche, die neue Inhalte wie Bilder synthetisieren können. ‚Adversarial‘ zeigt an, dass es sich um ein KI-Modell handelt, in dem zwei Netzwerke gegeneinander spielen“, erklärt der Erstautor des Papers, Xingang Pan, Postdoktorand am Max-Planck-Institut für Informatik und am Saarbrücker VIA-Center. In einem GAN arbeiten ein Generator, der Bilder erstellt, und ein Discriminator, der entscheiden muss, ob die Bilder echt sind oder vom Generator erstellt wurden, gegeneinander. Das System wird so lange trainiert, bis der Discriminator die Bilder des Generators nicht mehr von echten Bildern unterscheiden kann.
Vielfältige Einsatzmöglichkeiten Die Einsatzmöglichkeiten von GANs sind vielfältig. Neben der offensichtlichen Anwendung des Bildgenerators sind GANs zum Beispiel gut darin, Bilder vorherzusagen: Die sogenannte Video-Frame-Prediction prognostiziert das nächste Bild eines Videos, was den Datenaufwand beim Videostreaming reduzieren kann. Die GANs können zudem niedrig aufgelöste Bilder hochskalieren und die Bildqualität verbessern, indem sie die Position der zusätzlichen Pixel der neuen Bilder vorhersagen.
„In unserem Fall erweist sich diese Eigenschaft von GANs als vorteilhaft, wenn in einem Bild zum Beispiel die Blickrichtung eines Hundes geändert werden soll. Das GAN berechnet dann im Grunde das ganze Bild neu und antizipiert, wo welches Pixel im Bild mit der neuen Blickrichtung landen muss. Ein Nebeneffekt davon ist, dass DragGAN auch Dinge berechnen kann, die vorher etwa durch die Kopfposition des Hundes verdeckt waren. Oder wenn der Nutzer die Zähne des Hundes darstellen will, kann er dem Hund auf dem Bild die Schnauze öffnen“, erklärt Xingang Pan. Auch im professionellen Kontext könnte DragGAN genutzt werden. Beispielsweise könnten Modedesigner den Zuschnitt von Kleidern nachträglich in Fotos anpassen oder Fahrzeughersteller könnten mit wenigen Mausklicks verschiedene Design-Konfigurationen eines geplanten Fahrzeuges durchspielen.
DragGAN funktioniere zwar bei verschiedenen Objektkategorien wie Tieren, Autos, Menschen und Landschaften, die meisten Ergebnisse seien bisher mit GAN-generierten, synthetischen Bildern erzielt worden. „Die Anwendung auf beliebige vom Benutzer eingegebene Bilder ist immer noch ein schwieriges Problem, das wir untersuchen“, ergänzt Xingang Pan.
Das neue Tool der Saarbrücker Informatiker sorgte bereits wenige Tage nach Veröffentlichung des Preprints in der internationalen Tech-Community für Aufsehen und gilt vielen als der nächste große Schritt in der KI-gestützten Bildbearbeitung. Während Tools wie Midjourney dazu genutzt werden können, neue Bilder zu erstellen, vereinfacht DragGAN die Nachbearbeitung von Bildern enorm. Die neue Methode wird federführend am Max-Planck-Institut für Informatik und dem darin angesiedelten, gemeinsam mit Google eröffneten „Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence (VIA)“entwickelt, in Zusammenarbeit mit dem Massachusetts Institute of Technology (MIT) und der University of Pennsylvania. Neben Professor Christian Theobalt und Xingang Pan waren an dem Paper unter dem Titel „Drag Your GAN: Interactive Pointbased Manipulation on the Generative Image Manifold“ beteiligt: Thomas Leimkühler (MPI INF), Lingjie Liu (MPI INF und University of Pennsylvania), Abhimitra Meka (Google) und Ayush Tewari (MIT CSAIL). Das Paper wurde von der ACM SIGGRAPH-Konferenz akzeptiert, der weltweit größten Fachkonferenz für Computergrafik und interaktive Technologien, die vom 6. bis 10. August 2023 in Los Angeles stattfinden wird. Ich bin neidisch und würde gerne auch mal wieder dorthin.
Durch Produkte der Künstlichen Intelligenz ist die Welt im Umbruch – wieder einmal. Ich setze KI-Software wie ChatGPT oder Dalle E2 bewusst ein, um meinen Arbeitsalltag zu erleichtern. Und ich fühle mich in die Zeit zurückversetzt, als analoge Fotografie durch digitale Fotografie in großen Teilen abgelöst wurde. Panik und Zorn ergriff die analogen Fotografen als die Pixelschubser aufgetaucht sind. Und jetzt ergreift die Szene wieder die Panik, denn ein Gespenst geht um in der Welt, das Gespenst der Fotografie mit KI.
Von analog zu digital Als Nikon-Fotograf mit F3 und F4 und spontan 801S schaute ich damals skeptisch auf die digitale Fotografie mit den Klickkisten mit extremen Auslöseverzögerungen. Aber ich probierte und tastete mich vor. Mit der Zeit schickte ich meinen analogen Wagenpark samt Labor in Rente und verstand mehr und mehr die Welt der digitalen Fotografie. Meine erste Digitalkamera war die Apple QuickTake, die eher einem Fernglas aus Star Wars ähnlicher sah als einem Fotoapparat. Dann ging es aber rasant weiter, ich investierte in Hard- und Software. Meine letzte Nikon war die D3X und ich liebe heute meine digitale Fujifilm X100V. Ich glaube zu wissen, was ich fotografisch kann und wie ich die Technik bedienen muss, damit das Bild herauskommt, das ich im Kopf habe.
Von digital zu KI Dieses Wissen um Zeit und Blende, dieses Wissen um Licht und Schatten kommt mir jetzt zu Gute, wenn ich mit KI-Bildgeneratoren arbeite. Das Foto entsteht im Kopf, ich muss lernen den Promt zu formulieren, um das gewünschte Resultat zu erhalten. Es kommt auf meine Fähigkeit an, den Promt möglichst exakt zu formulieren. Und ich muss diese Fähigkeit noch besser entwickeln, noch besser schulen. Die entstandenen Bilder bearbeite ich noch mit Bildbearbeitungssoftware weiter. Nachdem mir der Photoshop durch die Abo-Politik von Adobe vergrault wurde, nehme ich nun Affinity Photo als Ersatz.
KI tötet Fotografie Dann lese ich aber den Protest der (Digital-)Fotografen im Netz. KI tötet die Fotografie. KI tötet die Kreativität. Das halte ich nur für bedingt wahr – und diese Schreierei kenne ich noch von den Kulturkampf und Wechsel von der analogen zur digitalen Fotografie. Viele der heutigen selbsternannten Foto-Puristen verwenden schon lange KI, ohne es allerdings benennen. Digitale Bilder werden schon in der Kamera oder am Rechner nachbearbeitet – oft mit Einsatz von eingebauten KI-Systemen. Moderne Kameras haben Maschine-Learning eingebaut. Machen wir uns nichts vor: Wir nutzen KI doch schon lange und jetzt unterscheiden wir zwischen guter KI und böser KI in der Fotografie. Ist das wirklich ehrlich? Und bevor Missverständnisse aufkommen. Natürlich fotografiere ich digital weiter mit der Fujifilm oder mit dem iPhone.
Sofortbilder als Provokation Als Gegenbewegung und vielleicht auch ein bisschen als Provokation fotografiere ich ab und zu mit einer analogen Sofortbildkamera – da geht nix mit KI und das ist klassische Fotografie pur. Ich habe zum Leidwesen meiner Frau noch einige Kameras im Fotoschrank. Aber meine SX-70 der Marke Polaroid kommt wirklich nur bei speziellen Anlässen zum Einsatz, eher schon die preiswerten instax Minis. Da gibt es wirkliche Überraschungen, denn die Sofortbildkameratechnik war und ist nicht perfekt auf mich abgestimmt. Vielleicht ist Sofortbild die einzig wahre Fotografie?
Ich bin ein wenig faul geworden und mich wieder auf das Thema VR 360 Grad Videos stärker fokussieren. Vielleicht liegt es daran, dass Apple wohl eine VR-Brille auf der WWDC ankündigen wird. Auch meine Spiele mit der Playstation VR2 sind extrem eindrucksvoll. Und YouTube verarbeitet seit langem schon dieses Videoformat. Der User kann selbst navigieren und dafür braucht es eigentlich neue Erzählformate.
Im Moment nutze ich für meine Aufnahmen die Ricoh 360-Grad-Kamera Theta X. Und wenn ich ehrlich bin, drehe ich fast nur touristische Filme. Das muss sich ändern. Mal sehen, welche Ideen mir so kommen. In Passau besichtige ich den Dom, der sich derzeit als Baustelle Gottes präsentiert.
Und ich schaute bei der Stadtkirche St. Paul vorbei und drehte ein Video. Die Stadtpfarrkirche St. Paul ist die älteste Pfarrkirche von Passau. Die erste Kirche wurde bereits um 1050 dem hl. Paulus geweiht. Nach der Zerstörung bei Bränden 1512 und 1662 entstand 1678 der jetzige Bau.
Sehr eindrucksvoll empfand ich die Elbphilharmonie. Hier habe ich die Rolltreppe (Tube) der Entschleunigung gefilmt. 82 Meter, mehr als 30 Höhenmeter – die Elbphilharmonie Tube ist die längste gewölbte Rolltreppe Europas. Rund zweieinhalb Minuten dauert die Fahrt auf der futuristischen Treppe Richtung Plaza. Hier die Fahrt als VR 360 Video. 7.900 Glaspailletten an Wänden und Decken sorgen für ein stimmungsvolles Licht in der Tube während der Fahrt mit der Rolltreppe.
Bei Ausstellungen teste ich die Kamera, wie unlängst in Berlin bei der Werner Herzog-Ausstellung. Werner Herzog ist Kult. Von kaum einem anderen Regisseur finden sich ähnlich viele Imitationen in den sozialen Netzwerken. Er hatte mehrere Gastauftritte bei den Simpsons und verhalf als Bösewicht der Star Wars-Serie The Mandalorian zu besonderer Aufmerksamkeit. Nicht umsonst zählte ihn das Time Magazine 2009 zu den einflussreichsten Personen der Welt. Hier Teil 1 eines Rundgangs durch die Ausstellung der Deutschen Kinemathek in Berlin als VR 360 Grad Video.
Und ich setze sie bei Kunden ein. Bayerns Ministerpräsident Markus Söder sprach vor der Mitgliederversammlung des Landesinnungsverband Friseure und Kosmetiker Bayerns 2023 in Nördlingen. Hier die ersten 25 Minuten als VR 360.
Der Springer-Verlag ist ja im Moment wegen anderer Dinge in den Schlagzeilen. Aber zumindest entwickelt das Medienunternehmen sich weiter und bringt neue Produkte auf den Markt. Seit kurzem gibt es “BILD Play” ein Video-Feed-Format für das Smartphone.
Im Grunde es ist es eine Art TikTok von Springer. Der hochformatoptimierte Player zeigt einen Themenfeed ausgewählter BILD-Videos aus allen BILD-Ressorts, darunter viele Shortclips. BILD Play ist einfach zu bedienen: Mit einem vertikalen Swipe können sich die User einfach von Video zu Video bewegen. Ein Klick nach rechts oder links lässt die Videos vor- und zurückspulen, zudem können die Videos auch im Querformat angesehen werden. Und natürlich ist auch Werbung enthalten, denn Springer will im Digitalgeschäft Geld verdienen.
Die Inhalte müssen sich meiner Meinung nach noch entwickeln. Im Moment ist es noch ein Sammelsurium von Inhalten aus Unfälle, Promis, Sport oder auch Kochrezepte. Ob ein Algorithmus dahinter liegt, kann ich nicht sagen. Registriert bin ich als User nicht, somit wird es schwer spezielle Inhalte speziell für mich auszuspielen.
Ich hab mir interessiert die Videos von Marie-Agnes Strack-Zimmermann (FDP) angeschaut, die durch das Springer-Gebäude mit einem BILD-Reporter spaziert und locker befragt wird. Das sieht authentisch aus und wirkt anders als die klassischen Videos von einer FDP-Pressekonferenz. Hier finde ich das Videoformat interessant und auch voyeuristisch. Und ich merke, dass ich meine Kunden auch im Smalltalk schulen muss. Bei Springer heißt es: „BILD Play wird vom Berliner Unternehmen xymatic bereitgestellt und in Performance und Features unter Einbeziehung der Nutzererfahrungen ständig weiterentwickelt.“
Ich hab BILD Play mal in meine Bookmarks am Smartphone aufgenommen und werde das TikTok von Bild mal eine Zeit beobachten.
Meine Wünsche wurden erhöht und hoffentlich erfüllt Canon meine Wünsche. Endlich legt Canon den Nachfolger meiner Lieblings Vlogging-Kamera in einer neuen Version auf und bringt die neue Canon PowerShot V10 im Juni in den Verkauf. Kosten rund 500 Euro.
Wenn ich unterwegs für meinen YouTube-Kanal gebloggt habe, dann hatte ich immer die Canon LEGRIA mini X mit dabei. Die Kamera war mein Arbeitstier für unterwegs. Robust und leistungsstark, die Weitwinkel-Aufnahmen waren in Bezug auf Ton und Film hervorragend. Nun ist die LEGRIA mini X leider in die Jahre gekommen. Die maximale Auflösung war 1080, aber heute ist 4K der Standard. Ich habe sie noch im Einsatz, aber nur noch für spezielle Aufzeichnungen wie beispielsweise bei meinen Auftritten im Kino.
Und nun lese ich, dass Canon endlich den Nachfolger meiner geliebten LEGRIA mini X auf den Markt bringt unter den Namen Canon PowerShot V10. Ich bin sehr gespannt und die ersten technischen Daten liegen auch vor.
Mit 4K-UHD-Auflösung und großem 1-Zoll-Typ CMOS-Sensor richtet sie sich an alle, die ins Vlogging einsteigen wollen. Klar, es ist eine Kamera für unterwegs. Im Heimstudio setze ich auf die Sony ZV1, aber für unterwegs mag ich die handlichen Geräte. Mit 211g Gewicht passt sie in die Hosentasche und stellt für Content Creator eine All-in-One-Lösung dar, die einen integrierten Standfuß und ein scheinbar hochwertiges Stereo-Mikrofon mit einem klappbaren Touch-Display kombiniert. Natürlich lässt sich auch wie bisher ein Stativ anschrauben.
Damit die Kamera fast vollständig mit einer Hand bedient werden kann, wurde sie mit einem vertikal ausgerichteten Gehäuse konzipiert. Sie ist mit einem 2,0-Zoll-LCD-Touchscreen ausgestattet, der für Selfie-Aufnahmen ausgeklappt werden kann. Mit dem integrierten Standfuß6 lässt sich die Kamera in einer flexiblen Position aufstellen.
Das Gehäuse ist hat ein Klötzchen-Design. Hier hätten die Designer mich ein wenig mehr überraschen können, aber die Kamera ist für mich in erster Linie ein Werkzeug und kein Designobjekt. Sie erinnert mich an klassische Überwachungskameras. Das robuste, vertikal ausgerichtete Gehäuse ist eine für Canon völlig neue Formsprache erinnert an die Kompaktheit der LEGRIA mini X. Das unauffällige oder sagen wir langweilige Design mit großer Aufnahmetaste macht die Kamera zum Begleiter für unterwegs und erlaubt auch an stark frequentierten Orten das Filmen spontaner und authentischer Aufnahmen aus freier Hand. Das ist für mich sehr wichtig. Bei einem festen 19 mm Weitwinkel bekomm ich alles ins Bild.
Für den Kino-Look und die individuelle Note sind insgesamt 14 Farbfiltereffekte und ein „Glatte Haut“-Modus verfügbar. Der Modus „Movie Digital IS“1 ist ideal für Videoaufnahmen aus der freien Hand, natürlich kostet der Modus Bildqualität. Er soll helfen, Verwacklungen zu vermeiden, und schärfere, ruhigere Aufnahmen mit mehr Details ermöglichen.
Die Aufnahmezeit wird von Canon mit bis zu einer Stunde angegeben und die Daten werden auf Karte gespeichert. Maximale Aufnahmezeit pro Video bis zu 1 Stunde – das ist ggf ein Problem. Ist die interne Kameratemperatur zu hoch, wird die maximale Aufnahmezeit reduziert. Das Hitzeproblem müssten endlich alle Kamerahersteller in den Griff bekommen. Aufnahmen in 4K UHD bis 29,97p für ca. 20 Minuten ohne Hitzelimit sind bei +23 °C Ausgangstemperatur möglich. In anderen Modi gibt es keine Begrenzung durch die Hitze (außer Aufzeichnung im „Glatte Haut“ Modus in 4K, die auf 5 Minuten begrenzt ist). Das muss sich alles in der Praxis zeigen.
Die PowerShot V10 ist mit zwei großen Mikrofonen für die Aufzeichnung in Stereo und einem dritten Mikrofon zur Rauschunterdrückung ausgestattet. Neben dem integrierten Windfilter gehört ein Windschutz zum Zubehörkit, der die Klangqualität im Freien weiter verbessert. Es sieht so aus, dass auch ein externes Mikro angeschlossen werden kann. In der Vergangenheit waren die Mikros der LEGRIA mini X schwer in Ordnung.
Verbindung zum Smartphone geht über WLAN und Blutooth in Kombination mit der bekannten Canon-App und damit sollte auch Streaming zu YouTube und Facebook möglich sein Aufgeladen wird über USB-C und Gott sei Dank hat Canon den HDMI Ausgang beibehalten, wie man es in YouTube-Videos von Blogger sieht, die Vorab-Modelle erhalten haben. Ich werde mich bemühen, ein Testmodell zu erhalten und es direkt mit der LEGRIA mini X vergleichen. Ich bin sehr gespannt, sehr sogar.
Ich soll für ein paar Euro komplett die Hosen runter lassen. Nein, danke Amazon. Das geht mir wirklich zu weit. Amazon machte mir dieser Tage ein Angebot, das ich ablehnen muss. Ich habe eine Einladung zum Shopper Panel bekommen. Ich bekomme für ein paar Umfragen Geld von Amazon. Der Nachteil: Amazon erhält die Überwachung meines Smartphone-Datenverkehrs. Dieses Angebot muss ich ablehnen. Das Shopper Panel ist soeben in Deutschland gestartet.
Amazon findet dazu schöne Worte: „Das Amazon Shopper Panel ist ein Opt-in-Programm, das nur auf Einladung funktioniert und bei dem die Teilnehmer monatliche Prämien verdienen können, indem sie kurze Umfragen ausfüllen oder die Anzeigenverifizierung aktivieren, damit Amazon die angezeigten Anzeigen bestätigen kann.“ So richtig viel Umsatz ist ja auch nicht drin. Es sind ein paar Euro. Für Amazons sind das Peanuts, aber Amazon bekommt etwas wirklich wertvolles dafür: Daten. Mein alter Spruch gilt mehr denn je: „Daten sind das Gold des 21. Jahrhunderts.“
Und weiter heißt es in der Mail von Amazon: „Das Sammeln von Prämien ist einfach. Beantworten Sie einfach kurze Umfragen zu Marken oder Produkten, die für Sie von Interesse sein könnten. Sie können auch 3 € pro Monat verdienen, wenn Sie die Anzeigenverifizierung aktivieren, damit Amazon die Anzeigen, die Sie auf Ihrer mobilen Website oder App sehen, bestätigen kann. Anzeigen von Amazon können Amazons eigene Werbung oder die von Drittanbietern umfassen, die über Amazon Ads werben. Die Teilnehmerzahlen im Amazon Shopper Panel sind begrenzt.“ Der US-Konzern möchte dabei unter anderem herausfinden, wie gut über Amazons Werbenetzwerk gebuchte Anzeigen im Internet funktionieren. In Großbritannien und den USA gibt es das Shopper Panel schon länger. Da kann ich auch Fremdquittungen einreichen, damit Amazon sieht, was ich wo kaufe und der User wird mit mit Geld dafür entlohnt, dass man sein Einkaufsverhalten freiwillig preisgibt. Die Funktion „Sammeln von Prämien durch das Teilen von Quittungen für Käufe außerhalb von Amazon“, gibt es wohl in Deutschland nicht. Zumindest habe ich diese Funktion nicht entdeckt. Wahrscheinlich wäre der deutsche Datenschutz komplett umgefallen.
Das Buch „Der Archipel Gulag“ wurde von dem russischen Schriftsteller und Dissidenten Alexander Solschenizyn geschrieben und 1973 veröffentlicht. Das Werk ist eine ausführliche Darstellung des Gulag-Systems, basierend auf persönlichen Erfahrungen des Autors als Gefangener im Gulag.
Ich archiviere gerade die Büchersammlung meines verstorbenen Vaters und da fielen mir die Bücher von Solschenizyn in die Hände. Diese Bücher waren meinem Vater besonders wichtig. Ich hab sie gelesen und durfte auch ein Online-Seminar dazu durchführen – dabei sprach ich auch über den Tod des Diktators Josef Stalin. Stalin starb 1953 aufgrund einer Gehirnblutung. Sein Tod löste eine Periode der politischen Instabilität in der Sowjetunion aus und führte schließlich zur Entstehung einer reformorientierten Bewegung unter dem neuen Führer Nikita Chruschtschow.
Zurück zu Alexander Solschenizyn. Solschenizyn wurde 1945 wegen Kritik an Stalin verhaftet und in ein Arbeitslager im Nordosten Sibiriens verbannt. Nach acht Jahren kehrte er nach Moskau zurück und begann, seine Erfahrungen im Gulag aufzuschreiben. Das Manuskript wurde vom KGB beschlagnahmt, aber Solschenizyn konnte eine Kopie verstecken und später aus dem Land schmuggeln.
Die Arbeitslager waren berüchtigt für ihre harten Arbeitsbedingungen, mangelhafte Versorgung mit Nahrung und medizinischer Versorgung sowie für die Brutalität der Wachen. Viele Gefangene starben an Hunger, Krankheiten oder an den Folgen der Zwangsarbeit. Die Überlebenden waren oft dauerhaft traumatisiert und gezeichnet von den Erfahrungen im Gulag. Das Buch „Der Archipel Gulag“ war ein großer Erfolg und trug dazu bei, das Bewusstsein für die Verbrechen des sowjetischen Regimes zu schärfen. Es zeigte die Grausamkeit und die Ungerechtigkeit des Gulag-Systems und brachte den Schrecken der stalinistischen Herrschaft ans Licht. Das Buch wurde zu einem wichtigen Werk in der Geschichtsschreibung.
„Der Archipel Gulag“ ist auch wichtig, weil es einen Teil der sowjetischen Geschichte dokumentiert, der lange Zeit tabu war. Nach Stalins Tod wurde das Gulag-System schrittweise abgeschafft, aber es dauerte Jahrzehnte, bis die sowjetische Führung bereit war, sich öffentlich mit den Verbrechen des Regimes auseinanderzusetzen. Infolgedessen war das Buch ein wichtiger Beitrag zur Aufarbeitung der sowjetischen Geschichte und half dabei, die Wahrheit über die Verbrechen des Regimes zu enthüllen.
Insgesamt ist „Der Archipel Gulag“ ein wichtiger Beitrag zur Geschichtsschreibung und ein wichtiges Werk der Literatur. Es ist ein eindringliches Zeugnis der Brutalität und der Unterdrückung, die in der sowjetischen Gesellschaft herrschte.