Wenn Sie ein Kind der 90er Jahre sind, dann kennen Sie sicher noch das Tamagotchi. Bandai brachte 1997 das virtuelle Haustier auf den Markt und viele Kinder mussten mindestens einmal am Tag ihr Tamagotchi füttern oder streicheln. Ich weiß, Sie haben das nicht gemacht, aber 91 Millionen Kinder weltweit. Irgendwann ist dann das Tamagotchi verhungert, weil sich der Tierpfleger nicht mehr darum gekümmert hat.
Tamagotchi Uni (Pink & Purple) (CNW Group/Bandai Namco Toys & Collectibles America Inc.)
Aber nun kommt das Tamagotchi von Bandai wieder und zwar speziell mit einem eigenen Metaverse, Tamaverse genannt. Das Tamaverse soll ab Mitte Juli Fans der digitalen Haustiere auf der ganzen Welt verbinden. Für Deutschland sage ich mal einen Flop voraus, aber in asiatischen Ländern wird das Tamagotchi Uni sicherlich ein Erfolg werden. Im Tamaverse können sich Tamagotchi-Fans treffen und in der Tama-Arena sowie auf Tama-Partys miteinander spielen. Darüber hinaus gibt es Tama-Mode- und Tama-Reisefunktionen. Auch das Tamagotchi selbst erhält eine Reihe neuer Funktionen, die den Fans ihre eigene Erfahrung ermöglichen, einschließlich DIY-Aktivitäten, Erkundungen mit ihrem Charakter und einer sozialen Plattform im Gerät.
Tamagotchi Uni personalisiert das virtuelle Haustiererlebnis mit endlosen Charakteroptionen, so dass Tamagotchi-Charaktere jetzt unterschiedliche Looks, Persönlichkeiten und Hobbys haben können. Das Tamagotchi 2.0 ist eben ein Produkt der digitalen Welt und hat die Möglichkeit, sich mit Wi-Fi zu verbinden, um Charaktere auf Weise anzupassen und Zugang zu herunterladbaren Inhalten und Updates zu haben. Und anders wie das Tamagotchi aus den 90ern hängt das neue Tamagotchi Uni nicht mehr locker am Schulranzen, sondern wird als Armband getragen.
Global Brand Ambassadors Charli D’Amelio and Kemio (CNW Group/Bandai Namco Toys & Collectibles America Inc.)
Markenbotschafterin für das neue Spielzeug ist die Tiktokerin Charli D’Amelio und zeigt, wie wichtig soziale Kanäle zur Vermarktung des Spielzeugs sind. Charli D’Amelio ist eine US-amerikanische Influencerin. Sie erlangte durch das soziale Netzwerk TikTok internationale Bekanntheit, wo ihr über 140 Millionen Abonnenten folgen. D’Amelio besaß zeitweise den meistabonnierten TikTok-Account der Welt und bekam damit einen Eintrag im Guinness-Buch der Rekorde.
Zu Fronleichnam habt ihr vielleicht ein bisschen Muse und Zeit euch die neueste Folge meines Herzensprojekts Filmriss online anzuschauen. Jeden Monat spreche ich mit meinem Kumpel Markus Schmölz über neue Kinofilme und werfen einen Blick hinter die Kulissen des Scala Kinos Fürstenfeldbruck.
Klar, dass Indiana Jones und das Rad des Schicksals im Mittelpunkt des Interesses ist. Daneben gibt es Meinungen zu No Hard Feelings und Spider-Man: Across the Spider-Verse. Ich darf ein wenig über den Soundtrack zu Im Westen nichts Neues erzählen und wir freuen schon sehr auf die Juni-Matinee am 18. Juni im Scala Kino. Ich bespreche und zeige den fanatischen Film The Rocky Horror Picture Show. Karten gibt es hier. Also viel Spaß mit rund einer halben Stunde Filmriss online, die Juni-Ausgabe.
Die Keynote zur WWDC von Apple-Chef Tim Cook ließ mich in vielerlei Hinsicht aufhorchen. Zu Vision Pro hab ich mich ja schon geäußert. Als Dozent für Veranstaltungen zum Thema Medienkompetenz finde ich die Neuerung bei den Themen Videokonferenzen, Webwaren und Online-Schulungen interessant. Online-Meetings gehören zu meinen Alltag.
Zum einen gibt es wohl in Vision Pro die Möglichkeit mit Standard-Software wie Teams, Zoom und Webex Seminare im VR-Raum abzuhalten. Da bin ich sehr gespannt darauf. Wie ich auf der Keynote gelesen und von Kollegen aus Cupertino gehört habe, ist der Avatar der Meetingsteilnehmer sehr präzise. Apple nennt sie Persona, eine digitale Darstellung, die durch Techniken des maschinellen Lernens erzeugt wird und Gesichts- und Handbewegungen in Echtzeit darstellt. Aber das kommt ja erst 2024 und wird sicherlich aufgrund des Preises von 3500 Euro für Vision Pro zunächst kein Massenmarkt.
Für den Rest von uns Interessanter ist da schon das neue Mac-Betriebssystem. Es heißt macOS Sonoma und kommt ab Herbst als Final auf den Mac, die öffentliche Beta kommt nächsten Monat.
macOS Sonoma bringt verbesserte Features für Videokonferenzen, mit denen sich Inhalte interessanter teilen lassen – egal in welcher Videokonferenz-App. In der Keynote nannte Apple die üblichen Verdächtigen Teams, Zoom und Webex. Mit dem neuen Videoeffekt Moderatorenmaske werden Anwender über ihren geteilten Inhalten angezeigt und sind dadurch präsenter. Das musste ich bisher mit Zusatzsoftware machen, damit ich bei meinen Online-Schulungen nicht hinter der Präsentation untergehe oder nur als kleine Kachel erscheine. Künftig kann ich mich via Moderatorenmaske in den Vordergrund meiner Präsentation schalten und meinen Zuhörern näher sein und meine Rolle als Speaker deutlich besser ausüben. Wahrscheinlich bringt der Einsatz von Greenscreen und Licht noch bessere Effekte – das gilt es auszuprobieren.
Außerdem kann ich mich mit Reaktionen ausdrücken, wie ich oder meine Zuhörer sich fühlen, indem wir nahtlos Ballons, Konfetti, Herzen und mehr in das Videobild einfügen. Das ist sicherlich eher eine Spielerei und wird sich der Praxis zeigen, wie es angenommen wird. Im Moment gibt es Herzchen, Klatschen usw. meist am Ende einer Präsentation. Diese Reaktionen lassen sich auch per Handgeste auslösen. Die verbesserte Auswahl zur Bildschirmfreigabe macht es einfacher, bei Videoanrufen Inhalte aus Apps zu teilen. Anwender können dazu auf die grüne Taste oben links in der App klicken. So wird das Teilen von Inhalten aus offenen Fenstern ganz leicht, verspricht Apple.
Groß auf dem Fernseher Zudem gibt es ein Update für tvOS 17, die Software für Apple TV, was aber wohl nur auf Apple TV 4K laufen wird. Ab diesem Herbst können Anwender on Apple TV 4K die neue FaceTime App auf dem Apple TV nutzen und Anrufe direkt von ihrem Apple TV aus starten oder Anrufe auf dem iPhone oder iPad beginnen und sie dann an ihr Apple TV übergeben. FaceTime auf dem Apple TV nutzt die Vorteile der Kamera-Übergabe und verbindet sich drahtlos mit dem iPhone oder iPad der Nutzer. Es greift dann auf die Kamera und das Mikrofon des Geräts zu und bringt alle Teilnehmer auf dem Fernseher zusammen. Das ist für reine Apple-Umgebungen interessant. Vielleicht nutzen wir dieses Feature im familiären Umfeld, ob es Teilnehmer von meinen Seminaren machen, bleibt abzuwarten.
Jetzt ist die Katze aus dem Sack: Vision Pro lautet die Weiterentwicklung des Computers. Vorgestellt durch Apple auf der Entwicklerkonferenz WWDC. Es ist nicht nur eine AR/VR-Brille, sondern es ist die konsequente Weiterentwicklung eines neuen, eigenen Ökosystems mit Rechner inside.
Die technischen Daten von Prozessor, Linsen, Kameras lassen sich von der Apple-Website abrufen. Mir geht es hier mehr um die Vision hinter der Vision Pro. Ich kenne nur die Präsentation von der WWDC und ein paar Stimmen von Kollegen, die vor Ort in Cupertino waren. Ich habe das Headset noch nicht live gesehen, es soll ja 2024 in den US-Verkauf gehen. Preis 3500 US-Dollar – das ist ne Stange Geld, aber kein Vergleich was mich Macs in früherer Zeit gekostet haben.
Im Web lese ich von Taucher- oder Skibrille und was das für ein seltsames Design wäre. Erinnern wir uns an die Häme als die AirPods vorgestellt wurden und die Kritiker lachten, die würden niemals durch Wattestäbchen Musik hören? Und heute? Vision Pro ist mehr als nur eine Brille. Es ist laut Tim Cook eine „neue Art von Computer, der die Realität erweitert, indem er das Reale und das Digitale nahtlos miteinander vermischt.“ Große Worte, aber so muss es wohl sein. Wenn das wirklich klappt, dann ist es eine wirkliche Neuerung: Revolution statt Evolution – und ich bin mir sicher, Apple zeigt als Technologieführer wo der Hammer hängt. Apple erfindet sich wieder neu.
Und diese Aussage von Tim Cook zeigt, wie sehr er mit Steve Jobs verbunden war und ihn verstanden hat. Steve Jobs meinte einst: „Einige Leute wissen nicht, was sie wollen, bis man es ihnen zeigt.“ Dieses Zitat wird oft als Ausdruck von Jobs‘ Ansatz zur Produktentwicklung bei Apple verwendet, bei dem das Unternehmen bestrebt war, revolutionäre Produkte zu schaffen, die die Bedürfnisse der Kunden erfüllen, noch bevor sie sich selbst dieser Bedürfnisse bewusst waren. Jobs glaubte daran, dass es nicht ausreicht, Kunden nur nach ihren Wünschen zu fragen, sondern dass wahre Innovation darin besteht, Produkte zu schaffen, von denen die Menschen nicht einmal wussten, dass sie sie brauchen würden. Und natürlich lese im im Netz, die ewigen Nörgler. Aber genau so ein Produkt wird Vision Pro werden, da bin ich mir sicher. Ein Produkt von dem ich noch gar nicht weiß, wie sehr ich es brauchen werde.
Vision Pro wird Folgen haben. Wenn ich höre, dass Disney einer der ersten Content-Partner ist, wird die Luft für Kinos und Beamerhersteller dünner. Auf Disney werden Netflix und Co folgen. Wenn Vision Pro Medieninhalte in hoher Auflösung und Größe vor meinen Augen abspielt, dass wird sich die Unterhaltungsindustrie verändern. Schon jetzt bin ich begeistert, vom Gaming im 360 Grad Raum durch meine Sony VR2 – wie aufregend kann das erst durch Vision Pro werden? Ach ja, die 3D-Wiedergabe brauche ich als Sehbehinderter persönlich nicht, hoffe aber, dass Brillenträger mit der Vision Pro gut zurecht kommen. Tim Cook und der Leiter der Apple-Design-Abteilung Richard Howarth sind ja auch Brillenträger. In kleinen Räumen oder Bienenwaben-Appartements wird auf einmal alles viel, viel größer. Die Brille öffnet größere Räume, vielleicht auch größere Räume der Fantasie?
Ich bin als digitaler Nomade gewohnt, irgendwo zu arbeiten, wo es einen Netzempfang gibt. Da wird das System auch in meiner mobilen Arbeitsumgebung interessant. Vision Pro ist schließlich ein leistungsfähiger Computer und nicht nur eine VR/AR-Brille. Apple liefert durch einen eigenen App-Store die entsprechenden Apps fürs autonome Arbeiten (an denen Apple freilich gut verdienen wird). Und ich kann, so zumindest in der Präsentation meine bestehende Hardware wie MacBook Pro ins Headsystem einbinden. In der Präsentation wurde Apple eigene Software-Programme wie Keynote oder Mail gezeigt, aber auch Microsoft Word und andere Office-Teile.
Reizvoll finde ich die Konferenzen mit eigenem Avatar, die nicht so Nintendomäßig aussehen wie die Meta-Variante on Horizont World. Netter Sidekick: Das Wort Metaverse fiel bei Apple nicht ein einziges Mal, aber ich bin sicher, Mark Zuckerberg hat die Präsentation genau verfolgt und bohrt die Quest x sicher schon auf. Etwas nervös werde ich allerdings, dass Cook auch das Wort AI/KI nicht einmal gesagt hat. Der Einsatz von Präsentationssoftware wie Webex, Teams oder Zoom wurden angekündigt und das wird Arbeiten in virtuellen Räumen verändern.
Die Keynote der WWDC muss sich erst einmal setzen lassen. Neben neuen Macs, neuen OS für iPhone, iPad, Mac und Watch nun noch Vision Pro. In den nächsten Tagen und Wochen werden wir uns mit der veränderten Welt beschäftigen. Ich fang an zu sparen und freue mich als Fan-Boy auf weitere Innovationen. Alles wird gut.
Es überschlagen sich die Ideen beim Thema KI und aus der Flut von Innovationen ist es schwer den Überblick zu behalten. Ich bin auf die KI DragGAN vom Max-Planck-Institut für Informatik in Saarbrücken gestoßen, die das Potential hat, Bildbearbeitung komplett zu verändern. Das Projekt kommt vom angesiedelten Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence (VIA). Es wird im August auf der SIGGRAPH vorgestellt, die ich früher jedes Jahr besucht habe. Es war für mich immer das Muppet Labor von Prof. Bunsenbrenner, wo die Zukunft schon heute gemacht wird.
Kleidungsstücke an einem digitalen Avatar anprobieren und von allen Seiten begutachten? Die Blickrichtung des Haustieres auf dem Lieblingsfoto anpassen? Oder die Perspektive auf einem Landschaftsbild verändern? Eine neue Methode verspricht nun, sie auch für Laien zugänglich zu machen – dank KI-Unterstützung mit wenigen Mausklicks. Hier ist die Dokumentation dazu. Die neue Methode hat das Zeug dazu, die digitale Bildbearbeitung zu verändern. „Mit ‚DragGAN‘ entwickeln wir derzeit ein Werkzeug, dass es dank einer übersichtlichen Nutzeroberfläche auch Laien ermöglicht, komplexe Bildbearbeitungen vorzunehmen. Sie müssen nur die Stellen im Foto markieren, die sie verändern möchten. Dann geben sie in einem Menü an, welcher Art die Veränderung sein soll – und mit nur wenigen Mausklicks kann jeder Laie dank KI-Unterstützung die Pose, den Gesichtsausdruck, die Blickrichtung oder den Blickwinkel auf einem Foto, beispielsweise von einem Haustier, anpassen“, erklärt Christian Theobalt, geschäftsführender Direktor des Max-Planck-Instituts für Informatik, Direktor des Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence und Professor an der Universität des Saarlandes am Saarland Informatics Campus.
Generative Modelle Möglich macht das die Künstliche Intelligenz, genauer gesagt die „Generative Adversarial Networks“, kurz GANs. „Wie der Name sagt, handelt es sich bei GANs um generative Modelle, also solche, die neue Inhalte wie Bilder synthetisieren können. ‚Adversarial‘ zeigt an, dass es sich um ein KI-Modell handelt, in dem zwei Netzwerke gegeneinander spielen“, erklärt der Erstautor des Papers, Xingang Pan, Postdoktorand am Max-Planck-Institut für Informatik und am Saarbrücker VIA-Center. In einem GAN arbeiten ein Generator, der Bilder erstellt, und ein Discriminator, der entscheiden muss, ob die Bilder echt sind oder vom Generator erstellt wurden, gegeneinander. Das System wird so lange trainiert, bis der Discriminator die Bilder des Generators nicht mehr von echten Bildern unterscheiden kann.
Vielfältige Einsatzmöglichkeiten Die Einsatzmöglichkeiten von GANs sind vielfältig. Neben der offensichtlichen Anwendung des Bildgenerators sind GANs zum Beispiel gut darin, Bilder vorherzusagen: Die sogenannte Video-Frame-Prediction prognostiziert das nächste Bild eines Videos, was den Datenaufwand beim Videostreaming reduzieren kann. Die GANs können zudem niedrig aufgelöste Bilder hochskalieren und die Bildqualität verbessern, indem sie die Position der zusätzlichen Pixel der neuen Bilder vorhersagen.
„In unserem Fall erweist sich diese Eigenschaft von GANs als vorteilhaft, wenn in einem Bild zum Beispiel die Blickrichtung eines Hundes geändert werden soll. Das GAN berechnet dann im Grunde das ganze Bild neu und antizipiert, wo welches Pixel im Bild mit der neuen Blickrichtung landen muss. Ein Nebeneffekt davon ist, dass DragGAN auch Dinge berechnen kann, die vorher etwa durch die Kopfposition des Hundes verdeckt waren. Oder wenn der Nutzer die Zähne des Hundes darstellen will, kann er dem Hund auf dem Bild die Schnauze öffnen“, erklärt Xingang Pan. Auch im professionellen Kontext könnte DragGAN genutzt werden. Beispielsweise könnten Modedesigner den Zuschnitt von Kleidern nachträglich in Fotos anpassen oder Fahrzeughersteller könnten mit wenigen Mausklicks verschiedene Design-Konfigurationen eines geplanten Fahrzeuges durchspielen.
DragGAN funktioniere zwar bei verschiedenen Objektkategorien wie Tieren, Autos, Menschen und Landschaften, die meisten Ergebnisse seien bisher mit GAN-generierten, synthetischen Bildern erzielt worden. „Die Anwendung auf beliebige vom Benutzer eingegebene Bilder ist immer noch ein schwieriges Problem, das wir untersuchen“, ergänzt Xingang Pan.
Das neue Tool der Saarbrücker Informatiker sorgte bereits wenige Tage nach Veröffentlichung des Preprints in der internationalen Tech-Community für Aufsehen und gilt vielen als der nächste große Schritt in der KI-gestützten Bildbearbeitung. Während Tools wie Midjourney dazu genutzt werden können, neue Bilder zu erstellen, vereinfacht DragGAN die Nachbearbeitung von Bildern enorm. Die neue Methode wird federführend am Max-Planck-Institut für Informatik und dem darin angesiedelten, gemeinsam mit Google eröffneten „Saarbrücken Research Center for Visual Computing, Interaction and Artificial Intelligence (VIA)“entwickelt, in Zusammenarbeit mit dem Massachusetts Institute of Technology (MIT) und der University of Pennsylvania. Neben Professor Christian Theobalt und Xingang Pan waren an dem Paper unter dem Titel „Drag Your GAN: Interactive Pointbased Manipulation on the Generative Image Manifold“ beteiligt: Thomas Leimkühler (MPI INF), Lingjie Liu (MPI INF und University of Pennsylvania), Abhimitra Meka (Google) und Ayush Tewari (MIT CSAIL). Das Paper wurde von der ACM SIGGRAPH-Konferenz akzeptiert, der weltweit größten Fachkonferenz für Computergrafik und interaktive Technologien, die vom 6. bis 10. August 2023 in Los Angeles stattfinden wird. Ich bin neidisch und würde gerne auch mal wieder dorthin.
Eigentlich ist das neue Bob Dylan Album Shadow Kingdom keine neue Sache, aber es ist eine gute Sache. Die Songs stammen aus einem Streaming-Konzert von Veeps.com des Jahres 2021 in der Corona-Hochphase. Dylan unterbrach seine Never Ending Tour und nahm dieses Konzert mit alten Songs auf. Diese Aufnahmen des Jahres 2021 wurden jetzt von Sony veröffentlich – leider ziemlich lieblos verpackt.
Die tadellose Musik ist im Grunde Tanzmusik und passte zu diesem Schwarzweiß-Konzert mit Maske und Clubatmosphäre. Es wurde in Santa Monica über mehrere Tage von Alma Har’el aufgenommen. Wunderbare Musik- und Filmaufnahmen, wie ich finde – allen voran Forever Young und When I paint my Masterpiece. Der Konzertfilm oder sagen wir besser Kunstfilm, Weiler ja kein wirkliches Konzert war, soll in ein paar Tagen als Download und Stream erscheinen – bisher habe ich von einer Veröffentlichung auf Datenträger noch nichts gehört, leider. Nach dem Streaming war das Konzert einen Tag in YouTube, dann hat der Rechteinhaber es löschen lassen.
Das Album Shadow Kingdom kommt in einen schäbigen Jewel-Case daher, beim Herausnehmen muss man aufpassen, dass man das Pappcover nicht zerreißt. Es gibt bis auf die Songliste keine weiteren Angaben. Kaum Bilder, keine Angaben über die vorzüglichen Musikanten. Ich habe mal recherchiert. Es spielen auf dem Album neben dem Meister, Jeff Taylor – Akkordeon, Greg Leisz – Gitarre, Pedal-Stahl-Gitarre, Mandoline, Tim Pierce – Gitarre, T-Bone Burnett – Gitarre, Ira Ingber – Gitarre, Don Was – Kontrabass, John Avila – E-Bass, Doug Lacy – Akkordeon und Steve Bartek – zusätzliche Akustikgitarre. Im Film spielen Alex Burke, Gitarre (Finger-Synking), Buck Meek, Gitarre (Finger-synching), Shahzad Ismaily, Akkordeon (Finger-synching), Janie Cowan, Kontrabass (Finger-synching) und Joshua Crumbly, Gitarre (Finger-synching).
Ich muss zugeben, ich mag dieses Konzert sehr gerne, aber die lieblose Aufmachung von Sony ist eines Meisters wie Bob Dylan nicht würdig.
In öffentlichen Verkehrsmittel habe ich in der Regel meine AirPod im Ohr, damit ich die Gespräche meiner Umgebung nicht mithören muss. Bei der heutigen S-Bahn-Fahrt nach München hatte ich die Ohrteile noch nicht im Ohr versenkt und musste ein paar Gesprächsfetzen über Organspende einer älteren Frau und eines Mannes mitzuführen, es war die beigefarbene Fraktion. Im Gespräch bekräftigte man sich gegenseitig, warum sie niemals einen Organspendeausweis ausfüllen würden – Organhandel und so.
Auslöser des Gesprächs war wohl eine Meldung, dass Organspendeausweise angestiegen sind. Die Bereitschaft zur Organspende hat wohl stark zugenommen. Inzwischen besitzt fast die Hälfte der Deutschen einen Organspendeausweis, im Jahr 2021 war es noch etwas mehr als jeder Dritte. Das geht aus einer Befragung der Techniker Krankenkasse hervor. Laut der Stiftung Eurotransplant stehen deutschlandweit gut 8.500 Menschen auf der Warteliste für eine Organspende. Die meisten von ihnen hoffen auf eine Niere. Aber es gibt zu wenig Spender.
Ja, auch ich habe einen solchen Ausweis und jeder in der Familie hat einen solchen Nachweis. Das ist für mich gelebte Nächstenliebe. Und ich habe recherchiert, dass in Bayern die Zahlen besser sein könnten – kein Wunder bei einem solchen Pärchen in der S-Bahn.
Bayerns Gesundheitsminister Holetschek hat darauf hingewiesen, dass die Zahl der Organspender im Freistaat weiterhin auf einem niedrigen Niveau ist. Im laufenden Jahr sei bei 48 Personen nach ihrem Tod eine Organspende möglich gewesen. 1.100 Menschen warteten derzeit in Bayern auf ein lebenswichtiges Organ, meldete der BR. Übrigens, den Ausweis gibt es hier.
Und es kommt wieder die Widerspruchslösung in die Diskussion, die ja schon mal von der Politik abgelehnt wurde. Stattdessen setzt man in Deutschland auf Freiwilligkeit. Am 16. Januar 2020 stimmten in einer fraktionsoffenen namentlichen Abstimmung 432 Abgeordnete in dritter Beratung für die sogenannte Entscheidungslösung. Hier die damalige Entscheidung. In den meisten Ländern Westeuropas gilt allerdings die Widerspruchslösung, die jetzt wieder einmal diskutiert wird. So beispielsweise in Österreich, Frankreich, Italien, Spanien, Portugal, Belgien, der Niederlande und Großbritannien. Damit werden Menschen automatisch zu Organspendern – wenn sie nicht zu Lebzeiten widersprochen haben. Ich halte diese Lösung für richtig und kann nur alle ermutigen, sich einen Organspendeausweis zu besorgen. Und ich kann nur hoffen, dass das Pärchen in der S-Bahn niemals ein Organ brauchen.
Wer mich näher kennt, der weiß, dass ich Roboterspielzeug sammle und habe auch einige Seminare zu diesem Thema durchgeführt. Im Moment ruht meine Sammlung allerdings aus Zeitgründen. Doch habe ich mir als Aibo-Fan neulich die überarbeitete Robotik-Sammlung im Deutschen Museum München angeschaut und einen kleinen Film gedreht.
Jetzt erreichte mich eine Pressemitteilung eines neuen Roboterspielszeugs zum neuen Transformer-Film. Zwar bin ich kein großer Fan der Filmreihe, interessiere mich aber dennoch für die Fortschritte in diesem Umfeld. Robosen, Entwickler von Technologien in der Robotik und Hersteller von Unterhaltungsroboter für den Verbrauchermarkt, bietet für Deutschland ab sofort eine deutschsprachige Webseite mit integriertem Online-Shop ab. Somit ist das Produktportfolio des Herstellers an Unterhaltungsrobotern hierzulande nun einfach direkt einseh- sowie bestellbar. Kein umständliches Bestellen über ein Nicht-EU-Land ist mehr nötig und damit auch keine Bürokratie mit Zollabfertigung.
Fans der Transformer-Reihe und Robotik-Enthusiasten interessieren sich wohl für den neuen Optimus Prime Rise of the Beasts Signature Roboter – einem authentischen und sowohl hinsichtlich des Detailgrades als auch der Funktionalität atemberaubenden Modell des Hauptdarstellers und Anführers der Autobots. Er kommt in zwei Editionen mit zahlreichem Zubehör, beherrscht eine Vielzahl von Bewegungsabläufen und kann per Sprachkommandos oder per App gesteuert und programmiert werden.
Wird der 42 Zentimeter hohe und 1,6 Kilogramm schwere Optimus Prime Rise of the Beasts Signature Roboter per Knopfdruck oder Sprachbefehl aktiviert und beginnt er sich zu bewegen und mit der Original-Stimme von Peter Cullen zu sprechen.
Technik inside 21 Hochpräzision-Servomotoren, 69 Mikrochips, 40 bewegliche Teile und ein 6-Achsen-Gyroskop sorgen dafür, dass der Optimus Prime Rise of the Beasts Signature Roboter viele Posen einnehmen und Bewegungen ausführen kann. Mit dem beiliegenden Aerial-Standfuß kann Optimus Prime der Schwerkraft trotzen und dynamische Sprung- und Flugmanöver ausführen. Er reagiert außerdem auf 16 vorprogrammierte Sprachkommandos und kann selbst mit der Original-Stimme von Optimus-Prime-Sprecher Peter Cullen auf Nutzerbefehle antworten.
Mit der Robosen-App, die für iOS- und Android-Geräte kostenlos in den jeweiligen App-Stores bereitsteht, lassen sich nicht nur jederzeit zusätzliche Bewegungsabläufe und Aktionen aus einem stetig wachsenden Angebot herunterladen – dank intuitiver Block-Programmierung können Nutzer im Handumdrehen neue Bewegungen, Posen und ganze Tanz- oder Kampfkunst-Choreographien erstellen, hochladen und mit anderen Transformers-Enthusiasten auf der ganzen Welt teilen.
Der Robosen Optimus Prime Rise of the Beasts Signature Roboter wird in zwei Editionen erhältlich sein: Die Limited Edition kann zum Frühbucherpreis von 919 Euro (regulär 1199 Euro) vorbestellt werden. Sie kommt mit zusätzlichem Zubehör und Waffen, besticht aber vor allem mit ihrer ultrarealistischen Bemalung, die dem Modell durch Metallic-Elemente, lackierte Kratzer sowie Rauch- und Ölspuren ein noch höheres Maß an Authentizität verleihen. Die Limited Edition ist überdies nur in begrenzter Stückzahl erhältlich und jedes Modell verfügt über eine einzigartige, eingravierte Seriennummer.
Für mich ist David Cronenberg jemand, der sich selbst über die Jahrzehnte seines Schaffens treu geblieben ist. Jeder der Filme des heute 70jährigen Kanadiers spiegelt die Kreativität und den Erzähldrang des Regisseurs wider, der sich nicht einem Massengeschmack anbiedert. Im Mittelpunkt von vielen seiner Filme war ein Subgenre des fantastischen Films, der Body Horror.
Es war schwer aus dem Werk einen Film von Cronenberg für meine monatliche Matinee im Scala Kino Fürstenfeldbruck einen Film zu wählen. Ich entschied mich für Videodroome aus dem Jahre 1983.
Ich entschied mich für Videodroome aus dem Jahre 1983. Der Film war nach dem Publikumserfolg von Scanners die konsequente Weiterentwicklung des Body Horrors im aufkommenden VHS-Zeitalter. Videodrome gilt zudem als einer der bedeutendsten und einflussreichsten Filme der Cyberpunk-Bewegung. Der Film stellt die Frage, ob Technologie und Medien uns wirklich befreien oder ob sie uns in eine Art mentale Sklaverei führen.
Hier der Vortrag meiner Matinee im Scala Fürstenfeldbruck. Die nächste Matinee ist am Sonntag, 18. Juni um 10:45 Uhr. Ich bespreche und zeige den Kultfilm „The Rocky Horror Picture Show.“ Karten gibt es hier.
Natürlich kenne ich Tubular Bells schon seit Jahren, ach seit Jahrzehnten. Erst als Vinyl-Album, dann als Vinyl-Box, dann die CD und auch die über die Jahre erschienen Neuinterpretionen Tubular Bells II (1992), Tubular Bells III (1998) und The Millennium Bell (1999) sowie Tubular Bells 2003. ach ja, eine Orchesterversion gab es auch noch. Und so hab ich mir die Neuausgabe zum 50. Geburtstag von Mike Oldfields Klassiker nun auch gegönnt – erst als Stream, dann als Doppel-Vinyl.
1973 von den menschenscheuen Eigenbrötler Mike Oldfield im Alter von 20 Jahren fast komplett selbst eingespielt, war es das erste Album von Virgin Records und mit 15 Millionen Verkäufen die Grundlage für die späteren Millionen von Richard Branson, der heute in Raumfahrt macht. Für den schüchternen Oldfield war die Musik ein Ventil seine Ängste verlieren und der Beginn einer grandiosen Karriere.
Oldfield zog sich in die Manor Studios in Oxfordshire, England, nördlich von Oxford zurück. In der einsamen Gegend konnte er an seinem neuen Sound feilen. Dort gab es für 1973 höchst moderne 16 Spur Bandmaschinen, auf denen das Opus von Mike Oldfield fast im Alleingang aufgezeichnet wurde. 1995 wurde das Studio geschlossen. Ich hätte es gerne mal besichtigt. Die Fotos vom englischen Landsitz sind fantastisch.
Tubular Bells besteht aus zwei Teilen, welche jeweils eine LP-Seite ausfüllen. In der Musik sind Einflüsse vom Rock/Blues über Folk bis in die Klassik zu finden. Sicherlich wurde die Musik durch den Film Der Exorzist noch stärker verbreitet, bei dem ein Thema aus Tubular Bells als Leitmotiv verwendet wurde.
In der neuen Jubiläums-Edition gibt es einiges an bislang unveröffentlichtem Material von Oldfield zu hören: Neben einem Half Speed Master des Original-Mixes, hören wir Fans auch ein Demo aus 2017. Außerdem beinhaltet die Neuveröffentlichung: „Tubular X“, Oldfields Interpretation des „X-Files“-Themas, die „Tubular Beats“-Remix-Zusammenarbeit mit YORK und die Single „Theme From Tubular Bells“. Nachdem die Auflage von 2012 sehr begrenzt war, freuen wir uns auch auf „Tubular Bells/In Dulci Jubilo (Music for the Opening Ceremony of the London 2012 Olympic Games)“.
Oldfield ließ zur Veröffentlichung ein schönes Statement verbreiten: „Wenn man sich die musikalischen Ergüsse eines angstgeplagten Teenagers noch einmal anhört, ist es schwer zu glauben, dass ich das vor 50 Jahren wirklich war. Die Musik klingt nicht so angstbesetzt, aber nur ich kenne die Jahre der Arbeit und des Stresses, die „Tubular Bells“ hervorgebracht haben. Das waren alles Live-Aufnahmen, ohne zweite Chancen oder Studiotricks, wie wir sie heute gewohnt sind. Als ich „Tubular Bells“ aufnahm, hätte ich nie gedacht, dass es jemals jemand hören würde, geschweige denn, dass wir es fünf Jahrzehnte später feiern würden! Vielen Dank an alle, die mir über die Jahre zugehört haben.“ Aber gerne doch Mike. So richtig neu sind allerdings die Aufnahmen nicht ganz. Ich hab noch im Archiv das zugegeben seltene Album von den Record Store Day Opus One mit den 1971 Demos. Ich werde also das Meisterwerk von Mike Oldfield wieder einmal genießen und vielleicht kann ich auch ein Seminar zu diesem Werk durchführen.