Posts Tagged ‘Apple Vision Pro’

Warum der Film Projekt Brainstorm für mich ein Klassiker geworden ist

8. Mai 2025

Als Filmfan genieße ich die großen Klassiker der Filmgeschichte. Die achtziger Jahre brachten für mich aber persönlich wenig erbauliches in Sachen Film hervor. Vier Filme haben mich u.a. aber immer zum Nachdenken gebracht: Blade Runner und Opfer wegen ihrer Spiritualität, Tron und Projekt Brainstorm wegen der technischen Weitsicht und auch wegen ihrer philosposphischen Gedankenexpertimente.

Vor kurzen erschien Projekt Brainstorm auf Bluray. Ich hatte bisher nur die Laserdisc und eine DVD. Jetzt konnte ich den Film in seiner vollen Pracht genießen zudem noch die Showscan-Version enthalten ist.

Ich habe Projekt Brainstorm damals bei uns im Kino gesehen und bei der mickrigen Projektion konnte der Film seine visuelle Kraft nicht enthalten. Dies holte ich später nach und auch die neue Versionen auf Bluray genoss ich am 4K-Beamer.

Als ich neulich im Apple Store in der Münchner Rosenstraße die Apple Vision Pro ausprobierte, kam mir der Film wieder in den Sinn und ich bestellte die Bluray noch im Hinausgehen. Tim Cook hat bei der Entwicklung der VR/AR-Brille diese Technik auch im Hinterkopf gehabt. Eine Maschine, die Gedanken, Erinnerungen, Erfahrungen und Gefühle aufzeichnet und auf andere überträgt. Was für eine interessante Idee.

Aber Projekt Brainstorm (1983) ist weit mehr als ein technikzentrierter Science-Fiction-Film; er entfaltet eine vielschichtige philosophische Reflexion über Bewusstsein, Tod, Empathie und die ethischen Grenzen technologischen Fortschritts. Das hat mich beschäftigt, seitdem ich Projekt Brainstorm gesehen hatte.

Ich stelle meine Themen zu den Themenkomplexen zusammen und führte sie ansatzweise aus: Bewusstsein, Tod und Transzendenz – Empathie und Kommunikation – Ethische und gesellschaftliche Implikationen – die Rolle des Individuums und der Gesellschaft und nicht zuletzt die Metaphorik des Mediums Film.

Bewusstsein, Tod und Transzendenz
Im Zentrum steht die Frage, was das menschliche Bewusstsein ausmacht und ob es möglich ist, subjektive Erfahrungen – bis hin zum Tod – technisch zu speichern und zu teilen. Die Aufzeichnung des Sterbens von Dr. Reynolds und das spätere Erleben dieser Erfahrung durch Michael konfrontieren die Figuren und das Publikum mit der Grenze zwischen Leben und Tod. Der Film stellt dabei die Frage, ob es eine Form von Existenz nach dem Tod gibt und wie sich diese mit technischen Mitteln erfahrbar machen ließe. Die Visionen von Licht, Engeln und kosmischer Einheit am Ende deuten auf eine philosophische Vorstellung von Transzendenz und einem kollektiven Bewusstseinszustand hin.

Empathie und Kommunikation
Die Technologie im Film ermöglicht es, nicht nur Sinneseindrücke, sondern auch Emotionen und Erinnerungen direkt zu übertragen. Damit eröffnet sich die Möglichkeit einer radikal neuen Form von Empathie: Menschen können buchstäblich fühlen, was andere fühlen. Der Film fragt, ob eine solche totale Kommunikation zu mehr Verständnis und Verbundenheit führt – oder ob sie auch gefährlich sein kann, wenn sie missbraucht wird.

Ethische und gesellschaftliche Implikationen
Projekt Brainstorm thematisiert die Ambivalenz technologischer Innovationen: Während die Erfindung ursprünglich als Mittel zur Erweiterung menschlicher Erfahrung gedacht ist, wird sie schnell von Militär und Industrie vereinnahmt – etwa zur Gehirnwäsche oder als Folterinstrument. Der Film stellt damit die Frage nach Verantwortung und Ethik im Umgang mit mächtigen Technologien und warnt vor deren Missbrauch.

Die Rolle des Individuums und der Gesellschaft
Die Protagonisten geraten in einen Konflikt zwischen persönlicher Integrität und gesellschaftlichem Druck. Die Technologie wird zum Prüfstein für die Frage, wie weit der Mensch gehen darf, um Wissen zu erlangen und Grenzen zu überschreiten. Der Film reflektiert damit auch über die gesellschaftlichen Folgen von Innovation und die Gefahr, dass individuelle Erfahrungen und Privatsphäre verloren gehen.

Metaphorik des Mediums Film
Schließlich verweist der Film selbstreflexiv auf das Medium Kino: Die Möglichkeit, fremde Erfahrungen zu teilen, spiegelt die Funktion des Films wider, Zuschauer in andere Leben und Welten eintauchen zu lassen. Projekt Brainstorm fragt so auch, ob und wie Medien unser Bewusstsein und unsere Wahrnehmung von Realität beeinflussen.

Für mich ist klar: Projekt Brainstorm unterscheidet sich von anderen Sci-Fi-Filmen vor allem durch seinen realitätsnahen, fast dokumentarischen Ansatz zur Darstellung von Technologie, den Fokus auf Bewusstsein und subjektive Erfahrung sowie die kritische Reflexion über gesellschaftliche und ethische Folgen. Die Technologie steht nicht nur als Plot-Element im Vordergrund, sondern wird als Auslöser tiefgreifender philosophischer und sozialer Fragen inszeniert

Und alle diese Fragen wurden von Regisseur Douglas Trumbull technisch brillant umgesetzt. Trumbull war einst für die Tricks von Stanley Kubricks 2001 – Odyssee im Weltraum verantwortlich und lieferte mit Lautlos im Weltraum seinen ersten eignen Film und Flop ab. Auch Projekt Brainstorm floppte grandios, hat aber einen großen Platz in meiner persönlichen Filmgeschichte.
Projekt Brainstorm nutzte innovative Bildformate, visionäre Kameratechnik und experimentelle Spezialeffekte, um das Thema Bewusstsein und virtuelle Realität technisch wie künstlerisch überzeugend umzusetzen. Der Film war damit ein Vorreiter für spätere Entwicklungen im Bereich immersiver Medien und bleibt ein bedeutendes Beispiel für den kreativen Einsatz von Filmtechnik zur Verstärkung inhaltlicher Konzepte. Ich möchte dies begründen:

Innovative Bildgestaltung und Formatwechsel
Der Film wurde in zwei unterschiedlichen Formaten gedreht: Die Realszenen im klassischen 35-mm-Format (1,85:1), die Szenen aus der Perspektive des Gedankenübertragungsgeräts hingegen in Super Panavision 70 mm (2,20:1).

Dieser bewusste Wechsel der Bildformate erzeugte beim Kinopublikum einen spürbaren Kontrast zwischen der „realen“ Welt und den aufgezeichneten Sinneswahrnehmungen, was die Immersion und das Erleben der virtuellen Realität verstärkte. Die „Brainstorm“-Sequenzen wirkten dadurch spektakulärer, weiter und intensiver als die Alltagsszenen.

Die technische Umsetzung erforderte, dass 35-mm-Aufnahmen auf 65- bzw. 70-mm-Negative vergrößert wurden, um eine visuelle Konsistenz zu erreichen. Im Kino führte das zu einem Wechsel zwischen „Pillarbox“- und „Scope“-Darstellung, was auf Heimmedien nur eingeschränkt nachvollziehbar ist.

Visionäre Nutzung neuer Technologien
Regisseur Douglas Trumbull, bekannt für seine Pionierarbeit im Bereich visueller Effekte, wollte ursprünglich das von ihm entwickelte Showscan-Verfahren einsetzen, das mit 60 Bildern pro Sekunde ein extrem realistisches, flüssiges Bild erzeugt. Aus Kostengründen wurde dieses Verfahren jedoch nur teilweise und nicht für den gesamten Film genutzt.
Die filmische Umsetzung der Gedanken- und Gefühlserfahrungen mittels Weitwinkeloptik, Ego-Perspektive und dynamischer Kameraführung war ihrer Zeit weit voraus und nimmt spätere Entwicklungen im Bereich Virtual Reality und immersiven Kinos vorweg.

Spezialeffekte und Sounddesign
Die Darstellung der subjektiven Erlebnisse – von Achterbahnfahrten bis hin zu Nahtoderfahrungen – war technisch aufwendig und setzte Maßstäbe für die visuelle Umsetzung innerer Welten im Kino.
Auch das Sounddesign trug wesentlich zur Immersion bei, indem es die Wahrnehmung der Figuren für das Publikum unmittelbar erfahrbar machte.

Soundtrack
Der Soundtrack zu Projekt Brainstorm stammt von James Horner, der später mit Filmmusik zu Titanic und Braveheart Weltruhm erlangte. Horner schuf für den Film eine atmosphärische und vielschichtige Komposition, die elektronische Klänge mit klassischen Orchester-Elementen verbindet. Besonders in den „Brainstorm“-Sequenzen unterstreicht die Musik das Gefühl von Staunen, Gefahr und Transzendenz und verstärkt so die emotionale Wirkung der Bilder. Der Score trägt maßgeblich dazu bei, die Grenzen zwischen Realität und virtueller Erfahrung hörbar zu machen und zählt zu den frühen, innovativen Arbeiten des Komponisten. Ich hatte mir den Score 2006 als CD gekauft und höre immer wieder das „Stück Lilians Heart Attack“, eine sehr eindrucksvolle musikalische Darstellung eines Herzanfalls.
Das Album ist relativ selten und wer es mal genießen will, dann mal zu YouTube greifen.

Smart, stylish, sozial – wenn meine Brille mehr kann als gut aussehen!

26. März 2025

Leider gibt es die Apple Vision Pro nicht in meiner Brillenstärke, aber bei einem Seminar habe ich die Meta-Brille mal ausprobiert. Vielen Dank Ingo. Vor Jahren testete ich die Google Glass, die zwar innovativ war, aber technisch noch nicht so weit war. Die Meta-Brille hat dagegen heute einen gewaltigen Schritt nach vorne gemacht.

Im Moment gibt es neue Ray-Ban Versionen, die eine Kooperation mit Meta eingegangen sind.
Die Ray-Ban Meta Smart Glasses sind eine Kooperation zwischen Meta und Ray-Ban, die klassische Brillen mit smarten Funktionen kombiniert. Diese Brillen richten sich an Social-Media-affine Nutzer und bieten eine funktionale Erweiterung für Smartphones, ohne jedoch Augmented- oder Virtual-Reality-Funktionen zu integrieren.

Ich habe die Zukunft auf der Nase - Google Glass
Ich habe die Zukunft auf der Nase – Google Glass

Design und Varianten
Die Brillen im Meta-Shop sind in den Designs „Wayfarer“ und „Headliner“ erhältlich und bieten insgesamt 21 Variationen, einschließlich Optionen mit Sehstärkekorrektur. Sie wiegen je nach Modell zwischen 48,6 und 50,8 Gramm und sind in verschiedenen Farben wie Schwarz, Blau, Braun und Transparent verfügbar. Das Design bleibt klassisch und elegant, wodurch sie sich optisch kaum von einer regulären Ray-Ban-Brille unterscheiden.

Ich hatte als Ray Ban-Fan die Wayfarer auf, empfand sie aber vom Design als ungewohnt. Im Netz meinte man, ich sähe aus wie Heinz-Rudolf Kunze. Die ist optisch nicht mein Fall. Ich trage seit Jahrzehnten die Clubmaster und solange dieses Modell nicht smart ist, kaufe ich nichts. Allerdings trägt sich die Wayfarer sehr gut.

Technische Ausstattung
Die Ray-Ban Meta Smart Glasses verfügen über eine 12-Megapixel-Ultraweitwinkelkamera, die Fotos mit einer Auflösung von 3024 x 4032 Pixeln sowie Videos in 1440 x 1920 Pixeln bei 30 Bildern pro Sekunde aufnimmt. Die Kamera ist mit einer Aufnahme-LED ausgestattet, um die Nutzung sichtbar zu machen. Für Audio sorgen zwei offene Ohrlautsprecher und fünf Mikrofone, die eine immersive Aufnahme ermöglichen. Die Brille bietet außerdem Bluetooth 5.3 und Wi-Fi 6 für kabellose Konnektivität sowie einen internen Speicher von 32 GB, der Platz für bis zu 500 Fotos oder etwa 100 kurze Videos bietet.

Funktionen und Bedienung
Die Bedienung erfolgt über Sprachsteuerung, Touchflächen an den Bügeln oder Tasten. Nutzer können Fotos und Videos aufnehmen, Livestreams auf Plattformen wie Facebook und Instagram starten oder Musik über integrierte Lautsprecher hören. Die Brille ist mit der Meta View App kompatibel und erfordert ein Smartphone mit Android 10 oder iOS 14.4 oder höher.

Akku und Preis
Die Akkulaufzeit beträgt etwa vier Stunden bei aktiver Nutzung, wobei das Ladeetui zusätzliche Energie für bis zu 36 Stunden liefert. Der Einstiegspreis liegt bei 329 Euro, was im Vergleich zu regulären Sonnenbrillen deutlich höher ist, jedoch durch die zusätzlichen Funktionen gerechtfertigt erscheint.

Einschränkungen
Obwohl Meta AI in einigen Ländern als Assistenzsystem verfügbar ist, sind diese Funktionen aufgrund europäischer Datenschutzbestimmungen in Deutschland nicht integriert. Die Brille bleibt somit ein reines Wearable ohne KI-gestützte Features.

Insgesamt bieten die Ray-Ban Meta Smart Glasses eine stilvolle Kombination aus klassischem Design und moderner Technologie, die sich besonders für Social-Media-Enthusiasten eignet. Ich warte noch ab – vor allem auf die Clubmaster und vielleicht überlege ich mir auch Kontaktlinsen. Mal sehen, was die Familie dazu sagt.

Apple Vision Pro – auch für Brillenträger

29. Juni 2024

Die Apple Vision Pro ist seit kurzem bestellbar. Die Auslieferung beginnt am 12. Juli und die Brille kostet rund 4000 Euro. Viel Geld, aber kein Vergleich zu den Apple-Preisen vergangener Tage. Wie aus den Diensten zu vernehmen ist, arbeitet Apple im Hintergrund an einer preiswerteren Version der Apple Vision Pro.

Im Moment werde ich als Apple-Fanboy die Füße stillhalten und (noch) nicht Apples räumlichen Computer bestellen, obwohl es mich gewaltig reizt. Ich würde die Brille nicht in erster Linie als Entertainment-Produkt nutzen, sondern mich juckt es, die Brille als Arbeitsgerät einzusetzen: Also ich würde gerne Präsentationen erstellen, meine Texte schreiben, bloggen und auch Konferenzen durchführen. Dafür gibt es die eine oder andere App, die es auszuprobieren gilt.

Die Apple-Entwicklerkonferenz WWDC war voll mit Seminaren für Vision Pro und die nächste Version von VisionOS. Gerade meldete Springer, dass man zum Deutschlandstart der Brille mit einer eigens entwickelten Streaming-App dabei sein möchte. Der grenzenlose Screen von Vision Pro befreit die BILD-App von den Grenzen eines physischen Bildschirms und ermöglicht es den Nutzern, die BILD-Inhalte auf eine besonders mitreißende Weise zu erleben. Die Frage ist, warum ich die BILD mit der Brille konsumieren sollte. Aber das ist mein Problem.

Mein letzter Wille, Mann mit Brille

Ich ging davon aus, dass der Kelch der Apple Vision Pro erst einmal an mir vorbeigehen wird. Warum? Ganz einfach: Ich bin Brillenträger. Die Apple Vision Pro und Sehhilfe auf der Nase vertragen sich nicht. Kontaktlinsen sind auch nicht der heiße Scheiß.

Aber Apple hat eine Lösung im Angebot und Apple wäre nicht Apple, wenn man damit nicht Geld verdienen würde. Es gibt ein Support-Dokument. Es gibt Linsen zum Aufschrauben auf die persönliche Apple Vision Pro. Die einfache „Lesebrille/Leselinse“ kostet rund 115 Euro. Das geht bis zu +2,75 dpt. Ich bin allerdings mit meinen Brillenmilchgläsern ganz weit drüber. Wer also seine exakte höhere Brillenstärke für seine Linse haben möchte, der wählt die ZEISS Optical Inserts für rund 170 Euro. Das geht nur online und man braucht die Brillenstärke vom Optiker, Augenarzt oder den klassischen Brillenpass. Apple hat dazu ein schlecht übersetztes Service-Dokument online gestellt. Auf gut Deutsch: Meine Brille ist keine Ausrede mehr, damit ich die Apple Vision Pro nicht bestellen könnte.

Und dennoch warte ich ab. Ich muss auf die Kohle schauen. Einige gute Kunden sind weggebrochen und das muss erst einmal kompensiert werden. Dennoch bleibe ich am Ball, denn ich finde das Thema sehr faszinierend und zukunftsweisend. Ich werde sicherlich meine Frau zu einer kostenlosen 30-minütigen Live-Demo der Brille begleiten und ihre Eindrücke aufsaugen. Ohne diese ZEISS Optical Inserts werde ich mit der Brille nichts sehen.

Apple Vision Pro mit Knowhow aus Deutschland

8. Februar 2024

Die Apple Vision Pro ist in den USA gestartet und die erste Charge ist ausverkauft. Apple wagt sich mit der 3500 US-Dollar teueren Brille in den Bereich AR und VR vor – und scheinbar erfolgreich. Jetzt gilt es Erfahrungen zusammen. Ich habe die Brille (noch) nicht aufgehabt und kann nur auf Berichte aus dem Netz und auf ein paar persönliche Gespräche zurückgreifen. Das Thema fasziniert mich und ich bin als Apple Fan Boy davon überzeugt, das Apple Vision Pro die Zukunft des Computings sein wird.

Ich kann mir viele Szenarien als digitaler Nomade vorstellen, wie ich die Apple Vision Pro in meinem Leben einsetzen könnte. Arbeiten und Unterhaltung werden sich massiv ändern und ich freu mich darauf. Hier ein schöner Test von Heise.

Als ich mir die Videos in YouTube ansehe, erinnerte mich an meine Vorhersagen aus dem Jahr 2015, die sich Zug um Zug erfüllt haben. Im Kern der Apple Vision Pro steckt für mich deutsches Know-how. Warum? 2015 kaufte Apple ein Unternehmen, was sich Tür an Tür bei meiner damaligen Reaktion in München befand: Metaio. Hier ein Text von 2015 von mir.

Metaio war einer der wichtigsten Firmen weltweit im Bereich augmented reality zu deutsch etwa erweiterter Realität. Die Software-Schmiede aus München entwickelte für zahlreiche Kunden höchst innovative Projekte, veranstaltete eine Top-Konferenz mit inside AR in München und war leuchtendes Beispiel für den High-Tech-Standort Bayern. Die Nutzung dieser innovativen Softwarepakete des Unternehmens erlaubte eine Integration von 3D-Animationen in live-Videostreams oder Kamerabilder der Nutzerumgebung. Metaio hatte damals über 500 Projekte erfolgreich abgeschlossen bei mehr als 450 renommierten Kunden wie BMW, Daimler, Siemens, Toyota, Peugeot, EADS, Bertelsmann, KUKA, LEGO, MINI, Popular Science, Focus Features und Volkswagen. Hier ein Video, was ich vor acht Jahren gedreht habe.

Im Februar 2002 gegründet und 2015 war dann Schluss als Apple den Laden aufkaufte. Die Übernahme von Metaio durch Apple markierte einen wichtigen Schritt in Apples Bemühungen, seine Präsenz im Bereich der erweiterten Realität zu stärken. Seit der Übernahme hat Apple die AR-Technologie von Metaio in verschiedene Produkte und Dienstleistungen integriert, darunter die ARKit-Plattform für Entwickler, die es ermöglicht, AR-Erlebnisse in iOS-Apps zu erstellen. Die Entwickler zogen nach Cupertino, der Metaio-Standort München wurde aufgegeben. Heute ist es so, dass Apple die Apple Vision Pro auch in seinen Büros in München entwickelt, im Kern ist dabei wohl das Knowhow Metaio

VR-Projekt der Münchner Symphoniker: Tapestry of Spaces

15. Januar 2024

Nennen wir es virtuelle Realität, VR oder Metaverse, egal. Ich bin sehr an dieser Thematik interessiert und bin gespannt, ob die Apple Vision Pro die Welt verändern wird. Zunächst in den USA und vielleicht irgendwann mit einem Consumer-Produkt bei uns.

Ich muss zugeben, ich war mit den Aufnahmen meiner 360 Grad VR-Kameras in den vergangenen Wochen ein wenig nachlässig. Aber ich bin auf ein interessenten Experiment in München gestoßen: The Tapestry of Spaces, also locker übersetzt ein Wandteppich an Räumen – im engeren Sinne das Lied der Räume.

Es soll ein Gesamtkunstwerk darstellen aus klassischer Musik, KI Komposition, StreetArt und immersiver Audio-und Videotechnologie alles unter dem Dach der Münchner Symphoniker. The Tapestry of Spaces sind sieben Räume einer Ausstellung des KUNSTLABOR 2 in München als Ausgangspunkt für dieses Projekt.

Ich traf das Projekt in Räumen unterhalb des Wurmecks im Münchner Rathaus. Dort war das Projekt samt VR-Brillen zum Ausprobieren.

Herzstück ist die spielerisch-kreative Auseinandersetzung mit ChatGPT als klassischem Komponisten, der anhand von Fotos der von den Künstlern gestalteten Räume das melodische Material für ein Ensemble der Münchner Symphoniker erstellt hat. Klingt verwirrend und sollte daher unbedingt einmal ausprobiert werden. Denn im Gegensatz zu den bislang verfügbaren Musik-KI-Modellen lässt sich die Entstehung der KI-Komposition transparent mitverfolgen. Eine sehr ausführliche und interessante Zusammenfassung des Projektes gibt es auf einer speziellen Website. Sie zeigt das Vorgehen von KI-Promter und Musiker.

Und immer wieder stellt sich mir die Frage in wieweit kann KI Kunst ermöglichen oder ist es nur eine Reproduktion von Trainingsdaten? Kunst bedeutet für mich etwas Neues zu schaffen, allenfalls ist es nur eine schnöde Variante des Bestehenden. Die Auseinandersetzung der Bearbeiter Adrian Sieber und Jakob Haas mit den Vorgaben von ChatGPT beleuchtet, inwiefern die GPT-Kl als Inspirationsquelle und thematische Ideengeberin dienen kann, und wo die Grenzen der Technologie für die künstlerische Verarbeitung musikalischer Ideen liegen.