Leider gibt es die Apple Vision Pro nicht in meiner Brillenstärke, aber bei einem Seminar habe ich die Meta-Brille mal ausprobiert. Vielen Dank Ingo. Vor Jahren testete ich die Google Glass, die zwar innovativ war, aber technisch noch nicht so weit war. Die Meta-Brille hat dagegen heute einen gewaltigen Schritt nach vorne gemacht.
Im Moment gibt es neue Ray-Ban Versionen, die eine Kooperation mit Meta eingegangen sind. Die Ray-Ban Meta Smart Glasses sind eine Kooperation zwischen Meta und Ray-Ban, die klassische Brillen mit smarten Funktionen kombiniert. Diese Brillen richten sich an Social-Media-affine Nutzer und bieten eine funktionale Erweiterung für Smartphones, ohne jedoch Augmented- oder Virtual-Reality-Funktionen zu integrieren.
Ich habe die Zukunft auf der Nase – Google Glass
Design und Varianten Die Brillen im Meta-Shop sind in den Designs „Wayfarer“ und „Headliner“ erhältlich und bieten insgesamt 21 Variationen, einschließlich Optionen mit Sehstärkekorrektur. Sie wiegen je nach Modell zwischen 48,6 und 50,8 Gramm und sind in verschiedenen Farben wie Schwarz, Blau, Braun und Transparent verfügbar. Das Design bleibt klassisch und elegant, wodurch sie sich optisch kaum von einer regulären Ray-Ban-Brille unterscheiden.
Ich hatte als Ray Ban-Fan die Wayfarer auf, empfand sie aber vom Design als ungewohnt. Im Netz meinte man, ich sähe aus wie Heinz-Rudolf Kunze. Die ist optisch nicht mein Fall. Ich trage seit Jahrzehnten die Clubmaster und solange dieses Modell nicht smart ist, kaufe ich nichts. Allerdings trägt sich die Wayfarer sehr gut.
Technische Ausstattung Die Ray-Ban Meta Smart Glasses verfügen über eine 12-Megapixel-Ultraweitwinkelkamera, die Fotos mit einer Auflösung von 3024 x 4032 Pixeln sowie Videos in 1440 x 1920 Pixeln bei 30 Bildern pro Sekunde aufnimmt. Die Kamera ist mit einer Aufnahme-LED ausgestattet, um die Nutzung sichtbar zu machen. Für Audio sorgen zwei offene Ohrlautsprecher und fünf Mikrofone, die eine immersive Aufnahme ermöglichen. Die Brille bietet außerdem Bluetooth 5.3 und Wi-Fi 6 für kabellose Konnektivität sowie einen internen Speicher von 32 GB, der Platz für bis zu 500 Fotos oder etwa 100 kurze Videos bietet.
Funktionen und Bedienung Die Bedienung erfolgt über Sprachsteuerung, Touchflächen an den Bügeln oder Tasten. Nutzer können Fotos und Videos aufnehmen, Livestreams auf Plattformen wie Facebook und Instagram starten oder Musik über integrierte Lautsprecher hören. Die Brille ist mit der Meta View App kompatibel und erfordert ein Smartphone mit Android 10 oder iOS 14.4 oder höher.
Akku und Preis Die Akkulaufzeit beträgt etwa vier Stunden bei aktiver Nutzung, wobei das Ladeetui zusätzliche Energie für bis zu 36 Stunden liefert. Der Einstiegspreis liegt bei 329 Euro, was im Vergleich zu regulären Sonnenbrillen deutlich höher ist, jedoch durch die zusätzlichen Funktionen gerechtfertigt erscheint.
Einschränkungen Obwohl Meta AI in einigen Ländern als Assistenzsystem verfügbar ist, sind diese Funktionen aufgrund europäischer Datenschutzbestimmungen in Deutschland nicht integriert. Die Brille bleibt somit ein reines Wearable ohne KI-gestützte Features.
Insgesamt bieten die Ray-Ban Meta Smart Glasses eine stilvolle Kombination aus klassischem Design und moderner Technologie, die sich besonders für Social-Media-Enthusiasten eignet. Ich warte noch ab – vor allem auf die Clubmaster und vielleicht überlege ich mir auch Kontaktlinsen. Mal sehen, was die Familie dazu sagt.
Unter der Oberfläche von Twitter tut sich etwas. Seit kurzem ist es möglich Bildunterschriften unter Fotos anzufügen und so die 140 Zeichen-Grenze zu umgehen. Das Ganze funktioniert im Moment nur mit den offiziellen Twitter-Apps für iOS und Android. Mit der Online-Version oder alternativen Clients, die auf Twitter zugreifen geht es im Moment nicht. Die Funktion Bildunterschriften oder BUs, wie wir Zeitungsfuzzis sie nennen, geht allgemein erst seit dem 29. März, ist also noch eine recht junge Erweiterung bei Twitter.
Und so gehts mit den Bildunterschriften
Wie kommen jetzt Bildunterschriften unter die Bilder? Unter dem Reiter Einstellungen gibt es unter Allgemein den Menüpunkt Barrierefreiheit.
Dahinter gibt es den Schieberegler Bildbeschreibungen verfassen. Diesen aktivieren und schon kann es losgehen. Nach einem Neustart der Twitterapp stand die Funktion zur Verfügung.
Ich twittere wie gewohnt ein Bild, aber nun ist es möglich, eine Bildunterschrift anzufügen, die von Menschen mit einer Sehbehinderung abgerufen werden können. Ich arbeite sehr oft an einer Blinden- und Sehbehindertenschule in Nürnberg. Für diese Schüler ist die neue Funktion von Twitter ein Segen, denn Bilder konnten sie nicht erkennen. Dabei nutzen sie ihr Smartphone als Kommunikationsmittel.
Was nicht geht, ist ein Nachträgliches Hinzufügen von Bildunterschriften, wenn das Bild schon getwittert wurde.
Bildunterschrift vorerst nur für Sehbehinderte
Ab und zu, wenn es mit meinen Augen schlecht geht, schalte ich bei meinem iPhone die VoiceOver-Funktion an. Diese Funktion liest mir den Text in Twitter vor und kann jetzt auch die Bildunterschriften erfassen und vorlesen. Ein gewaltiger Sprung in Sachen Barrierefreiheit.
Wir Sehenden können die Bildunterschriften unter den Fotos (noch) nicht lesen – im Moment noch nicht. Dafür ist die neue Funktion noch zu jung. Ich bin mir sicher, dass Twitter die BU-Anzeige mit dem nächsten Update freischalten wird.
Am Montagabend braucht mich keiner stören. Am Montagabend ist Apple Keynote und sie wird wieder live ins Netz übertragen. Apple TV ist angeschlossen, die Softwareaktualisierungen eingespielt. Die Familie hat absolutes Internet-Verbot, damit ich volle Bandbreite habe. Die übliche Gerüchteküche brodelt. Ein neues iPhone und iPad brauche ich im Moment nicht. Ich bin erst wieder beim iPhone 7 mit von der Partie und ich nutze mein iPad Pro sicherlich noch ein paar Monate.
Vielleicht wird Tim Cook morgen das neue iOS-Update freigeben. Da ist es auf jeden Fall interessant wie sich iOS im Vergleich schlägt. Aktuelles Zahlenmaterial liefert Adobe.
Der aktuelle Adobe Digital Index (ADI) liefert Insights zu den weltweiten Device- und Browser-Gewohnheiten der User. Der ADI basiert auf der branchenübergreifenden Auswertung von aggregierten und anonymisierten Consumer Daten bei über 600 Milliarden Webseitenbesuchen in der Zeit von Januar 2015 bis Januar 2016. Zudem wurden 1000 US-Konsumenten zu ihren mobilen Gewohnheiten befragt (Zeitraum 19. bis 21. Februar 2016).
Chrome vs. Safari
Smartphone Page Visits von Chrome übersteigen die von Safari um 127 Prozent. Heruntergebrochen auf die Browser-Nutzung bei iOS Devices zeigt sich, dass die Nutzung von Safari innerhalb eines Jahres um 34 Prozent und die von Chrome um 19 Prozent zugenommen hat. Eine Adobe-Studie fand zudem heraus, dass iPhone User den Safari-Browser (43 Prozent) vor Chrome bevorzugen (33 Prozent).
Smartphones vs. Tablets
76 Prozent der mobile Page Visits erfolgen auf Smartphones (iPhone 46 Prozent, Android 30 Prozent), Tablets steuern 24 Prozent des Traffics bei (iPad 18 Prozent, Android 5 Prozent). Page Visits von iPads und OS X Desktops sind im Jahresverlauf um 7 bzw. 5 Prozent zurückgegangen.
Auch beim Thema Mobile Shopping punkten in erster Linie Smartphones: So erfolgen 56 Prozent der Transaktionen von Mobile Devices über Smartphones (38 Prozent iPhone, 17 Prozent Android-Telefone). Zum Vergleich: 44 Prozent des untersuchten Mobile Shopping kommen von Tablets (37 Prozent iPad, 6 Prozent Android-Tablets).
Video: Der Anteil von Apple TV an den Premium Video Views (authenticated) fiel seit August 2015 um 8 Prozent. In der gleichen Zeit konnte Roku um 4 Prozent zulegen. Doku gibt es in Deutschland im Moment nicht.
Social Sentiment: Zusätzlich von Adobe weltweit durchgeführte Social Sentiment-Analysen zeigen mit Blick auf die Marke Apple einen Trend zur Enttäuschung auf. Der Großteil der Konversationen im Social Web dreht sich um Gerüchte zum iPhone SE. Da wünsche ich mir die alten Zeiten als Mac-User zurück, als wir unter uns waren – die installier Base. Damals musste ich mich nicht mit Kinderchen herumschlagen, die Wunschgebilde bauten. Und ich höre schon wieder die Presse, die den Niedergang von Apple herbeischreibt. Ich weiß als Journalist die Regel: Only bad news are good news.
Mehr Zahlen und Grafiken gibt es im Adobe-Blog. Egal: Ich werde die Keynote morgen genießen und freue mich auf Tim Cook und seine Ankündigungen. Und vielleicht ist doch ein One more thing … dabei. Und wehe, es ruft mich während der Keynote einer an.
Wer sucht was und mit welchem mobilen OS? Diese Frage ist für Mittelständler interessant sein, die eine Online-Strategie für ihren stationären Handel und ihr Lokal aufbauen wollen. Ich arbeite derzeit an einem Konzept für einen Mittelständler und da kamen mir die neuen Ergebnisse von Yelp gerade recht. Die Empfehlungsplattform Yelp hat das mobile Suchverhalten der Nutzer untersucht: In einem Zeitraum von sechs Monaten vom 01.12.2014 bis 01.06.2015 gaben Yelper auf der ganzen Welt insgesamt 815 Millionen Suchbegriffe über die Yelp-App auf ihrem iPhone oder Android-Smartphone ein. Yelp hilft seinen Nutzern dabei, lokale Geschäfte zu finden – von Restaurants, Bars und Clubs bis hin zu Tankstellen, Wellness-Oasen und Hundesalons. Die Ergebnisse der Datenanalyse zeigen auf große Unterschiede im Konsumverhalten zwischen Android- und iPhone-Nutzern.
Die Top 3: „Restaurants“, „Bars“ und „Coffee“ sind die häufigsten Suchbegriffe auf Yelp – sowohl bei Android- als auch bei iPhone-Nutzern (Rang 1, 2 bzw. 3) – dicht gefolgt von dem Suchbegriff „Shopping“ (Rang 5 auf Android und Rang 18 auf iPhone).
Weinliebhaber: Die iPhone-Nutzer haben im Vergleich zu Android-Nutzern eine stärkere Vorliebe für Wein: Der Suchbegriff „wine“ liegt beim iPhone auf Platz 170 der meistgesuchten Begriffe weltweit – bei den Android-Nutzern hingegen nur auf Platz 514.
Partymäuse: Das Nachtleben („nightlife“) steht bei den Android-Nutzern viel weiter oben (Platz 11) als bei den iPhone-Nutzern (Platz 52) – insbesondere der Begriff „dance clubs“ (Android Platz 96, iPhone Platz 156). iPhone-Nutzer hingegen suchen häufiger nach dem Begriff „brunch“ sowie „Starbucks“ (Rang 14 bzw. Rang 15) als Android-Nutzer (Rang 26 bzw. Rang 30).
Sparfüchse: Große Unterschiede gibt es beim Thema Sparen: Android-Nutzer suchen stärker nach „deals“ (Platz 24) als iPhone-Nutzer (Platz 221). Deals sind Preisrabatte, die Geschäftsinhaber auf Yelp über ihr Profil anbieten können. Generell wird das Wort „cheap“ bei Android-Nutzern öfter als Suchbegriff verwendet als bei iPhone-Nutzern (Platz 1.367 bei Android und 2.272 beim iPhone). Die iPhone-Nutzer sind dafür mehr auf Luxus aus – der Suchbegriff „luxe“ ist bei den iPhone-Nutzern auf Platz 8.045, bei Android auf Platz 10.358.
Lieblingsgerichte: Das häufigste weltweit auf Yelp unter allen Suchbegriffen gesuchte Gericht ist „Pizza“ (Rang 5 bei Android- und Rang 6 bei iPhone-Nutzern), gefolgt von „Sushi“ (Rang 6 bei iPhones und Rang 7 bei Android). iPhone-Nutzer suchen außerdem häufiger nach „ice cream“ (Rang 31) als Android-Nutzer (Rang 50). Zudem essen iPhone-Nutzer mehr Bio: „whole foods“ (Vollwertkost) ist bei iPhone auf Platz 166, bei Android auf Platz 421.
„Durch die kontinuierliche Analyse der Suchaktivitäten auf Yelp möchten wir die Nutzererfahrung langfristig verbessern, so dass wir sie mit den besten lokalen Geschäften in Verbindung bringen können“, so Maximilian von Garnier, Coach für Geschäftsinhaber bei Yelp. „Zum ersten Mal haben wir die Unterschiede zwischen Android- und iPhone-Nutzern untersucht und die Ergebnisse sind sehr aufschlussreich. Pizza ist weltweit das beliebteste Gericht, während Android-User ganz klar die Sparfüchse unter den Yelp-Nutzern sind.“ Viele Erkenntnisse sind vom Bauchgefühl bekannt, jetzt habe ich aber die offiziellen Zahlen.
Ich merke diese Sparfuchs-Mentalität bereits im Suchverhalten bei Apps. iOS-User kaufen einfach eine App. Wer aus der Apple-Tradition kommt, ist es gewohnt für Leistung Geld zu bezahlen. In meinem Seminaren höre ich immer wieder die Frage von Android-Usern, wo es die App umsonst gibt. Lieber verbringen die User eine Stunde Zeit mit der Suche nach einer kostenlosen Variante als die kostenpflichtige App zu erwerben.
In wenigen Tagen werde ich, wenn Apple will, meine Apple Watch am Arm tragen. Ich freue mich schon auf meine Apple Watch. Apple steigt damit in ein komplett neues Geschäftsfeld ein und ich als User muss mir mehrGedanken über meine biometrischen Daten machen. Meinen Fingerabdruck hat Apple bereits durch TouchID auf dem iPhone. Jetzt kommen meine Gesundheitsdaten dazu.
Die Apple Watch – ich bin so so gespannt.
In meinem Seminaren über Medienkompetenz erkläre ich immer: Die größte Lüge im Internet ist der Satz: „Ja, ich habe die AGB gelesen.“ Kaum jemand schaut sich die Allgemeinen Geschäftsbedingungen näher an – ich auch nur manchmal. Aber gerade im Hinblick auf meine biometrischen Gesundheitsdaten sollten wir User es besser tun. Ich erinnere mich noch an eine Android-Taschenlampen-App, die 2013 das komplette Adressbuch und die Standortdaten ausgelesen und nach Hause geschickt hat. Dieses System ist bei Fitness-Armbändern – und dazu gehört die Apple Watch – auch kritisch.
Die Verbraucherschützer mahnten zur Vorsicht bei der Apple Watch. Die Uhr kann die Herzfrequenz messen und Schritte zählen. Die eingebauten Sensoren können Körperfunktionen ausforschen. „Verbraucher haben keine Wahl, auf die Sensoren zu verzichten. Sie sind in jeder Version der Uhr enthalten“, kritisiert Christian Gollner, Datenschutzexperte der Verbraucherzentrale Rheinland-Pfalz. In Verbindung mit dem iPhone erlaubt die Apple Watch technisch eine umfassende Kontrolle der körperlichen Aktivitäten. Spezielle Apps können mit den gesammelten Daten zum Beispiel nicht nur vage den Kalorienverbrauch errechnen, sondern auch eine gesunde oder ungesunde Lebensweise versuchen zu ermitteln. Das Gleiche gilt für die Fitness-Armbänder anderer Hersteller.
Das ist richtig und ich möchte dieses System für meine persönliche Fitness einsetzen. Solche gesundheitsbezogenen Überwachungsfunktionen können nützlich sein, um einen genauen Einblick in die eigene Kondition zu erhalten. Also werde ich die Apple Watch mit der Health-App koppeln. Aber, wie immer, hat die Medaille zwei Seiten. Was passiert denn, wenn Versicherungen an diese biometrischen Daten herankommen und unterschiedliche Versicherungstarife vorschlagen. Das wäre das Ende der Solidargemeinschaften im Versicherungswesen. „Werden die höchst sensiblen Daten personenbezogen weitergegeben und ausgewertet, können sie Schaden anrichten“, erklärt Gollner. „Unternehmen könnten ihre Werbung, Angebote und Preise anhand des Gesundheitsprofils zum Nachteil der Verbraucher anpassen oder ihnen wegen des Gesundheitszustands bestimmte Leistungen verweigern.“
Die Verbraucherschützer raten: Der beste Datenschutz besteht, wenn Daten gar nicht erst erhoben werden können. Das wäre für mich gegen den technischen Fortschritt. Ich muss die Health-App ja nicht nutzen. Und denn leisten die Verbraucherschützer hier eine wertvolle Arbeit.
Die Verbraucherzentrale Rheinland-Pfalz setzt sich bei der Reform des EU-Datenschutzrechts für eine Umsetzung der Prinzipien „Privacy by Design“ und „Privacy by Default“ ein. Danach müssen Geräte und Dienste von Grund auf so gestaltet oder zumindest voreingestellt sein, dass sie nur die Daten erheben, die für die Nutzung tatsächlich erforderlich sind. Das war bei der Taschenlampen-App nicht der Fall.
Für meinen Teil werde ich die Uhr einsetzen, aber die Branche genau verfolgen, welche App, was tun. Durch die Diktatur von Apple in eigenen App-Store habe ich zumindest den Glauben daran, dass nicht jede App den Weg in den Store findet. Das sieht in der Android-Welt anders aus.
Leistet gute Dienste bei mir: SanDisk Connect Wireless Media-Laufwerk
Ich muss zugeben, dass ich vom SanDisk Connect Wireless Media-Laufwerk sowohl privat als auch beruflich sehr angetan bin. Ich habe die kleine Festplatte bei Reisen und auf Seminare dabei und sie schont meine Speicher im iPhone und iPad.
Beginnen wir mit den privaten Einsatz: auf der 64 GB große Festplatte sind zahlreiche gerippte Spielfilme gespeichert. Und wir sind als Familie große Zugfahrer und da wenn die Reise mit der Deutschen Bahn wieder länger dauert, dann schauen wir gerne den einen oder anderen Film – natürlich jeder einen anderen. Bisher war es so, dass ich als Vater die iPhones der Kinder mit entsprechenden Filmmaterial geladen hatte. Der Abstimmungsprozess war allerdings etwas aufwändig, weil jeder was anderes sehen wollte und die Sychronisation der Telefone einige Zeit dauert. Dieses Problem habe ich heute nicht mehr. Auf die 64 GByte Festplatte passt einiges an Filmmaterial. Im Zug wird diese kleine Festplatte einfach auf den Tisch gelegt und jeder in der Familie kann auf die Film-Dateien zugreifen und jeder kann das sehen, was er gerade will. Der Zugriff erfolgt über WLAN. Die Festplatte ist mit einem integrierten WLAN-Sender ausgestattet. Zudem ist die Festplatte mit einem Passwort gesichert, dass nicht andere Zugreisende auf unsere Filme zugreifen können. Die Lösung mit dem Media Laufwerk hat sich bewährt. So gibt es keinen Streit und ich als Vater habe im Vorfeld deutlich weniger zu tun.
Kommen wir zum beruflichen Einsatz des Wireless Media-Laufwerks. In Seminaren habe ich oftmals mit Kleingruppen zu tun: Firmen oder spezielle Kunden. Früher habe ich die Dokumente via USB-Stick verteilt. Da war ich wenig flexibel und konnte die Präsentationen bei einer aktuellen Entwicklung nicht mehr aktualisieren. Neue Informationen fielen unter den Tisch, weil der Aufwand alle USB-Sticks neu zu bespielen zu hoch war und auch nicht bezahlt wurde. Das ist jetz anders. Die Unterlagen und Präsentationen liegen auf dem SanDisk Connect Wireless Media-Laufwerk und meine Seminarteilnehmer können sich die Files problemlos laden. Entsprechende Apps von San Disk gibt es für iOS und Android. Auch im Seminareinsatz sinnvoll ist der Steckplatz für eine SDHC/SDXC-Speicherkarte zur Speichererweiterung und Anzeigen von Fotos direkt von der Digitalkamera.
Es hat mich vom Hocker gehauen, mich regelrecht weggebeamt. Auf der SAE Alumni Konferenz probierte ich zum ersten Mal die Oculus Rift aus. In der Berliner Schule der SAE waren zwei Geräte zum Ausprobieren aufgebaut. Ich zockte eigentlich nur ein banales Spiel, aber die Technik schlug mich sofort in ihren Bann.
Ok, es ist alles noch etwas kompliziert, aber für mich eindeutig eine Zukunft von Gaming und – eine Zukunft von Film. Die Brille ist noch etwas unbequem, aber wow, hier passiert etwas. Es dauerte ein, zwei Minuten dann schaltete mein Gehirm um und ich war in der virtuellen Welt angekommen. Ich drehte den Kopf und wanderte durch Welten. Egal, wohin ich blickte, durch die lichtsichte Brille samt Display vor den Augen tauchte ich in eine andere Welt ein. Vor Jahren erlebte ich in Schottland an der Universtät eine frühe Phase dieser Brille, aber was da jetzt vorliegt, ist der Hammer.
Eine Demo bei der SAE schlug mich in seinen Bann.
Genial – das dachte sich Mark Zuckerberg auch und kaufte gleich mal den Hersteller der Oculus Rift. Wer nicht das Geld für eine Original-Rift aufbringen will, der sollte sich die Zeiss VR One für 99 Euro ansehen. Zeiss hat ja mit dem Cinemizer bereits gute Produkte vorgelegt. Bei der VR One wird einfach ein Smartphone von 4,7 bis 5,2 eingeschoben und der Content wird über das Smartphone eingepielt. VR for the rest of us.
VR for the rest of us: Zeiss VR One
Zu Hause überlegte ich mir Anwendungsmöglichkeiten. Naheliegend ist die Gaming-Branche. Aber noch faszinierender ist für mich auch die Filmbranche. Nachdem ich mir gerade auf Blu Ray Black Hawk Down angesehen habe, überlegte ich mir, wie so ein Film mit einer VR-Brille wirken würde. Dabei dürfte ich den Film natürlich nicht nur als klassischer Betrachter im Kinosessel ansehen, sondern ich müsste in die Story integriert werden. Hier in dem Fall von Black Hawk Down natürlich in das beklemmende Szenario von Somalia.
Ein Horrorfilm in der Brille – Wahnsinn.
Auf die gleiche Idee kamen ein paar Holländer, die den ersten Horror-Film für die Oculus Rift gedreht haben. Der Zuschauer ist dabei selbst das Opfer. Der Film heißt 11:57 und das Besondere: Bei dem Film kannst du als Zuschauer nicht wegschauen. Den Film gibt es als kostenlosen Download für Mac, iOS und Android. Ein sehr interessantes Experiment und ich werde diese Sache mal in meinen Seminaren vorstellen.
Die Apple Watch erscheint im Frühjahr 2015 und ich bin sehr gespannt darauf, wie sich mein Leben durch dieses wearable Device ändern wird. Viele Informationen über die Uhr sind noch nicht bekannt, was die Spannung bei mir natürlich ansteigen lässt.
Ebenso wie mir, geht es meinen Kollegen Dr. Michael Homberg. Homberg ist erfolgreicher Projektmanager und hat sich Gedanken gemacht, wie die Apple Watch das Selbstmanagement jedes einzelnen beeinflussen kann. Seine klugen Gedanken hat er in einem kleinen eBook zusammengefasst, das ich euch ans Herz legen möchte.
Das Buch ist bei Leanpub veröffentlicht und das bedeutet, der Käufer bekommt das Buch zu einem Preis in drei Formaten: PDF (für Mac or PC), EPUB (für iPad, iPhone, Android, and other ebook readers) und MOBI (für Kindle). Das Geniale an der Leanpub-Plattform ist, dass das Buch vom Autor aktualisiert werden kann und der Leser gleich ein kostenloses Update bekommt. Ich finde das Prinzip hervorragend.
Zum Buch selbst: Lesen Sie hier seine Prognose, wie man künftig mit der Apple Watch als seinem ständigen Begleiter sein eigenes Selbstmanagement recht mühelos auf ein höheres Level bringen kann. Die Apple Watch kann Bewegungs- und Körperbelastungsprofile aufnehmen, auswerten. Ein ständiger Gesundheitsbegleiter könnte es also werden.
Homberg verbindet die kommende Apple Watch mit Selbstmanagement. Er zeigt auf, warum Selbstmanagement bisher oft misslingt und warum es durch die Apple Watch anders sein wird. Viele Menschen steigen über das Zeitmanagement in das Selbstmanagement ein. Zeitplaner in Papierform (Organizer) waren eine Zeit lang angesagt, dann folgte die Umstellung auf elektronische Tools wie Outlook und To-do-List. Wenn man sich sein Selbstmanagement aufbauen möchte, geht es einerseits um Sachthemen und Techniken, und andererseits um Motivation, vor allem um Selbst-Motivation.
Die Apple Watch wird den Einzelnen in seinem Selbstmanagement unterstützen. Die Apple Watch hat vor allem zwei Aufgaben: als Messgerät und als Erinnerungsgerät.
Vor kurzem hat Apple die Verfügbarkeit von WatchKit bekannt gegeben, ein Set von Softwarewerkzeugen, die es Entwicklern auf einfache Art ermöglichen, Erlebnisse speziell für die Apple Watch zu schaffen. Dieses WatchKit unterstützt die Thesen von Dr. Homberg. Die Entwickler können jetzt mit der Gestaltung von WatchKit-Apps beginnen bevor die Apple Watch verfügbar sein wird.
„Die Apple Watch ist unser bisher persönlichstes Produkt und WatchKit stellt der einfach unglaublichen iOS-Entwicklergemeinde die Werkzeuge zur Verfügung, die sie zum Erstellen einzigartiger, für das Handgelenk konzipierte Erfahrungen, benötigen,“ sagt Phil Schiller von Apple.
Entwickler können Mitteilungen erstellen, die es dem Anwender ermöglichen, direkt von ihrem Handgelenk aus darauf zu reagieren, sei es das Licht auszuschalten, nachdem sie das Haus verlassen haben, auf dem Flughafen schnell die Flugdetails zu betrachten oder ihre Route umzuplanen, wenn ein Zug oder Bus Verspätung hat. Entwickler können Kurzinfos integrieren, die Anwendern die für sie wichtigsten Informationen anzeigen, wie beispielsweise neueste Nachrichten, Sportergebnisse, die eingestellte Weckzeit oder den nächsten Schritt beim Kochen des Lieblingsrezepts.
„Die American Airlines-App auf der Apple Watch erinnert per Benachrichtigung vor Reisebeginn, wenn es Zeit ist sich zum Flughafen zu begeben und liefert aktualisierte Informationen über Gateänderungen, Anschluss-Gates bei der Ankunft und benachrichtigt über den Beginn des Boardings, sollte man sich noch nicht am Gate befinden,“ sagt John Gustafson, Vice President of Digital von American Airlines. „Reisende können auch während des Flugs fragen ‚Wo bin ich?‘ und erhalten in Echtzeit lokale Informationen in 10.000 Metern Höhe.“
Das iOS 8.2 Beta SDK mit WatchKit ist seit kurzem für Mitglieder des iOS Entwicklerprogramms hier verfügbar. Die Seite zu WatchKit beinhaltet einen Leitfaden für die Programmierung, Richtlinien zur Benutzerschnittstelle, Vorlagen und mehr. Im Laufe des nächsten Jahres wird es Entwicklern möglich sein, vollständig native Apps für die Apple Watch zu erstellen.
Einen ungewöhnlichen Scannertest konnte ich kürzlich auf dem Münchner Oktoberfest absolvieren. Eingeladen auf die Wiesn hatte Fujitsu ScanSnap. Das Team um Klaus Schulz hatte das neueste Scanner-Exemplar als Demogerät dabei. Der iX100 ist ein 400 Gramm leichter Mobilscanner, der seine Scans via WLAN direkt auf das Smartphone und Tablet überträgt.
Zunächst stellte ich mir aber die Gretchenfrage. Wozu brauche ich so etwas im Zeitalter von verschiedenen Scan-Apps auf dem iPhone? Ich bin mit meinen Apps Scanner Pro oder PDFScanner eigentlich ganz zufrieden. Warum soll ich noch sperrige Hardware mit mir herumschleppen?
Jetzt bietet die Käfer Schänke auf dem Oktoberfest nicht optimale Testlaborbedingungen, aber gerade das machte den Reiz aus. Also wurde gescannt, was uns in die Finger kam.
Vielleicht ist die Wiesn dann doch nicht die richtige Testumgebung. In einer Konferenz, als Vertriebler, als Sales-Heini, als Versicherungsvertreter, als Journalist sieht die Sache ganz anders aus. Neulich war ich wieder auf so einer Konferenz und habe die Tagungsunterlagen auf Papier herumschleppen müssen. Ich mag doch kein Papier schleppen. Da wäre so ein leistungsfähiger und leichter Scanner eine Wohltat.
Der iX100 ist schnell, richtig schnell. Während meine Telefonapps im Vergleich lange brauchten, um das Blatt zu erfassen, ging es beim iX100 ratz fatz. Insgesamt scannt das Teil eine DIN A4 Seite in maximal fünf Sekunden, abhänig von der gewählten Auflösung.
Was ich auch probiert habe: Ich habe die Papiere absichtlich schief eingelegt und die Software richtet sie sofort aus. Und ich habe den Scanner mit zahlreichen Visitenkarten gefüttert und er hat sie brav abgearbeitet und ausgerichtet. Und dies obwohl die Papiere eine unterschiedliche Stärke hatten. Weil wir auf der Wiesn sind, probierte ich es auch mit relativ dicken Bierdeckeln aus und auch das klappte.
Ein auf DIN A4 gefaltetes DIN A3 ging auch zu scannen. Ich probierte es mit der Speisekarte der Käfer Wiesn Schänke aus. Klappt perfekt, die Software sucht Übereinstimmungen und setzt aus zwei Scans ein Dokument zusammen. Das klappt aber nur am Mac/PC nicht am Smartphone.
Ein Duplex-Scan ist mit dem iX100 nicht möglich, aber der Vorschub macht es möglich, dass ich das Papier umdrehe und die Rückseite drehe. Der iX100 scannt automatisch in Schwarz-Weiß oder Farbe, erkennt das Format jedes Dokuments und scannt entsprechend, erkennt und korrigiert Schräglagen, entfernt Leerseiten und zeigt Bilder in der korrekten Ausrichtung an. Die Bildverabeitung passiert im Scanner durch einen GI-Bildverarbeitungsprozessor. So wird der Akku des Smartphones geschont.
Die Übertragung geschiet dann per WLAN aufs iPhone/Android. Eine Windows Phone App ist noch nicht veröffentlicht, brauch ich aber auch nicht. Der Scanner wird per Akku betrieben und via USB aufgeladen. Eine Ladung soll laut Hersteller für 260 Scans halten. Auf der Wiesn hatten wir allerdings Powerpacks dabei, weil wir wie der Teufel gescannt und probiert haben – und nebenbei noch Bier und Hendl genossen (eigentlicher Zweck der Wiesn). Ggf kommt auch noch von den Japanern eine Übertragung via Blauzahn, aber aber im Moment ist es nicht vorgesehen. Der Scanner erzeugt ein eigenes WLAN und Smartphone-Nutzer können darauf zugreifen, wenn man über die kostenlose App ScanSnap Connect App lädt. Schön wäre es allerdings gewesen, wenn Fujistu den Link zum Download in den jeweiligen Stores auf seiner Website direkt angegeben hätte.
Persönlich sehe ich den iX100 weniger als klassischen Büroscanner, also vielmehr als mobile Einheit. Im Büro kann er zwar auch eingesetzt werden, aber da vertraue ich eher auf die großen Brüder wie beispielsweise den iX500.
Ich liebe ja Zeitraffer-Aufnahmen. Sie erinnern mich immer an frühe Stummfilme, wenn die Schauspieler sich aufgrund der unterschiedlichen Abspielgeschwindigkeit schnell bewegen. Immer wieder greife ich auf verschiedene Tools zurück und spiele mit ihnen herum. Im Moment experimentiere ich, wie viele andere auch, mit dem neuen Werkzeug von Instagram: Hyperlapse
Das Icon von Hyperlapse
Hyperlapse macht mir im Moment riesigen Spaß. Zusammen mit meinen Kindern haben wir am iPhone verschiedene Szenen ausprobiert. Wir haben das iPhone an die Windschutzscheibe ans Auto geklemmt und sind durch die Gegend zum Einkaufen gefahren. Das Ergebnis kann sich sehen lassen. Wir haben zwei Filme erstellt und sie mit dem Google YouTube Editor zusammengeschnitten und mit Stock-Musik von Youtube unterlegt. Alle die Tools sind kostenlos. Was ist das für eine Welt, in der wir leben? Noch vor ein paar Jahren hätten diese Werkzeuge richtig Geld gekostet.
Die Bedienung ist denkbar einfach, als ob Hyperlapse ein Apple Tool wäre. Es gibt nur einen Button. Dann startet die Aufnahme. Hyperlapse bietet uns zwei Möglichkeiten: entweder eine Zeitraffer-Aufnahme oder eine Art Steadycam-Aufnahme. Die Bildstabilisierungsfunktion ist leistungsfähig. Sehr gut ist auch, dass man das Video dann auf dem Smartphone abspeichern kann. Oder gleich in soziale Netzwerke hochladen. Wir erinnern uns: Instragram gehört zu Facebook.
Es stehen verschiedene Geschwindigkeiten zur Verfügung. Wer 1 einstellt, erhält eine Steadycam-Aufnahme, die kaum Wünsche offen lässt. Ich habe viele Steadycam-Stative ausprobiert und einige sogar gekauft. Die lass ich alle zu Hause. Die eingebaute Steadycam-Funktion ist der Hammer. Steadycam nutzt die gyroskopische Technik des iPhones. Trotz Wackelei kommt am Ende ein ruhiges Bild heraus. Weitere Geschwindigkeiten sind 2, 4, 6, 8, 10 und 12 und die höher die Zahl, desto mehr wird die Zeit gerafft.
Übrigens, Hyperlapse gibt es im Moment nur für iOS. Android soll irgendwann folgen. Und für Windows Phone? Ach, lassen wir das. Was ist das Windows Phone? Und wehe ich sehe einen, der sein iPhone falsch hält und damit dem VVS infiziert ist.