In meinem Beitrag vom 3. April habe ich die OOrion-App vorgestellt und erklärt, wie man sie einrichten und mit der Meta-Brille verbinden kann. Hier folgen nun einige Anwendungsbeispiele.
1. Was habe ich getestet?
Bei meinen Praxistests habe ich mich auf diejenigen Funktionen beschränkt, die bislang von keiner andern App auf der Brille ausgeführt werden konnten, nämlich, dass ich der KI einen Auftra geben kann, der eine kontinuierliche Analyse der Live-Situation erfordert, wie zum Beispiel:
- «Warne mich, wenn sich ein Hindernis auf meinem Weg befindet
- » Informiere mich, wenn du eine Gelaterie siehst»
- «Ich suche einen Treppenaufgang, siehst du ihn?»
- «Achte auf den Bus Nr. 1 und informiere mich, wenn dieser einfährt»
- «Gib mir Bescheid, wenn ich bei der Hausnummer 17 angelangt bin».
Und damit du mithören kannst, wie das in der Praxis tönt, habe ich meine Originalkopf-Mikrophone an die Brillenbügel geklemmt und mit dem Milestone habe ich aufgezeichnet, was Oorion mir auf dem Weg gemeldet hat.
a) Hindernisse erkennen und melden
b) Nach einem Geschäft Ausschau halten
c) den Treppenaufgang finden
d) Auf eine Hausnummer achten
e) Einfahrende Busse identifizieren
3. Fazit und Ausblick
Ich konnte nun während einiger Wochen mit der neuen Anwendung Erfahrungen sammeln. Dabei habe ich einiges über die Welt unmittelbar um mich herum erfahren, das mir ohne meine Brille entgangen wäre. Meine direkte Umwelt ist anschaulicher und bunter geworden. Bezüglich der Orientierung und der Sicherheit muss ich mich jedoch weiterhin in erster Linie auf meinen Stock, mein Gehör und meine Ortskenntnisse verlassen. Einige Hindernisse in meinem Weg wurden zwar erkannt, jedoch nicht alle, und häufig erfolgte die Information zu spät, speziell dann, wenn ich mich zügig fortbewege. Der Grund dafür liegt in der verbauten Technik. Das Bild wird von der Kamera in der Bille erfasst, via Bluetooth zum iPhone übermittelt und von dort via Internet zu einem Server, wo die Bildervon einer KI analysiert werden. Das Ergebnis dieser Analyse macht dann den umgekehrten Weg, das heisst vom Server via Internet zum iPhone und von dort wieder via Bluetooth zur Brille, wo wir die Rückmeldung schliesslich als gesprochene Information empfangen können. Und damit die KI auch berechnen kann, in welche Richtung und mit welcher Geschwindigkeit wir uns bewegen, benötigt sie mehrere Bilder pro Sekunde. Und dieser ganze Prozess nimmt Zeit in Anspruch.
Auch war die Angabe von „links“ und „rechts“ öfters falsch oder verwirrend. Zum Teil kann das an der Kopfbewegung liegen, denn die App verortet einen Gegenstand stets bezogen auf den jeweiligen Bildausschnitt. Und so erscheint ein Gegenstand zwangsläufig im linken Bildausschnitt, wenn ich den Kopf stark nach rechts drehe, obwohl er sich in Tat und Wahrheit rechts von mir befindet. Dessen muss man sich bewusst sein. Ganz generell ist es halt auch mit der Brille so, dass sich der optimale Nutzen erst durch Übung und Erfahrung und die richtigen Anweisungen einstellt. Aus diesem Grund erarbeitet die Apfelschule ein neues Kursangebot für den erfolgreichen Einsatz der smarten Brillen. Und die Entwicklung auf diesem Gebiet steht nicht still. Mit jeder neuen Version und jedem neuen Modell ist in der Regel auch eine Leistungssteigerung verbunden. Und wenn du, liebe Leserin, lieber Leser den Dienst «Informiert bleiben» und den „Newsletter“ der Apfelschule abonniert hast, dann erfährst du stets zeitnah, welche News und welche Angebote es auf diesem spannenden Gebiet gibt.
4. Links zum Thema
So kannst du Oorion mit deiner Meta-Brille verknüpfen und nutzen
So gehst du vor, um die Ray-Ban Meta Brille mit deinem Smartphone zu verbinden
Anwendungsbeispiele für die smarten Brillen von Meta
Über neue Beiträge via Mail stets aktuell informiert werden

Kommentare
Es gibt noch keine Kommentare zu diesem Artikel. Sei der erste, der einen Kommentar schreibt!