Seeing AI – die App, die uns beim Sehen hilft!

Texte lesen, Bilder beschreiben, die Umgebung erkunden – das und noch mehr kann die App Seeing AI. Und das macht sie für uns zur unverzichtbaren Alltagshelferin.

Ausgerichtet auf unsere spezifischen Bedürfnisse

Der Nutzen einer App bemisst sich daran, welche Dienste sie für unser Alltagsleben leistet. Seeing AI zielt darauf ab, unsere Sehbehinderung ein Stück weit zu überbrücken. Und das macht diese App so wertvoll. Die Idee ist schon in ihrem Namen erkennbar: «Seeing AI», was so viel heisst wie «Sehende Künstliche Intelligenz» oder «Mit Künstlicher Intelligenz sehen».  Und darum geht es denn auch: Die Künstliche Intelligenz wird dazu eingesetzt, uns das zu benennen oder zu beschreiben, was wir behinderungsbedingt nicht erkennen können.Angefangen beim Lesen von Texten, beim Erkennen von Farben, Produkten oder Banknoten bis hin zur Beschreibung von Bildern, Szenen und ganzen Landschaften. Und die Erkennung wird mit fortschreitender Technologieentwicklung immer genauer und die Beschreibungen weerden präzieser und detailreicher. Und die Entwicklung ist vermutlich noch lange nicht an ihrem Ende angelangt. Doch auch schon das, was mit der heutigen App machbar ist, ist eine grosse Hilfe. Und damit möglichst viele davon profitieren können, will ich nachstehend die App und ihre Nutzung etwas genauer beschreiben.

Download und Inbetriebnahme

Mit nachstehendem Link kannst du die App kostenlos aus dem App Store laden:

Seeing AI downloaden und installieren

Nach dem erstmaligen Öffnen der App wird auf 5 Bildschirmseiten eine kurze Einführung zu den verschiedenen Funktionen gegeben.
Mit der Taste «Weiter» gelangst du zum jeweiligen nächsten Bildschirm.
Du hast auch die Möglichkeit, diese Einführung zu überspringen, indem du die betreffende Taste aktivierst.

Auf der 6. Einführungsseite      musst du die Nutzungsbedingungen durch Aktivieren des betreffenden Kontrollkästchens akzeptieren, wenn du die App nutzen willst.
Aktiviere danach die Taste «Erste Schritte».

Im nächsten Schritt musst du der App die Erlaubnis erteilen, dass sie auf deine Kamera zugreifen darf. Aktiviere dazu die «erlauben»-Taste.

Die Anwendungsbereiche der App

Die verschiedenen Einsatzmöglichkeiten der App sind aufgeteilt in 3 Register: «Lesen», «Beschreibung» und «Mehr». Du findest diese Register in der Tableiste am unteren Rand des Bildschirms.

1.   Die Registerkarte «Lesen»

Bei der eerstmaligen Verwendung wird bei jedem Tabulator zuerst eine Einführungsseite angezeigt. Gestartet wird mit dem Register «Lesen». Wie der Name sagt, geht es in diesem Register ums Lesen. Und zwar gibt es zwei Arten, auf welche du diese Funktion nutzen kannst: Du kannst mit der eingeschalteten Kamera nach Text in deiner Umgebung suchen, der dir vorgelesen werden soll.   Das kann ein Schriftstück sein, die Verpackung eines Produkts, ein Etikett, ein Schild, ein Aushang oder die Anzeige eines Gerätes. Sobald lesbarer Text ins Blickfeld deiner Kamera gerät, wird dieser Text unmittelbar vorgelesen. Sogar mit Handschrift klappt das ein Stück weit.  Das ist eine sehr praktische Funktion und man erhält damit ohne grossen Aufwand im Nuh ein Ergebnis.
Bei der zweiten Methode macht man vom Text ein Foto und dieses wird danach von der App verarbeitet und man kann den Text mit VoiceOver lesen oder ihn auch weiter verwenden.

Standardmässig ist bei aktiviertem Lese-Register der direkte Vorlesemodus aktiv, das heisst, die Kamera ist eingeschaltet und die App «sucht» nach lesbarem Text. In älteren Versionen der App war diesem Lesemodus ein eigener Kanal zugewiesen, der mit «Kurzer Text» bezeichnet war, während der zweite Modus «Dokument» hiess.

Wenn du den Text in Ruhe lesen willst, oder wenn du ein ganzes Schriftstück erfassen willst, dann kannst du davon eine Foto machen. Nachdem du den Einführungsbildschirm verlassen hast, findest du auf dem Lese-Bildschirm eine Aufnahmetaste. Und zusätzlich steht dir auch noch eine weitere Hilfe zur Verfügung, nämlich die Ausrichtungshilfe durch die App. Wenn du die Taste «Dokumentausrichtung» aktivierst, wirst du von der App mit sprachlichen Anweisungen bei der Positionierung deines iPhones über dem Schriftstück angeleitet und die Foto wird automatisch ausgelöst, sobald die ganze Seite im Blickfeld der Kamera ist. In der Einführung erfährst du zudem, wie du am zweckmässigsten vorgehst, um ein Dokument zu fotographieren, nämlich indem du das iPhone mittig auf das Dokument legst und es dann langsam anhebst und für die Feinausrichtung die Anweisungen der App befolgst. Bei erfolgreichem Vorgehen hörst du die Meldung «Stabil halten» und das Klicken der Kamera zeigt dir an, dass die Aufnahme nun erfolgt ist.
Das Fotografieren eines Schriftstücks hat zudem den Vorteil, dass die Analyse durch die App präzieser ist und du den Text mit VoiceOver differenzierter lesen und nach Wunsch auch weiter verarbeiten kannst. Auch die Aufnahme mehrseitiger Dokumente ist so möglich.

Doch aufgepasst! Solange die Dokumentausrichtung aktiv ist, ist die Kamera nicht mehr permanent aktiv. Will man wieder den Modus einschalten, in welchem man mit eingeschalteter Kamera nach Text suchen will, muss man die Dokumentausrichtung ausschalten bzw. daktivieren.

Durch Aktivierung von «Fertig» wird die Einführungsseite geschlossen und du gelangst zum aktiven Lesebildschirm.

Auf diesem Bildschirm findest du – wie übrigens auch auf den Startseiten der übrigen Tabulatoren – oben links die Menütaste und oben rechts die Taste «Direkthilfe».
Auf die Menütaste werde ich am Schluss dieser Beschreibung eingehen. Und die «Direkthilfe»-Taste zeigt dir exakt diejenige Information, die beim ersten Start des Registers eingeblendet worden war.

Am unteren Rand des Bildschirms befinden sich die 3 Tabulator-Tasten «Lesen» (links, ist ausgewählt), «Beschreibung» (in der Mitte)  und «Mehr» (rechts).
Und oberhalb der 3 Tasten sind weitere 3 Tasten zu finden, nämlich:
«Dokumentausrichtung» (links), «Foto aufnehmen» (Mitte» und «Erkennen von Deutsch» (rechts.

Die Tasten «Dokumentausrichtung» und «Foto aufnehmen» sind oben bereits beschrieben. Mit der Taste «Erkennen von Deutsch» kann bei Bedarf eine andere Erkennungssprache ausgewählt werden.

Bevor wir zum nächsten Tabulator weiter gehen, empfehle ich dir, mit den beiden Lesefunktionen ein paar Übungen zu machen.

 

2.   Die Registerkarte «Beschreibung»

Auch bei diesem Tabulator wird dir beim erstmaligen Aktivieren ein Einführungsbildschirm angezeigt. Du wirst darüber informiert, dass dieses Register mit der neusten Künstlichen Intelligenz arbeitet und dir Beschreibungen von Fotos, Videos und auch von deiner Umgebung liefert.

Nachdem du den Einführungstext durch Aktivieren von «Fertig» ausgeblendet hast, befindest du dich auf dem Startbildschirm des Registers «Beschreibung. Neben den beiden Tasten «Menü» und «Direkthilfe» stehen folgende Tasten zur Auswahl:

  • Fotos durchsuchen
  • Foto aufnehmen
  • Gesichtserkennung
  • Zu vorderer Kamera (Selfi-Kamera) wechseln.

Hier einige Erläuterungen zu diesen Funktionen:

Fotos durchsuchen

Wenn du diese Funktion zum ersten Mal startest, musst du der App die Erlaubnis geben, auf deine Fotomediathek zuzugreifen. Du kannst ihr den vollen Zugang erlauben oder nur einen beschränkten. Der beschränkte Zugang bedeutet, das Seeing AI nur auf diejenigen Fotos Zugriff hat, die du ausgewählt hast.

Nach deiner Zustimmung wird dir wiederum eine kurze Beschreibung der ausgewählten Funktion angezeigt. Nachdem du sie gelesen hast, kannst du den Bildschirm mit der Fertig-Taste schliessen.

Du gelangst zum Bildschirm mit der Überschrift «Fotos durchsuchen». Darunter werden dir die Fotos und Videos aus deiner Mediathek angezeigt, und zwar die neuesten zu oberst.

Wähle in der Liste dasjenige Foto aus, welches du beschrieben haben möchtest und aktiviere den Vorgang mit einem Doppeltipp (bei Nutzung von VoiceOver). Du hörst eine sich wiederholende Tonfolge während das Foto oder Video analysiert wird. Das kann unter Umständen einige Sekunden dauern.

Nach Beendigung des Tonsignals findest du auf dem Bildschirm eine detaillierte Beschreibung deines Fotos.
Hinweis: Es ist sehr hilfreich, dass die Beschreibung erhalten bleibt und auch erneut angezeigt wird, wenn du die App später wieder öffnest und die Funktion «Fotos durchsuchen» auswählst. So hast du stets einen vertieften Einblick in deine Mediathek.

Am unteren Rand des Bildschirms mit der Beschreibung findest du in der Symbolleiste 3 Tasten:
links «Erneut analysieren», in der Mitte «Löschen» und rechts «Foto untersuchen».
Die Funktion «erneut analysieren» macht eigentlich nur dann Sinn, wenn du seit der letzten Analyse Personen benannt hast, die auf der Foto sichtbar sind.
Mit der Löschen-Taste kannst du ein Foto aus deiner Mediathek löschen.

Wenn du die Taste «Foto untersuchen» aktivierst,wird beim erstmaligen Aktivieren wiederum ein Erklärungsbildschirm eingeblendet. Darin erfährst du, dass die App versucht, einzelne Elemente auf deinem Bild zu erkennen und dass du mit dem Finger über den Bildschirm streichen kannst, um zu erfahren, wo sich diese Elemente auf dem Bild befinden. Du kannst diesen Bildschirm mit «Fertig» schliessen.

Die App sagt dir nun an, wieviele Elemente sie erkannt hat. Du kannst nun versuchen, mit deinem Tastfinger die Elemente zu finden und ihre Position zu erfahren. Während des Suchens ertönt ein sphärischer Klang.
Durch Aktivierung der «Zurück»-Schaltfläche gelangst du wieder zum Bildschirm mit der Beschreibung.

Fotos mit Seeing AI teilen

Es kommt nicht selten vor, dass wir Fotos in einem Whatsapp-Chat oder in einer Mailnachricht zugesandt erhalten. Auch diese Fotos lassen sich von Seeing AI beschreiben, und zwar ohne dass dazu die App vorgängig geöffnet werden muss.
Öffne zu diesem Zweck das Foto und aktiviere danach die «Teilen»-Funktion.
Aus den angezeigten Optionen kannst du nun den Eintrag «Mit Seeing AI erkennen» auswählen. Die App und der Analysevorgang  werden dadurch gestartet, was du an der bekannten Tonfolge erkennst.

Auf die gleiche Weise kannst du auch Fotos direkt aus deiner Mediathek beschreiben lassen.
Beachte, dass du beim Teilen eines Fotos aus einer Whatsapp-Nachricht  die «Teilen»-Funktion zweimal auswählen musst: Das erste Mal, nachdem du das Foto geöffnet hast – du findest die Taste am unteren linken Rand auf deinem Bildschirm – und dann gleich noch einmal. Die Teilen»-Taste ist dieses Mal ungefähr in der Bildschirmmitte am rechten Rand zu finden.

Unterhalb der Beschreibung findest du wiederum die Tasten «Foto untersuchen» und «Freigeben».
Leider werden die Beschreibungen bei diesem Vorgehen nicht in der App Seeing AI gespeichert. Sie können aber mit der «Freigeben»-Taste weiter verarbeitet werden.

 

Videos durchsuchen

So wie du mit Seeing AI eine Foto analysieren und beschreiben lassen kannst, so funktioniert das im Prinzip auch mit Videos.

Wähle das zu beschreibende Video auf dem Bildschirm «Fotos durchsuchen» aus und aktiviere anschliessend die Taste «Beschreibung». Es ertönt die bekannte Tonfolge und ein Hinweis, dass es unter Umständen mehrere Minuten dauern kann, bis die Beschreibung des Videos generiert ist. Im positiven Fall wird die Beschreibung des Videos unmittelbar nach Beendigung der Analyse vorgelesen. Das Video wird abgespielt und gleichzeitig wird eine recht detaillierte Beschreibung der jeweils zu sehenden Szenerie vorgelesen. Der vorgelesene Text wird gleichzeitig auf dem unteren Teil des Bildschirms als Text eingeblendet.

Ungefähr in der Mitte des Bildschirms befinden sich 3 Tasten: In der Mitte die «Anhalten»-Taste, links davon die «Rückwärts springen»-Taste und rechts davon die «Vorwärts springen»-Taste.
In meinem Test haben die 3 Tasten jedoch nicht immer so funktioniert, wie erwartet. Immerhin gelang es mir einige Male, das Video anzuhalten und so konnte ich den gerade angezeigten Text in Ruhe lesen.

Leider fand ich keine Möglichkeit, das Video samt Beschreibung abzuspeichern, so dass bei einem erneuten Aufruf nicht wieder der ganze Analyseprozess von vorne starten muss. Eine Nutzerin aus der Apfelschule-Community hat darauf hingewiesen, dass zum Teilen eines Videos samt Beschreibung zur Not eine Bildschirmaufnahme gemacht und diese versandt werden kann.
Häufig erhielt ich auch die Meldung «Time out» und ich musste die Taste «Erneut versuchen» aktivieren, bis es klappte.

Live-Foto aufnehmen

Die Beschreibung eines Fotos klappt nicht bloss mit Aufnahmen aus deiner Mediathek, sondern du kannst auch ein Live-Foto machen und dir die Szenerie beschreiben lassen. Aktiviere zu diesem Zweck die Taste «Foto aufnehmen». Es ertönt wiederum die bekannte Tonfolge und nach kurzer Zeit wird dir eine deteillierte Beschreibung deines soeben gemachten Fotos vorgelesen. Du findest den Text auch auf deinem Bildschirm, so dass du ihn  in Ruhe lesen oder bei Bedarf weiter bearbeiten kannst.

In der Symbolleiste am unteren Bildschirmrand findest  du die Tasten «Foto speichern», «Foto untersuchen» und «frei geben».
Durch Aktivieren von «Foto speichern» wird dein Bild samt Beschreibung in deiner Mediathek gespeichert.
Die Funktion «Foto untersuchen» kennen wir ja bereits.
Mit der Taste «Frei geben» können wir das Bild oder die Beschreibung versenden. Nach Aktivierung der Taste werden wir dazu aufgefordert, auszuwählen, ob wir das Bild oder die Beschreibung freigeben (versenden) wollen. Nachdem wir uns für eine der beiden Optionen entschieden und die betreffende Taste aktiviert haben, erscheint der vertraute Bildschirm mit den verschiedenen Optionen zum Teilen und wir können auswählen, wohin das Bild oder die Beschreibung versandt werden soll. .

Gesichtserkennung

Die App Seeing AI kann auch Gesichter erkennen. Sie erkennt jedoch nur diejenigen Gesichter, für welche sie trainiert worden ist. Das bedeutet, dass du die App zuerst mit den Gesichtern, die sie erkennen soll, «vertraut» machen musst. Dazu gehe wie folgt vor:

Aktiviere im Tabulator «Beschreibung» die Taste «Gesichtserkennung».

Wenn du noch keine Person erfasst hast, dann ist sogleich der Kameramodus aktiv, und zwar die Vorderkamera (Selfikamera). Es wird nämlich empfohlen, dass die zu erfassenden Personen ihre Gesichter selber fotografieren. Willst du die Fotos machen, dann kannst du zur Zurückkamera wechseln.
Nachdem das dritte von 3 Fotos gemacht worden ist, wirst du aufgefordert, den Namen der betreffenden Person einzutragen.
Um die Erfassung abzuschliessen, musst du noch das Kontrollkästchen aktivieren, womit du bestätigst, dass die Person damit einverstanden ist, dass du ihr Bild zur Erkennung mit deinem iPhone speicherst.

Es ist wichtig zu wissen, dass die Gesichtsprofile der von dir erfassten Personen auf deinem Gerät gespeichert bleiben und von aussen nicht eingesehen oder verwendet werden können.

Die Gesichter, die du erfasst hast, werden fortan nach dem Aktivieren der Taste «Gesichtserkennung» unterhalb der Überschrift «Erkennbare Personen» aufgelistet und du kannst sie bei Bedarf löschen, indem du mit einem Finger nach oben wischst und die Option «löschen» bestätigst.

Für das Erfassen einer weiteren Person findest du jetzt die Taste «Hinzufügen».

Wie du mit Seeing AI nach erfassten Gesichtern suchen kannst, erfährst du im Kapitel «Kanal Person».

3.   Die Registerkarte «Mehr»

In diesem Register sind gleich mehrere Funktionen untergebracht. Jeder Funktion ist ein Kanal zugewiesen. Und der jeweils gerade aktive Kanal kann am unteren Rand des Bildschirms abgelesen werden. Nach der erstmaligen Aktivierung des Registers ist die Funktion «Produkt erkennen» aktiv. Und so sagt VoiceOver beim Berühren des Elements am unteren Bildschirmrand: «Kanal Produkt, einstellbar». Der Hinweis «einstellbar» besagt, dass der Wert verändert werden kann, und zwar durch Streichen mit einem Finger nach oben bzw. nach unten. Mit jedem 1-Fingerwisch nach oben wechselt man zum nachfolgenden Kanal und mit dem 1-Fingerwisch nach unten geht es wieder zurück. Die aktuell verfügbaren 7 Kanäle werden im folgenden der Reihe nach beschrieben.

Kanal Produkt

Wenn dieser Kanal aktiviert ist, dann ist auch die Kamera deines iPhones eingeschaltet. Und zwar sucht sie nach Barcodes oder QR-Codes für die Identifizierung eines Produkts. Richte die Kamera also beispielsweise auf eine Verpackung, auf welcher du einen Code vermutest. Sobald ein Code ins «Blickfeld» der Kamera gerät, beginnt dein Gerät zu piepsen. Und wie schneller die Tonfolge wird, desto näher bist du mit deiner Kamera am Code. Sobald der Code ausreichend gut erfasst werden konnte, sucht Seeing AI in einer Datenbank nach Informationen zu diesem Code. Und wenn du Glück hast, dann nennt dir die App den Namen des Produkts und evtl. sogar noch den Weg zu weiteren Informationen.
Ich muss gestehen, dass meine Versuche nur zum Teil von Erfolg gekrönt waren. Am besten hat die Erkennung mit den Joghurts funktioniert. Da klappte es auf Anhieb.

Als Alternative zu dieser Methode gibt es ja immer noch die Möglichkeit, die Texterkennungsfunktion der App für die Identifizierung zu nutzen.

Kanal «Person»

Wenn dieser Kanal aktiv ist, ist auch die Kamera aktiv. Sie sucht nach Gesichtern und teilt laufend mit, ob sie Gesichter erkannt hat, wieviele Gesichter es sind und wo sie sich in etwa befinden. Wenn darunter ein Gesicht ist, welches erfasst und benannt worden ist, so wird diese Person mit Namen genannt.

Kanal «Währung»

Leider kann Seeing AI keine Schweizer Franken erkennen. Doch Euros und Dollars und noch einige weitere Währungen kann sie erkennen. Die zu erkennende Währung kann eingestellt werden, indem die Taste «Erkennen von Euros» aktiviert wird.

Die App erkennt allerdings nur Noten und keine Münzen.

Auch bezüglich dieses Kanals ist anzumerken, dass mit der Verwendung der Lesefunktion die Identifizierung von Schweizer Banknoten durchaus möglich ist.

Kanal «Meine Dinge suchen»

Diese Funktion kann bei der Suche bestimmter Gegenstände helfen. Damit die App allerdings funktioniert, muss man sie zuerst mit den Gegenständen, die sie später erkennen soll,  vertraut machen. Das geschieht, indem man von den betreffenden Gegenständen 4 Videos erstellt. Man wird dabei von der App Schritt um Schritt angeleitet. Die erfassten Objekte werden  in der App gespeichert und bei Aktivieren der Taste «Meine Objekte» aufgelistet. Will man nach einem davon suchen, wählt man es in der Liste aus und aktiviert danach die «Suchen»-Taste. Ein Klickgeräusch zeigt an, dass nach dem Gegenstand gesucht wird. Sobald der Gegenstand ins Blickfeld der Kamera gerät, wir das mit einem Tonsignal angezeigt und die App informiert darüber, in welcher Richtung und Distanz (in Fuss) sich der Gegenstand befindet. Je näher man sich dem Gegenstand nähert, desto rascher wird die Frequenz der Piepstöne. Ein Glockenton zeigt an, wenn man sich unmittelbar beim gesuchten Objekt befindet.

Bei meinem Test hat das recht gut geklappt.

Dies ist eine mögliche Alternative, wenn mit der App BeMyEyes gerade keine sehende Hilfe angerufen werden kann.

Kanal «Welt»

Bevor du diesen Kanal nutzen kannst, musst du der App die Erlaubnis geben, auf deine Bewegungsdaten zuzugreifen. Sie nutzt diese, weil es in diesem Feature um die Berücksichtigung räumlicher Dimensionen geht.

Der Kanal «Welt» soll dich darin unterstützen, einen unbekannten Raum in 3D mit räumlicher Audiowiedergabe zu erkunden. Dabei wird die neuste Technologie eingesetzt. Der Kanal versucht, Personen und Objekte im Raum zu erfassen sowie deren räumliche Position. Wenn du dein iPhone vertikal vor dir hältst und damit die Umgebung langsam absuchst, werden dir Personen und Objekte angesagt, sobald sie ins Blickfeld der Kamera kommen. Wenn du dabei Kopfhörer nutzst, welche die Kopfbewegung verfolgen, hörst du die Position der Objekte räumlich von dort her, wo sie sich im Raum befinden. Mit der Filter-Taste kannst du  die    Ankündigung von Personen und Objekten ein- und ausschalten und wenn du den Näherungssensor aktivierst, zeigt dir ein zunehmend stärkeres Vibrationssignal an, wenn du dich dem angesagten Objekt näherst.
Mit der Aktionstaste kannst du eine Zusammenfassung der gefundenen Objekte hören.
Mit der Option «Beacon platzieren» kannst du auf einem angezeigten Objekt ein Audiobeacon platzieren  sodass du dem Ton folgen kannst, um es zu finden. Wähle nach dem Aktivieren der Option das gewünschte Objekt aus der Liste aus und aktiviere das Audiobeacon mit einem 1-Finger-Doppeltipp. Um das Audiobeacon zu beenden, aktiviere die «Aktionen»-Taste erneut und wähle danach «Beacon beenden».

Meine persönlichen Tests fielen eher ernüchternd aus. Ich habe den Eindruck, dass die Beschreibung eines aufgenommenen Fotos mir wesentlich mehr hilft bei der Erfassung eines Raumes und dessen Einrichtung. Doch ich denke, dass in der Live-Erkennung und Beschreibung der Umgebung noch ein grosses Potential steckt.

Kanal «Farbe»

Diese Funktion benötigt wohl keine spezielle Erläuterung. Zu beachten ist, dass die Erkennung der Farben stark von der jeweiligen Beleuchtung abhängt. Persönlich kann ich die Qualität dieser App nicht beurteilen, da ich vollständig blind bin.

Kanal «Licht»

Dieser Kanal zeigt mit einem Pfeifton an, wie stark eine Lichtquelle ist. Je stärker das Licht, desto höher der Ton. Dies ermöglicht blinden Menschen festzustellen, ob beispielsweise das Licht brennt oder in welcher Richtung sich eine Lichtquelle befindet.

Zum Beenden des Pfeiftons einfach das iPhone mit der Kamera nach unten auf den Tisch legen und den Kanal wechseln.

4.   Das Menü von Seeing AI

Die Menütaste findest du auf jedem Startbildschirm der 3 Register oben links. Folgende Tasten stehen nach der Aktivierung der Menütaste zur Auswahl:

  • «Fotos durchsuchen»: Entspricht der gleichen Taste wie die obersten Taste im Register Beschreibung
  • «Hilfe»: Mit ihr lässt sich eine Beschreibung der App und ihrer verschiedenen Funktionen aufrufen und unter der Überschrift «Tipp Tricks findest du nützliche Hinweise zur optimalen Nutzung der App.
  • «Feedback»: Zum Senden von Feedback an Microsoft via E-Mail.
  • «Einstellungen»: Auf diesen Punkt gehe ich weiter unten noch separat ein.
  • «Neuigkeiten»: Hier wird beschrieben, was sich seit der letzten Version von Seeing AI geändert hat.
  • «Info»: Hier findest du die Versionsnummer deiner App sowie Nutzungsbedingungen und Datenschutzrichtlinien.

 

Das Einstellungsmennü

Im Einstellungsmenü kannst du die Standardwährung für die Gelderkennung festlegen.

Als weiteren Punkt findest du im Einstellungsmenü die Möglichkeit, für die verschiednen Anwendungen von Seeing AI Siri-Verknüpfungen  zu konfigurieren. Nachdem du die betreffende Taste aktiviert hast, wird ein Bildschirm angezeigt, in welchem du auswählen kannst, welche Aktivitäten du mit Siri aufrufen willst. Einige der Aktivitäten sind standardmässig bereits ausgewählt.
Was du zu Siri sagen musst, damit die App geöffnet und die betreffende Funktion ausgewählt wird, erfährst du, wenn du auf dem jeweiligen Eintrag einen Doppeltipp ausführst. Du hast im darauf hin angezeigten Bildschirm auch die Möglichkeit, den jeweiligen Sprachbefehl zu ändern.
Leider gibt es in der zur Zeit aktuellen Version keinen Kurzbefehl für das Starten des Lesemodus’. Ich helfe mir damit, dass ich Siri beauftrage, Seeing AI zu öffnen. Beim Öffnen ist dann automatisch das Lese-Register aktiv. Und wenn die Dokumentausrichtung nicht aktiviert ist, kann ich mit der Kamera sofort nach Text suchen.

Hinter dem Menüeintrag «Startbildschirmverknüpfungen konfigurieren» verbirgt sich die Möglichkeit festzulegen, welche Optionen dir angezeigt werden, wenn du auf dem Seeing AI-Icon auf deinem iPhone-Bildschirm einen 3fach-Tipp mit einem Finger ausführst. 4 Optionen können hier ausgewählt werden. Wenn du auf «Startbildschirmverknüpfungen» einen Doppeltipp ausführst, gelangst du zum Bildschirm, auf dem dir die aktuellen und die verfügbaren Kurzbefehle angezeigt werden. Du kannst hier nach deinem Ermessen Verschiebungen vornehmen.

Mit der Taste «Kanäle neu anordnen» kannst du eine andere Reihenfolge für die Kanäle im Register «Mehr» festlegen.

Die Taste «Beleuchtung verwalten» bestimmt, ob Seeing AI den Blitz und die Taschenlampe automatisch an die Lichtverhältnisse anpassen soll.

Die Auswahl der Stimme und der Sprechgeschwindigkeit bezieht sich auf die Meldungen von Seeing AI, und hat keinen Einfluss auf die Stimmen von VoiceOver.

Mit der Taste «Fotos durchsuchen» schliesslich kannst du festlegen, dass jeweils die neuesten Fotos in der Liste zu oberst angezeigt werden.

5.   Mein persönliches Fazit

Es ist viel hinein gepackt in diese App. Nicht alles davon ist für mich persönlich von Nutzen. Häufig und gerne setze ich die App ein, wenn ich rasch und unkompliziert einen Text lesen oder ein Produkt erkennen will. Mit der Aufforderung «Hey Siri, öffne Seeing AI» bin ich sofort startklar. Auch das Einscannen eines Dokuments besorge ich gerne mit Seeing AI. Das führt meist zu sehr guten Resultaten. Und schliesslich begeistert mich die Möglichkeit, mir von Seeing AI ein Foto beschreiben zu lassen, immer wieder aufs Neu! Und ich denke, mein Grosskind hatte wohl gar nicht so unrecht, als es meinte: «Grosspapa, wenn du sehen könntest, du würdest weniger sehen, als die App dir erzählt»! Was die Möglichkeit der Live-Schilderung meiner Umgebung anbelangt, sind die Ergebnisse aus meiner Sicht noch nicht so recht von grossem Nutzen. Doch ich bin sicher, dass gerade auf diesem Gebiet wir noch grosse Fortschritte erleben werden.

Und zum Schluss wie immer meine Bitte. Ich habe in diesem Beitrag meine persönliche Erfahrung mit der App wiedergegeben. Vielleicht hast du darin Unklarheiten oder Mängel entdeckt oder du möchtest noch etwas ergänzen. Du bist dazu herzlich eingeladen. Nutze dafür das Kommentarfeld unten. Vielen Dank!

 

 

Dieser Artikel wurde in den folgenden Kategorien veröffentlicht: