Skip to main content

Wahrscheinlich einer der wichtigsten Neuigkeiten im AR-Bereich in den letzten Monaten. Wenn wir in Zukunft in unserer Google-Suche AR-Inhalte angezeigt bekommen und diese dann in den Raum platziert bekommen wäre dies, für das Thema AR ein sehr sehr wichtige Entwicklung und macht die Tragweite für Aktivitäten in Unternehmen sichtbar in das Thema 3D-Modell-/3D-Welten zu gehen und Kompetenzen/Skills hier aufzubauen. Upskilling ist das Thema, Mitarbeiter FIT machen für AR und 3D.
Ist Ihre Organisation 3D-ready?, Torsten Fell

 

Ich habe einmal zwei Artikel zu diesem Thema zusammen hier eingestellt, viel Spaß.

 

Quelle-Artikel:

https://germany.googleblog.com/2019/05/google-suche-und-lens-mit-ar.html

Neue Informationen lassen sich am besten veranschaulichen, indem man sie – wie es das Wort schon sagt – direkt sichtbar macht. Wir haben heute auf der I/O neue Funktionen für die Google-Suche und Google Lens vorgestellt. Mithilfe der Kamera, maschinellen Sehens und Augmented Reality (AR) können auf diese Weise bestimmte Inhalte in der realen Umgebung abgebildet werden – und so euren Alltag weiter erleichtern.

AR in der Google-Suche

Ein fliegender Weißer Hai? Google Lens macht’s möglich

In den nächsten Wochen werden wir eine neue Funktion in der Google-Suche veröffentlichen, mit der Nutzer 3D-Objekte direkt aus der Suche in ihrem Umfeld platzieren können. So ist es nicht nur möglich, gewisse Dinge genauer zu betrachten – ihr bekommt außerdem ein besseres Gefühl für die eigentliche Form und Größe. Es ist zum Beispiel eine Sache, zu lesen, dass ein Weißer Hai bis zu fünfeinhalb Meter lang werden kann. Einen wirklichen Eindruck davon erhaltet ihr aber erst, wenn ihr ihn dann in seiner tatsächlichen Größe vor euch seht. Wenn ihr künftig in der Suche nach bestimmten Tieren sucht, könnt ihr einige direkt im Knowledge Panel in 3D und AR ansehen.

Animiertes 3D-Modell von als Suchergebnis für „Muskelanspannung“

Wir arbeiten außerdem mit Partnern zusammen, um auch ihre Inhalte künftig in 3D in der Google-Suche darstellen zu können. So erweckt ihr bald viele weitere dreidimensionale Objekte direkt aus der Suche vor euren eigenen Augen zum Leben – ganz egal, ob es sich dabei um anatomische Modelle des menschlichen Körpers oder um ein neues Paar Sneaker handelt.

Neue Funktionen für Google Lens
Über eine Milliarde mal haben Menschen Google Lens schon genutzt, um mehr über die Dinge in ihrer Umgebung zu erfahren. Für eine möglichst präzise Antwort greift Google Lens dabei auf maschinelles Lernen (ML), maschinelles Sehen und Milliarden von Fakten im Knowledge Graph zurück. Ab sofort arbeiten wir daran, noch visuellere Antworten auf diese visuellen Fragen zu finden.

Stellen wir uns einmal vor, ihr seid in einem Restaurant und könnt euch nicht entscheiden. Google Lens hebt die besonders beliebten Gerichte auf der Speisekarte automatisch hervor. Wenn ihr dann auf ein Gericht tippt, könnt ihr anhand von Fotos und Rezensionen auf Google Maps sofort sehen, wie es tatsächlich aussieht – und wie es den anderen Gästen bisher geschmeckt hat.

Was soll ich bloß essen? Google Lens hilft bei der Entscheidung.

Doch wie funktioniert das genau? Als Erstes erkennt Google Lens die ganzen Gerichte auf der Karte und unterscheidet anhand der Schriftgröße, Schriftart und Farbe diese von der Beschreibung. Dann werden die Namen der Gerichte mit den dazugehörigen Fotos aus der Restaurantbewertung in Google Maps abgeglichen.
Google Lens ist vor allem dann besonders hilfreich, wenn ihr im Urlaub seid und die Landessprache nicht versteht. In diesem Fall könnt ihr ganz einfach die Kamera auf den zu übersetzenden Text halten. Google Lens zeigt dann die Übersetzung direkt über dem Ausgangstext an – und das in mehr als 100 Sprachen!

Google Lens übersetzt den Text und zeigt ihn direkt über dem Original an

Doch wir arbeiten an noch mehr Möglichkeiten, um hilfreiche digitale Informationen mit der realen Welt zu verknüpfen. Im De Young Museum in San Francisco erhaltet ihr mithilfe von Google Lens beispielsweise versteckte Hintergrundgeschichten von den Kuratoren zu den Bildern. Oder wenn ihr ein Rezept aus einer Kochzeitschrift nachkochen möchtet, richtet einfach eure Kamera auf das Rezept und schon könnt ihr loslegen.

Mit Google Lens erwachen Rezepte zum Leben

Lens für Google Go
Weltweit haben über 800 Millionen Erwachsene Schwierigkeiten, alltägliche Dokumente wie Busfahrpläne oder Bankformulare zu lesen. Mit Google Lens werden jetzt diese und andere Texte ganz einfach vom Smartphone vorgelesen.
Dazu müsst ihr eure Kamera nur auf den jeweiligen Text richten. Die einzelnen Wörter werden dabei hervorgehoben, sodass ihr den Text mitverfolgen und in seinem gesamten Zusammenhang verstehen könnt. Außerdem könnt ihr auch einzelne Wörter antippen, um nach ihrer Bedeutung zu suchen. Diese Funktion ist zunächst für Google Go verfügbar – die Such-App für Smartphone-Neulinge. Die Lens-Funktion für Google Go ist nur 100 KB groß und funktioniert sogar auf Smartphones, die 50 Euro kosten.
—– Weitere Artikel zu diesem Thema —–

Quelle-Artikel:

https://stadt-bremerhaven.de/google-lens-und-suche-neue-visuelle-features-und-ar-unterstuetzung/

Im Rahmen der Google I/O hat Google heute einige neue Features für die Suche aber auch die Google Lens vorgestellt. Die Neuerungen wurden dabei sogar auch für unsere Breitengrade bestätigt. Ausrollen will man die neuen visuellen Funktionen schon innerhalb der nächsten Wochen. So peppt man die Google Suche und die Google Lens um neue visuelle Gimmicks auf.

Etwa zeigte man, wie über die Google Suche nun beim Stöbern nach bestimmten Themen oder auch Produkten 3D-Modelle und AR-Inhalte eingebunden werden. Beispiel: Ihr sucht nach einem bestimmten Tier oder auch einem Turnschuh und könnt jenen in der Augmented Reality direkt in eurer Umgebung erblicken.

Im Falle eines Tieres hilft das dessen Größe einzuschätzen, bei einem Kleidungsstück seht ihr direkt, wie es zum Rest eurer Garderobe passt. Das neue AR-Feature für die Suche will man noch innerhalb dieses Monats ausrollen. Als Partner nennt Google dafür bereits Organisationen bzw. Unternehmen wie die NASA, New Balance, Samsung, Target, Visible Body, Volvo und Wayfair.

Die Google Lens wiederum erhält eine Funktion, die über die Kamera Texte auf etwa Schildern erkennen und direkt vorlesen kann. Während des Vorlesens markiert die Google Lens sogar die jeweils gerade vorgelesenen Wörter. Das erleichtert es nachzuvollziehen, was einem die Lens gerade berichtet. Es soll sogar möglich sein, bestimmte Wörter anzutippen und dann weitere Erklärungen zu ihnen zu erhalten. Auch Übersetzungen werden auf diese Weise möglich. Dabei übersetzt die Google Lens den jeweiligen Inhalt dann sowohl visuell, also im Bild als auch verbal, also beim Vorlesen.

Zusätzlich kann die Google Lens etwa in Restaurants auf Speisekarten beliebte Gerichte hervorheben und dann etwa zu den Speisen Rezensionen und Bilder aus Google Maps hervorzaubern. Wer also in einem Restaurant nicht weiß, was er bestellen soll, erhält so neue Unterstützung. Das kann natürlich besonders bei Reisen im Ausland durchaus sinnig sein – etwa wenn ihr die Speisekarte vielleicht aufgrund japanischer Schriftzeichen sonst nicht einmal lesen könnt.

Für Museen wiederum ist angedacht, dass die Google Lens zu Gemälden oder anderen Kunstwerken direkt zusätzliche Informationen anzeigen kann – die direkt von den Betreuern des Museums eingestellt worden sind. So erhaltet ihr quasi direkt vor Ort eine kostenlose, digitale Führung. Letzte neue Funktion: Ihr studiert ein Magazin mit Rezepten, richtet die Kamera darauf und erhaltet direkt zum Kochen des Rezepts eine Videoanleitung.

Speziell für die Übersetzungen nannte  Google als verfügbare Sprache ganz direkt auch Deutsch, dieses Feature für die Lens will man bei uns in den nächsten Wochen verteilen. Seien wir einfach mal gespannt. Die Funktionen klingen definitiv extrem spannend und könnten auch für Menschen eine Hilfe sein, die z. B. unter Beeinträchtigungen beim Sehen oder Lesen leiden.

 

 

Amazon lays out a technology to guide delivery agents with augmented realityKnowledgeResearch

Amazon lays out a technology to guide delivery agents with augmented reality

Efficient package delivery is one of the keystones of Amazon’s retailing business, and a newly…
23. August 2019
Apple will iPhone durch AR-Brillen ersetzenKnowledgeResearch

Apple will iPhone durch AR-Brillen ersetzen

In rund einem Jahrzehnt sieht Apple das Ende der Smartphones voraus. Sie sollen im Alltag…
25. November 2019
What Is Haptic Feedback?KnowledgeResearch

What Is Haptic Feedback?

Haptic feedback technology will be crucial to the development of the Metaverse for real users…
4. April 2022

Leave a Reply