Augmented Reality aus Beispielen
Augmented Reality by Example
Wissenschaftsdisziplinen
Informatik (100%)
Keywords
-
Augmented Reality,
Authoring
Das Projekt "Augmented Reality aus Beispielen" befasst sich mit der Erzeugung von Inhalten für Augmented Reality (AR) auf Basis von existierenden Bild- und Videodaten. Bisherige Methoden erzeugen die Inhalte von AR Anwendungen in einem zeitaufwändigen Prozess, der Kenntnisse von 3D-Modellierungs- und Animations-Software erfordert. Darüber hinaus sind Kenntnisse der zugrundenliegenden AR-Technik nötige. Von dem verbesserten Erstellungsvorgang durch die Wiederverwendung von existierenden Daten profitiert prinzipiell jede Art von AR-Anwendung. Das Projekt befasst sich aber vorwiegend mit der Erzeugung von AR-Inhalten aus konventionellen Video- und Bildanleitungen für die Wissensvermittlung in Tutorials. Existierende Bild- und Videodaten in Tutor- und Lehranwendungen beinhalten sehr informative Grafiken. Ein genaues Nachmachen von Bewegungen ist trotzdem oft sehr schwierig, da man die Bewegungen im Video auf die reale Welt übertragen müssen. Die Benutzer müssen 3D-Bewegungspfade und die Geschwindigkeit der Bewegungen aus zwei-dimensionalen Daten entnehmen. Dieses Problem wird durch die abweichenden Blickpunkte in Video und Realität weiter verstärkt. Darüber hinaus sehen Objekte in der realen Welt anders aus, als in den zur Verfügung stehenden Bildern und Videos. Weiterhin erschwert die Trennung des Handlungsorts im Video und in der Realität die Hand-Auge-Koordination maßgeblich. Um die Koordination zu verbessern, zeigen AR-Anwendungen die visuellen Informationen direkt in der realen Umgebung des Benutzers an. Studien zeigen, dass AR dadurch signifikant geringere geistige Belastungen erzeugt. Ein wesentliches Ziel unseres Projekts ist es daher, existierende graphische Beschreibungen in die reale Welt zu bringen. Zu diesem Zweck untersuchen wir eine Reihe neuartiger Ansätze. Erstens werden wir die Objekte und Bewegungen in 3D aus den 2D Eingabequellen extrahieren. Zweitens stellen wir Werkzeuge zum Editieren der 3D-Animationen und zum Registrieren in der Zielumgebung zur Verfügung. Drittens entwickeln wir eine Reihe von leicht verständlichen Visualisierungstechniken, um die resultierenden Anleitungen effizient und effektiv kommunizieren zu können. Diese Forschung wird von qualitativen und quantitativen Benutzerstudien begleitet. Das Forschungsprojekt hat eine hohes Potential die Erstellung von Trainingsmaterialien für zukünftige Multimedia-Anwendungen zu vereinfachen.
Augmented Reality (AR) by Example war ein Forschungsprojekt, das neuartige Ansätze für AR-Anwendungen auf Basis von Video- und Bilddaten untersuchte. Das Projekt zielte hauptsächlich auf die Wissensrepräsentation in AR-Tutorials ab. Herkömmliche Bild- und Video-Tutorials vermitteln effektiv komplexe Bewegungen, sind jedoch aufgrund ihrer 2D-Natur und ihrer fehlenden Verbindung zur realen Umgebung des Benutzers schwierig genau zu verfolgen. Da sich AR-Tutorials als effektiver erwiesen haben, bestand das Ziel des Projekts darin, neuartige Tools bereitzustellen, um 2D Bild- und Videodaten in 3D AR-Umgebungen besser zugänglich zu machen. Dies wurde durch die Untersuchung von neuartigen Ansätzen zur Szenenerfassung, Sequenzerkennung, Bewegungsvisualisierung und zum Retargeting von erfassten 2D-Daten zu 3D AR-Umgebungen erreicht. Insbesondere wurde ein neuartiger Ansatz zum Verfassen von AR Zusammenbau-Tutorials auf Basis von Videoanleitungen entwickelt. Der entwickelte Ansatz verwendet ein 3D-Modell und den dazugehörigen Assembly-Graphen der Baugruppe, um eine 3D-Animation zu erzeugen, die mit entsprechenden Videosequenzen der Videoanleitung annotiert wurde. Dieser Ansatz wurde anschließend erweitert, indem auch das 3D-Modell und der Assembly-Graph aus einem RGB-D Video abgeleitet wurden. Um die modellierte und die reale Umgebung in AR kohärent wiederzugeben, hat dieses Projekt außerdem eine Reihe von neuronalen Netzen entwickelt, die gemeinsam in der Lage sind, die Eigenschaften einer realen Kamera nachzuahmen, wie sie etwa in Video-See-Through AR-Anwendungen verwendet wird. Um die Notwendigkeit eines 3D-Modells zu vermeiden, haben wir darüber hinaus einen neuartigen Ansatz zum Erstellen und Anzeigen von AR-Anweisungen auf der Grundlage einer Bilddatenbank entwickelt. So wurden Ansätze zur geführten Erfassung, Bearbeitung und Darstellung von Light Fields auf mobilen Endgeräten erforscht. Es hat sich gezeigt, dass dieser Ansatz, Remote AR-Assistenz Anwendungen in komplexen und unvorbereiteten Umgebungen gut unterstützt. Jüngste Fortschritte in der Forschung zum Rendern von Free-Viewpoint Bildern haben es außerdem ermöglicht, den entwickelten Ansatz von Bild- auf Video basierte Darstellungen zu erweitern. Im Rahmen dieses Projekts wurde daher ein Light field Video Erfassungs- und Rendering-Ansatz entwickelt. Um die Wirkung von 3D AR Video-Tutorials im Vergleich zu traditionellen modellbasierten AR-Tutorials zu untersuchen, wurde außerdem ein System entwickelt, um automatisch interaktive modell basierte AR-Tutorials für Benutzer mit unterschiedlichen Fähigkeiten zu generieren. Wir haben uns hierbei auf die Erstellung von Gitarren-Tutorials konzentriert, da dies einen herausfordernden Anwendungsfall für das Erlernen motorischer Fähigkeiten darstellt. Um Wahrnehmungsprobleme beim Verwenden eines AR-Tutorials zu reduzieren, haben wir eine neuartige videobasierte Szenendarstellung entwickelt, die Focus Cues unterstützt. Unser Ansatz basiert auf einer Repräsentation als Focal Stacks, da dies auf natürliche Weise Out-of-Focus Unschärfen unterstützt. Daher haben wir eine Pipeline zum Erfassen, Rendern und Blenden der Bilder eines Focal Stack in Echtzeit entwickelt. Wir zeigen, dass diese Szenendarstellung in der Lage ist, Layered Displays effizient anzusteuern, um so dem Benutzer Focus Cues zu präsentieren.
- Technische Universität Graz - 100%
- Vincent Lepetit, Universite Paris Est - Frankreich
- Christian Sandor, Universite Paris-Saclay - Frankreich
Research Output
- 207 Zitationen
- 15 Publikationen
- 3 Wissenschaftliche Auszeichnungen
-
2023
Titel guitARhero: Interactive Augmented Reality Guitar Tutorials DOI 10.1109/tvcg.2023.3320266 Typ Journal Article Autor Skreinig L Journal IEEE Transactions on Visualization and Computer Graphics Seiten 4676-4685 Link Publikation -
2024
Titel Neural Bokeh: Learning Lens Blur for Computational Videography and Out-of-Focus Mixed Reality DOI 10.1109/vr58804.2024.00106 Typ Conference Proceeding Abstract Autor Mandl D Seiten 870-880 -
2022
Titel Model-Free Authoring by Demonstration of Assembly Instructions in Augmented Reality DOI 10.1109/tvcg.2022.3203104 Typ Journal Article Autor Stanescu A Journal IEEE Transactions on Visualization and Computer Graphics Seiten 3821-3831 -
2020
Titel InpaintFusion: Incremental RGB-D Inpainting for 3D Scenes DOI 10.1109/tvcg.2020.3003768 Typ Journal Article Autor Mori S Journal IEEE Transactions on Visualization and Computer Graphics Seiten 2994-3007 -
2020
Titel Mixed Reality Light Fields for Interactive Remote Assistance DOI 10.1145/3313831.3376289 Typ Conference Proceeding Abstract Autor Mohr P Seiten 1-12 -
2018
Titel TutAR: augmented reality tutorials for hands-only procedures Typ Conference Proceeding Abstract Autor Christian Sandor Konferenz CM SIGGRAPH International Conference on Virtual-Reality Continuum and its Applications in Industry (VRCAI) Seiten 1-3 Link Publikation -
2018
Titel TutAR DOI 10.1145/3284398.3284399 Typ Conference Proceeding Abstract Autor Eckhoff D Seiten 1-3 -
2020
Titel Mixed Reality Light Fields for Interactive Remote Assistance Typ Conference Proceeding Abstract Autor Peter Mohr Konferenz CHI Conference on Human Factors in Computing Systems Seiten 1-12 Link Publikation -
2020
Titel Video-Annotated Augmented Reality Assembly Tutorials Typ Conference Proceeding Abstract Autor Masahiro Yamaguchi Konferenz ACM Symposium on User Interface Software and Technology (UIST) Seiten 1010-1022 Link Publikation -
2020
Titel Video-Annotated Augmented Reality Assembly Tutorials DOI 10.1145/3379337.3415819 Typ Conference Proceeding Abstract Autor Yamaguchi M Seiten 1010-1022 -
2018
Titel 3D PixMix: Image Inpainting in 3D Environments DOI 10.1109/ismar-adjunct.2018.00020 Typ Conference Proceeding Abstract Autor Mori S Seiten 1-2 -
2022
Titel AR Hero: Generating Interactive Augmented Reality Guitar Tutorials DOI 10.1109/vrw55335.2022.00086 Typ Conference Proceeding Abstract Autor Skreinig L Seiten 395-401 -
2022
Titel Video See-Through Mixed Reality with Focus Cues DOI 10.1109/tvcg.2022.3150504 Typ Journal Article Autor Ebner C Journal IEEE Transactions on Visualization and Computer Graphics Seiten 2256-2266 Link Publikation -
2021
Titel Neural Cameras: Learning Camera Characteristics for Coherent Mixed Reality Rendering DOI 10.1109/ismar52148.2021.00068 Typ Conference Proceeding Abstract Autor Mandl D Seiten 508-516 -
2020
Titel Perspective Matters: Design Implications for Motion Guidance in Mixed Reality DOI 10.1109/ismar50242.2020.00085 Typ Conference Proceeding Abstract Autor Yu X Seiten 577-587
-
2022
Titel Best Journal Paper at IEEE Virtual Reality (VR) 2022 Typ Research prize Bekanntheitsgrad Continental/International -
2021
Titel Best Conference Paper at IEEE ISMAR, 2021 Typ Research prize Bekanntheitsgrad Continental/International -
2018
Titel Best Short Paper at VRCAI Typ Research prize Bekanntheitsgrad Continental/International