Dreidimensionale Diminished Reality in Echtzeit
Real-time Three-Dimensional Diminished Reality
Wissenschaftsdisziplinen
Informatik (100%)
Keywords
-
Mixed Reality,
Image-Based Rendering,
Inpainting,
Diminished Reality
Das Projekt Dreidimensionale Diminished Reality in Echtzeit (3DDR) entwickelt ein neuartigen Ansatz zur Erzeugung von Diminished Reality ("verminderter Realitaet"), einer Spielart der Mixed Reality. Hierbei wird die Wahrnehmung eines Benutzers in Echtzeit derart manipuliert, dass unerwuenschte Objekte verschwinden. Unsere neue Methode kann dies in dreidimensionalen Umgebungen und in Echtzeit bewerkstelligen, sodass sich Benutzer beliebig durch die Umgebung bewegen können und gleichzeitig durch Objekte hindurch oder hinter Objekte sehen koennen. Bisherige Methoden sind von der Annahme ausgegangen, dass der zu entfernende Teil der Szene flach ist, was in der Realitaet oft nicht der Fall ist. Daher erzeugt unsere Methode einen vollstaendig dreidimensionalen, nicht-flachen Hintergrund. Dieser Hintergrund kann auch erzeugt werden, wenn keine Beobachtungen ueber einen realen Hintergrund an der gewuenschten Stelle existieren. Diese Art von Erzeugung eines Szenenteils muss zeitlich koheraent arbeiten, damit perspektivische Aenderungen, die der Benutzer bei Bewegung wahrnimmt, nicht unnatuerlich wirken. Die Resultate unseres Projekts eignen sich fuer visuelle Inspektionsarbeiten, zur aesthetischen Verbesserung von Mixed Reality-Darstellung sowie fuer Telepraesenz mit hoher visueller Qualitaet.
Diminished Reality (DR) ist eine Technik, mit der Objekte in einem Streaming-Video, das auf einem Display gezeigt wird, in Echtzeit entfernt werden, während die Kamera in Bewegung bleibt. Anwendungen von DR umfassen das Entfernen von Fußgängern aus einer Szene, das Simulieren von städtischen Umgebungen durch das Entfernen von Gebäuden, das Erstellen von Bildungsvideos durch das Entfernen von Chirurgen, das Eliminieren unerwünschter Objekte während des Filmens usw. DR kann erreicht werden, indem mehrere Kameras in der Umgebung installiert werden. Diese Multi-View-Technik kann jedoch keine Bereiche wiederherstellen, die von den Kameras nicht beobachtet werden. Um dieses Problem zu lösen, wird Inpainting verwendet, um die fehlenden Bereiche zu "halluzinieren", indem Pixel aus den umliegenden Bereichen kopiert werden. Dies ist besonders nützlich, wenn fortgeschrittene Vorbereitungen der Szene nicht möglich sind. Da Inpainting größtenteils im Bildraum durchgeführt wurde, nehmen einige DR-Systeme, die auf Inpainting basieren, an, dass der 3D-Raum durch eine flache Ebene approximiert wird. Dieser Ansatz ist nur anwendbar, wenn die Szene flach und verfolgbar ist. Um diese Annahme einer flachen Welt zu überwinden, entwickelten wir einen neuen Ansatz namens InpaintFusion, der Objekte in einem 3D-Raum entfernt. Wir führen Inpainting sowohl auf Farb- als auch auf Tiefenbildern während des Scannens der Szene durch. Da dieser Prozess einige Sekunden in Anspruch nehmen kann, verwenden wir Multithreading-Technologie, um ihn im Hintergrund auszuführen. Sobald das Inpainting abgeschlossen ist, projizieren wir die 2D-Informationen zurück in den 3D-Raum. Das System setzt das Inpainting fort, um neue, unobservierte Bereiche zu füllen. Diese zusammengeführten 3D-Informationen ermöglichen eine 3D-Interaktion und Effekte wie das Ändern der Beleuchtung, ohne dass die vorhandenen Objekte beeinflusst werden. Wir haben festgestellt, dass die Qualität des 3D-Inpaintings erheblich von der Auswahl des Anfangsbildes abhängt. Um Anfängern zu helfen, das richtige Bild auszuwählen, entwickelten wir den Ansatz "Good Keyframes for Inpainting". Wir untersuchten sechs Heuristiken, die in InpaintFusion verwendet werden, und leiteten einfache Kriterien ab, die während des Scannens der Szene gemessen werden können. Wir schätzten die Eignung des ersten Bildes mit einer robusten linearen Kombination. Um die Koeffizienten zu berechnen, sammelten wir reale Daten und wendeten das Inpainting mehrfach an. Diese datengestützte Auswahl des Startbildes führt zu einer stabileren und besseren Inpainting-Qualität im Vergleich zur zufälligen Auswahl. Moderne Multi-Layer-Bilder unterstützen leichte und weitwinkelige 3D-Darstellungen. Da Multi-Layer-Bilder einen kanonischen Raum für Inpainting bieten, ist ein kohärentes Inpainting über mehrere Bilder hinweg nicht erforderlich. Wir entwickelten einen neuen Inpainting-Algorithmus, um pixelige Objekte in dieser neuen Bildmodality zu entfernen. Darüber hinaus untersuchten wir die Multi-Layer-Szenendarstellung, um die Bedingungen für die robuste Generierung von Multi-Layer-Szenen und die Erstellung von Tiefenkarten aus einer Sammlung von defokussierten Bildern für zukünftige 3D-DR-Ansätze besser zu verstehen.
- Technische Universität Graz - 100%
- Vincent Lepetit, Universite Paris Est - Frankreich
- Hideo Saito, Keio University - Japan
Research Output
- 45 Zitationen
- 8 Publikationen
- 3 Wissenschaftliche Auszeichnungen
-
2024
Titel A Way Out of the Replication Crisis in Diminished Reality Research DOI 10.1109/ismar-adjunct64951.2024.00018 Typ Conference Proceeding Abstract Autor Mori S Seiten 35-36 -
2024
Titel Toward Multi-Plane Image Reconstruction from a Casually Captured Focal Stack DOI 10.5220/0012438700003660 Typ Conference Proceeding Abstract Autor Ueda S Seiten 72-82 Link Publikation -
2025
Titel Dense Depth from Event Focal Stack DOI 10.1109/wacv61041.2025.00446 Typ Conference Proceeding Abstract Autor Horikawa K Seiten 4545-4553 -
2023
Titel Compacting Singleshot Multi-Plane Image via Scale Adjustment DOI 10.1109/ismar-adjunct60411.2023.00117 Typ Conference Proceeding Abstract Autor Bergfelt M Seiten 549-554 -
2023
Titel Good Keyframes to Inpaint DOI 10.1109/tvcg.2022.3176958 Typ Journal Article Autor Mori S Journal IEEE Transactions on Visualization and Computer Graphics Seiten 3989-4000 -
2023
Titel Multi-Layer Scene Representation from Composed Focal Stacks DOI 10.1109/tvcg.2023.3320248 Typ Journal Article Autor Ishikawa R Journal IEEE Transactions on Visualization and Computer Graphics Seiten 4719-4729 Link Publikation -
2023
Titel Exemplar-Based Inpainting for 6DOF Virtual Reality Photos DOI 10.1109/tvcg.2023.3320220 Typ Journal Article Autor Mori S Journal IEEE Transactions on Visualization and Computer Graphics Seiten 4644-4654 Link Publikation -
2023
Titel State-Aware Configuration Detection for Augmented Reality Step-by-Step Tutorials DOI 10.1109/ismar59233.2023.00030 Typ Conference Proceeding Abstract Autor Stanescu A Seiten 157-166
-
2025
Titel Special Interest Group on Mixed Reality Award Typ Research prize Bekanntheitsgrad National (any country) -
2023
Titel IEEE ISMAR 2023 Best Journal Paper Award Nominee Typ Research prize Bekanntheitsgrad Continental/International -
2023
Titel IEEE ISMAR 2023 Best Journal Paper Award Typ Research prize Bekanntheitsgrad Continental/International