• Zum Inhalt springen (Accesskey 1)
  • Zur Suche springen (Accesskey 7)
FWF — Österreichischer Wissenschaftsfonds
  • Zur Übersichtsseite Entdecken

    • Forschungsradar
      • Historisches Forschungsradar 1974–1994
    • Entdeckungen
      • Emmanuelle Charpentier
      • Adrian Constantin
      • Monika Henzinger
      • Ferenc Krausz
      • Wolfgang Lutz
      • Walter Pohl
      • Christa Schleper
      • Elly Tanaka
      • Anton Zeilinger
    • Impact Stories
      • Verena Gassner
      • Wolfgang Lechner
      • Georg Winter
    • scilog-Magazin
    • Austrian Science Awards
      • FWF-Wittgenstein-Preise
      • FWF-ASTRA-Preise
      • FWF-START-Preise
      • Auszeichnungsfeier
    • excellent=austria
      • Clusters of Excellence
      • Emerging Fields
    • Im Fokus
      • 40 Jahre Erwin-Schrödinger-Programm
      • Quantum Austria
      • Spezialforschungsbereiche
    • Dialog und Diskussion
      • think.beyond Summit
      • Am Puls
      • Was die Welt zusammenhält
      • FWF Women’s Circle
      • Science Lectures
    • Wissenstransfer-Events
    • E-Book Library
  • Zur Übersichtsseite Fördern

    • Förderportfolio
      • excellent=austria
        • Clusters of Excellence
        • Emerging Fields
      • Projekte
        • Einzelprojekte
        • Einzelprojekte International
        • Klinische Forschung
        • 1000 Ideen
        • Entwicklung und Erschließung der Künste
        • FWF-Wittgenstein-Preis
      • Karrieren
        • ESPRIT
        • FWF-ASTRA-Preise
        • Erwin Schrödinger
        • doc.funds
        • doc.funds.connect
      • Kooperationen
        • Spezialforschungsgruppen
        • Spezialforschungsbereiche
        • Forschungsgruppen
        • International – Multilaterale Initiativen
        • #ConnectingMinds
      • Kommunikation
        • Top Citizen Science
        • Wissenschaftskommunikation
        • Buchpublikationen
        • Digitale Publikationen
        • Open-Access-Pauschale
      • Themenförderungen
        • AI Mission Austria
        • Belmont Forum
        • ERA-NET HERA
        • ERA-NET NORFACE
        • ERA-NET QuantERA
        • ERA-NET TRANSCAN
        • Ersatzmethoden für Tierversuche
        • Europäische Partnerschaft Biodiversa+
        • Europäische Partnerschaft ERA4Health
        • Europäische Partnerschaft ERDERA
        • Europäische Partnerschaft EUPAHW
        • Europäische Partnerschaft FutureFoodS
        • Europäische Partnerschaft OHAMR
        • Europäische Partnerschaft PerMed
        • Europäische Partnerschaft Water4All
        • Gottfried-und-Vera-Weiss-Preis
        • netidee SCIENCE
        • Projekte der Herzfelder-Stiftung
        • Quantum Austria
        • Rückenwind-Förderbonus
        • WE&ME Award
        • Zero Emissions Award
      • Länderkooperationen
        • Belgien/Flandern
        • Deutschland
        • Frankreich
        • Italien/Südtirol
        • Japan
        • Luxemburg
        • Polen
        • Schweiz
        • Slowenien
        • Taiwan
        • Tirol–Südtirol–Trentino
        • Tschechien
        • Ungarn
    • Schritt für Schritt
      • Förderung finden
      • Antrag einreichen
      • Internationales Peer-Review
      • Förderentscheidung
      • Projekt durchführen
      • Projekt beenden
      • Weitere Informationen
        • Integrität und Ethik
        • Inklusion
        • Antragstellung aus dem Ausland
        • Personalkosten
        • PROFI
        • Projektendberichte
        • Projektendberichtsumfrage
    • FAQ
      • Projektphase PROFI
      • Projektphase Ad personam
      • Auslaufende Programme
        • Elise Richter und Elise Richter PEEK
        • FWF-START-Preise
  • Zur Übersichtsseite Über uns

    • Leitbild
    • FWF-Film
    • Werte
    • Zahlen und Daten
    • Jahresbericht
    • Aufgaben und Aktivitäten
      • Forschungsförderung
        • Matching-Funds-Förderungen
      • Internationale Kooperationen
      • Studien und Publikationen
      • Chancengleichheit und Diversität
        • Ziele und Prinzipien
        • Maßnahmen
        • Bias-Sensibilisierung in der Begutachtung
        • Begriffe und Definitionen
        • Karriere in der Spitzenforschung
      • Open Science
        • Open-Access-Policy
          • Open-Access-Policy für begutachtete Publikationen
          • Open-Access-Policy für begutachtete Buchpublikationen
          • Open-Access-Policy für Forschungsdaten
        • Forschungsdatenmanagement
        • Citizen Science
        • Open-Science-Infrastrukturen
        • Open-Science-Förderung
      • Evaluierungen und Qualitätssicherung
      • Wissenschaftliche Integrität
      • Wissenschaftskommunikation
      • Philanthropie
      • Nachhaltigkeit
    • Geschichte
    • Gesetzliche Grundlagen
    • Organisation
      • Gremien
        • Präsidium
        • Aufsichtsrat
        • Delegiertenversammlung
        • Kuratorium
        • Jurys
      • Geschäftsstelle
    • Arbeiten im FWF
  • Zur Übersichtsseite Aktuelles

    • News
    • Presse
      • Logos
    • Eventkalender
      • Veranstaltung eintragen
      • FWF-Infoveranstaltungen
    • Jobbörse
      • Job eintragen
    • Newsletter
  • Entdecken, 
    worauf es
    ankommt.

    FWF-Newsletter Presse-Newsletter Kalender-Newsletter Job-Newsletter scilog-Newsletter

    SOCIAL MEDIA

    • LinkedIn, externe URL, öffnet sich in einem neuen Fenster
    • , externe URL, öffnet sich in einem neuen Fenster
    • Facebook, externe URL, öffnet sich in einem neuen Fenster
    • Instagram, externe URL, öffnet sich in einem neuen Fenster
    • YouTube, externe URL, öffnet sich in einem neuen Fenster

    SCILOG

    • Scilog — Das Wissenschaftsmagazin des Österreichischen Wissenschaftsfonds (FWF)
  • elane-Login, externe URL, öffnet sich in einem neuen Fenster
  • Scilog externe URL, öffnet sich in einem neuen Fenster
  • en Switch to English

  

Dreidimensionale Diminished Reality in Echtzeit

Real-time Three-Dimensional Diminished Reality

Dieter Schmalstieg (ORCID: 0000-0003-2813-2235)
  • Grant-DOI 10.55776/P33634
  • Förderprogramm Einzelprojekte
  • Status beendet
  • Projektbeginn 01.01.2021
  • Projektende 31.12.2024
  • Bewilligungssumme 407.116 €
  • Projekt-Website

Wissenschaftsdisziplinen

Informatik (100%)

Keywords

    Mixed Reality, Image-Based Rendering, Inpainting, Diminished Reality

Abstract Endbericht

Das Projekt Dreidimensionale Diminished Reality in Echtzeit (3DDR) entwickelt ein neuartigen Ansatz zur Erzeugung von Diminished Reality ("verminderter Realitaet"), einer Spielart der Mixed Reality. Hierbei wird die Wahrnehmung eines Benutzers in Echtzeit derart manipuliert, dass unerwuenschte Objekte verschwinden. Unsere neue Methode kann dies in dreidimensionalen Umgebungen und in Echtzeit bewerkstelligen, sodass sich Benutzer beliebig durch die Umgebung bewegen können und gleichzeitig durch Objekte hindurch oder hinter Objekte sehen koennen. Bisherige Methoden sind von der Annahme ausgegangen, dass der zu entfernende Teil der Szene flach ist, was in der Realitaet oft nicht der Fall ist. Daher erzeugt unsere Methode einen vollstaendig dreidimensionalen, nicht-flachen Hintergrund. Dieser Hintergrund kann auch erzeugt werden, wenn keine Beobachtungen ueber einen realen Hintergrund an der gewuenschten Stelle existieren. Diese Art von Erzeugung eines Szenenteils muss zeitlich koheraent arbeiten, damit perspektivische Aenderungen, die der Benutzer bei Bewegung wahrnimmt, nicht unnatuerlich wirken. Die Resultate unseres Projekts eignen sich fuer visuelle Inspektionsarbeiten, zur aesthetischen Verbesserung von Mixed Reality-Darstellung sowie fuer Telepraesenz mit hoher visueller Qualitaet.

Diminished Reality (DR) ist eine Technik, mit der Objekte in einem Streaming-Video, das auf einem Display gezeigt wird, in Echtzeit entfernt werden, während die Kamera in Bewegung bleibt. Anwendungen von DR umfassen das Entfernen von Fußgängern aus einer Szene, das Simulieren von städtischen Umgebungen durch das Entfernen von Gebäuden, das Erstellen von Bildungsvideos durch das Entfernen von Chirurgen, das Eliminieren unerwünschter Objekte während des Filmens usw. DR kann erreicht werden, indem mehrere Kameras in der Umgebung installiert werden. Diese Multi-View-Technik kann jedoch keine Bereiche wiederherstellen, die von den Kameras nicht beobachtet werden. Um dieses Problem zu lösen, wird Inpainting verwendet, um die fehlenden Bereiche zu "halluzinieren", indem Pixel aus den umliegenden Bereichen kopiert werden. Dies ist besonders nützlich, wenn fortgeschrittene Vorbereitungen der Szene nicht möglich sind. Da Inpainting größtenteils im Bildraum durchgeführt wurde, nehmen einige DR-Systeme, die auf Inpainting basieren, an, dass der 3D-Raum durch eine flache Ebene approximiert wird. Dieser Ansatz ist nur anwendbar, wenn die Szene flach und verfolgbar ist. Um diese Annahme einer flachen Welt zu überwinden, entwickelten wir einen neuen Ansatz namens InpaintFusion, der Objekte in einem 3D-Raum entfernt. Wir führen Inpainting sowohl auf Farb- als auch auf Tiefenbildern während des Scannens der Szene durch. Da dieser Prozess einige Sekunden in Anspruch nehmen kann, verwenden wir Multithreading-Technologie, um ihn im Hintergrund auszuführen. Sobald das Inpainting abgeschlossen ist, projizieren wir die 2D-Informationen zurück in den 3D-Raum. Das System setzt das Inpainting fort, um neue, unobservierte Bereiche zu füllen. Diese zusammengeführten 3D-Informationen ermöglichen eine 3D-Interaktion und Effekte wie das Ändern der Beleuchtung, ohne dass die vorhandenen Objekte beeinflusst werden. Wir haben festgestellt, dass die Qualität des 3D-Inpaintings erheblich von der Auswahl des Anfangsbildes abhängt. Um Anfängern zu helfen, das richtige Bild auszuwählen, entwickelten wir den Ansatz "Good Keyframes for Inpainting". Wir untersuchten sechs Heuristiken, die in InpaintFusion verwendet werden, und leiteten einfache Kriterien ab, die während des Scannens der Szene gemessen werden können. Wir schätzten die Eignung des ersten Bildes mit einer robusten linearen Kombination. Um die Koeffizienten zu berechnen, sammelten wir reale Daten und wendeten das Inpainting mehrfach an. Diese datengestützte Auswahl des Startbildes führt zu einer stabileren und besseren Inpainting-Qualität im Vergleich zur zufälligen Auswahl. Moderne Multi-Layer-Bilder unterstützen leichte und weitwinkelige 3D-Darstellungen. Da Multi-Layer-Bilder einen kanonischen Raum für Inpainting bieten, ist ein kohärentes Inpainting über mehrere Bilder hinweg nicht erforderlich. Wir entwickelten einen neuen Inpainting-Algorithmus, um pixelige Objekte in dieser neuen Bildmodality zu entfernen. Darüber hinaus untersuchten wir die Multi-Layer-Szenendarstellung, um die Bedingungen für die robuste Generierung von Multi-Layer-Szenen und die Erstellung von Tiefenkarten aus einer Sammlung von defokussierten Bildern für zukünftige 3D-DR-Ansätze besser zu verstehen.

Forschungsstätte(n)
  • Technische Universität Graz - 100%
Internationale Projektbeteiligte
  • Vincent Lepetit, Universite Paris Est - Frankreich
  • Hideo Saito, Keio University - Japan

Research Output

  • 45 Zitationen
  • 8 Publikationen
  • 3 Wissenschaftliche Auszeichnungen
Publikationen
  • 2024
    Titel A Way Out of the Replication Crisis in Diminished Reality Research
    DOI 10.1109/ismar-adjunct64951.2024.00018
    Typ Conference Proceeding Abstract
    Autor Mori S
    Seiten 35-36
  • 2024
    Titel Toward Multi-Plane Image Reconstruction from a Casually Captured Focal Stack
    DOI 10.5220/0012438700003660
    Typ Conference Proceeding Abstract
    Autor Ueda S
    Seiten 72-82
    Link Publikation
  • 2025
    Titel Dense Depth from Event Focal Stack
    DOI 10.1109/wacv61041.2025.00446
    Typ Conference Proceeding Abstract
    Autor Horikawa K
    Seiten 4545-4553
  • 2023
    Titel Compacting Singleshot Multi-Plane Image via Scale Adjustment
    DOI 10.1109/ismar-adjunct60411.2023.00117
    Typ Conference Proceeding Abstract
    Autor Bergfelt M
    Seiten 549-554
  • 2023
    Titel Good Keyframes to Inpaint
    DOI 10.1109/tvcg.2022.3176958
    Typ Journal Article
    Autor Mori S
    Journal IEEE Transactions on Visualization and Computer Graphics
    Seiten 3989-4000
  • 2023
    Titel Multi-Layer Scene Representation from Composed Focal Stacks
    DOI 10.1109/tvcg.2023.3320248
    Typ Journal Article
    Autor Ishikawa R
    Journal IEEE Transactions on Visualization and Computer Graphics
    Seiten 4719-4729
    Link Publikation
  • 2023
    Titel Exemplar-Based Inpainting for 6DOF Virtual Reality Photos
    DOI 10.1109/tvcg.2023.3320220
    Typ Journal Article
    Autor Mori S
    Journal IEEE Transactions on Visualization and Computer Graphics
    Seiten 4644-4654
    Link Publikation
  • 2023
    Titel State-Aware Configuration Detection for Augmented Reality Step-by-Step Tutorials
    DOI 10.1109/ismar59233.2023.00030
    Typ Conference Proceeding Abstract
    Autor Stanescu A
    Seiten 157-166
Wissenschaftliche Auszeichnungen
  • 2025
    Titel Special Interest Group on Mixed Reality Award
    Typ Research prize
    Bekanntheitsgrad National (any country)
  • 2023
    Titel IEEE ISMAR 2023 Best Journal Paper Award Nominee
    Typ Research prize
    Bekanntheitsgrad Continental/International
  • 2023
    Titel IEEE ISMAR 2023 Best Journal Paper Award
    Typ Research prize
    Bekanntheitsgrad Continental/International

Entdecken, 
worauf es
ankommt.

Newsletter

FWF-Newsletter Presse-Newsletter Kalender-Newsletter Job-Newsletter scilog-Newsletter

Kontakt

Österreichischer Wissenschaftsfonds FWF
Georg-Coch-Platz 2
(Eingang Wiesingerstraße 4)
1010 Wien

office(at)fwf.ac.at
+43 1 505 67 40

Allgemeines

  • Jobbörse
  • Arbeiten im FWF
  • Presse
  • Philanthropie
  • scilog
  • Geschäftsstelle
  • Social Media Directory
  • LinkedIn, externe URL, öffnet sich in einem neuen Fenster
  • , externe URL, öffnet sich in einem neuen Fenster
  • Facebook, externe URL, öffnet sich in einem neuen Fenster
  • Instagram, externe URL, öffnet sich in einem neuen Fenster
  • YouTube, externe URL, öffnet sich in einem neuen Fenster
  • Cookies
  • Hinweisgeber:innensystem
  • Barrierefreiheitserklärung
  • Datenschutz
  • Impressum
  • IFG-Formular
  • Social Media Directory
  • © Österreichischer Wissenschaftsfonds FWF
© Österreichischer Wissenschaftsfonds FWF