• Zum Inhalt springen (Accesskey 1)
  • Zur Suche springen (Accesskey 7)
FWF — Österreichischer Wissenschaftsfonds
  • Zur Übersichtsseite Entdecken

    • Forschungsradar
      • Historisches Forschungsradar 1974–1994
    • Entdeckungen
      • Emmanuelle Charpentier
      • Adrian Constantin
      • Monika Henzinger
      • Ferenc Krausz
      • Wolfgang Lutz
      • Walter Pohl
      • Christa Schleper
      • Elly Tanaka
      • Anton Zeilinger
    • Impact Stories
      • Verena Gassner
      • Wolfgang Lechner
      • Georg Winter
    • scilog-Magazin
    • Austrian Science Awards
      • FWF-Wittgenstein-Preise
      • FWF-ASTRA-Preise
      • FWF-START-Preise
      • Auszeichnungsfeier
    • excellent=austria
      • Clusters of Excellence
      • Emerging Fields
    • Im Fokus
      • 40 Jahre Erwin-Schrödinger-Programm
      • Quantum Austria
      • Spezialforschungsbereiche
    • Dialog und Diskussion
      • think.beyond Summit
      • Am Puls
      • Was die Welt zusammenhält
      • FWF Women’s Circle
      • Science Lectures
    • Wissenstransfer-Events
    • E-Book Library
  • Zur Übersichtsseite Fördern

    • Förderportfolio
      • excellent=austria
        • Clusters of Excellence
        • Emerging Fields
      • Projekte
        • Einzelprojekte
        • Einzelprojekte International
        • Klinische Forschung
        • 1000 Ideen
        • Entwicklung und Erschließung der Künste
        • FWF-Wittgenstein-Preis
      • Karrieren
        • ESPRIT
        • FWF-ASTRA-Preise
        • Erwin Schrödinger
        • doc.funds
        • doc.funds.connect
      • Kooperationen
        • Spezialforschungsgruppen
        • Spezialforschungsbereiche
        • Forschungsgruppen
        • International – Multilaterale Initiativen
        • #ConnectingMinds
      • Kommunikation
        • Top Citizen Science
        • Wissenschaftskommunikation
        • Buchpublikationen
        • Digitale Publikationen
        • Open-Access-Pauschale
      • Themenförderungen
        • AI Mission Austria
        • Belmont Forum
        • ERA-NET HERA
        • ERA-NET NORFACE
        • ERA-NET QuantERA
        • ERA-NET TRANSCAN
        • Ersatzmethoden für Tierversuche
        • Europäische Partnerschaft Biodiversa+
        • Europäische Partnerschaft ERA4Health
        • Europäische Partnerschaft ERDERA
        • Europäische Partnerschaft EUPAHW
        • Europäische Partnerschaft FutureFoodS
        • Europäische Partnerschaft OHAMR
        • Europäische Partnerschaft PerMed
        • Europäische Partnerschaft Water4All
        • Gottfried-und-Vera-Weiss-Preis
        • netidee SCIENCE
        • Projekte der Herzfelder-Stiftung
        • Quantum Austria
        • Rückenwind-Förderbonus
        • WE&ME Award
        • Zero Emissions Award
      • Länderkooperationen
        • Belgien/Flandern
        • Deutschland
        • Frankreich
        • Italien/Südtirol
        • Japan
        • Luxemburg
        • Polen
        • Schweiz
        • Slowenien
        • Taiwan
        • Tirol–Südtirol–Trentino
        • Tschechien
        • Ungarn
    • Schritt für Schritt
      • Förderung finden
      • Antrag einreichen
      • Internationales Peer-Review
      • Förderentscheidung
      • Projekt durchführen
      • Projekt beenden
      • Weitere Informationen
        • Integrität und Ethik
        • Inklusion
        • Antragstellung aus dem Ausland
        • Personalkosten
        • PROFI
        • Projektendberichte
        • Projektendberichtsumfrage
    • FAQ
      • Projektphase PROFI
      • Projektphase Ad personam
      • Auslaufende Programme
        • Elise Richter und Elise Richter PEEK
        • FWF-START-Preise
  • Zur Übersichtsseite Über uns

    • Leitbild
    • FWF-Film
    • Werte
    • Zahlen und Daten
    • Jahresbericht
    • Aufgaben und Aktivitäten
      • Forschungsförderung
        • Matching-Funds-Förderungen
      • Internationale Kooperationen
      • Studien und Publikationen
      • Chancengleichheit und Diversität
        • Ziele und Prinzipien
        • Maßnahmen
        • Bias-Sensibilisierung in der Begutachtung
        • Begriffe und Definitionen
        • Karriere in der Spitzenforschung
      • Open Science
        • Open-Access-Policy
          • Open-Access-Policy für begutachtete Publikationen
          • Open-Access-Policy für begutachtete Buchpublikationen
          • Open-Access-Policy für Forschungsdaten
        • Forschungsdatenmanagement
        • Citizen Science
        • Open-Science-Infrastrukturen
        • Open-Science-Förderung
      • Evaluierungen und Qualitätssicherung
      • Wissenschaftliche Integrität
      • Wissenschaftskommunikation
      • Philanthropie
      • Nachhaltigkeit
    • Geschichte
    • Gesetzliche Grundlagen
    • Organisation
      • Gremien
        • Präsidium
        • Aufsichtsrat
        • Delegiertenversammlung
        • Kuratorium
        • Jurys
      • Geschäftsstelle
    • Arbeiten im FWF
  • Zur Übersichtsseite Aktuelles

    • News
    • Presse
      • Logos
    • Eventkalender
      • Veranstaltung eintragen
      • FWF-Infoveranstaltungen
    • Jobbörse
      • Job eintragen
    • Newsletter
  • Entdecken, 
    worauf es
    ankommt.

    FWF-Newsletter Presse-Newsletter Kalender-Newsletter Job-Newsletter scilog-Newsletter

    SOCIAL MEDIA

    • LinkedIn, externe URL, öffnet sich in einem neuen Fenster
    • , externe URL, öffnet sich in einem neuen Fenster
    • Facebook, externe URL, öffnet sich in einem neuen Fenster
    • Instagram, externe URL, öffnet sich in einem neuen Fenster
    • YouTube, externe URL, öffnet sich in einem neuen Fenster

    SCILOG

    • Scilog — Das Wissenschaftsmagazin des Österreichischen Wissenschaftsfonds (FWF)
  • elane-Login, externe URL, öffnet sich in einem neuen Fenster
  • Scilog externe URL, öffnet sich in einem neuen Fenster
  • en Switch to English

  

Relevanzerkennung in Augenoperationsvideos

Relevance Detection of Ophthalmic Surgery Videos

Klaus Schöffmann (ORCID: 0000-0002-9218-1704)
  • Grant-DOI 10.55776/P31486
  • Förderprogramm Einzelprojekte
  • Status beendet
  • Projektbeginn 01.10.2018
  • Projektende 30.09.2022
  • Bewilligungssumme 379.635 €
  • Projekt-Website

Wissenschaftsdisziplinen

Informatik (100%)

Keywords

    Multimedia, Biomedical Engineering, Surgery Videos, Computer Vision, Video Content Analysis, Machine Learning

Abstract Endbericht

Inhalt des Forschungsvorhabens: Informatiker und Mediziner arbeiten in einem fachübergreifenden Forschungsprojekt mit Informatikschwerpunkt zusammen, in dem Methoden zur automatischen Erkennung von relevanten zeitlichen Segmenten in Augenoperationsvideos (OSVs1) entwickelt und evaluiert werden sollen. Hauptziel ist dabei die Modellierung von Relevanz hinsichtlich der Verwendung von Videosegmenten für medizinische Lehre, Forschung und Dokumentation. Relevanzmodelle werden durch maschinelle Lernverfahren automatisch gelernt, wobei von Chirurgen annotierte Operationsvideos als Trainingsdaten dienen. Wichtige Beispiele für relevante Videosegmente sind irreguläre Operationsphasen (OP-Phasen), die vom Ablauf einer quasi-standardisierten OP abweichen. Die automatische Erkennung und Unterscheidung von Irregularitäten, die häufiger auftreten und somit maschinelles Lernen zulassen, liefert einen zusätzlichen Nutzen bei der Erstellung von Videodatensätzen für die medizinische Lehre und Forschung. Daher sollen insbesondere Klassifikationsverfahren für Irregularitäten entwickelt und evaluiert werden. Relevanzmodelle können zur effizienten Kompression und Speicherung von Operationsvideos benutzt werden. Dafür sollen geeignete Verfahren entwickelt und evaluiert werden. Schließlich möchten wir die Nützlichkeit von relevanten Videosegmenten für die medizinische Forschung demonstrieren, indem drei spezifische medizinische Forschungsfragen durch Videoanalyse eines bestimmten Typs von Augenoperationen (Katarakt) behandelt werden. Hypothesen: (1) Reguläre und irreguläre OP-Phasen sowie häufige irreguläre Vorkommnisse bei Augenoperationen können durch maschinelle Lernverfahren automatisch erkannt und unterschieden werden. (2) Die automatische Relevanzerkennung ermöglicht einen beträchtlichen Effizienzgewinn bei der Speicherung und Archivierung von OSVs. (3) Die automatische Analyse von OSVs erleichtert die Beantwortung von quantitativen medizinischen Fragestellungen hinsichtlich Komplikationsrate und verschiedener OP- Bedingungen. Methoden: Klassifikations- und Kompressionsmethoden werden in einem Kreislauf von Entwurf, Evaluation und Verbesserung entwickelt. Die quantitativen medizinischen Fragestellungen werden durch statistische Korrelations- und Varianzanalyse behandelt. Innovation: Die automatische Analyse von OSVs ist ein junges Forschungsgebiet, in dem bisher nur wenige Arbeiten (vorwiegend im Bereich der Phasenerkennung von Katarakt-OPs) publiziert wurden. Die Modellierung der Relevanz von Videosegmenten ist neu, ebenso wie die relevanzgetriebene Kompression von OSVs. Einen neuen Ansatz stellt auch die Verwendung von videobasierten Analysemethoden für quantitative Forschungsfragen zu Augenoperationen in der medizinischen Forschung dar. 1 OSV = ophthalmic surgery video

Informatiker und Mediziner haben in einem fachübergreifenden Forschungsprojekt mit Informatikschwerpunkt zusammengearbeitet, um Methoden zur automatischen Erkennung von relevanten zeitlichen und räumlichen Inhalten in Augenoperationsvideos zu entwickeln und zu evaluieren. Das Hauptziel des Projekts OVID ("Relevance Detection in Ophthalmic Surgery Videos") war dabei die Modellierung von Relevanz hinsichtlich der Verwendung von Videosegmenten für medizinische Lehre, Forschung und Dokumentation. Dabei wurde vorwiegend auf Methoden der Künstlichen Intelligenz (KI) zurückgegriffen und verschiedenste Modelle von Neuronale Netzen entwickelt und für die Inhaltserkennung verwendet. Dadurch konnten Relevanzmodelle durch maschinelle Lernverfahren automatisch gelernt werden, wobei von Chirurgen annotierte Operationsvideos als Trainingsdaten dienten. Diese Relevanzmodelle können einerseits zur effizienten Kompression und Speicherung von Operationsvideos benutzt, sowie andererseits auch für die automatische Erkennung verschiedenster relevanter Inhalte verwendet werden (z.B. Operationsphasen, Instrumente, Iris, Pupille, die eingesetzte Linse bei Katarakten, etc.). Dies ermöglicht, wichtige Abschnitte im Ablauf einer Augenoperation vollautomatisch zu erfassen, zu indizieren und für die spätere inhaltsbezogene Suche verwendbar zu machen. Diese Modelle erlauben aber auch die Durchführung von großen forensischen Studien zu bestimmten Komplikationen über eine Vielzahl an Operationen bzw. Patienten. Im OVID Projekt wurde bspw. erfolgreich gezeigt, dass durch den gezielten Einsatz von Künstlicher Intelligenz und algorithmischen Methoden der Informatik spezielle Problemsituationen bzw. Komplikationen in Videos von Katarakt-OPs gefunden werden können. So wurde das Auftreten von Pupillenreaktionen (unvorhersehbare Vergrößerungen/Verkleinerungen der Pupille, welche mit einer gefährlichen Veränderung der Vorderkammertiefe einhergeht) automatisch erkannt. Weiters konnte durch Objekterkennung und Verfolgung im Video die Entfaltungszeit von künstlichen Linsen sowie deren Stabilität gemessen werden. Die Ergebnisse des Forschungsprojekts wurden in mehreren Publikationen auf hochklassigen Konferenzen zur medizinischen Bildanalyse, Mustererkennung sowie Multimediasuche veröffentlicht.

Forschungsstätte(n)
  • Klinikum Klagenfurt - 30%
  • Universität Klagenfurt - 70%
Nationale Projektbeteiligte
  • Yosuf El-Shabrawi, Klinikum Klagenfurt , assoziierte:r Forschungspartner:in

Research Output

  • 162 Zitationen
  • 23 Publikationen
Publikationen
  • 2021
    Titel Relevance Detection in Cataract Surgery Videos by Spatio-Temporal Action Localization
    DOI 10.13140/rg.2.2.14499.58402
    Typ Other
    Autor Negin Ghamsarian
    Link Publikation
  • 2024
    Titel Predicting postoperative intraocular lens dislocation in cataract surgery via deep learning
    DOI 10.48350/199061
    Typ Journal Article
    Autor Ghamsarian
    Link Publikation
  • 2024
    Titel DeepPyramid: Enabling Pyramid View and Deformable Pyramid Reception for Semantic Segmentation in Cataract Surgery Videos
    DOI 10.48350/189044
    Typ Conference Proceeding Abstract
    Autor Ghamsarian
    Link Publikation
  • 2024
    Titel Predicting Postoperative Intraocular Lens Dislocation in Cataract Surgery via Deep Learning
    DOI 10.1109/access.2024.3361042
    Typ Journal Article
    Autor Ghamsarian N
    Journal IEEE Access
    Seiten 21012-21025
    Link Publikation
  • 2021
    Titel ReCal-Net: Joint Region-Channel-Wise Calibrated Network for Semantic Segmentation in Cataract Surgery Videos
    DOI 10.1007/978-3-030-92238-2_33
    Typ Book Chapter
    Autor Ghamsarian N
    Verlag Springer Nature
    Seiten 391-402
  • 2022
    Titel DeepPyramid: Enabling Pyramid View and Deformable Pyramid Reception for Semantic Segmentation in Cataract Surgery Videos
    DOI 10.48550/arxiv.2207.01453
    Typ Preprint
    Autor Ghamsarian N
  • 2022
    Titel Evaluation of Relevance-Driven Compression of Regular Cataract Surgery Videos
    DOI 10.1109/cbms55023.2022.00083
    Typ Conference Proceeding Abstract
    Autor Mathá N
    Seiten 429-434
  • 2022
    Titel DeepPyramid: Enabling Pyramid View and Deformable Pyramid Reception for Semantic Segmentation in Cataract Surgery Videos
    DOI 10.1007/978-3-031-16443-9_27
    Typ Book Chapter
    Autor Ghamsarian N
    Verlag Springer Nature
    Seiten 276-286
  • 2021
    Titel Automatic detection of pupil reactions in cataract surgery videos
    DOI 10.1371/journal.pone.0258390
    Typ Journal Article
    Autor Sokolova N
    Journal PLOS ONE
    Link Publikation
  • 2021
    Titel LensID: A CNN-RNN-Based Framework Towards Lens Irregularity Detection in Cataract Surgery Videos
    DOI 10.1007/978-3-030-87237-3_8
    Typ Book Chapter
    Autor Ghamsarian N
    Verlag Springer Nature
    Seiten 76-86
  • 2021
    Titel ReCal-Net: Joint Region-Channel-Wise Calibrated Network for Semantic Segmentation in Cataract Surgery Videos
    DOI 10.48550/arxiv.2109.12448
    Typ Preprint
    Autor Ghamsarian N
  • 2021
    Titel DeepPyram: Enabling Pyramid View and Deformable Pyramid Reception for Semantic Segmentation in Cataract Surgery Videos
    DOI 10.48550/arxiv.2109.05352
    Typ Preprint
    Autor Ghamsarian N
  • 2021
    Titel LensID: A CNN-RNN-Based Framework Towards Lens Irregularity Detection in Cataract Surgery Videos
    DOI 10.48550/arxiv.2107.00875
    Typ Preprint
    Autor Ghamsarian N
  • 2021
    Titel Relevance Detection in Cataract Surgery Videos by Spatio- Temporal Action Localization
    DOI 10.1109/icpr48806.2021.9412525
    Typ Conference Proceeding Abstract
    Autor Ghamsarian N
    Seiten 10720-10727
    Link Publikation
  • 2019
    Titel Evaluating the Generalization Performance of Instrument Classification in Cataract Surgery Videos
    DOI 10.1007/978-3-030-37734-2_51
    Typ Book Chapter
    Autor Sokolova N
    Verlag Springer Nature
    Seiten 626-636
  • 2023
    Titel Predicting Postoperative Intraocular Lens Dislocation in Cataract Surgery via Deep Learning
    DOI 10.48550/arxiv.2312.03401
    Typ Preprint
    Autor Ghamsarian N
  • 2023
    Titel Relevance-Based Compression of Cataract Surgery Videos
    DOI 10.48550/arxiv.2306.12829
    Typ Preprint
    Autor Mathá N
  • 2021
    Titel Relevance Detection in Cataract Surgery Videos by Spatio-Temporal Action Localization
    DOI 10.48550/arxiv.2104.14280
    Typ Preprint
    Autor Ghamsarian N
  • 2020
    Titel Relevance-Based Compression of Cataract Surgery Videos Using Convolutional Neural Networks
    DOI 10.1145/3394171.3413658
    Typ Conference Proceeding Abstract
    Autor Ghamsarian N
    Seiten 3577-3585
  • 2020
    Titel Deblurring Cataract Surgery Videos Using a Multi-Scale Deconvolutional Neural Network
    DOI 10.1109/isbi45749.2020.9098318
    Typ Conference Proceeding Abstract
    Autor Ghamsarian N
    Seiten 872-876
  • 2020
    Titel Enabling Relevance-Based Exploration of Cataract Videos
    DOI 10.1145/3372278.3391937
    Typ Conference Proceeding Abstract
    Autor Ghamsarian N
    Seiten 378-382
  • 2020
    Titel Pixel-Based Tool Segmentation in Cataract Surgery Videos with Mask R-CNN
    DOI 10.1109/cbms49503.2020.00112
    Typ Conference Proceeding Abstract
    Autor Fox M
    Seiten 565-568
  • 2020
    Titel Pixel-Based Iris and Pupil Segmentation in Cataract Surgery Videos Using Mask R-CNN
    DOI 10.1109/isbiworkshops50223.2020.9153367
    Typ Conference Proceeding Abstract
    Autor Sokolova N
    Seiten 1-4

Entdecken, 
worauf es
ankommt.

Newsletter

FWF-Newsletter Presse-Newsletter Kalender-Newsletter Job-Newsletter scilog-Newsletter

Kontakt

Österreichischer Wissenschaftsfonds FWF
Georg-Coch-Platz 2
(Eingang Wiesingerstraße 4)
1010 Wien

office(at)fwf.ac.at
+43 1 505 67 40

Allgemeines

  • Jobbörse
  • Arbeiten im FWF
  • Presse
  • Philanthropie
  • scilog
  • Geschäftsstelle
  • Social Media Directory
  • LinkedIn, externe URL, öffnet sich in einem neuen Fenster
  • , externe URL, öffnet sich in einem neuen Fenster
  • Facebook, externe URL, öffnet sich in einem neuen Fenster
  • Instagram, externe URL, öffnet sich in einem neuen Fenster
  • YouTube, externe URL, öffnet sich in einem neuen Fenster
  • Cookies
  • Hinweisgeber:innensystem
  • Barrierefreiheitserklärung
  • Datenschutz
  • Impressum
  • IFG-Formular
  • Social Media Directory
  • © Österreichischer Wissenschaftsfonds FWF
© Österreichischer Wissenschaftsfonds FWF