• Zum Inhalt springen (Accesskey 1)
  • Zur Suche springen (Accesskey 7)
FWF — Österreichischer Wissenschaftsfonds
  • Zur Übersichtsseite Entdecken

    • Forschungsradar
      • Historisches Forschungsradar 1974–1994
    • Entdeckungen
      • Emmanuelle Charpentier
      • Adrian Constantin
      • Monika Henzinger
      • Ferenc Krausz
      • Wolfgang Lutz
      • Walter Pohl
      • Christa Schleper
      • Elly Tanaka
      • Anton Zeilinger
    • Impact Stories
      • Verena Gassner
      • Wolfgang Lechner
      • Georg Winter
    • scilog-Magazin
    • Austrian Science Awards
      • FWF-Wittgenstein-Preise
      • FWF-ASTRA-Preise
      • FWF-START-Preise
      • Auszeichnungsfeier
    • excellent=austria
      • Clusters of Excellence
      • Emerging Fields
    • Im Fokus
      • 40 Jahre Erwin-Schrödinger-Programm
      • Quantum Austria
      • Spezialforschungsbereiche
    • Dialog und Diskussion
      • think.beyond Summit
      • Am Puls
      • Was die Welt zusammenhält
      • FWF Women’s Circle
      • Science Lectures
    • Wissenstransfer-Events
    • E-Book Library
  • Zur Übersichtsseite Fördern

    • Förderportfolio
      • excellent=austria
        • Clusters of Excellence
        • Emerging Fields
      • Projekte
        • Einzelprojekte
        • Einzelprojekte International
        • Klinische Forschung
        • 1000 Ideen
        • Entwicklung und Erschließung der Künste
        • FWF-Wittgenstein-Preis
      • Karrieren
        • ESPRIT
        • FWF-ASTRA-Preise
        • Erwin Schrödinger
        • doc.funds
        • doc.funds.connect
      • Kooperationen
        • Spezialforschungsgruppen
        • Spezialforschungsbereiche
        • Forschungsgruppen
        • International – Multilaterale Initiativen
        • #ConnectingMinds
      • Kommunikation
        • Top Citizen Science
        • Wissenschaftskommunikation
        • Buchpublikationen
        • Digitale Publikationen
        • Open-Access-Pauschale
      • Themenförderungen
        • AI Mission Austria
        • Belmont Forum
        • ERA-NET HERA
        • ERA-NET NORFACE
        • ERA-NET QuantERA
        • ERA-NET TRANSCAN
        • Ersatzmethoden für Tierversuche
        • Europäische Partnerschaft Biodiversa+
        • Europäische Partnerschaft ERA4Health
        • Europäische Partnerschaft ERDERA
        • Europäische Partnerschaft EUPAHW
        • Europäische Partnerschaft FutureFoodS
        • Europäische Partnerschaft OHAMR
        • Europäische Partnerschaft PerMed
        • Europäische Partnerschaft Water4All
        • Gottfried-und-Vera-Weiss-Preis
        • netidee SCIENCE
        • Projekte der Herzfelder-Stiftung
        • Quantum Austria
        • Rückenwind-Förderbonus
        • WE&ME Award
        • Zero Emissions Award
      • Länderkooperationen
        • Belgien/Flandern
        • Deutschland
        • Frankreich
        • Italien/Südtirol
        • Japan
        • Luxemburg
        • Polen
        • Schweiz
        • Slowenien
        • Taiwan
        • Tirol–Südtirol–Trentino
        • Tschechien
        • Ungarn
    • Schritt für Schritt
      • Förderung finden
      • Antrag einreichen
      • Internationales Peer-Review
      • Förderentscheidung
      • Projekt durchführen
      • Projekt beenden
      • Weitere Informationen
        • Integrität und Ethik
        • Inklusion
        • Antragstellung aus dem Ausland
        • Personalkosten
        • PROFI
        • Projektendberichte
        • Projektendberichtsumfrage
    • FAQ
      • Projektphase PROFI
      • Projektphase Ad personam
      • Auslaufende Programme
        • Elise Richter und Elise Richter PEEK
        • FWF-START-Preise
  • Zur Übersichtsseite Über uns

    • Leitbild
    • FWF-Film
    • Werte
    • Zahlen und Daten
    • Jahresbericht
    • Aufgaben und Aktivitäten
      • Forschungsförderung
        • Matching-Funds-Förderungen
      • Internationale Kooperationen
      • Studien und Publikationen
      • Chancengleichheit und Diversität
        • Ziele und Prinzipien
        • Maßnahmen
        • Bias-Sensibilisierung in der Begutachtung
        • Begriffe und Definitionen
        • Karriere in der Spitzenforschung
      • Open Science
        • Open-Access-Policy
          • Open-Access-Policy für begutachtete Publikationen
          • Open-Access-Policy für begutachtete Buchpublikationen
          • Open-Access-Policy für Forschungsdaten
        • Forschungsdatenmanagement
        • Citizen Science
        • Open-Science-Infrastrukturen
        • Open-Science-Förderung
      • Evaluierungen und Qualitätssicherung
      • Wissenschaftliche Integrität
      • Wissenschaftskommunikation
      • Philanthropie
      • Nachhaltigkeit
    • Geschichte
    • Gesetzliche Grundlagen
    • Organisation
      • Gremien
        • Präsidium
        • Aufsichtsrat
        • Delegiertenversammlung
        • Kuratorium
        • Jurys
      • Geschäftsstelle
    • Arbeiten im FWF
  • Zur Übersichtsseite Aktuelles

    • News
    • Presse
      • Logos
    • Eventkalender
      • Veranstaltung eintragen
      • FWF-Infoveranstaltungen
    • Jobbörse
      • Job eintragen
    • Newsletter
  • Entdecken, 
    worauf es
    ankommt.

    FWF-Newsletter Presse-Newsletter Kalender-Newsletter Job-Newsletter scilog-Newsletter

    SOCIAL MEDIA

    • LinkedIn, externe URL, öffnet sich in einem neuen Fenster
    • , externe URL, öffnet sich in einem neuen Fenster
    • Facebook, externe URL, öffnet sich in einem neuen Fenster
    • Instagram, externe URL, öffnet sich in einem neuen Fenster
    • YouTube, externe URL, öffnet sich in einem neuen Fenster

    SCILOG

    • Scilog — Das Wissenschaftsmagazin des Österreichischen Wissenschaftsfonds (FWF)
  • elane-Login, externe URL, öffnet sich in einem neuen Fenster
  • Scilog externe URL, öffnet sich in einem neuen Fenster
  • en Switch to English

  

Benchmarks für das Verstehen des Greifens mit Robotern

Benchmarks for Understanding Grasping

Markus Vincze (ORCID: 0000-0002-2799-491X)
  • Grant-DOI 10.55776/I3967
  • Förderprogramm International - Multilaterale Initiativen
  • Status beendet
  • Projektbeginn 01.10.2019
  • Projektende 31.07.2023
  • Bewilligungssumme 249.354 €
  • Projekt-Website

ERA-Net: CHIST ERA

Wissenschaftsdisziplinen

Elektrotechnik, Elektronik, Informationstechnik (60%); Informatik (40%)

Keywords

    Teilerkennung, Roboter, Benchmark, Objekt, Greifen

Abstract Endbericht

Das Greifen einzelner starrer Objekte wurde unter einer Vielzahl von Einstellungen untersucht. Das übliche Maß für den Erfolg ist eine Überprüfung des Roboters, um ein Objekt für ein paar Sekunden zu halten. Das ist nicht genug. Um ein tieferes Verständnis der Objektmanipulation zu erhalten, schlagenwir (1)eineaufgabenorientierte,teilbasierte Modellierung des Greifens und (2) BURG - unser Schloss * von Setups, Werkzeugen und Metriken für das Community Building um ein objektives Benchmark-Protokoll vor. Die Idee besteht darin, die Forschung zu fördern, indem man sich auf vollständige Aufgaben konzentriert. Dies erfordert die Aufmerksamkeit auf Objektteile, da sie wichtig sind, um zu wissen, wie und wo der Greifer angesichts der durch die Aufgabe auferlegten Manipulationsbeschränkungen greifen kann. Darüber hinaus erleichtern Teile den Wissenstransfer zu neuartigen Objekten über verschiedene Quellen (virtuelle / reale Daten) und Greifer, was ein vielseitiges und skalierbares System bereitstellt. Der teilbasierte Ansatz erstreckt sich natürlich auf deformierbare Objekte, bei denen die Erkennung relevanter semantischer Teile unabhängig von der tatsächlichenDeformation des Objektswesentlichist,um ein manipulierbares Manipulationsproblem zu erhalten. Indem wir uns auf Teile konzentrieren, können wir leichter mit umweltbedingten Einschränkungen umgehen, die erkannt und verwendet werden, um das Ergreifen zu erleichtern. In Bezug auf das Benchmarking von Manipulationen litt die Robotik bisher unter einer unvergleichlichen Greif- und Manipulationsarbeit. Datensätze decken nur den Objekterkennungsaspekt ab. Objektgruppen sind schwer zu bekommen, nicht erweiterbar und weder Szenen noch Manipulationsaufgaben sind replizierbar.Es gibtkeinegemeinsamen Werkzeuge,um die grundlegenden Anforderungen zum Einrichten replizierbarer Szenen oder zur zuverlässigen Schätzung der Objektpose zu erfüllen. Mit dem BURG-Benchmark schlagen wir daher vor, den Fokus auf Community- Buildingzulegen,indem wirWerkzeugezurreproduzierbaren Leistungsbewertung bereitstellen und gemeinsam nutzen, einschließlich der Sammlung von Daten und Feedback von verschiedenen Labors zur Untersuchung von Manipulationen über verschiedene Roboterausführungen hinweg. Wir werden eine Reihe wiederholbarer Szenarien entwickeln, die verschiedene Ebenen der quantifizierbaren Komplexität umfassen und die Auswahl der Objekte, Aufgaben und Umgebungenbeinhalten. Beispiele umfassenvollständig quantifizierte Einstellungen mitObjektschichten,Hinzufügen von deformierbaren Objekten und Umgebungsbedingungen. Die Benchmark wird Metriken enthalten, die definiert sind, um die Leistung von Low-Level- Primitiven (Objektpose, Greifpunkt und -typ, kollisionsfreie Bewegung) sowie Manipulationsaufgaben (Stapeln, Ausrichten, Zusammenfügen, Packen, Übergeben, Falten) zu bewerten, die eine Reihenfolge erfordern sowie Common-Sense-Wissen für semantisches Denken.

Die Idee des BURG-Projekts ist es, die Forschung im Bereich des Greifens zu fördern, indem man sich auf vollständige Aufgaben konzentriert. Dies erfordert die Fokusierung auf Objektteile, da diese wesentlich sind, um zu wissen, wie und wo der Greifer angesichts der durch die Aufgabe auferlegten Manipulationsbeschränkungen greifen kann. Darüber hinaus erleichtern Teile den Wissenstransfer auf neue Objekte, über verschiedene Quellen (virtuelle/reale Daten) und Greifer hinweg, was ein vielseitiges und skalierbares System ermöglicht. Der auf Teilen basierende Ansatz lässt sich natürlich auch auf verformbare Objekte anwenden, für die die Erkennung relevanter semantischer Teile unabhängig von der tatsächlichen Verformung des Objekts wesentlich ist, um ein nachvollziehbares Manipulationsproblem zu erhalten. Schließlich können wir durch die Konzentration auf Teile leichter mit Umgebungseinschränkungen umgehen, die erkannt und zur Erleichterung des Greifens verwendet werden. Im Rahmen des BURG-Projekts haben wir uns auf den Aufbau einer Gemeinschaft konzentriert, indem wir Werkzeuge für eine reproduzierbare Leistungsbewertung bereitstellen und gemeinsam nutzen, einschließlich der Sammlung von Daten und Rückmeldungen aus verschiedenen Labors zur Untersuchung der Manipulation verschiedener Roboterausführungen. Wir haben eine Reihe von wiederholbaren Szenarien entwickelt, die verschiedene Ebenen quantifizierbarer Komplexität abdecken und die Wahl der Objekte, Aufgaben und Umgebungen beinhalten. Zu den Beispielen gehören vollständig quantifizierte Einstellungen mit Objektschichten, das Hinzufügen von verformbaren Objekten und Umgebungseinschränkungen. Der Benchmark enthält Metriken, um die Leistung sowohl von Primitiven (Objektposition, Greifpunkt und -typ, kollisionsfreie Bewegung) als auch von Manipulationsaufgaben (Stapeln, Ausrichten, Zusammenbauen, Verpacken, Übergeben, Falten) zu bewerten, die sowohl Ordnungswissen als auch Common Sense-Wissen für semantische Schlussfolgerungen erfordern. Die Ergebnisse sind eine Reihe von Werkzeugen für die Erstellung und Durchführung des BURG-Benchmarks sowie Softwarewerkzeuge für die Annotation und Verarbeitung der Daten.

Forschungsstätte(n)
  • Technische Universität Wien - 100%
Internationale Projektbeteiligte
  • Tatiana Tommasi, Sonstige Forschungs- oder Entwicklungseinrichtungen - Italien
  • Guillem Alenya, Agencia Estatal Consejo Superior de Investigaciones Cientificas - Spanien
  • Ales Leonardis, The University of Birmingham - Vereinigtes Königreich

Research Output

  • 783 Zitationen
  • 22 Publikationen
  • 1 Policies
  • 2 Methoden & Materialien
  • 2 Datasets & Models
  • 1 Software
  • 1 Disseminationen
  • 2 Wissenschaftliche Auszeichnungen
  • 1 Weitere Förderungen
Publikationen
  • 2019
    Titel An Empirical Evaluation of Ten Depth Cameras
    DOI 10.1109/mra.2018.2852795
    Typ Journal Article
    Autor Halmetschlager-Funek G
    Journal IEEE Robotics & Automation Magazine
    Seiten 67-77
    Link Publikation
  • 2019
    Titel Pix2Pose: Pixel-Wise Coordinate Regression of Objects for 6D Pose Estimation
    DOI 10.48550/arxiv.1908.07433
    Typ Preprint
    Autor Park K
  • 2023
    Titel BURG-Toolkit: Robot Grasping Experiments in Simulation and the Real World
    Typ Conference Proceeding Abstract
    Autor Markus Suchi
    Konferenz UK Robot Manipulation workshop
  • 2022
    Titel Where Does It Belong? Autonomous Object Mapping in Open-World Settings
    DOI 10.3389/frobt.2022.828732
    Typ Journal Article
    Autor Langer E
    Journal Frontiers in Robotics and AI
    Seiten 828732
    Link Publikation
  • 2022
    Titel SporeAgent: Reinforced Scene-level Plausibility for Object Pose Refinement
    DOI 10.1109/wacv51458.2022.00027
    Typ Conference Proceeding Abstract
    Autor Bauer D
    Seiten 196-204
    Link Publikation
  • 2020
    Titel DGCM-Net: Dense Geometrical Correspondence Matching Network for Incremental Experience-Based Robotic Grasping
    DOI 10.3389/frobt.2020.00120
    Typ Journal Article
    Autor Patten T
    Journal Frontiers in Robotics and AI
    Seiten 120
    Link Publikation
  • 2020
    Titel Unsupervised Domain Adaptation Through Inter-Modal Rotation for RGB-D Object Recognition
    DOI 10.1109/lra.2020.3007092
    Typ Journal Article
    Autor Loghmani M
    Journal IEEE Robotics and Automation Letters
    Seiten 6631-6638
    Link Publikation
  • 2020
    Titel Learn, detect, and grasp objects in real-world settings
    DOI 10.1007/s00502-020-00817-6
    Typ Journal Article
    Autor Vincze M
    Journal e & i Elektrotechnik und Informationstechnik
    Seiten 324-330
    Link Publikation
  • 2020
    Titel Neural Object Learning for 6D Pose Estimation Using a Few Cluttered Images
    DOI 10.1007/978-3-030-58548-8_38
    Typ Book Chapter
    Autor Park K
    Verlag Springer Nature
    Seiten 656-673
  • 2022
    Titel BURG-Toolkit: Robot Grasping Experiments in Simulation and the Real World
    DOI 10.48550/arxiv.2205.14099
    Typ Preprint
    Autor Rudorfer M
  • 2019
    Titel EasyLabel: A Semi-Automatic Pixel-wise Object Annotation Tool for Creating Robotic RGB-D Datasets
    DOI 10.1109/icra.2019.8793917
    Typ Conference Proceeding Abstract
    Autor Suchi M
    Seiten 6678-6684
    Link Publikation
  • 2019
    Titel Pix2Pose: Pixel-Wise Coordinate Regression of Objects for 6D Pose Estimation
    DOI 10.1109/iccv.2019.00776
    Typ Conference Proceeding Abstract
    Autor Park K
    Seiten 7667-7676
    Link Publikation
  • 2019
    Titel Recurrent Convolutional Fusion for RGB-D Object Recognition
    DOI 10.1109/lra.2019.2921506
    Typ Journal Article
    Autor Loghmani M
    Journal IEEE Robotics and Automation Letters
    Seiten 2878-2885
    Link Publikation
  • 2023
    Titel 3D-DAT: 3D-Dataset Annotation Toolkit for Robotic Vision
    DOI 10.1109/icra48891.2023.10160669
    Typ Conference Proceeding Abstract
    Autor Suchi M
    Seiten 9162-9168
  • 2023
    Titel COPE: End-to-end trainable Constant Runtime Object Pose Estimation
    DOI 10.1109/wacv56688.2023.00288
    Typ Conference Proceeding Abstract
    Autor Patten T
    Seiten 2859-2869
  • 2023
    Titel BURG-Toolkit: Robot Grasping Experiments in Simulation and the Real World
    DOI 10.34726/5453
    Typ Other
    Autor Rudorfer M
    Link Publikation
  • 2023
    Titel Object Change Detection for Autonomous Indoor Robots in Open-World Settings
    DOI 10.34726/hss.2023.111500
    Typ Other
    Autor Langer E
    Link Publikation
  • 2023
    Titel Erkennung transparenter Objekte für die Laborautomatisierung
    DOI 10.1007/s00502-023-01158-w
    Typ Journal Article
    Autor Vincze M
    Journal e & i Elektrotechnik und Informationstechnik
    Seiten 519-529
    Link Publikation
  • 2021
    Titel ReAgent: Point Cloud Registration using Imitation and Reinforcement Learning
    DOI 10.1109/cvpr46437.2021.01435
    Typ Conference Proceeding Abstract
    Autor Bauer D
    Seiten 14581-14589
    Link Publikation
  • 2020
    Titel Physical Plausibility of 6D Pose Estimates in Scenes of Static Rigid Objects
    DOI 10.1007/978-3-030-66096-3_43
    Typ Book Chapter
    Autor Bauer D
    Verlag Springer Nature
    Seiten 648-662
  • 2020
    Titel Robot perception of static and dynamic objects with an autonomous floor scrubber
    DOI 10.1007/s11370-020-00324-9
    Typ Journal Article
    Autor Yan Z
    Journal Intelligent Service Robotics
    Seiten 403-417
  • 2020
    Titel VeREFINE: Integrating Object Pose Verification With Physics-Guided Iterative Refinement
    DOI 10.1109/lra.2020.2996059
    Typ Journal Article
    Autor Bauer D
    Journal IEEE Robotics and Automation Letters
    Seiten 4289-4296
    Link Publikation
Policies
  • 2020
    Titel Trying to increase the interest in STEM
    Typ Implementation circular/rapid advice/letter to e.g. Ministry of Health
Methoden & Materialien
  • 2022
    Titel Object class detection and pose within the heap
    Typ Improvements to research infrastructure
    Öffentlich zugänglich
  • 2021
    Titel Probabilistic part-based scene segmentation
    Typ Improvements to research infrastructure
    Öffentlich zugänglich
Datasets & Models
  • 2023 Link
    Titel 3D-DAT 3D-Dataset Annotation Toolkit for Robotic Vision
    Typ Data analysis technique
    Öffentlich zugänglich
    Link Link
  • 2022 Link
    Titel ObChange Dataset
    DOI 10.48436/r2sxr-tsc12
    Typ Database/Collection of data
    Öffentlich zugänglich
    Link Link
Software
  • 2023 Link
    Titel 3D-DAT: 3D-Dataset Annotation Toolkit for Robotic Vision
    Link Link
Disseminationen
  • 2020
    Titel School workshops
    Typ Participation in an activity, workshop or similar
Wissenschaftliche Auszeichnungen
  • 2022
    Titel Invitiation to Robotics Lab Opening at University Bremen as keynot speaker
    Typ Personally asked as a key note speaker to a conference
    Bekanntheitsgrad Continental/International
  • 2021
    Titel Nomination for best paper award of IEEE RA-L
    Typ Research prize
    Bekanntheitsgrad Continental/International
Weitere Förderungen
  • 2020
    Titel Traceable Robotics Handling of Sterile Medical Products
    Typ Research grant (including intramural programme)
    Förderbeginn 2020

Entdecken, 
worauf es
ankommt.

Newsletter

FWF-Newsletter Presse-Newsletter Kalender-Newsletter Job-Newsletter scilog-Newsletter

Kontakt

Österreichischer Wissenschaftsfonds FWF
Georg-Coch-Platz 2
(Eingang Wiesingerstraße 4)
1010 Wien

office(at)fwf.ac.at
+43 1 505 67 40

Allgemeines

  • Jobbörse
  • Arbeiten im FWF
  • Presse
  • Philanthropie
  • scilog
  • Geschäftsstelle
  • Social Media Directory
  • LinkedIn, externe URL, öffnet sich in einem neuen Fenster
  • , externe URL, öffnet sich in einem neuen Fenster
  • Facebook, externe URL, öffnet sich in einem neuen Fenster
  • Instagram, externe URL, öffnet sich in einem neuen Fenster
  • YouTube, externe URL, öffnet sich in einem neuen Fenster
  • Cookies
  • Hinweisgeber:innensystem
  • Barrierefreiheitserklärung
  • Datenschutz
  • Impressum
  • IFG-Formular
  • Social Media Directory
  • © Österreichischer Wissenschaftsfonds FWF
© Österreichischer Wissenschaftsfonds FWF