Benchmarks für das Verstehen des Greifens mit Robotern
Benchmarks for Understanding Grasping
Wissenschaftsdisziplinen
Elektrotechnik, Elektronik, Informationstechnik (60%); Informatik (40%)
Keywords
-
Teilerkennung,
Roboter,
Benchmark,
Objekt,
Greifen
Das Greifen einzelner starrer Objekte wurde unter einer Vielzahl von Einstellungen untersucht. Das übliche Maß für den Erfolg ist eine Überprüfung des Roboters, um ein Objekt für ein paar Sekunden zu halten. Das ist nicht genug. Um ein tieferes Verständnis der Objektmanipulation zu erhalten, schlagenwir (1)eineaufgabenorientierte,teilbasierte Modellierung des Greifens und (2) BURG - unser Schloss * von Setups, Werkzeugen und Metriken für das Community Building um ein objektives Benchmark-Protokoll vor. Die Idee besteht darin, die Forschung zu fördern, indem man sich auf vollständige Aufgaben konzentriert. Dies erfordert die Aufmerksamkeit auf Objektteile, da sie wichtig sind, um zu wissen, wie und wo der Greifer angesichts der durch die Aufgabe auferlegten Manipulationsbeschränkungen greifen kann. Darüber hinaus erleichtern Teile den Wissenstransfer zu neuartigen Objekten über verschiedene Quellen (virtuelle / reale Daten) und Greifer, was ein vielseitiges und skalierbares System bereitstellt. Der teilbasierte Ansatz erstreckt sich natürlich auf deformierbare Objekte, bei denen die Erkennung relevanter semantischer Teile unabhängig von der tatsächlichenDeformation des Objektswesentlichist,um ein manipulierbares Manipulationsproblem zu erhalten. Indem wir uns auf Teile konzentrieren, können wir leichter mit umweltbedingten Einschränkungen umgehen, die erkannt und verwendet werden, um das Ergreifen zu erleichtern. In Bezug auf das Benchmarking von Manipulationen litt die Robotik bisher unter einer unvergleichlichen Greif- und Manipulationsarbeit. Datensätze decken nur den Objekterkennungsaspekt ab. Objektgruppen sind schwer zu bekommen, nicht erweiterbar und weder Szenen noch Manipulationsaufgaben sind replizierbar.Es gibtkeinegemeinsamen Werkzeuge,um die grundlegenden Anforderungen zum Einrichten replizierbarer Szenen oder zur zuverlässigen Schätzung der Objektpose zu erfüllen. Mit dem BURG-Benchmark schlagen wir daher vor, den Fokus auf Community- Buildingzulegen,indem wirWerkzeugezurreproduzierbaren Leistungsbewertung bereitstellen und gemeinsam nutzen, einschließlich der Sammlung von Daten und Feedback von verschiedenen Labors zur Untersuchung von Manipulationen über verschiedene Roboterausführungen hinweg. Wir werden eine Reihe wiederholbarer Szenarien entwickeln, die verschiedene Ebenen der quantifizierbaren Komplexität umfassen und die Auswahl der Objekte, Aufgaben und Umgebungenbeinhalten. Beispiele umfassenvollständig quantifizierte Einstellungen mitObjektschichten,Hinzufügen von deformierbaren Objekten und Umgebungsbedingungen. Die Benchmark wird Metriken enthalten, die definiert sind, um die Leistung von Low-Level- Primitiven (Objektpose, Greifpunkt und -typ, kollisionsfreie Bewegung) sowie Manipulationsaufgaben (Stapeln, Ausrichten, Zusammenfügen, Packen, Übergeben, Falten) zu bewerten, die eine Reihenfolge erfordern sowie Common-Sense-Wissen für semantisches Denken.
Die Idee des BURG-Projekts ist es, die Forschung im Bereich des Greifens zu fördern, indem man sich auf vollständige Aufgaben konzentriert. Dies erfordert die Fokusierung auf Objektteile, da diese wesentlich sind, um zu wissen, wie und wo der Greifer angesichts der durch die Aufgabe auferlegten Manipulationsbeschränkungen greifen kann. Darüber hinaus erleichtern Teile den Wissenstransfer auf neue Objekte, über verschiedene Quellen (virtuelle/reale Daten) und Greifer hinweg, was ein vielseitiges und skalierbares System ermöglicht. Der auf Teilen basierende Ansatz lässt sich natürlich auch auf verformbare Objekte anwenden, für die die Erkennung relevanter semantischer Teile unabhängig von der tatsächlichen Verformung des Objekts wesentlich ist, um ein nachvollziehbares Manipulationsproblem zu erhalten. Schließlich können wir durch die Konzentration auf Teile leichter mit Umgebungseinschränkungen umgehen, die erkannt und zur Erleichterung des Greifens verwendet werden. Im Rahmen des BURG-Projekts haben wir uns auf den Aufbau einer Gemeinschaft konzentriert, indem wir Werkzeuge für eine reproduzierbare Leistungsbewertung bereitstellen und gemeinsam nutzen, einschließlich der Sammlung von Daten und Rückmeldungen aus verschiedenen Labors zur Untersuchung der Manipulation verschiedener Roboterausführungen. Wir haben eine Reihe von wiederholbaren Szenarien entwickelt, die verschiedene Ebenen quantifizierbarer Komplexität abdecken und die Wahl der Objekte, Aufgaben und Umgebungen beinhalten. Zu den Beispielen gehören vollständig quantifizierte Einstellungen mit Objektschichten, das Hinzufügen von verformbaren Objekten und Umgebungseinschränkungen. Der Benchmark enthält Metriken, um die Leistung sowohl von Primitiven (Objektposition, Greifpunkt und -typ, kollisionsfreie Bewegung) als auch von Manipulationsaufgaben (Stapeln, Ausrichten, Zusammenbauen, Verpacken, Übergeben, Falten) zu bewerten, die sowohl Ordnungswissen als auch Common Sense-Wissen für semantische Schlussfolgerungen erfordern. Die Ergebnisse sind eine Reihe von Werkzeugen für die Erstellung und Durchführung des BURG-Benchmarks sowie Softwarewerkzeuge für die Annotation und Verarbeitung der Daten.
- Technische Universität Wien - 100%
- Tatiana Tommasi, Sonstige Forschungs- oder Entwicklungseinrichtungen - Italien
- Guillem Alenya, Agencia Estatal Consejo Superior de Investigaciones Cientificas - Spanien
- Ales Leonardis, The University of Birmingham - Vereinigtes Königreich
Research Output
- 774 Zitationen
- 22 Publikationen
- 1 Policies
- 2 Methoden & Materialien
- 2 Datasets & Models
- 1 Software
- 1 Disseminationen
- 2 Wissenschaftliche Auszeichnungen
- 1 Weitere Förderungen
-
2020
Titel Learn, detect, and grasp objects in real-world settings DOI 10.1007/s00502-020-00817-6 Typ Journal Article Autor Vincze M Journal e & i Elektrotechnik und Informationstechnik Seiten 324-330 Link Publikation -
2020
Titel Neural Object Learning for 6D Pose Estimation Using a Few Cluttered Images DOI 10.1007/978-3-030-58548-8_38 Typ Book Chapter Autor Park K Verlag Springer Nature Seiten 656-673 -
2020
Titel Robot perception of static and dynamic objects with an autonomous floor scrubber DOI 10.1007/s11370-020-00324-9 Typ Journal Article Autor Yan Z Journal Intelligent Service Robotics Seiten 403-417 -
2020
Titel VeREFINE: Integrating Object Pose Verification With Physics-Guided Iterative Refinement DOI 10.1109/lra.2020.2996059 Typ Journal Article Autor Bauer D Journal IEEE Robotics and Automation Letters Seiten 4289-4296 Link Publikation -
2020
Titel DGCM-Net: Dense Geometrical Correspondence Matching Network for Incremental Experience-Based Robotic Grasping DOI 10.3389/frobt.2020.00120 Typ Journal Article Autor Patten T Journal Frontiers in Robotics and AI Seiten 120 Link Publikation -
2020
Titel Unsupervised Domain Adaptation Through Inter-Modal Rotation for RGB-D Object Recognition DOI 10.1109/lra.2020.3007092 Typ Journal Article Autor Loghmani M Journal IEEE Robotics and Automation Letters Seiten 6631-6638 Link Publikation -
2019
Titel Pix2Pose: Pixel-Wise Coordinate Regression of Objects for 6D Pose Estimation DOI 10.1109/iccv.2019.00776 Typ Conference Proceeding Abstract Autor Park K Seiten 7667-7676 Link Publikation -
2019
Titel EasyLabel: A Semi-Automatic Pixel-wise Object Annotation Tool for Creating Robotic RGB-D Datasets DOI 10.1109/icra.2019.8793917 Typ Conference Proceeding Abstract Autor Suchi M Seiten 6678-6684 Link Publikation -
2019
Titel Pix2Pose: Pixel-Wise Coordinate Regression of Objects for 6D Pose Estimation DOI 10.48550/arxiv.1908.07433 Typ Preprint Autor Park K -
2022
Titel SporeAgent: Reinforced Scene-level Plausibility for Object Pose Refinement DOI 10.1109/wacv51458.2022.00027 Typ Conference Proceeding Abstract Autor Bauer D Seiten 196-204 Link Publikation -
2022
Titel BURG-Toolkit: Robot Grasping Experiments in Simulation and the Real World DOI 10.48550/arxiv.2205.14099 Typ Preprint Autor Rudorfer M -
2022
Titel Where Does It Belong? Autonomous Object Mapping in Open-World Settings DOI 10.3389/frobt.2022.828732 Typ Journal Article Autor Langer E Journal Frontiers in Robotics and AI Seiten 828732 Link Publikation -
2021
Titel ReAgent: Point Cloud Registration using Imitation and Reinforcement Learning DOI 10.1109/cvpr46437.2021.01435 Typ Conference Proceeding Abstract Autor Bauer D Seiten 14581-14589 Link Publikation -
2020
Titel Physical Plausibility of 6D Pose Estimates in Scenes of Static Rigid Objects DOI 10.1007/978-3-030-66096-3_43 Typ Book Chapter Autor Bauer D Verlag Springer Nature Seiten 648-662 -
2023
Titel 3D-DAT: 3D-Dataset Annotation Toolkit for Robotic Vision DOI 10.1109/icra48891.2023.10160669 Typ Conference Proceeding Abstract Autor Neuberger B Seiten 9162-9168 -
2023
Titel COPE: End-to-end trainable Constant Runtime Object Pose Estimation DOI 10.1109/wacv56688.2023.00288 Typ Conference Proceeding Abstract Autor Patten T Seiten 2859-2869 -
2023
Titel [Recognizing transparent objects for laboratory automation]. DOI 10.1007/s00502-023-01158-w Typ Journal Article Autor Vincze M Journal Elektrotechnik und Informationstechnik : E & I Seiten 519-529 -
2023
Titel BURG-Toolkit: Robot Grasping Experiments in Simulation and the Real World Typ Conference Proceeding Abstract Autor Markus Suchi Konferenz UK Robot Manipulation workshop -
2023
Titel Object Change Detection for Autonomous Indoor Robots in Open-World Settings DOI 10.34726/hss.2023.111500 Typ Other Autor Langer E Link Publikation -
2023
Titel BURG-Toolkit: Robot Grasping Experiments in Simulation and the Real World DOI 10.34726/5453 Typ Other Autor Rudorfer M Link Publikation -
2019
Titel Recurrent Convolutional Fusion for RGB-D Object Recognition DOI 10.1109/lra.2019.2921506 Typ Journal Article Autor Loghmani M Journal IEEE Robotics and Automation Letters Seiten 2878-2885 Link Publikation -
2019
Titel An Empirical Evaluation of Ten Depth Cameras DOI 10.1109/mra.2018.2852795 Typ Journal Article Autor Halmetschlager-Funek G Journal IEEE Robotics & Automation Magazine Seiten 67-77 Link Publikation
-
2020
Titel Trying to increase the interest in STEM Typ Implementation circular/rapid advice/letter to e.g. Ministry of Health
-
2022
Titel Object class detection and pose within the heap Typ Improvements to research infrastructure Öffentlich zugänglich -
2021
Titel Probabilistic part-based scene segmentation Typ Improvements to research infrastructure Öffentlich zugänglich
-
2023
Link
Titel 3D-DAT 3D-Dataset Annotation Toolkit for Robotic Vision Typ Data analysis technique Öffentlich zugänglich Link Link -
2022
Link
Titel ObChange Dataset DOI 10.48436/r2sxr-tsc12 Typ Database/Collection of data Öffentlich zugänglich Link Link
-
2020
Titel School workshops Typ Participation in an activity, workshop or similar
-
2022
Titel Invitiation to Robotics Lab Opening at University Bremen as keynot speaker Typ Personally asked as a key note speaker to a conference Bekanntheitsgrad Continental/International -
2021
Titel Nomination for best paper award of IEEE RA-L Typ Research prize Bekanntheitsgrad Continental/International
-
2020
Titel Traceable Robotics Handling of Sterile Medical Products Typ Research grant (including intramural programme) Förderbeginn 2020 Geldgeber European Commission