iCHORES - Intuitive Kollaboration mit Robotern
Intuitive Collaboration with Household Robots inEverydaySett
Weave: Österreich - Belgien - Deutschland - Luxemburg - Polen - Schweiz - Slowenien - Tschechien
Wissenschaftsdisziplinen
Elektrotechnik, Elektronik, Informationstechnik (60%); Informatik (40%)
Keywords
-
Roboter,
Intuitive Schnittstelle,
Wahrnehmung,
Szenenverstehen
In den letzten Jahren sahen eine starke Entwicklung von Robotern, die für Service-Aufgaben eingesetzt werden sollen. Diese Roboter müssen so konzipiert sein, dass sie mit Menschen interagieren können, die wenig oder keine vorherige Erfahrung mit einem Roboter haben. Naive Benutzer müssen in der Lage sein, Roboter zu steuern und mit ihnen zusammenzuarbeiten. Daher sind weitere Forschungsarbeiten erforderlich, um die Bedürfnisse von unerfahrenen Benutzern durch intuitive Interaktionsmethoden zu erfüllen. Um diese Nische zu füllen, entwickeln wir Methoden zum besseren Verständnis der Mensch- Roboter-Interaktion durch eine kollaborative Roboterschnittstelle für humanoide Haushaltsroboter. Dabei können Benutzer durch multimodale Hinweise in Form von Sprache, Gesten und Blicken intuitiv mit dem Roboter interagieren. Das Projekt wird über den Stand der Technik hinausgehen, indem es visuelle und blickbasierte Modalitäten mit Sprache kombiniert, um die Absichten des Benutzers für eine erfolgreiche Aufgabenerfüllung zu verstehen. In einem benutzerzentrierten Ansatz mittels Benutzerstudien kreieren wir Modelle wie Menschen auf natürliche Weise Gesten und Blicke in natürlicher Kommunikation verwenden. Diese Studien werden für Szenarien durchgeführt, die verschiedene Tische und Regale sowie das Aufräumen eines ganzen Raums umfassen, um die Allgemeingültigkeit des Ansatzes zu zeigen. Die Szenarien werden sowohl in Virtual Reality (VR) als auch in realen Umgebungen entwickelt. Die VR Nachbildungen ermöglichen eine schnelle Umsetzung und eine erste Datenerfassung mit naiven Benutzern bereits in der Entwurfsphase. Anschließend werden diese Modelle in eine multimodale Schnittstelle für die Mensch-Roboter-Interaktion integriert. Zu diesem Zweck wird eine graphbasierte Darstellung visueller Szenen entwickeln, die Blickinformationen enthält und aus den gestischen Informationen extrahiert werden kann. Das Projekt zielt auf einen völlig neuen Ansatz für die Interaktion mit Robotern und anderen cyber-physischen Systemen ab. Die Idee ist, dass ein unerfahrener Benutzer mit einem Roboter über natürliche Sprache mit intuitiven Gesten und Blicken interagieren kann, im Gegensatz zu früheren kollaborativen Systemen, die programmähnliche Sprachbefehle verwenden. Die Schnittstelle wird durch die Durchführung von Nutzerstudien in einer realen Umgebung für beide Szenarien evaluiert, um die Auswirkungen des Einsatzes mehrerer Modalitäten in der Kommunikation zu untersuchen. Wir werden die Hypothesen testen, sodass die Einbeziehung von gesten- und blickbasierten Informationen in die Mensch- Roboter-Interaktion den menschlichen Benutzer in der Interaktion mit dem Roboter unterstützt das Vertrauen stärkt, dass der Mensch die Maschine sicher kontrollieren kann. Das Projekt wird von Bipin Indurkhya von der Universität Krakau geleitet, zusammen mit Michal Vavrecka, CTU Praha, und Markus Vincze von der TU Wien.
- Technische Universität Wien - 100%
- Bipin Indurkhya, Jagiellonina University - Polen
- Michal Vavrecka, Czech Technical University Prague - Tschechien
Research Output
- 12 Publikationen
- 1 Policies
- 1 Datasets & Models
- 1 Disseminationen
- 1 Wissenschaftliche Auszeichnungen
-
2025
Titel Unrealgensyn: a framework for generating synthetic videos of Unfrequent human events DOI 10.1007/s10055-025-01146-9 Typ Journal Article Autor Benavent-Lledo M Journal Virtual Reality -
2025
Titel Shape-Biased Texture Agnostic Representations for Improved Textureless and Metallic Object Detection and 6D Pose Estimation DOI 10.1109/wacv61041.2025.00853 Typ Conference Proceeding Abstract Autor Hönig P Seiten 8806-8815 -
2024
Titel Human-in-the-loop error detection in an object organization task with a social robot. DOI 10.3389/frobt.2024.1356827 Typ Journal Article Autor Frijns Ha Journal Frontiers in robotics and AI Seiten 1356827 -
2024
Titel Challenges for Monocular 6-D Object Pose Estimation in Robotics DOI 10.1109/tro.2024.3433870 Typ Journal Article Autor Bauer D Journal IEEE Transactions on Robotics -
2023
Titel Object Change Detection for Autonomous Indoor Robots in Open-World Settings DOI 10.34726/hss.2023.111500 Typ Other Autor Langer E Link Publikation -
2023
Titel Challenges for Monocular 6D Object Pose Estimation in Robotics DOI 10.48550/arxiv.2307.12172 Typ Other Autor Bauer D Link Publikation -
2023
Titel [Recognizing transparent objects for laboratory automation]. DOI 10.1007/s00502-023-01158-w Typ Journal Article Autor Vincze M Journal Elektrotechnik und Informationstechnik : E & I Seiten 519-529 -
2023
Titel TrackAgent: 6D Object Tracking viaReinforcement Learning; In: Computer Vision Systems - 14th International Conference, ICVS 2023, Vienna, Austria, September 27-29, 2023, Proceedings DOI 10.1007/978-3-031-44137-0_27 Typ Book Chapter Verlag Springer Nature Switzerland -
2023
Titel Challenges ofDepth Estimation forTransparent Objects; In: Advances in Visual Computing - 18th International Symposium, ISVC 2023, Lake Tahoe, NV, USA, October 16-18, 2023, Proceedings, Part I DOI 10.1007/978-3-031-47969-4_22 Typ Book Chapter Verlag Springer Nature Switzerland -
2023
Titel 3D-DAT: 3D-Dataset Annotation Toolkit for Robotic Vision DOI 10.1109/icra48891.2023.10160669 Typ Conference Proceeding Abstract Autor Neuberger B Seiten 9162-9168 -
2023
Titel COPE: End-to-end trainable Constant Runtime Object Pose Estimation DOI 10.1109/wacv56688.2023.00288 Typ Conference Proceeding Abstract Autor Patten T Seiten 2859-2869 -
2023
Titel Open Challenges for Monocular Single-shot 6D Object Pose Estimation DOI 10.48550/arxiv.2302.11827 Typ Preprint Autor Hönig P Link Publikation
-
2024
Titel MINT initiative der Stadt Wien Typ Participation in a guidance/advisory committee
-
2020
Titel School workshops Typ Participation in an activity, workshop or similar
-
2024
Titel Best Paper Award at Austrian Symposium on AI, Robotics, and Vision 2024 Typ Research prize Bekanntheitsgrad Continental/International