Door een camera aan te brengen op de arm van industriële robot kan een robot zijn omgeving aanzienlijk nauwkeuriger in beeld brengen. Dit is mogelijk door onder andere de positie van gewrichten in de robotarm te analyseren.

De methode is ontwikkeld door onderzoekers van het Robotics Institute van de Carnegie Mellon University. De onderzoekers hebben hun ontdekking gepresenteerd op de IEEE International Conference on Robotics and Automation in het Zweedse Stockholm. Het in kaart brengen van hun omgeving is voor veel robots een uitdaging. Beweegt de camera bijvoorbeeld te snel of ontbreekt een deel van de data? Dan kan dit het proces flink in de war gooien.

SLAM

Allerlei methodes zijn beschikbaar om dit probleem aan te pakken, waarvan een populaire simultaneous localisation and mapping (SLAM) heet. Hierbij gebruiken robots input van meerdere sensoren, zoals camera’s, lasers en odometrie om een 3D-overzicht te creëren van een nieuwe omgeving, en hun eigen positie in deze omgeving in kaart te brengen.

De meetmethode die de onderzoekers van de Carnegie Mellon University hebben ontwikkeld is een aanvulling op SLAM en heet Articulated Robot Motion for SLAM (ARM-SLAM). Hierbij wordt een kleine dieptecamera gebruikt, die in de testopstelling van de onderzoekers is gemonteerd op de Kinova Mico robotarm. Een belangrijk voordeel van ARM-SLAM ten opzichte van andere methoden om omgevingen in 3D in kaart te brengen is volgens de onderzoekers dat er minder rekenkracht nodig is.

‘Veelbelovend’

ARM-SLAM is ontwikkeld met steun van Toyota, de US Office of Naval Research en de Amerikaanse National Science Foundation. De onderzoekers noemen de meetmethode veelbelovend. De technologie moet wel eerst verder worden ontwikkeld voordat deze in de praktijk kan worden ingezet.

Via: visionandrobotics.nl