!! Demenagement du site !! => http://smartrobotics.org/blog

A la suite de la coupe de France de robotique 2012, j’ai décidé de faire peau neuve au site internet et de changer d’adresse.

.

.

.

Voici donc la nouvelle adresse :  http://smartrobotics.org/blog

.

.

.

.

Driver ROS pour centrale inertielle CH6dm.

Il y a un moment, j’avais acheté une centrale inertielle pour mon hexapod ( https://smartrobotics.wordpress.com/2010/08/22/test-of-an-imu-on-the-hexapod-roll-and-pitch-adaptation/ ).

Utilisant maintenant ROS, je me suis dit qu’il était temps de faire un petit driver au cas ou je la réutilise pour d’autres projets futurs.

Les sources sont disponible ici : https://github.com/JBot/smart-ros-pkg

Et une vidéo ici :

L’Indomptable : Simulation des bras.

Voici la simulation des 2 bras du robot sur le terrain 2012.
Ce sont des premiers tests pour voir si les bras peuvent bien aller dans les endroits souhaités.

Tout le calcul est fait par le soft qui sera dans le robot, les messages finaux sont juste envoyés au simulateur au lieu d’etre envoyés aux moteurs.

La vidéo :

Positionnement de l’Indomptable : SLAM sans odométrie

N’ayant pas encore installé l’odométrie sur L’Indomptable, j’ai commencé a faire des tests avec son laser pour tester le positionnement. Le robot utilise un algorithme de SLAM (Simultaneous Localization And Mapping) pour se positionner.
Ca fonctionne plutot pas mal pour des gros trajets, ne necessitant pas une précision au mm prés. Pour la coupe, c’est pas assez précis par rapport a de la bonne odométrie.

Voici un petit test du robot se baladant dans mon appartement :

Robot aspirateur téléguidé par joystick.

Ayant démonté mon robot aspirateur (XV11) pour lui prendre son capteur laser, il était devenu incapable de fonctionner en autonome. Du coup, plutôt que jeter (ou laisser moisir dans un coin) ce beau robot aspirateur, j’ai décidé de bidouiller un peu pour pouvoir le téléguider à l’aide d’un joystick.
J’ai donc mis mon PC portable 10pouces sur le robot, connecté en USB, et j’ai connecté le joystick au PC.
Ensuite grâce à ROS, j’ai écrit quelques lignes de code pour pouvoir piloter le robot.

La mini vidéo de démonstration :

Je vais enfin pouvoir faire le ménage chez moi ! Ou pas 😉

Writing bots.

J’avais envie d’ajouter une fonctionnalité à mes robots, donc j’ai pensé à leur donner la possibilité d’écrire.

J’ai commencé à le faire avec l’hexapode. J’ai programmé les offsets à effectuer pour écrire chaque lettre. Du coup, simplement en tapant une lettre sur le clavier dans le terminal série, la lettre est envoyée au robot qui effectue la séquence qu’il faut pour la dessiner.

J’ai ensuite fait de même avec un bras robotique. Mais il n’a pas des servomoteurs trés puissant et précis, donc le dessin des lettres est approximatif.

Comme toujours, voici une vidéo :

Quadrapod (very slow).

Here is my hexapod, but with only 4 legs to walk.
Le goal is to move the center of gravity to be able to lift a leg.
It’s very slow but it was only a test to play !

As usual, the movie :

A good old biped.

Voici un bipède que j’avais fait il y a plus d’un an.

J’avais programmé les différents mouvements pour aller tout droit, à gauche, à droite et en arrière et j’avais ajouté un capteur infrarouge pour ne pas qu’il rentre en collision avec les murs.

Une petite vidéo :

J’ai malheureusement démonté ce robot pour récuperer des pièces.

Face following.

Voici un petit logiciel que je pourrais intégrer à un de mes robots lorsque j’en aurais un possédant un ordinateur interne.

J’ai utilisé des bibliothèques OpenCV pour créer une détection et un suivi de visage.

Au niveau matériel, il y a juste 2 servo-moteurs pour faire la tourelle mobile et une webcam par dessus.

Comme toujours, voici la petite vidéo de démo :

Color detection

Thanks to the OpenCV libs, I made a software which can detect a red or blue object with a webcam. When the object is detected, the software print the coordinates (X, Y) of its center.

The movie :