Un petit mot d'explication : des lampes infra-rouges collées à la wii envoie des rayons qui sont réfléchis par de petits autocollants de signalisation routière collés sur l'anneau. Grâce à la caméra de la wii qui permet de traquer 4 sources de lumières infra-rouges différentes (j'en utilise ici 3) je connais le centre de l'anneau sur une surface rectangulaire grâce à la librairie pour la wii de Processing.
Toujours dans Processing grâce à d'autres librairies, l'orientation du mouvement (haut, haut-droite, droite, ...) et la vitesse sont calculés. Ensuite les données sont envoyés dans SuperCollider par Osc qui produit du son en rapport avec le mouvement selon les différents tableaux visuels générés dans Processing.
Pour y arriver j'ai enregistrer les coordonnées de mouvements de bases dans un fichier texte que j'ai laisser tourner en boucle et j'ai fait l'étalonnage des valeurs en passant par Pure-Data. Je pouvais ainsi en direct ajuster les valeurs pour un résultat audible. C'était difficile car c'est l'étape la plus cruciale du dispositif. On appelle ça le mapping (rapport entre le mouvement et le son) , j'ai lu des documents pdf de l'Ircam dessus sans trop bien comprendre.
Bref, ce n'est déjà pas simple de récupérer la position d'un objet de jonglage (il faut que l'anneau soit relativement parallèle à la wii) mais donner du sens et une cohérence au mapping pour qu'il soit compréhensible par les spectateurs est un vrai défi.
De plus il si on projette sur un mur derrière les visuels, le projecteur gêne les jongleurs et on voit l'ombre des objets sur le mur.
Voilà, si vous avez des idées, ...
Ce que vous avez fait au plus petit de mes frères, c'est à moi que vous l'avez fait.
salut! oui comme dit Olivier, chouette dispositif ! ca a l'air de super bien marcher, çà laisse un champ de nouvelles façons de manipuler à trouver pareil, j'aime bien la lisibilité de l'interaction avec les poissons