Bonjour bonjour,
J'étudie à ENSAPC, je vous décris mon petit projet pour engager la discussion et recevoir vos petits conseils.
Donc mon projet:
L'idée est de recréer un environnement envahissant à partir de divers éléments de surveillance, de diffusion et d'affichage où le spectateur serait immergé dans une situation de fichage et tracking. C'est une proposition d'étude sur la surveillance comme outil d'influence sur le comportement individuel en société, comme outil de manipulation publique peut-être, voir de sécurisation politique. Tout cela basé sur divers évènements réels.
Plus concrètement, cette installation nécessitera le détournement de caméras de surveillance avec reconnaissance faciale et des manipulations sonores.
Les caméras se déclencheront peu de temps après l'entrée des spectateurs dans la salle (à moins que je n'installe tout ça en publique, ce qui compliquerait pas mal la chose tout de même). Leurs enregistrements en direct seront alors projetés au mur (en quadrillage) à moins d'utiliser des écrans qui seraient alors installés au mur afin d'afficher les lives.
Équipées de reconnaissance faciale, certaines d'entre elles repéreront donc les visages des gens afin de zoomer progressivement sur eux. Les enregistrements en direct laisseront place, aléatoirement, à des images voir vidéos prises d'incidents réels liés à des situations de fichage/tracking/monitoring dans des états plus ou moins totalitaires/policiers. Des enregistrements sonores liés à ces évènements seront aussi diffusés.
C'est donc une installation semi fictive, semi documentaire qui nécessite la participation passive voir inconsciente du spectateur (mais aussi contre son gré). C'est une retranscription artistique d'analyses géopolitiques qui détourne des codes de surveillance et de pressurage connus.
Ne m'y connaissant pas si bien que ça en électronique, les conseils sont les bienvenus !!! Merci beaucoup et au plaisir de vous rencontrer en personne prochainement !
Projet sur le fichage et le monitoring
Règles du forum
Cette section est dédié a vos projets, descriptions et demandes d'aide.
Merci de limiter le nombre de sujet par projets.
Lorsqu'un sujet deviens long vous pouvez éditer le premier message pour maintenir à jour le descriptif et garder en lisibilité
Cette section est dédié a vos projets, descriptions et demandes d'aide.
Merci de limiter le nombre de sujet par projets.
Lorsqu'un sujet deviens long vous pouvez éditer le premier message pour maintenir à jour le descriptif et garder en lisibilité
Projet sur le fichage et le monitoring
Modifié en dernier par deen le 28 oct. 2019, 14:08, modifié 1 fois.
Re: Projet sur le fichage et le monitoring
Bonjour,
Je ne m'attarderai que sur les aspects purement techniques. Les implications politiques - et surtout légales - des différents aspects évoqués me semblant ... vertigineuses. Je me contenterais de rappeler deux points, à toutes fins utiles :
* l'utilisation de caméras de surveillance est fortement réglemente sur l'espace public, ainsi que le stockage de données personnelles tierces même acquises dans un cadre privé. La CNIL et le RGPD n'existent pas pour rien, et ce n'est parce que certains (beaucoup ?) n'en tiennent pas compte que l'on peut impunément les ignorer.
* le développement de projets ne respectant ouvertement pas les lois en vigueur n'est pas toléré à l'Electrolab, il faut donc être au clair sur le point précédent.
Ceci étant posé, d'un point de vue technique, ce que tu proposes ressemble beaucoup à une régie vidéo. Il y a plein de solutions pour ça, à mon avis il faut chercher autour des systèmes d’agrégation de flux vidéo. Je ne m'y connais pas trop en vidéo, mais j'ai quand-même l'impression que le dimensionnement du système global est assez critique, surtout si tu veux faire du traitement à la volée sur les flux entrants. Si tu ne cherches pas à modifier les images à la volée (par exemple se contenter de mettre un overlay, ou diffuser des vidéos pré-enregistrées différentes en fonction des entrées), la contrainte n'est pas trop forte, tu peux accepter un peu de latence. Par contre, si tu veux faire du traitement temps-réel sur les sortie c'est une autre histoire, mais je n'ai pas l'impression que c'est ce que tu envisages.
Si tu utilises des vidéo-projecteurs qui affichent plusieurs flux, il faudra les merger, ce qui peut nécessiter un peu de puissance de calcul, c'est ce qu'on fait sur notre régie, tu pourras demander à Ellyan ou Aphyo, ce sont eux qui connaissent le mieux le matos. Si tu utilises des écrans séparés, chacun gérant un flux vidéo, il y a surement moyen de répartir un peu mieux la charge de calcul. Ça n'interdit pas les interactions entre les flux, juste ça se gérera autrement.
Concernant la reconnaissance faciale, si je comprends bien, ce que tu as besoin c'est de la reconnaissance de visage. Je pense qu'il doit exister des softs open-source qui font ça. Je serais toi je chercherais du côté d'OpenCV, et de MAX/MSP, qui dispose d'un module vidéo qui permet de faire des choses intéressantes. Après, j'y connais quasi-rien en vidéo, juste je connais quelqu'un qui avait fait une install qui générait des images modifiées en temps-réel à partir de capteurs biométriques (pouls et sudation de la peau), et le back-end était sous MAX/MSP. Par contre, le script était très complexe, et il fallait une grosse machine pour le faire tourner. Mais de toutes façons à partir du moment où tu fais de la vidéo, il faut de la puissance de calcul. Là tu pourrais avoir des infos des membres de l'équipe Goldorak, je crois me souvenir qu'ils ont un peu bossé sur le traitement d'images et openCV pour leur robot.
Pour le HW, je pense qu'il faut faire simple dans un premier temps et se baser sur des systèmes 'tout faits', sinon il y aura trop de problèmes à la fois. Webcams, cameras IP ou SDI, ça devrait permettre de commencer. Ce que j'entends c'est : ne pas partir à bricoler un truc avec des capteurs CCD et un Raspi, par exemple, il y a suffisamment d'autres points techniques à gérer avec le back-end et l'install en elle-même.
Grmpf ... Je donne plus de questions que de réponses - surtout que ce n'est pas mon domaine, mais ça devrait permettre de commencer à avoir une idée de la taille et la complexité du système, et des pistes à creuser pour l'implémentation technique, réfléchir à l'architecture du truc, etc.
Je ne m'attarderai que sur les aspects purement techniques. Les implications politiques - et surtout légales - des différents aspects évoqués me semblant ... vertigineuses. Je me contenterais de rappeler deux points, à toutes fins utiles :
* l'utilisation de caméras de surveillance est fortement réglemente sur l'espace public, ainsi que le stockage de données personnelles tierces même acquises dans un cadre privé. La CNIL et le RGPD n'existent pas pour rien, et ce n'est parce que certains (beaucoup ?) n'en tiennent pas compte que l'on peut impunément les ignorer.
* le développement de projets ne respectant ouvertement pas les lois en vigueur n'est pas toléré à l'Electrolab, il faut donc être au clair sur le point précédent.
Ceci étant posé, d'un point de vue technique, ce que tu proposes ressemble beaucoup à une régie vidéo. Il y a plein de solutions pour ça, à mon avis il faut chercher autour des systèmes d’agrégation de flux vidéo. Je ne m'y connais pas trop en vidéo, mais j'ai quand-même l'impression que le dimensionnement du système global est assez critique, surtout si tu veux faire du traitement à la volée sur les flux entrants. Si tu ne cherches pas à modifier les images à la volée (par exemple se contenter de mettre un overlay, ou diffuser des vidéos pré-enregistrées différentes en fonction des entrées), la contrainte n'est pas trop forte, tu peux accepter un peu de latence. Par contre, si tu veux faire du traitement temps-réel sur les sortie c'est une autre histoire, mais je n'ai pas l'impression que c'est ce que tu envisages.
Si tu utilises des vidéo-projecteurs qui affichent plusieurs flux, il faudra les merger, ce qui peut nécessiter un peu de puissance de calcul, c'est ce qu'on fait sur notre régie, tu pourras demander à Ellyan ou Aphyo, ce sont eux qui connaissent le mieux le matos. Si tu utilises des écrans séparés, chacun gérant un flux vidéo, il y a surement moyen de répartir un peu mieux la charge de calcul. Ça n'interdit pas les interactions entre les flux, juste ça se gérera autrement.
Concernant la reconnaissance faciale, si je comprends bien, ce que tu as besoin c'est de la reconnaissance de visage. Je pense qu'il doit exister des softs open-source qui font ça. Je serais toi je chercherais du côté d'OpenCV, et de MAX/MSP, qui dispose d'un module vidéo qui permet de faire des choses intéressantes. Après, j'y connais quasi-rien en vidéo, juste je connais quelqu'un qui avait fait une install qui générait des images modifiées en temps-réel à partir de capteurs biométriques (pouls et sudation de la peau), et le back-end était sous MAX/MSP. Par contre, le script était très complexe, et il fallait une grosse machine pour le faire tourner. Mais de toutes façons à partir du moment où tu fais de la vidéo, il faut de la puissance de calcul. Là tu pourrais avoir des infos des membres de l'équipe Goldorak, je crois me souvenir qu'ils ont un peu bossé sur le traitement d'images et openCV pour leur robot.
Pour le HW, je pense qu'il faut faire simple dans un premier temps et se baser sur des systèmes 'tout faits', sinon il y aura trop de problèmes à la fois. Webcams, cameras IP ou SDI, ça devrait permettre de commencer. Ce que j'entends c'est : ne pas partir à bricoler un truc avec des capteurs CCD et un Raspi, par exemple, il y a suffisamment d'autres points techniques à gérer avec le back-end et l'install en elle-même.
Grmpf ... Je donne plus de questions que de réponses - surtout que ce n'est pas mon domaine, mais ça devrait permettre de commencer à avoir une idée de la taille et la complexité du système, et des pistes à creuser pour l'implémentation technique, réfléchir à l'architecture du truc, etc.
Retourner vers « Les Projets »
Qui est en ligne
Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 1 invité