L'ODJ Média

IA au service de l’analyse des émotions des étudiants en distanciel par INTEL


le Jeudi 15 Septembre 2022

Intel a annoncé un partenariat avec Classroom Technologies, une entreprise qui adapte l’usage du logiciel Zoom pour les écoles. Une nouveauté est controversée : analyser les émotions des étudiants pour transmettre les résultats aux professeurs.



IA au service de l’analyse des émotions des étudiants en distanciel par INTEL
Détecter le niveau de compréhension ou d’ennui des élèves pour que le professeur puisse identifier les notions difficiles et adapter son cours en conséquence. L’intention peut paraître bonne, mais les technologies de reconnaissance faciale n’inspirent généralement pas confiance en termes de protection de la vie privée et cette utilisation inquiète aussi bien les élèves que les professeurs.

Analyser les émotions avec l’IA, une tâche compliquée

Intel et Class Technologies affirment que leur intelligence artificielle saura déterminer si un élève s’ennuie, s’il est distrait ou s’il ne comprend pas le cours. C’est en vérité très difficile, car chaque personne s’exprime différemment, en particulier d’une culture à l’autre ou si une personne est autiste par exemple.

Ces questions se posent déjà dans le milieu de l’entreprise, avec des intelligences artificielles qui sont censées analyser les émotions des candidats lors d’entretiens d’embauche en vidéo. De plus, un entretien d’embauche ne dure que quelques dizaines de minutes, tandis que les élèves en distanciel seraient filmés plusieurs heures par jour, donc cette impression d’être espionné et analysé serait d’autant plus épuisante.

Cours à distance = surveillance ?

Le programme d’Intel est dans la continuité d’autres intelligences artificielles visant à surveiller les étudiants quand ils sont en cours à distance. Nir Kshetri, professeur de management de l’université de Caroline du Nord aux États-Unis, a dénoncé dans un article les systèmes de surveillance déployés sur les ordinateurs portables prêtés aux élèves par les écoles durant la pandémie de Covid-19.

Les créateurs de ces logiciels affirment qu’ils sont conçus pour protéger les élèves, mais le professeur s’inquiète d’effets délétères. Il estime que le fait d’être surveillé pourrait par exemple décourager des élèves qui ont des problèmes de santé mentale de chercher de l’aide et les biais de l’intelligence artificielle pénaliseraient davantage les communautés minoritaires. 

Au-delà des problèmes liés à la surveillance elle-même, il rappelle également les risques de cybersécurité : en juillet 2020, les données de plus de 400 000 étudiants — dont leurs noms, adresses et numéros de téléphone — avaient fuité suite à un piratage de la plateforme ProctorU.

Rédigé par Marion Piasecki, repris et adapté par la Fondation Tamkine 
#Tamkine_ensemble_nous_reussirons 




Jeudi 15 Septembre 2022