ILD
Quand une machine se trompe c’est que la technologie n’est pas au point. Qu’une erreur causée par une faiblesse technique puisse peiner ou choquer, on le conçoit, de là à émettre un jugement de valeur, il y a un pas qu’il ne faut pas franchir. Est-ce qu’une machine peut-être raciste ? On ne voit pas très bien comment. La question est quand même posée par le site Clubic qui s’appuie sur une étude d’une chercheuse du MIT. « Une créature peut-elle échapper aux faiblesses de son créateur ? Vaste question, qui se pose lorsque l'on étudie les performances des principaux logiciels de reconnaissance faciale actuellement sur le marché. Une chercheuse du Massachussetts Institute of Technology à Boston, Joy Buolamwini, a poussé dans leurs retranchements les programmes d'IA de trois sociétés : IBM, Microsoft, et Face » explique le site.
« Les résultats sont édifiants : en présentant 1.270 portraits officiels de personnalités politiques du monde entier aux trois programmes, elle est arrivée à la conclusion qu'ils étaient en grande difficulté quand il s'agit d'identifier le visage d'une personne de couleur noire, mais aussi à reconnaître des femmes » continue Clubic.
Pire, et on comprend évidemment la réaction outrée, le logiciel Google Photos avait associé des personnes à des gorilles. Finalement, bonne question à poser à ceux qui font des recherches sur ces sujets, serait de savoir la raison pour laquelle ces logiciels ont plus de mal avec certaines couleurs de peau plutôt que d’autres. Est-ce parce que ces logiciels ont été entrainés surtout avec des personnes blanches ? C’est la théorie de la chercheuse du MIT qui explique que « les hommes à la peau claire y sont surreprésentés, et aussi les personnes à la peau claire de manière générale. » Est-t-il possible que ce soit aussi une question technique et physique de réflexion de la lumière ? Dans ce cas-là pas de racisme mais un défi technologique pour s’approcher du 100% de reconnaissance.
« Les résultats sont édifiants : en présentant 1.270 portraits officiels de personnalités politiques du monde entier aux trois programmes, elle est arrivée à la conclusion qu'ils étaient en grande difficulté quand il s'agit d'identifier le visage d'une personne de couleur noire, mais aussi à reconnaître des femmes » continue Clubic.
Pire, et on comprend évidemment la réaction outrée, le logiciel Google Photos avait associé des personnes à des gorilles. Finalement, bonne question à poser à ceux qui font des recherches sur ces sujets, serait de savoir la raison pour laquelle ces logiciels ont plus de mal avec certaines couleurs de peau plutôt que d’autres. Est-ce parce que ces logiciels ont été entrainés surtout avec des personnes blanches ? C’est la théorie de la chercheuse du MIT qui explique que « les hommes à la peau claire y sont surreprésentés, et aussi les personnes à la peau claire de manière générale. » Est-t-il possible que ce soit aussi une question technique et physique de réflexion de la lumière ? Dans ce cas-là pas de racisme mais un défi technologique pour s’approcher du 100% de reconnaissance.