La discrimination a plusieurs sources, et les conversations sociétales sur la rédaction épicène et sur l’appropriation culturelle nous montrent bien que le respect de la diversité est important.
Une étude a d’ailleurs été effectuée auprès d’enfants, en leur demandant d’évaluer leurs possibilités d’occuper certains métiers après les leur avoir présentés. Lorsque la description de ces emplois était présentée en mentionnant explicitement plusieurs identités de genre, les effets des stéréotypes de genre quand les enfants estimaient s’ils pourraient faire tels ou tels métiers étaient significativement réduits. (Chatard, Guimont et Martinot, 2005).
Une étude effectuée aux États-Unis en 2015 rapporte des statistiques intéressantes au sujet de la diversité : 90 % des gens connaissent personnellement une personne homosexuelle, mais seulement 16 % connaissent une personne trans. À des fins de comparaison, 18 % des personnes aux États-Unis affirment avoir déjà vu un fantôme! Ainsi, la majorité des gens auront les médias comme seul contact avec la réalité des gens trans et non binaires, ainsi qu’avec celle de plusieurs autres communautés marginalisées.
La lutte à la discrimination par les images
Ce printemps, le site Broadly, affilié au média Vice, a pris l’initiative de créer cette banque d’images libres de droits après avoir fait face à la difficulté de trouver des photos appropriées pour illustrer une grande variété d’articles touchant à des sujets propres à la communauté trans et non binaire. La Gender Spectrum Collection a ainsi été composée, et est centrée sur des modèles trans et non binaires effectuant des activités de la vie de tous les jours, et non seulement des clichés comme appliquer du maquillage ou aller à des manifestations pour les droits LGBTQ+.
Le but de cette collection d’images est d’aider les médias à mieux représenter les membres de cette communauté comme étant des personnes à part entière, ayant des carrières, des passions et une vie personnelle riche. Plusieurs autres initiatives existent d’ailleurs pour aider à diversifier les images utilisées par les médias, notamment sur le plan de l’origine ethnique et de la masse corporelle. Pour utiliser ces banques d’images, certaines recommandations sont de mise. Par exemple, si les photos devaient être utilisées dans un contexte perpétuant des stéréotypes néfastes, elles ne devraient probablement pas l’être. Les créateurs et les créatrices encouragent ainsi les utilisateurs et les utilisatrices à garder en tête les intérêts de la communauté trans et non binaire, ainsi que ceux des autres groupes marginalisés auxquels ils et elles font référence.
Les préjugés et l’intelligence artificielle
D’ailleurs, le principe d’inclusion de la diversité est mis de l’avant par la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. La Déclaration a ainsi énoncé une liste de principes pour promouvoir les intérêts fondamentaux des personnes et des groupes dans le développement des nouvelles technologies associées à l’intelligence artificielle (IA). Pour un historique du développement de l’IA, vous pouvez consulter notre billet à ce sujet.
Les biais sont introduits dans les algorithmes de deux manières principales. Premièrement, l’algorithme est la somme des biais des personnes qui les élaborent. Ainsi, si les personnes à la source de la programmation sont elles-mêmes biaisées, les algorithmes qui seront composés le seront également.Ce serait comme essayer d’enseigner à partir de manuels scolaires écrits par un individu plein de préjugés! Si l’étudiant démontre des biais par la suite, est-ce que ce serait surprenant? On peut penser par exemple à quelqu’un qui spécifierait à un algorithme de recherche d’emploi que les postes en ingénierie ne doivent être montrés qu’aux personnes de genre masculin.
Deuxièmement, les algorithmes fonctionnent en utilisant un nombre immense de données dans lesquelles ils peuvent extraire des réponses. Ces sources de données se doivent d’être diversifiées pour éviter des biais à ce niveau, et il est donc important d’inclure des sources de données variées. Les jeux de données qui sont mis à la disposition de l’intelligence artificielle jouent le rôle du manuel scolaire pour un étudiant. Ces données sont donc soumises aux préjugés des individus qui les composent, mais également à leur disponibilité. Si la personne qui programme souhaite composer un algorithme non biaisé, mais qu’elle n’a aucune photo de personnes issues de la diversité, l’intelligence artificielle ne pourra pas surmonter cette difficulté. Ce n’est qu’un algorithme, après tout!
On peut aussi se demander s’il est toujours pertinent d’inclure le genre dans les algorithmes, sachant que cela peut perpétuer de la discrimination. Y aurait-il d’autres sources de données à utiliser pour cibler certains utilisateurs ou utilisatrices, comme les intérêts et les habitudes, par exemple?
Que faire pour éviter ces biais?
La volonté de diversifier les médias est grandissante, et c’est une bonne chose tant pour la représentation des individus marginalisés que pour la promotion de la diversité. Même si nous ne faisons pas tous et toutes de la programmation d’intelligence artificielle, il est possible d’aider à enrayer ces biais en utilisant des images variées qui reflètent bien la réalité dans laquelle nous vivons. Il revient donc à chacun et chacune d’entre nous d’agrémenter nos articles, présentations et autres contenus médias de photos telles que celles mises de l’avant dans la Gender Spectrum Collection !
Andrée-Anne Lefebvre
Comments