Le fait est que même si aujourd'hui les entreprises sont conscientes de cette situation, certains obstacles et limites n'ont pas encore été surmontés pour parvenir à des technologies plus inclusives.
Selon une étude récente d'IBM, menée en collaboration avec Oxford Economics, 68 % des organisations interrogées reconnaissent qu'il est important d'avoir un lieu de travail diversifié et inclusif pour atténuer les préjugés dans l'IA .
Cependant, les résultats indiquent que les équipes d'IA restent nettement moins diversifiées que les effectifs de leurs organisations : 5,5 fois moins inclusives des femmes, 4 fois moins inclusives des personnes LGBT+, entre autres.
« Comme de nombreuses entreprises utilisent aujourd'hui des algorithmes d'IA dans leur activité, elles sont confrontées à des demandes internes et externes croissantes pour concevoir ces algorithmes de manière équitable, sécurisée et digne de confiance ; cependant, il y a eu peu de progrès dans l'industrie pour intégrer l'éthique de l'IA dans ses pratiques », a déclaré Jesús Mantas, associé directeur mondial chez IBM Consulting.
Dans le rapport, qui est basé sur l'enquête auprès de 1 200 cadres dans 22 pays dans 22 secteurs, la raison qui pousse les entreprises à inclure moins de diversité dans les équipes d'IA n'est pas détaillée ; mais ces informations peuvent être analysées à la lumière d'autres données liées à ce sujet.
Alors que 8% des étudiants optent pour l'ingénierie, la fabrication et la construction; et 15 % choisissent des carrières liées à la santé et au bien-être, comme la médecine ou les soins infirmiers.
« Il existe de nombreux obstacles associés à ces trajectoires éducatives, des stéréotypes auxquels les filles sont confrontées aux responsabilités familiales et aux préjugés auxquels les femmes sont confrontées lors du choix de leur domaine d'études », souligne l'UNESCO dans ledit rapport.
Les stéréotypes se construisent à travers des publicités, des publications, des histoires qui se répètent dans la société et dans les médias. Différents chercheurs ont souligné que l'avènement de l'ordinateur personnel dans les années 1980 et sa promotion, à partir des publicités, comme un produit lié au monde des hommes ont créé des modèles d'exclusion pour les femmes.
D'autre part, une étude menée par des chercheurs de l'Université du Michigan et de Philadelphie a conclu que les professionnels LGBT+ au sein des disciplines STEM (science, technologie, ingénierie et mathématiques) étaient plus susceptibles de subir des limitations professionnelles, du harcèlement et une dévalorisation professionnelle que leurs non-professionnels. pairs LGBTQ. Ils ont également indiqué qu'ils étaient plus susceptibles d'avoir l'intention de quitter les disciplines STEM, en raison de cette situation.
"L'une des causes du biais algorithmique est le manque de diversité dans les équipes qui développent l'IA et l'autre raison est le manque de formation de ces équipes aux questions de genre. Souvent, il ne suffit pas d'ajouter plus de diversité, mais il faut aussi former ces développeurs pour qu'ils soient conscients de cette situation et aient une approche plus inclusive », analyse Cecilia Danesi, professeure et chercheuse en intelligence artificielle et droit, dans dialogue avec Infobae .
Et il ajoute : "Il est important de souligner que la formation en sciences sociales, en éthique et en diversité doit être incluse dans les carrières liées au développement de ce type de technologie car les algorithmes impactent la vie de la société sous de multiples aspects."
Que faire face à cette situation
La première étape pour changer est de tenir compte de la situation inégale qui existe dans les équipes d'IA, et c'est quelque chose que près de 7 des 10 entreprises interrogées ont déjà reconnu, comme mentionné ci-dessus. À leur tour, 88 % des dirigeants latino-américains reconnaissent l'importance d'une IA éthique .
Les prochaines étapes consistent à prendre des initiatives concrètes pour ajouter plus de diversité à ces équipes qui développent des algorithmes qui peuvent conditionner différents aspects de la vie. À cet égard, l'étude d'IBM recommande certaines actions aux chefs d'entreprise, notamment les suivantes :
1. Adopter une approche multidisciplinaire et collaborative : l'IA éthique nécessite une approche holistique et un ensemble complet de compétences de la part de toutes les parties impliquées dans le processus. Les cadres supérieurs, les concepteurs, les scientifiques du comportement, les scientifiques des données et les ingénieurs en IA ont chacun un rôle différent à jouer dans le cheminement vers une IA digne de confiance.
2. Établir une gouvernance de l'IA pour opérationnaliser l'éthique de l'IA : adopter une approche holistique pour inciter, gérer et gouverner les solutions d'IA tout au long de leur cycle de vie, de l'établissement de la bonne culture à la promotion de l'IA de manière responsable, en passant par les pratiques et les politiques pour les produits.
3. Aller au-delà de l'entreprise elle-même pour s'associer : Élargir l'approche en identifiant et en engageant des partenaires technologiques clés axés sur l'IA, des universitaires, des startups et d'autres partenaires de l'écosystème pour établir une "interopérabilité éthique".
CONTINUER À LIRE:
Avec l'effervescence de la Copa América, plusieurs fans recherchent la meilleure façon de regarder les matchs sur leur Smart TV. L’une des meilleures alternatives est le mode football ou le mode sport.
WhatsApp a réuni une partie du casting de Modern Family pour jouer dans une nouvelle publicité axée sur la promotion de groupes entre familles utilisant à la fois des appareils iPhone et Android.
Au cours des dernières décennies, la technologie est non seulement devenue un outil de base, mais elle fait également partie de notre vie quotidienne, au point qu’il est presque impossible d’imaginer ce que serait d’accomplir des tâches sans elle.
Tether, la cryptomonnaie de type stablecoin qui prétend que chacun de ses tokens est adossé à un dollar américain, est émise par la société Tether Limited et depuis ses origines a été impliquée dans diverses controverses.
Pour les utilisateurs de WhatsApp souhaitant personnaliser leur expérience, l’activation du « mode cœur noir » est une excellente option. Ce mode remplace l’icône d’appel téléphonique standard (qui est généralement blanche) par l’emoji cœur noir.