Publié à l‘origine sur itbrief.com.au.
L‘intelligence artificielle (IA) a déjà un impact considérable sur les entreprises de tous les secteurs, et son influence ne montre aucun signe de ralentissement.
Peu de secteurs n‘ont pas encore été touchés par l‘IA.
Cependant, alors que le développement et l‘innovation continue autour de l‘IA vont apporter des avantages aux entreprises et à notre société au sens large, il est important que tous les risques potentiels soient gérés de manière appropriée afin d‘éviter les préjugés liés à l‘IA et de permettre à l‘IA de progresser de manière responsable.
Une étude de SnapLogic a révélé que le développement éthique et responsable de l‘IA est l‘une des principales préoccupations des responsables informatiques, 94 % d‘entre eux estimant qu‘il faut accorder plus d‘attention à la responsabilité et à l‘éthique de l‘entreprise dans l‘application de l‘IA.
Mais les professionnels de l‘informatique et des affaires ne sont pas les seuls à s‘inquiéter de l‘IA.
Les gouvernements, qui cherchent également à mettre en œuvre des stratégies d‘IA, indiquent clairement que la transparence et la responsabilité seront une priorité absolue.
Le gouvernement de la Nouvelle-Galles du Sud a récemment annoncé qu‘il lancerait sa stratégie en matière d‘IA en mars 2020 et s‘est engagé à ce que la transparence soit une priorité.
Il ne fait aucun doute que les connaissances offertes par l‘IA peuvent être extrêmement bénéfiques, mais nous devons également reconnaître les limites de l‘IA lorsqu‘il s‘agit de fournir des réponses parfaites.
Les problèmes liés à la qualité des données, à la sécurité et à la protection de la vie privée sont réels et tant qu‘ils ne seront pas résolus, le débat sur la réglementation de l‘IA se poursuivra.
Qu‘est-ce qui freine l‘IA ?
Le biais de l‘IA est un obstacle majeur qui doit être surmonté, lorsqu‘un algorithme fournit des résultats préjudiciables en raison d‘hypothèses incorrectes dans le processus de développement.
Les biais de l‘IA sont souvent "intégrés" par les préférences inconscientes des humains qui créent le programme ou sélectionnent les données d‘entraînement.
Des problèmes peuvent également se poser tout au long du processus, par exemple au stade de la collecte des données, où les procédures de pondération peuvent aboutir à des conclusions erronées sur certains ensembles de données.
La partialité est une préoccupation réelle à mesure que nous devenons de plus en plus dépendants de l‘IA et nous avons déjà vu des affaires juridiques émerger où des groupes ont forcé la divulgation de la façon dont les processus algorithmiques prennent des décisions.
Un exemple de cette situation concerne les enseignants qui n‘ont pas reçu de primes de performance.
Ils ont obtenu des dommages et intérêts lorsqu‘il s‘est avéré que l‘algorithme évaluant l‘éligibilité à la prime ne prenait pas en compte la taille des classes - un facteur qui s‘est avéré hautement significatif pour le niveau des élèves.
Si l‘on ne s‘attaque pas aux biais de l‘IA et qu‘on ne les éradique pas, on peut s‘attendre à ce que la confiance du public dans l‘IA reste un problème et à ce qu‘il y ait potentiellement plus d‘affaires juridiques, car les organisations et les individus cherchent à obtenir une transparence totale sur la manière dont l‘IA prend ses décisions.
Où les biais s‘insinuent-ils dans les processus d‘IA ?
La difficulté avec les biais de l‘IA réside dans le fait qu‘il peut être difficile de déterminer exactement où ils s‘introduisent dans le système. Les biais peuvent apparaître à n‘importe quel stade du processus d‘apprentissage et ne sont pas toujours liés aux seules données d‘apprentissage. Ils peuvent également apparaître lors de la collecte des données, de la définition des objectifs ou de la préparation des données pour l‘apprentissage ou l‘exploitation.
Le processus initial de collecte, de sélection et de nettoyage des données est généralement associé à un biais d‘IA.
À ce stade précoce, des préjugés peuvent apparaître si les données aberrantes sont perçues comme non pertinentes et ne sont pas testées de manière approfondie, ce qui permet d‘introduire accidentellement des préjugés.
Certains facteurs, comme le sexe, peuvent ainsi être favorisés par erreur par l‘IA.
Par exemple, si une entreprise prospère à prédominance masculine utilise l‘IA pour sélectionner des candidats et que l‘IA est entraînée à partir des CV et des données d‘emploi des employés actuels, il est probable qu‘elle développera un biais en faveur des hommes.
Il se peut qu‘elle ne tienne pas compte des candidatures féminines pour les entretiens, car elles ne correspondent pas au modèle de réussite de l‘entreprise telle qu‘elle existe actuellement.
Il convient de faire preuve de prudence à cet égard, car une solution simple comme la suppression du sexe des employés dans les données relatives à la formation peut s‘avérer inefficace.
Au lieu de cela, l‘algorithme d‘IA peut identifier des modèles de passe-temps à dominante masculine comme indicateurs d‘employés souhaitables, par exemple.
La définition des objectifs d‘un modèle d‘apprentissage profond peut également être à l‘origine de biais, mais ceux qui gèrent le processus peuvent éviter cela en définissant des objectifs contextuels afin que les recommandations soient générées avec précision.
Enfin, des biais peuvent également être introduits lors de la phase de préparation des données en vue de leur traitement.
Il en résulte souvent que certains attributs des algorithmes sont privilégiés par rapport à d‘autres.
Il est impératif que cette étape soit réalisée avec précision, car le choix des attributs à prendre en compte ou à ignorer aura un impact significatif sur la précision des résultats.
La conception d‘un pipeline de données capable de gérer les exceptions est cruciale pour garantir que les données sont suffisantes pour obtenir de bons résultats en matière de formation.
Si nous ne savons pas exactement d‘où proviennent les préjugés liés à l‘IA, comment pouvons-nous les prévenir ?
Les décideurs informatiques et commerciaux doivent être conscients des préjugés possibles et de la manière dont l‘IA peut être utilisée pour ne pas les encourager ou les introduire accidentellement.
Les tests sont primordiaux - les biais ne sont souvent découverts qu‘au moment de la mise en service d‘un système, alors que le problème peut devenir beaucoup plus difficile à résoudre.
Tester le système par rapport aux attentes au fur et à mesure de son développement et impliquer un groupe diversifié de parties prenantes dans l‘évaluation est essentiel pour sa précision et son succès.
Progrès dans la lutte contre la probabilité des préjugés
Lorsqu‘il s‘agit d‘étudier la source des préjugés, on constate souvent que l‘implication humaine, qui alimente les systèmes sous-jacents, est responsable de l‘introduction des préjugés.
Cependant, une fois ce problème identifié et résolu, les développeurs doivent également vérifier les données sous-jacentes pour confirmer qu‘elles sont pleinement représentatives de tous les facteurs susceptibles d‘influer sur la décision de l‘entreprise. Des algorithmes capables de détecter et de réduire efficacement les biais ont été créés, ce qui constitue un grand pas dans la bonne direction.
Le règlement GDPR de l‘Union européenne est un exemple des tentatives des gouvernements pour éviter les effets négatifs des biais de l‘IA.
Le GDPR donne aux consommateurs le droit d‘obtenir une explication sur la manière dont les décisions automatiques ont été prises sur la base de leurs données.
Elle protège également les consommateurs, car l‘IA et les différentes méthodes de profilage qu‘elle utilise ne peuvent être utilisées comme seul décideur dans des choix qui peuvent avoir un impact significatif sur les droits ou les libertés des individus.
Par exemple, l‘IA ne peut à elle seule décider si une personne est éligible à un prêt bancaire.
Promouvoir des approches axées sur les données
Alors que les industries cherchent à réduire les risques potentiels pour que l‘IA progresse de manière responsable, il est primordial que les résultats obtenus grâce à l‘IA reflètent des données globales et diversifiées.
Il est légitime de s‘inquiéter du fait que les décisions de l‘IA reflètent souvent les préjugés des cultures du premier monde, qui vont à l‘encontre des personnes les moins bien loties de la société.
Pour y remédier, les développeurs doivent veiller à inclure des données plus larges, plus globalisées et plus diversifiées.
En outre, l‘élaboration de modèles d‘IA à partir de données originales peut contribuer à éliminer les préjugés, car les systèmes d‘IA ont davantage de possibilités d‘être alimentés par des idées et des preuves réelles et peuvent donc évoluer pour offrir des perspectives qui vont au-delà du point de vue typique du premier monde.
Cette approche fondée sur les données permettrait également de doter les systèmes d‘IA d‘une souplesse et d‘une réactivité accrues et de les exposer à un ensemble plus complet et plus diversifié de considérations globales.
Une approche fondée sur les données est sans aucun doute la voie à suivre, mais pour ce faire, il est important de mettre l‘accent sur le développement de systèmes qui éliminent les silos de données, permettent une intégration transparente des données et garantissent un accès cohérent aux données et un flux d‘informations.
Cela est possible sans faire appel à des développeurs de logiciels experts, car il existe sur le marché des outils intuitifs en libre-service capables d‘intégrer de grands volumes de données entre différents systèmes.
Les données sont essentielles pour tout système d‘IA et, en fin de compte, il faut mettre en place des réglementations qui protègent contre les préjugés, mais qui permettent également un accès continu aux données et un flux d‘informations.
Plus le nombre de décisions prises sur la base de données erronées et de préjugés sera élevé, plus l‘IA aura du mal à continuer d‘innover et de progresser.
Ceux qui investissent pour s‘assurer qu‘ils peuvent accéder à un pool de données large et diversifié bénéficieront le plus en identifiant la véritable valeur de l‘IA et en empêchant les préjugés d‘influencer les décisions.