Comme nous l’avons défini la semaine dernière, l’intelligence artificielle (IA) est un champ d’étude des sciences informatiques qui vise à reproduire, par des machines, certaines capacités cognitives des êtres humains, comme apprendre, raisonner, percevoir, comprendre un langage naturel, résoudre des problèmes ou encore prendre des décisions.
Bien que l’intelligence artificielle ait connu des avancées spectaculaires ces dernières années, elle se heurte encore à plusieurs obstacles et limitations qu’il convient de garder à l’esprit.
Tout d’abord, le fonctionnement interne des algorithmes d’IA demeure très opaque et peu compréhensible pour l’humain. On parle de « boîte noire » pour désigner cette difficulté à retracer le raisonnement précis ayant conduit l’intelligence artificielle à prendre une décision. Cette opacité peut poser des problèmes de fiabilité et de confiance vis-à-vis de ces technologies.
Par ailleurs, les biais présents dans les jeux de données utilisés pour entraîner les IA risquent d’être reproduits et même amplifiés par ces dernières. Des préjugés sexistes ou racistes dans les données d’apprentissage peuvent ainsi se retrouver dans les décisions de l’intelligence artificielle formée sur ces données.
L’accès à des quantités massives de données de qualité constitue également un enjeu crucial. Sans suffisamment de données représentatives, variées et bien labellisées, l’IA ne peut pas s’entraîner correctement et généraliser ses capacités à des situations nouvelles.
La cybersécurité représente un autre défi de l’intelligence artificielle : des IA mal intentionnées ou mal développées pouvant poser des problèmes de piratage, de manipulations ou de fuites de données sensibles.
En outre, le développement d’une IA fiable nécessite d’importants moyens technologiques pour le stockage et le traitement des données, ainsi que des investissements humains en termes d’experts en données et en algorithmie.
Sur le plan éthique, certaines applications de l’intelligence artificielle soulèvent des questionnements qu’il convient d’anticiper et d’encadrer, notamment concernant l’autonomie des machines, la vie privée et la transparence.
Enfin, ces technologies suscitent des inquiétudes légitimes sur leur impact potentiel en matière d’emplois, d’où des résistances psychologiques au changement qu’il faut prendre en compte.
Pour résumer, l’intelligence artificielle constitue une technologie prometteuse, mais qui nécessite transparence, éthique et supervision humaine pour déployer tout son potentiel au service du bien commun.

Dr Mariam Bendriss