Début de la page

Peut-on faire confiance à l'intelligence artificielle?

Présente dans de nombreuses applications comme les systèmes de navigation automobile, les chatbots, ou les logiciels de reconnaissance d'images, l'intelligence artificielle (IA) a le potentiel de changer considérablement la société. Pour l'instant, elle souffre encore d'un déficit de confiance et de réglementation. La conférence «AI with trust», organisée avec le concours du DFAE à Genève, se penche sur ces questions. Elle offre une plateforme d'échange sur les défis les plus urgents en matière d'IA. Du fait de sa crédibilité et de sa neutralité mais aussi de son profil de pôle d'innovation, la Suisse peut apporter une valeur ajoutée au débat.

Un smartphone affiche un emoji qui s'interroge.

L'intelligence artificielle recèle un grand potentiel. La Suisse apporte une valeur ajoutée dans le débat sur la confiance envers l'intelligence artificielle et sur la réglementation de cette dernière. © Markus Winkler/Unsplash

L'intelligence artificielle (IA) a pris à notre insu une place croissante dans de nombreux domaines de notre quotidien. Lorsqu'au réveil, encore ébourrifés, nous jetons un regard sur notre smartphone, l'IA déverrouille le téléphone grâce à un logiciel de reconnaissance faciale. Ensuite, nous ouvrons notre application de messagerie. Grâce à l'IA, les courriels publicitaires et les courriels d'hameçonnage indésirables finissent dans notre dossier de courriels indésirables. Puis nous nous rendons au travail. L'IA du système de navigation nous avertit des embouteillages et calcule pour nous l'itinéraire le plus rapide. Le soir, l'IA de Netflix nous suggère des films qui pourraient nous intéresser.

L'intelligence artificielle, un domaine nébuleux

La croissance exponentielle de la puissance de calcul des ordinateurs ces dernières décennies, la disponibilité de quantités massives de données et le développement de l'apprentissage automatique ont mené l'intelligence artificielle là où elle en est aujourd'hui. Grâce à l’IA, il est désormais possible de confier à des ordinateurs des tâches que seul l’être humain était capable d’accomplir auparavant, ce qui est susceptible d'entraîner une transformation radicale de l'économie et de la société. La traduction automatique, les voitures autonomes, les chatbots ou les logiciels de reconnaissance faciale ne sont que quelques exemples. Cependant l'IA reste pour beaucoup un domaine nébuleux: Le manque de transparence sur la façon dont l'IA aboutit à une décision, le recours à l'IA pour la surveillance de masse, la manipulation des campagnes électorales à l'aide de l'IA ou les systèmes d'armes autonomes pèsent sur la confiance que la société accorde à l'intelligence artificielle. Selon une étude commandée par le Forum économique mondial, 60% des adultes dans le monde s'attendent à ce que les produits et services utilisant l'intelligence artificielle leur facilitent la vie. En même temps, seulement 50 % déclarent avoir autant confiance dans les entreprises qui utilisent l'IA que dans celles qui ne l'utilisent pas.

Comment rendre les systèmes IA plus crédibles?

Les systèmes IA aident l'être humain dans de nombreux domaines et sont développés dans le monde entier. Pourtant ils soulèvent des questions fondamentales concernant l'éthique, le droit et la normalisation, car la technologie n’est jamais neutre sur le plan des valeurs. Les développeurs d'intelligence artificielle intègrent dans leurs applications des valeurs propres à la culture et à l'environnement social dont ils sont issus. Des discussions à ce sujet ont lieu au niveau international, dans de nombreux domaines, mais elles restent vagues, sectorielles et peu coordonnées. La politique extérieure de la Suisse encourage les échanges entre les principaux acteurs de l'IA. Conformément à sa stratégie de politique extérieure 2020-2023, la Suisse joue un rôle actif dans l'élaboration d'un cadre réglementaire international pour l'intelligence artificielle, destiné à instaurer la confiance envers les systèmes IA. Un cadre réglementaire international organise la coopération entre les acteurs, définit une répartition claire des rôles et fixe des règles précises; ces dernières doivent également laisser au secteur privé la marge de manœuvre nécessaire pour l'innovation.

La valeur ajoutée suisse dans le débat international

Le pôle suisse de recherche, de développement et d'innovation dans le domaine de l'intelligence artificielle est très en avance par rapport à d'autres pays. De nombreuses entreprises actives à l'échelle mondiale dans les secteurs de la technique médicale, de l'industrie pharmaceutique ou de l'industrie des machines délocalisent leur production à l'étranger, mais maintiennent le développement de leurs produits et services en Suisse pour favoriser l'innovation. En tant qu'État hôte, la Suisse réunit dans la Genève internationale un grand nombre d'acteurs et d'organisations considérés comme un «centre de pouvoir normatif». Il s'agit d'États, d'organisations multilatérales et d'entreprises privées, qui jouent un rôle central dans l'élaboration de normes et de standards mondiaux pour les systèmes IA.

La fondation «Geneva Science and Diplomacy Anticipator» (GESDA) est aussi un acteur genevois. Elle s'emploie à anticiper les révolutions technologiques et scientifiques - dont l'intelligence artificielle - et à analyser leur impact sur l'humanité. Les discussions internationales sur l'IA ont une forte composante géopolitique. Grâce à sa neutralité et à sa stabilité politique, la Suisse peut apporter une valeur ajoutée dans ce domaine. Sa réputation de médiateur crédible lui permet aussi de contribuer à trouver des solutions de compromis.

Élaboration d'un cadre réglementaire international

La conférence d'experts «Artificial Intelligence with trust», qui se déroule sur deux jours à Genève, réunit des acteurs importants dans le domaine de l'IA. Elle offre une plate-forme d'échange sur les défis les plus urgents en matière d'IA. Les discussions internationales menées jusqu'à présent ont permis de dégager cinq niveaux pertinents pour l'élaboration d'un cadre réglementaire international concernant l'IA, qui gagneraient à être mieux connectés entre eux:

Droit international

Le droit international comprend déjà un grand nombre de normes juridiques qui sont fondamentales pour l'intelligence artificielle. Elles portent notamment sur l'interdiction de la discrimination et de l'arbitraire ou sur le droit à la liberté d'expression, qui font partie des droits de l'homme. Il en va de même pour le droit international humanitaire dans les conflits armés, par exemple dans la gestion des systèmes d'armes autonomes. À ce niveau, le dialogue entre les principaux acteurs de l'IA devrait contribuer à adapter les normes du droit international aux questions soulevées par l'intelligence artificielle et, si nécessaire, à les faire évoluer.

Droit souple

Il existe déjà, dans le droit souple (soft law), divers instruments qui énoncent des principes juridiquement non contraignants pour l'utilisation de l’IA. C'est ainsi que les forums du G7 et du G20 ont arrêté en 2019 des principes régissant l'approche en matière d'IA. Il s'agit notamment de mettre à profit l’IA pour favoriser une croissance inclusive et durable et de promouvoir une IA axée sur le facteur humain. Ces principes s'inspirent fortement de ceux de l'OCDE, qui a également publié des recommandations en matière d'IA.

Un droit national de portée internationale

Des pays comme les États-Unis ou la Chine, qui encouragent fortement le développement de l'IA, influencent indirectement le déploiement et l'utilisation de l'IA dans d'autres pays, à travers leur droit national. C'est ainsi qu'une norme juridique nationale acquiert une portée internationale.

Normes techniques et engagement volontaire des entreprises

Les organisations de normalisation telles que l'Organisation internationale de normalisation (ISO), la Commission électrotechnique internationale (CEI) et l'Union internationale des télécommunications (UIT) fixent des normes techniques, qui réglementent par exemple le fonctionnement des robots guidés par l'IA qui dispensent des conseils nutritionnels ou les systèmes smarthome (maison intelligente). Les normalisations jouent un rôle essentiel dans le secteur industriel et sont parfois déclarées obligatoires sur le plan national ou international. De nombreuses entreprises technologiques publient également des déclarations dans lesquelles elles prennent des engagements volontaires en matière d’IA et d’éthique. Elles s'inspirent souvent des dispositions du droit international.

Le développement technologique se traduit par des faits

Les grandes entreprises technologiques génèrent, par la simple conception de leurs produits, des faits qui nécessitent des normes techniques et juridiques. Le déploiement prévu par Apple d’un filtre basé sur l’IA pour lutter contre les contenus pédopornographiques en est un exemple. Mais ce filtre était trop en avance sur son temps en termes de protection de la vie privée et de protection des données. Son introduction a donc été reportée. Le fonctionnement du filtre pourrait constituer un précédent susceptible d’influencer la réglementation relative à l’IA dans ce domaine.

AI with trust»: conférence sur l'harmonisation de l'intelligence artificielle

Construire la confiance dans l'intelligence artificielle est devenu vital pour le secteur industriel, la communauté scientifique, le législateur, les développeurs de normes et les contrôleurs chargés de vérifier le respect des prescriptions. C'est dans ce contexte que le Département fédéral des affaires étrangères (DFAE) organise, les 16 et 17 mai 2022 à Genève, en collaboration avec la Commission électrotechnique internationale (CEI), la conférence d'experts intitulée «Artificial Intelligence with trust». L'objectif de la conférence est d'examiner les interactions entre la législation, les normes et l'évaluation de la conformité et de définir des étapes afin d'harmoniser les efforts internationaux en matière d'IA.