intelligence artificielle

Europe, Numérique, Technologie

Quand l’intelligence artificielle se heurte à l’éthique

Entre le développement fulgurant de l’intelligence artificielle et les freins éthiques, un groupe d’experts européens va se pencher sur les défis posés par les avancées technologiques sur fond de droits fondamentaux des citoyens de l’Union. L’enjeu du débat : concilier réussite et éthique dans l’utilisation et le développement de l’intelligence artificielle.

L’exécutif européen a lancé l’appel à candidatures pour la participation à un groupe d’experts, qui sera clôturé le 9 avril prochain. Le groupe aura la mission d’élaborer une proposition de lignes directrices sur « des questions telles que l’équité, la sécurité, la transparence, l’avenir du travail, la démocratie et plus généralement l’impact de l’application de la Charte des droits fondamentaux ».

Andrus Ansip, vice-président de la Commission pour le marché unique numérique, a déclaré que l’exécutif tentait avec ces initiatives de mettre en place « un environnement permettant à l’Europe de tirer le meilleur parti des possibilités offertes par l’intelligence artificielle tout en respectant l’individu ».

Le travail du groupe d’experts partira de la déclaration faite par le Groupe européen d’éthique des sciences et des nouvelles technologies (GEE), un organe consultatif indépendant de la Commission qui considère que l’intelligence artificielle soulève des questions morales urgentes et complexes. Il faut un cadre juridique commun reconnu pour la conception, la production et l’utilisation de l’intelligence artificielle, de la robotique et des systèmes ‘autonomes’. Les discussions incluent les robots intelligents dotés de facultés d’apprentissage, ainsi que les programmes informatiques qui imitent le comportement humain, comme les « bots ».

Les conseillers externes de la Commission européenne d’éthique des sciences et des nouvelles technologies se posent des questions pointues concrètes. Ils se demandent par exemple « comment attribuer la responsabilité morale, et qui est responsable des résultats négatifs ? », se référant, par exemple, à un accident du trafic causé par un véhicule autonome sans conducteur. Le groupe d’expert devra donc s’interroger sur la manière de réglementer, développer, vérifier, surveiller, tester et certifier l’intelligence artificielle.