Nous reproduisons ci-après le résumé du rapport publié sous l’égide de la Commission européenne le 8 avril 2019.

L’objectif des lignes directrices est de promouvoir une IA digne de confiance. L’IA digne de confiance comporte trois composantes, qui doivent être respectées tout au long du cycle de vie du système : (1) elle doit être légale, conforme à toutes les lois et réglementations applicables, (2) elle doit être éthique, en garantissant le respect des principes et valeurs éthiques et (3) elle doit être solide, tant d’un point de vue technique que social car, même avec de bonnes intentions, les systèmes d’IA peuvent causer des dommages non intentionnels. Chaque composante en soi est nécessaire mais non suffisante pour atteindre une IA digne de confiance. Idéalement, les trois composantes fonctionnent en harmonie et se chevauchent dans leur fonctionnement. Si, dans la pratique, des tensions apparaissent entre ces composantes, la société devrait s’efforcer de les harmoniser.  
Ces lignes directrices établissent un cadre pour atteindre une IA digne de confiance. Le cadre ne traite pas explicitement de la première composante de l’IA digne de confiance (IA licite).1 Il vise plutôt à offrir des conseils sur les deuxième et troisième composantes : favoriser et assurer une IA éthique et robuste. S’adressant à toutes les parties prenantes, ces lignes directrices visent à aller au-delà d’une liste de principes éthiques, en fournissant des orientations sur la manière dont ces principes peuvent être mis en œuvre dans les systèmes sociotechniques. L’orientation est fournie en trois niveaux d’abstraction, du plus abstrait au chapitre I au plus concret au chapitre III, se terminant par des exemples d’opportunités et de préoccupations critiques soulevées par les systèmes d’IA. 
I. Basé sur une approche fondée sur les droits fondamentaux, le chapitre I identifie les principes éthiques et leurs valeurs corrélées qui doivent être respectés dans le développement, le déploiement et l’utilisation des systèmes d’IA.