Discours à l’occasion de l’ouverture de la Conférence des Ministres de la Justice « La Justice en Europe face aux défis du numérique »
Strasbourg, 14 octobre 2019

Mesdames et Messieurs les Ministres,
Mesdames et Messieurs,

J’ai l’honneur de m’adresser à vous aujourd’hui, en tant que Présidente de l’Assemblée parlementaire du Conseil de l’Europe, organe politique générateur d’idées de notre organisation et forum de débats au niveau européen. Je tiens à féliciter la Présidence française du Conseil de l’Europe d’avoir choisi le sujet de la justice face aux défis du numérique pour cette conférence ministérielle. La digitalisation de nos sociétés pose effectivement des défis éthiques, sociétaux et juridiques importants aussi bien en ce qui concerne l’accès au droit et à la justice en général que pour la justice pénale en particulier, comme les titres des deux sessions de cette conférence l’indiquent.

Pour ce qui est de l’accès au droit et à la justice, le numérique représente sans doute une bonne opportunité. En effet, l’utilisation d’outils informatiques modernes permet d’abaisser considérablement les obstacles qui s’opposent à cet accès, notamment pour les populations les plus vulnérables. Des litiges peuvent être résolus à moindre coût et, surtout, plus rapidement, comme notre Assemblée l’a reconnu dans l’un de ses récents rapports. Mais, en même temps, la digitalisation implique aussi des risques. Il faut mettre en place des garanties solides pour qu’il n’en résulte pas une justice de moindre qualité pour les personnes défavorisées, en raison des inégalités d’accès aux technologies modernes et aux ressources en ligne ou, au pire, avec des « pseudo-jugements » émis par des « robots-juges ».

De même, en matière de justice pénale, le numérique – y compris l’intelligence artificielle – peut avoir un effet bénéfique en facilitant l’harmonisation de l’application de la loi à travers les régions et les groupes sociaux et en réduisant les risques d’erreur humaine. Mais, ici encore, il y a des dangers. Ces dangers sont d’autant plus importants pour certains groupes de personnes qui peuvent voir leurs droits d’avantage affectés par l’intelligence artificielle. Tel est, par exemple, le cas des femmes, des personnes âgées, des membres de minorités ethniques ou encore des personnes économiquement défavorisées ou en situation de handicap.

Mesdames et Messieurs,

Permettez-moi de relever ici un aspect qui n’est pas sans importance dans nos débats : il s’agit du fait que le domaine de l’intelligence artificielle reste un secteur majoritairement masculin. Comme l’a démontré une étude récente, seulement 22% des personnes travaillant dans ce domaine sont des femmes, contre 78% des hommes. Ces chiffres parlent d’eux-mêmes.

Cet aspect est crucial quand on parle du risque de discrimination résultant de l’utilisation de l’intelligence artificielle. En effet, un tel système risque de reproduire les préjugés humains reflétés dans les données avec lesquelles l’algorithme est alimenté, par exemple sur le genre, la race ou encore l’appartenance ethnique ou religieuse d’une personne, en leur donnant une autorité quasi-scientifique.

Cet état de fait risque ainsi de conduire à des résultats à effets potentiellement discriminatoires. Ceci est notamment le cas de la justice « prédictive » et des systèmes d’intelligence artificielle conçus à des fins de prévention de la criminalité. Ainsi, par exemple, plus de patrouilles de police dans certains quartiers dits « sensibles », en raison d’un plus grand nombre de crimes et de délits qui y ont été commis dans le passé, vont évidemment augmenter le nombre d’arrestations et de poursuites dans ces mêmes quartiers à l’avenir ce qui entretiendra leur mauvaise réputation. Un autre exemple est l’utilisation croissante d’algorithmes qui permettent d’évaluer le risque de fuite ou la probabilité de récidive, conçus afin d’aider les juges à prendre des décisions telles que la suspension d’une peine de prison ou la libération conditionnelle. Il est d’autant plus difficile d’éviter de tels préjugés que les algorithmes inclus dans les logiciels fournis par des entreprises privées sont, pour les autorités judiciaires, une « boîte noire », protégée par le droit à la propriété intellectuelle. Un rapport en cours d’élaboration dans notre Assemblée tente d’apporter quelques réponses à ces questions délicates.

Mesdames et Messieurs,

Il est clair que vous jouez, en tant que représentantes et représentants de vos gouvernements respectifs, mais aussi que les parlements nationaux et notre Assemblée jouent un rôle important dans ce débat, car la digitalisation croissante et certains aspects de l’intelligence artificielle touchent au cœur même du fonctionnement démocratique, de l’Etat de droit et des droits humains au sein de nos sociétés. Il est impératif de disposer d’un cadre juridique uniforme ! Le Conseil de l’Europe s’y est engagé dans cette perspective, dans la continuité des travaux précédents et des outils déjà existants.

De plus, le sujet de l'intelligence artificielle n'a pas de frontières, d'où la nécessité de se réunir ici, à l’échelle européenne, afin d’en discuter. Actuellement, notre Assemblée est en train d’élaborer pas moins de cinq rapports sur la nécessité d’assurer une gouvernance démocratique et sur les effets de l’intelligence artificielle sur les droits humains, dans des domaines aussi divers que la justice, le marché de travail, la santé ou la prévention des discriminations. Un débat joint sur ces différents aspects est d’ailleurs prévu au sein de notre Assemblée au courant de l’année prochaine.

J'attends avec impatience les conclusions de la Conférence qui, j'en suis sûre, nous aideront à poursuivre nos travaux dans ce domaine et à apporter ainsi les bonnes réponses aux nombreuses questions qui se posent à nous.

Je vous remercie pour votre attention.