Imprimer
Autres documents liés

Rapport | Doc. 14288 | 10 avril 2017

La convergence technologique, l’intelligence artificielle et les droits de l’homme

Commission de la culture, de la science, de l'éducation et des médias

Rapporteur : M. Jean-Yves LE DÉAUT, France, SOC

Origine - Renvoi en commission: Doc. 13833, Renvoi 4145 du 28 septembre 2015. 2017 - Deuxième partie de session

Résumé

L’omniprésence des nouvelles technologies et de leurs applications estompe la distinction entre l’homme et la machine, entre les activités en ligne et hors ligne, entre le monde physique et le monde virtuel, le naturel et l’artificiel, entre la réalité et la virtualité.

Le présent rapport explore les conséquences sociales, éthiques et juridiques de la convergence technologique, de l’intelligence artificielle et de la robotique du point de vue des droits de l’homme. La préservation de la dignité humaine au XXIe siècle nécessite le développement de nouvelles formes de gouvernance et de débat public ouvert, éclairé et contradictoire, de nouveaux mécanismes législatifs et surtout l’instauration d’une coopération internationale. Il formule un certain nombre de recommandations d’actions au sein du Conseil de l’Europe et préconise une coopération étroite avec les institutions de l’Union européenne et l’UNESCO pour garantir un cadre juridique cohérent et des mécanismes de supervision efficaces au niveau international.

A. Projet de recommandation 
			(1) 
			Projet
de recommandation adopté à l’unanimité par la commission le 22 mars
2017.

(open)
1. Les convergences entre les nanotechnologies, les biotechnologies, les technologies de l’information et les sciences cognitives et la vitesse à laquelle les applications des nouvelles technologies sont mises sur le marché ont des incidences non seulement sur les droits de l’homme et la façon dont ils peuvent être exercés, mais aussi sur la définition de la notion fondamentale de ce qui caractérise l’être humain.
2. L’omniprésence des nouvelles technologies et de leurs applications estompe la distinction entre l’homme et la machine, entre les activités en ligne et hors ligne, entre le monde physique et le monde virtuel, le naturel et l’artificiel, entre la réalité et la virtualité. L’homme augmente ses capacités en les dopant grâce aux apports de machines, de robots, de logiciels. On sait aujourd’hui créer des interfaces cerveau/ordinateur fonctionnelles. De l’homme «soigné», on est passé à l’homme «réparé» et se profile aujourd’hui à l’horizon l’homme «augmenté».
3. L’Assemblée parlementaire note avec préoccupation que le législateur a de plus en plus de mal à s’adapter à l’évolution de la science et des technologies et à élaborer les textes réglementaires et normatifs qui s’imposent; elle est fermement convaincue que la préservation de la dignité humaine au XXIe siècle suppose le développement de nouvelles formes de gouvernance et de débat public ouvert, éclairé et contradictoire, de nouveaux mécanismes législatifs et surtout l’instauration d’une coopération internationale permettant de relever ces nouveaux défis de la manière la plus efficace.
4. A ce sujet, l’Assemblée se félicite de l’initiative du Comité de bioéthique du Conseil de l’Europe d’organiser, en octobre 2017 à l’occasion du 20e anniversaire de la Convention du Conseil de l'Europe sur les droits de l’homme et la biomédecine (STE no 164, «Convention d’Oviedo»), une conférence internationale pour examiner les perspectives de l’émergence de ces nouvelles technologies et leurs conséquences sur les droits de l’homme, en vue d’élaborer un plan d’action stratégique au cours du prochain biennium 2018‑2019.
5. Par ailleurs, l’Assemblée considère qu’il est nécessaire de mettre en œuvre une véritable gouvernance mondiale de l’internet qui ne dépende pas de groupes d’intérêts privés ni de quelques États.
6. L’Assemblée invite le Comité des Ministres:
6.1. à achever la modernisation de la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (STE no 108) afin d’avoir de nouvelles dispositions permettant la mise en place rapide d’une protection mieux adaptée;
6.2. à définir le cadre de l’utilisation de robots de soins et de technologies d’assistance dans la Stratégie du Conseil de l'Europe sur le Handicap 2017‑2023 dont l’un des objectifs est d’assurer aux personnes handicapées l’égalité, la dignité et l’égalité des chances.
7. Compte tenu de ce qui précède, l’Assemblée invite instamment le Comité des Ministres à charger les organes compétents du Conseil de l'Europe d’examiner la manière dont les produits intelligents et/ou les objets connectés et plus généralement la convergence technologique et ses conséquences sociales et éthiques dans les domaines de la génétique et de la génomique, des neurosciences et des mégadonnées (big data) remettent en question les différentes dimensions des droits de l’homme.
8. Par ailleurs, l’Assemblée propose que de lignes directrices soient développées sur les questions suivantes:
8.1. le renforcement de la transparence, de la réglementation des pouvoirs publics et de la responsabilité des opérateurs concernant:
8.1.1. les opérations de traitements automatisés visant à collecter, manier et utiliser les données à caractère personnel;
8.1.2. l’information du public sur la valeur des données qu’il produit, le consentement sur leur utilisation et la fixation de la durée de conservation de ces données;
8.1.3. l’information de toute personne sur le traitement de données personnelles dont elle est la source ainsi que sur les modèles mathématiques et statistiques qui permettent le profilage;
8.1.4. la conception et l’utilisation de logiciels persuasifs et d’algorithmes des technologies de l’information et de la communication (TIC) ou de l’intelligence artificielle respectant pleinement la dignité et les droits fondamentaux de tous les utilisateurs, en particulier les plus vulnérables, dont les personnes âgées et les personnes handicapées;
8.2. un cadre commun de normes à respecter lorsqu’une juridiction a recours à l’intelligence artificielle;
8.3. la nécessité pour toute machine, tout robot ou tout produit doté d’intelligence artificielle de rester sous le contrôle de l’homme; dans la mesure où toute machine n’est intelligente que par son logiciel, tout pouvoir qui lui a été donné doit pouvoir lui être retiré;
8.4. la reconnaissance de nouveaux droits concernant le respect de la vie privée et familiale, pouvoir refuser de faire l’objet de profilage, d’être géolocalisé, d’être manipulé ou sous l’influence d’un «coach» et d’avoir la possibilité, dans le cadre des soins et de l’assistance octroyés aux personnes âgées et aux personnes handicapées, de choisir le contact humain plutôt que le robot.
9. L’Assemblée préconise une coopération étroite avec les institutions de l’Union européenne et l’Organisation des Nations Unies pour l’éducation, la science et la culture (Unesco) pour garantir un cadre juridique cohérent et des mécanismes de supervision efficaces au niveau international.

B. Exposé des motifs, par M. Jean-Yves Le Déaut, rapporteur

(open)

1. Introduction

1. L’intelligence artificielle permet la simulation d’intelligence ou même la création de machines intelligentes grâce à l’augmentation exponentielle des puissances de calcul. La convergence entre les nanotechnologies, la biotechnologie, les technologies de l’information et les sciences cognitives («NBIC») entraîne une interaction croissante entre les sciences du vivant, l’informatique et l’ingénierie.
2. De nos jours, certains robots peuvent imiter le comportement humain et entrent en compétition avec l’homme sur le marché du travail et dans la vie courante, dans la mesure où ils sont capables d’un apprentissage automatique perceptuel par l’expérience, qu’ils deviennent autonomes, qu’ils ont d’énormes capacités de mémoire et qu’une certaine forme de conscience artificielle est programmée dans la machine, ce qui leur donne d’une certaine manière l’aptitude à raisonner. De nouvelles machines dotées d’intelligence artificielle seront utilisées dans les systèmes experts, dans les systèmes de commandement militaire, dans l’aide au diagnostic et aux décisions, dans l’évaluation des risques, dans la gestion financière, dans la reconnaissance des formes et de la parole, et certaines machines pourront exprimer des émotions artificielles et seront capables de résoudre des problèmes complexes.
3. Ces évolutions soulèvent de nouvelles questions quant à leurs implications pour les droits de l’homme et la dignité humaine et, parfois, la délimitation des frontières entre l’être humain et la machine intelligente.
4. J’entends, dans le présent rapport, examiner les conséquences sociales, éthiques et juridiques de la convergence technologique, de l’intelligence artificielle et de la robotique sous l’angle des droits de l’homme, en jetant un regard prospectif sur les nouvelles formes de gouvernance, souhaitables, sur l’organisation du débat public, sur l’évolution de la réglementation, de la législation et de la coopération internationale.
5. Je tiens à remercier MM. Rinie van Est et Joost Gerritsen, de l’Institut Rathenau (Pays-Bas), pour l’aide qu’ils m’ont apportée en élaborant un rapport d’expert que M. van Est a présenté à la commission de la culture, de la science, de l'éducation et des médias en décembre 2016 
			(2) 
			Document
AS/Cult/Inf (2016) 11, où figurent également de nombreux renvois
à des études intéressantes.. Je tiens également à remercier tous les autres experts qui ont pris part aux auditions organisées par la commission 
			(3) 
			M. Raja
Chatila, directeur, Institut des systèmes intelligents et de robotique
(ISIR), université Pierre et Marie Curie (UPMC), France; M. Dmytro
Shymkiv, chef adjoint de l’administration présidentielle chargé
des réformes administratives, sociales et économiques, Ukraine;
M. Gérard Lommel, vice-président du Comité consultatif de la Convention
pour la protection des personnes à l’égard du traitement automatisé
des données à caractère personnel, Conseil de l’Europe; M. Jean-Marc
Deltorn, chercheur au Centre d’études internationales de la propriété
intellectuelle (CEIPI), université de Strasbourg, France; Mme Dafna
Feinholz, chef de section, Bioéthique et éthique des sciences, UNESCO.. Les deux chapitres qui suivent se fondent sur les échanges que nous avons eus avec l’Institut Rathenau et les autres experts.

2. Convergence technologique

6. La convergence dite «NBIC» concerne quatre disciplines: les nanotechnologies, la biotechnologie, les technologies de l’information et les sciences cognitives.
7. Dans la seconde partie du XXe siècle, l’ère de la «révolution de l’information» a été marquée par la convergence des technologies de l’information (TI), qui a donné naissance à toute une série de disciplines scientifiques et de processus industriels et de services. L’internet, par exemple, est né de la convergence entre les TI et les technologies de la communication. La recherche sur le génome humain, qui continue de progresser, est issue de la convergence entre la biologie et les TI, car le décryptage du génome est lié à la puissance de calcul. Et inversement, la communauté des TI, inspirée par les avancées de la biologie, a inventé les réseaux neuronaux, l’intelligence en essaim et les ordinateurs à ADN. L’émergence rapide des sciences cognitives ces dernières décennies a accéléré le passage de la convergence NBI (nanotechnologies, biotechnologies et technologies de l’information) à la convergence NBIC, et a donné un nouveau souffle à l’«intelligence artificielle» et à la robotique.
8. On peut observer deux tendances qui témoignent de l’interface grandissante entre l’homme et la machine 
			(4) 
			R. van Est et D. Stemerding
(eds.) (2012), European governance challenges in bio-engineering
– Making perfect life: Bio-engineering (in) the 21st century, Final
report, STOA, Parlement européen, Bruxelles.. D'une part, la biologie devient une technologie. Autrement dit, les sciences physiques (nanotechnologies et technologies de l’information) contribuent à faire progresser les sciences du vivant comme les biotechnologies et les sciences cognitives. Cette convergence suscite de nouvelles ambitions dans le domaine des processus biologiques et cognitifs, notamment en ce qui concerne l’amélioration des capacités humaines. La commission des questions sociales, de la santé et du développement durable prépare actuellement un rapport sur «Des êtres humains génétiquement modifiés» 
			(5) 
			Proposition
de recommandation, Doc. 13927.. Je prépare moi-même un rapport pour le Parlement français sur la révolution de la modification ciblée du génome (genome editing) 
			(6) 
			«Les enjeux économiques,
environnementaux, sanitaires et éthiques des biotechnologies à la
lumière des nouvelles pistes de recherche», Jean-Yves Le Déaut,
député à l’Assemblée nationale française, et Catherine Procaccia,
membre du Sénat français, 2017..
9. D’aucuns pensent que le développement des neurosciences, la simulation des circuits neuronaux permettra désormais de savoir ce qu’une personne a tendance à penser, à faire ou à vouloir – de lire en elle finalement, et de mieux évaluer les comportements individuels et collectifs et, partant, de contrôler, voire de manipuler autrui.
10. La seconde tendance concerne le fait que technologie et biologie se rejoignent et se complètent, car les sciences de la vie stimulent, font progresser et apportent de nouveaux concepts aux sciences physiques. Autrement dit, les technologies, notamment les technologies de l’information, acquièrent des propriétés que nous attribuons habituellement aux organismes vivants, comme l’autoassemblage, l’autoguérison, la reproduction et le comportement intelligent. De ce fait, nous assisterons à l’avenir à une multiplication de nouveaux types de modifications dues à l’homme (artefacts) utilisant les technologies bio, cogno et même socio, qui seront insérées dans notre corps ou notre cerveau ou étroitement intégrées dans notre vie sociale. Parmi ces artefacts bioinspirés, citons les produits biopharmaceutiques, les produits de l’ingénierie tissulaire, les cellules souches et les xénogreffes, ou encore les organes artificiels hybrides. Les robots humanoïdes, les avatars, les softbots (agents logiciels dans un environnement numérique), les technologies persuasives qui peuvent infléchir des décisions et modifier les rapports avec les autres, et les techniques de détection des émotions sont des exemples «d’artefacts» inspirés par les sciences cognitives et les sciences sociales.
11. L’intelligence artificielle et la robotique s’appuient sur l’infrastructure existante des technologies de l’information et de la communication (TIC) et des nanotechnologies. Non seulement les robots sont utilisés en médecine, dans l’agriculture et dans l’industrie manufacturière, mais ils sont aussi capables aujourd’hui de conduire des voitures et de piloter des drones. De plus, les dispositifs intelligents transforment la nature de l’internet qui remplit les fonctions d’un gigantesque système robotique, en étant doués de la capacité d’apprentissage
12. Les humains sont de plus en plus intimement liés à la technologie 
			(7) 
			R. van Est, avec l’aide
de V. Rerimassie, I. van Keulen et G. Dorren (2014), Intimate technology:
The battle for our body and behaviour, Institut Rathenau, La Haye. . Nous laissons la technologie se nicher en nous, près de nous et entre nous. La technologie s’immisce entre nous à grande échelle par le biais des smartphones, des traqueurs d’activité, des réseaux sociaux, des jeux en ligne massivement multijoueurs ou des lunettes de réalité augmentée. Ces appareils numériques s’immiscent dans notre vie, privée et sociale, et influencent de plus en plus la façon dont nous, humains, interagissons. Nos interactions avec les machines qui nous entourent – caméras de vidéosurveillance, données GPS, chaussures intelligentes, puces à ADN, technologies de reconnaissance faciale, moteurs de recherche sur internet, voitures intelligentes, etc. – permettent de nous caractériser numériquement. Des données numériques sont ainsi collectées, sur notre patrimoine génétique, notre santé, nos inclinations, nos passe-temps, nos sentiments, nos préférences, nos conversations et nos déplacements. Ces données ne sont pas recueillies sans but: il s’agit dans bien des cas de faire entrer les êtres humains dans des profils, dans le but explicite d’intervenir dans nos choix futurs.
13. Enfin, certaines technologies présentent de plus en plus de caractéristiques humaines. Les machines peuvent développer des traits humains et nous toucher par leur apparence extérieure, elles peuvent imiter les activités humaines, conduire une voiture par exemple, adopter des comportements intelligents voire exprimer des émotions. Citons par exemple les voitures sans chauffeur, les robots sociaux, les assistants numériques, les chatbots, Google Traduction et IBM Watson Health, qui fait office de système d’aide à la décision clinique et est utilisé par des professionnels de santé. Notons – et c’est important – que si ces machines sont aptes à imiter les caractéristiques ou les activités humaines, c’est souvent grâce à l’énorme volume de données accumulées sur nos caractéristiques propres et nos activités. Google se base sur des traductions humaines numérisées, par exemple celles produites par les traducteurs du Parlement européen, pour entraîner ses algorithmes. Rassembler quantité de données numériques sur nous-mêmes permet aux ingénieurs de réaliser des machines qui se comportent comme nous et donc d’accroître l’interaction entre les humains et les machines.
14. Jusqu’à présent, l’essentiel du débat bioéthique et la plupart des traités connexes sur les droits de l’homme étaient axés sur les technologies biomédicales invasives, agissant à l’intérieur de notre organisme. La Convention du Conseil de l'Europe sur les droits de l’homme et la biomédecine (STE no 164, «Convention d’Oviedo») énonce ainsi quelques principes directeurs communs destinés à protéger la dignité de l’être humain dans le cadre de l’application des innovations de la biomédecine. Parallèlement toutefois est apparue toute une variété de nouvelles technologies fondées sur les TIC et agissant à l’extérieur du corps – mais influençant toujours les comportements corporels, psychologiques et sociaux des êtres humains – qui soulèvent de nombreuses et nouvelles questions sur le plan éthique, social et des droits de l’homme.
15. Si nous voulons protéger la dignité humaine au XXIe siècle, nous devons donc absolument nous pencher sur l’ensemble des «technologies intimes», à savoir les technologies qui sont en nous (comme la stimulation cérébrale profonde), qui nous sont proches (électroencéphalogramme (EEG), neuromodulation), qui nous relient (réseaux sociaux), qui détiennent une foule d’informations sur nous (mégadonnées), et les technologies qui nous imitent (par exemple les robots et les environnements intelligents).
16. L’expression «internet des objets» est fréquemment utilisée pour évoquer ce groupe de technologies. La robotique a doté internet de «sens» grâce à des capteurs et de «mains et de pieds» grâce à des actionneurs. Un internet des objets robotiques se met ainsi en place. Une large gamme de technologies de l’information et de la communication – réseaux de capteurs, internet, mégadonnées, intelligence artificielle et robotique – jouent un rôle dans cette évolution. L’omniprésence de ces TIC, toujours grandissante, estompe peu à peu la distinction entre l’homme et la machine. On parle d’hyperconnectivité (onlife en anglais) pour évoquer cette nouvelle condition humaine. Dans ce monde hyperconnecté, nous interagissons avec toutes sortes «d’artefacts intelligents» ou numériquement codés.
17. Chaque type d’interaction entre les humains et les machines intelligentes est susceptible de soulever diverses questions en matière de droits de l’homme. Le présent rapport illustre ces problématiques en se concentrant sur six technologies précises: les voitures sans chauffeur, les robots de soins, les entraîneurs électroniques («e-coachs»), l’intelligence artificielle utilisée pour le tri social, les applications judiciaires de l’intelligence artificielle et la réalité augmentée. Nous n’avons pas abordé dans ce rapport la question des robots et des drones utilisés en matière de défense.

3. Les droits de l’homme liés aux artefacts intelligents

«La technologie n’est ni bonne ni mauvaise, pas plus qu’elle n’est neutre» (Melvin Kranzberg, Six Laws of Technologies, 1986). Elle doit être jugée par l’utilisation que l’homme en fait.

3.1. Protection des données à caractère personnel

18. Le modèle économique d’internet repose avant tout sur la surveillance de masse 
			(8) 
			B. Schneier, The Public-Private
Surveillance Partnership, Bloomberg, 31 juillet 2013: <a href='https://www.bloomberg.com/view/articles/2013-07-31/the-public-private-surveillance-partnership'>https://www.bloomberg.com/view/articles/2013-07-31/the-public-private-surveillance-partnership</a>.. Par exemple, Facebook suit à la trace tous les internautes, même ceux qui n’ont pas de compte sur ce réseau social 
			(9) 
			L’autorité
belge de protection des données est actuellement engagée dans une
bataille juridique avec Facebook sur le suivi des non-membres.. Les données collectées peuvent révéler des informations sensibles sur la vie des gens, par exemple leur orientation sexuelle, le groupe ethnique auquel ils appartiennent, leurs opinions religieuses et politiques, leurs traits de caractère et leur niveau d’intelligence, elles peuvent indiquer s’ils sont heureux, s’ils consomment des substances entraînant une dépendance. Comme il s’agit de traiter des données à caractère personnel, les réglementations en matière de protection des données s’appliquent, notamment la Convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (STE no 108, ci-après «Convention no 108») et son Protocole additionnel concernant les autorités de contrôle et les flux transfrontières de données (STE no 181).
19. La Convention no 108 énonce le principe selon lequel les données à caractère personnel sont traitées loyalement et licitement. Elle prévoit également des mesures de contrôle donnant notamment à toute personne le droit d’obtenir confirmation de l’existence ou non de données à caractère personnel la concernant ainsi que le droit d’obtenir la rectification de celles-ci 
			(10) 
			Article 8.a, c et d.. L’Union européenne a déployé des efforts pour adapter l’Europe à l’ère numérique en établissant le Règlement général sur la protection des données (RGPD), qui s’appliquera à partir du 25 mai 2018 
			(11) 
			Le Règlement général
sur la protection des données abrogera à cette même date le texte
précédent: la Directive
95/46/CE du Parlement européen et du Conseil, du 24 octobre
1995, relative à la protection des personnes physiques à l’égard
du traitement des données à caractère personnel et à la libre circulation
de ces données. .
20. Internet et le traitement des données à caractère personnel vont de pair, vu la définition large donnée à celles-ci. Même le traitement d’une adresse IP, qui sert à identifier un dispositif connecté à internet, peut activer l’application de la réglementation sur la protection des données 
			(12) 
			Cour
de justice de l’Union européenne, 19 octobre 2016, C-582/14 (Breyer)
et Cour de justice de l’Union européenne, 24 novembre 2011, C-70/10
(Scarlet/SABAM), paragraphe 51.. S’agissant de l’analyse des mégadonnées, l’utilisation de données à des fins inédites ou incompatibles, la maximisation des données, l’absence de transparence, la possibilité de découvrir des informations sensibles, le risque de ré-identification, les conséquences sur la sécurité et les données incorrectes, sont autant de défis pour la protection des données à caractère personnel 
			(13) 
			Groupe
de travail international sur la protection des données en télécommunications
(Berlin Telecom Group) (2014), Working Paper on Big Data and Privacy
– Privacy principles under pressure in the age of Big Data analytics,
55e réunion, Skopje, 5-6 mai 2014.. En outre, les internautes n’ont guère la possibilité, dans la pratique, de s’opposer à l’analyse des (méga)données aux fins de ciblage comportemental: c’est ainsi que l’utilisation de témoins de connexion «cookie walls» empêche les gens d’avoir accès à un site web à moins qu’ils n’autorisent le propriétaire du site à suivre leurs activités, c’est à prendre ou à laisser 
			(14) 
			F.
J. Zuiderveen Borgesius (2014), Improving privacy protection in
the area of behavioural targeting, Kluwer
Law International, Alphen aan den Rijn, p. 232..
21. Le Conseil de l’Europe s’est intéressé à nombre des problématiques soulevées par ces «mégadonnées» 
			(15) 
			Voir, par exemple,
D. Korff (2013), The use of the Internet & related services,
private life & data protection: Trends & technologies, threats
& implications. T-PD(2013)07Rev, 31 mars 2013, concernant «internet
& services liés, vie privée & protection des données»; et
A. Rouvroy (2016), «Of Data and Men» – Fundamental rights and freedoms
in a world of big data, T-PD-BUR(2015)09REV, 11 janvier 2016, concernant
les droits fondamentaux et libertés dans un monde de mégadonnées. et la Convention no 108 est en cours de révision pour mieux prendre en compte les nouveaux défis posés par l’ère numérique. Les principales innovations portent sur les points suivants: la proportionnalité (implicite jusqu’ici et concernant uniquement les données), le principe de minimisation des données; l’obligation de démontrer le respect des principes applicables, en particulier pour les responsables du traitement et les sous-traitants; l’obligation de déclarer les violations de données; la transparence du traitement des données et les garanties complémentaires pour la personne intéressée (par exemple le droit de ne pas faire l’objet d’une décision fondée seulement sur un traitement automatisé sans que son avis soit pris en considération, le droit de connaître la logique sous-tendant le traitement et le droit de le contester) 
			(16) 
			Conseil de l’Europe,
Modernisation de la «Convention no 108»
sur la protection des données, 28 janvier 2016, <a href='https://www.coe.int/nl/web/portal/28-january-data-protection-day-factsheet'>https://www.coe.int/nl/web/portal/28-january-data-protection-day-factsheet</a>. . Par ailleurs, des lignes directrices sur la protection des personnes à l’égard du traitement des données à caractère personnel à l’ère des mégadonnées 
			(17) 
			Lignes directrices
sur la protection des personnes à l’égard du traitement des données
à caractère personnel à l’ère des mégadonnées, 23 janvier 2017,
T-PD(2017)01, <a href='http://www.coe.int/dataprotection'>www.coe.int/dataprotection.</a> ont récemment été adoptées par le Comité de la Convention no 108.
22. La plupart des difficultés que suscitent les services internet en matière de protection des données sont également engendrées par l’internet des objets. Tout comme les sites et les applications web, les machines qui font partie de l’internet des objets peuvent servir à recueillir des données. Imaginons une voiture robot enregistrant le lieu où elle se trouve ou contrôlant son itinéraire de voyage (données de localisation) ou encore un robot de soins dépistant les expressions faciales ou les émotions d’une personne âgée (données biométriques). Les commerçants utilisent déjà des technologies leur permettant de suivre leurs clients dans leur magasin ou même les gens qui passent à proximité de leur magasin 
			(18) 
			L’autorité
néerlandaise de protection des données a infligé une sanction à
une société qui n’avait pas pu démontrer que le pistage WiFi des
utilisateurs dans des espaces publics était nécessaire dans un but
légitime. Voir également: Autoriteit Persoonsgegevens, «Dutch DPA
investigates WiFi tracking in and around shops», 1er décembre 2015, <a href='https://autoriteitpersoonsgegevens.nl/en/news/dutch-dpa-investigates-wifi-tracking-and-around-shops'>https://autoriteitpersoonsgegevens.nl/en/news/dutch-dpa-investigates-wifi-tracking-and-around-shops</a>.. Des sociétés technologiques comme Google, Amazon, Facebook, Apple et Microsoft ont mis au point des stratégies commerciales destinées à recueillir des données à l’intérieur et autour du domicile. Il s’ensuit que notre maison – qui était autrefois notre château fort – est devenue un endroit où nos mouvements ou comportements sont constamment «surveillés», par exemple par l’intermédiaire d’un smartphone, d’un compteur intelligent ou d’une télévision connectée. Cette collecte de données – que ce soit par internet ou par l’internet des objets – permet à ces sociétés d’avoir des indications précises sur la vie de millions de personnes. Elle découle parfois de l’application de la loi, par exemple de l’utilisation d’un compteur intelligent ou d’un enregistreur de données routières dans une voiture.
23. Le développement de l’internet des objets soulève des questions sur la transparence du traitement des données et sur la façon dont les personnes peuvent exercer leurs droits découlant de la Convention no 108 ou cadre législatif de l’Union européenne. Les pressions qui s’exercent sur l’un des principaux piliers du traitement légitime des données – le consentement des personnes au traitement des données les concernant – vont perdurer. L’absence de transparence des décisions automatisées soulève elle aussi des questions particulières.
24. L’article 15 de la Directive générale 95/46/CE sur la protection des données, surnommé «clause Kafka», interdit certaines décisions entièrement automatisées ayant une portée importante, produisant des «effets juridiques» à l’égard d’une personne ou «l’affectant de manière significative». En outre, en 1992, la Commission européenne a indiqué que «le traitement des données peut faciliter la prise de décision mais on ne peut s’en contenter; le jugement humain doit avoir sa place» 
			(19) 
			F.
J. Zuiderveen Borgesius (2014), Improving privacy protection in
the area of behavioural targeting, Kluwer
Law International, Alphen aan den Rijn, p. 373, faisant
référence à la proposition amendée de la Commission européenne pour la
Directive sur la protection des données (1992), p. 26.. Dans un souci de protection de leurs droits et libertés, les personnes concernées ont le droit d’obtenir une intervention humaine de la part du responsable du traitement, d’exprimer leur point de vue et de contester la décision.
25. Il est toutefois très difficile, voire impossible, pour un internaute de se rendre compte qu’il ne peut consulter certaines publicités en ligne ou que des prix plus élevés lui sont proposés car une intelligence artificielle l’a repéré comme étant «riche». Il est donc difficile de contester la décision automatisée. L’article 15 n’aide pas beaucoup à réduire les bulles de filtres et les risques de manipulation étant donné que ces activités peuvent ne pas affecter une personne de manière significative au sens où cet article l’entend. Selon la réglementation de l’Union européenne, le responsable du traitement des données doit, sur demande, informer la personne «profilée» de la logique sous-tendant ce traitement. Toutefois, la réglementation en matière de protection des données ne s’applique habituellement pas lorsque les personnes ne sont pas (in)directement identifiées. Par conséquent, il convient de renforcer la position de la personne «profilée» au moyen de technologies permettant une véritable transparence du profilage.

3.2. Le droit au respect de la vie privée

26. Un sujet de préoccupation est celui de l’informatique en tant que technologie persuasive, autrement dit la «captologie»: c’est-à-dire les activités de conception, de recherche et d’analyse concernant les produits informatiques interactifs (ordinateurs, téléphones mobiles, sites web, technologies sans fil, applications mobiles, jeux vidéo, etc.) créés dans le but de modifier l’attitude ou les comportements des gens 
			(20) 
			Stanford Persuasive
Technology Lab, «What is captology?», <a href='http://captology.stanford.edu/about/what-is-captology.html'>http://captology.stanford.edu/about/what-is-captology.html</a>.. Les technologies persuasives s’appuient sur la collecte de données, leur analyse grâce à l’intelligence artificielle et les interfaces intelligentes. La «captologie» permet donc de procéder massivement à des expérimentations psychologiques et des manœuvres de persuasion sur internet.
27. Par exemple, les applications pour smartphones ou les sites web mesurent comment les gens interagissent avec elles. Des millions d’utilisateurs sont ainsi testés quotidiennement sur internet. Les tests a/b (a/b testing) – expérience aléatoire à deux variables – permettent de rassembler des connaissances sur nos comportements et sur la façon dont notre cerveau fait des choix. Sur la base de ces évaluations, les applications adaptent automatiquement leur contenu afin de persuader l’utilisateur d’acheter un article, de cliquer sur une publicité précise ou de prolonger leur durée d’utilisation de l’application. Comme pour les machines à sous, la valeur financière d’une application dépend en majeure partie du temps d’utilisation des consommateurs.
28. Ceux qui mettent au point les technologies persuasives appliquent pour ce faire des connaissances neuroscientifiques et psychologiques, mais ne suivent pas les codes de déontologie pour les psychologues et pour la recherche psychologique. Facebook et les universitaires de l’université Cornell ont par exemple tenté, en 2014, d’agir sur les émotions d’environ 700 000 utilisateurs par l’intermédiaire du flux d’actualités 
			(21) 
			A.D.I.
Kramer, J.E. Guillory et J.T. Hancock (2014), Experimental evidence
of massive-scale emotional contagion through social networks, Proceedings of the National Academy of Sciences 111
(24): 8788-8790. sans le consentement des utilisateurs ni l’autorisation d’un comité d’éthique. Les utilisateurs ignoraient totalement qu’ils subissaient cette influence exercée au moyen d’un flux d’actualité essentiellement négatif ou positif. Ces activités de persuasion portent de toute évidence atteinte non seulement à l’autonomie et à l’autodétermination des personnes, mais également à leur liberté de pensée, de conscience et de religion 
			(22) 
			R. Strand et M. Kaiser
(2015), Report on Ethical Issues Raised by Emerging Sciences and
Technologies, 23 janvier 2015.. Comment les gens peuvent-ils choisir leur propre voie si par applications ou sites web interposés des organisations les poussent à avoir un certain type d’émotion? Cette question se fait tout particulièrement pressante lorsque des personnes subissent une influence à leur insu, ce qui les rend on ne peut plus impuissantes face à ces agissements.
29. Compte tenu de ces effets potentiellement négatifs sur les humains, les psychologues ont établi leur propre code de déontologie. Les droits des individus ne devraient pas pour autant être moins bien protégés pour la simple raison que la relation avec l’entité qui mène l’expérience psychologique n’est pas une relation psychologue-patient traditionnelle. Il est assez incroyable que de telles expériences soient réalisées par l’intermédiaire d’internet (et de l’internet des objets), à grande échelle, à l’insu des sujets humains, qui n’ont donc pas donné leur consentement à cet effet. Les citoyens ne comprennent peut-être pas toujours bien de quelle façon ils peuvent introduire une réclamation au sujet d’expériences de ce type menées par un site web ou le propriétaire d’une application, en particulier si la réglementation en matière de protection des données ne s’applique pas, par exemple parce qu’aucune donnée à caractère personnel n’est traitée.
30. Les gens se servent de coachs électroniques («e-coachs») pour mieux gérer leur vie 
			(23) 
			L. Kool, J.
Timmer et R. van Est (eds.) (2015), Sincere support: The rise of
the e-coach, Institut Rathenau, La Haye.. Ces systèmes de coachs électroniques s’appuient souvent sur des robots logiciels, qui sont intégrés dans de petits dispositifs portables. À titre indicatif, Fitbit est un bracelet traqueur d’activité. Ce dispositif analyse le comportement des gens, comme leurs habitudes de sommeil ou leur régime alimentaire, afin de les inciter à améliorer leur mode de vie (par exemple à mieux dormir, à faire davantage d’exercice ou à perdre du poids). La somme des données enregistrées par un coach électronique de ce type crée un double de la personne sous forme de données, ce qui contribue à la «mise en données» (datafication) des habitudes quotidiennes de cette personne. C’est une forme d’auto-surveillance volontaire.
31. Bien que l’intention des utilisateurs d’un coach électronique soit de prendre leur vie en main, ils doivent songer au fait que des tiers sont impliqués dans cette technologie, dont les intérêts ne correspondent peut-être pas aux leurs. En effet, des employeurs pourraient tenter de contraindre leurs employés à porter un coach électronique pour suivre leurs activités et les inciter à adopter tel ou tel mode de vie. Les données enregistrées par le coach électronique peuvent contenir des informations sur la santé qu’il convient de traiter avec précaution. Il s’agit également d’une atteinte à la vie privée informationnelle des gens puisque ceux-ci perdent la maîtrise de leurs informations personnelles 
			(24) 
			L’Autorité néerlandaise
de protection des données s’est prononcée contre l’utilisation par
des employés de coachs électroniques («e-coachs») permettant
à leurs employeurs de découvrir par exemple leurs habitudes de sommeil (données
sur la santé). Voir: Autoriteit Persoonsgegevens, «Verwerking gezondheidsgegevens
wearables door werkgevers mag niet», 8 mars 2016, <a href='https://autoriteitpersoonsgegevens.nl/nl/nieuws/ap-verwerking-gezondheidsgegevens-wearables-door-werkgevers-mag-niet'>https://autoriteitpersoonsgegevens.nl/nl/nieuws/ap-verwerking-gezondheidsgegevens-wearables-door-werkgevers-mag-niet</a> (en néerlandais).. Hormis les employeurs, les concepteurs des coachs électroniques ont le contrôle des données collectées et pourraient donc les exploiter pour indiquer aux utilisateurs comment modifier leurs habitudes de vie, d’où un risque de manipulation indésirable où l’autonomie devient hétéronomie 
			(25) 
			M. Fuchs dans: H. Whittall,
L. Palazzani, M. Fuchs et A. Gazo (2015), Emerging technologies
and human rights, international symposium 4-5 mai 2015, session
2: Technologie, interventions et contrôle des individus, <a href='https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=090000168049596'>https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=090000168049596</a>.. Enfin, hormis les concepteurs, des tiers reçoivent et analysent aussi les données collectées, par exemple pour leur propres fins commerciales et parfois sans se soucier de l’heure à laquelle l’application est utilisée ou le bracelet, porté 
			(26) 
			Voir, par exemple,
le cas de l’application pour sportifs «Runkeeper»: Forbrukerrådet,
«Runkeeper tracks users when the app is not in use», 13 mai 2016, <a href='https://www.forbrukerradet.no/side/runkeeper-tracks-users-when-the-app-is-not-in-use/'>https://www.forbrukerradet.no/side/runkeeper-tracks-users-when-the-app-is-not-in-use/</a>..
32. Les développeurs de technologies comme les coachs électroniques devraient expliquer en toute transparence les méthodes de persuasion qu’ils utilisent 
			(27) 
			L.
Kool, J. Timmer et R. van Est (eds.) (2015), op.
cit.. Il faudrait que les gens puissent contrôler la manière dont les informations parviennent à ces développeurs. Cela signifie également que les éléments relatifs au modèle de revenus devraient être communiqués en toute transparence. En réponse à la question de la qualité des coachs électroniques et de la responsabilité de leurs développeurs, un label de qualité pourrait être mis au point pour informer les utilisateurs de la qualité des applications et des dispositifs de ce type.
33. Les robots de soins sont conçus pour prodiguer des soins à des groupes vulnérables comme les enfants, les personnes âgées ou les personnes handicapées. Leur utilisation peut aussi bien présenter des avantages que des inconvénients pour l’autonomie et l’autodétermination d’une personne. Ainsi, certains robots améliorent l’autonomie des personnes âgées en les aidant à s’habiller ou à prendre un bain. Le robot japonais Robear, par exemple, peut aider les patients à se lever du lit sans intervention humaine.
34. En revanche, les robots de soins peuvent aussi empêcher une personne âgée d’agir à sa guise si leurs développeurs les ont programmés à cet effet. Jusqu’où pourrait aller un robot pour rappeler à quelqu’un de prendre ses médicaments? Que se passerait-il si quelqu’un refusait d’obtempérer? C’est le danger du paternalisme qui entre en jeu. Dans ce cas, la technologie du robot pourrait forcer les utilisateurs à procéder d’une certaine manière, étant donné que les développeurs savent ce qui est le mieux pour ces utilisateurs 
			(28) 
			I.R. Van de Poel et
L.M.M. Royakkers (2011), Ethics, technology,
and engineering: An introduction, Wiley-Blackwell, Oxford,
Royaume-Uni..
35. Les robots physiques incarnent l’intelligence artificielle. Cette incarnation du robot offre la possibilité d’améliorer l’interaction entre les humains et les machines. Il s’agit ici d’exploiter l’aptitude des gens à attribuer une forme, des traits, des émotions et des intentions humains aux machines, comme les robots d’assistance. La robotique s’appuie sur cette aptitude humaine à l’anthropomorphisme pour mettre au point des robots sociaux qui peuvent communiquer avec les humains sur le plan affectif 
			(29) 
			L. Royakkers et R.
van Est (2016), Just Ordinary Robots:
Automation from Love to War, Boca Raton, FL: CRC Press.. Les ingénieurs pourraient mettre à profit ce phénomène socio-psychologique puissant pour concevoir une technologie persuasive. Jusqu’à quel point voulons-nous faire usage du lien affectif entre les personnes et les machines? Et comment se prémunir contre les abus de la confiance artificiellement créée entre humains et machines? Si les gens peuvent développer une dépendance envers leurs téléphones mobiles ou des petites amies virtuelles, on peut tout à fait imaginer qu’ils puissent développer des sentiments forts pour des robots sociaux.
36. Ces dernières années, le débat s’est amplifié sur la façon dont les nouvelles TIC influencent les aptitudes affectives et sociales des gens et la qualité des relations humaines. La professeure Sherry Turkle, psychologue clinicienne et sociologue, estime qu’en raison de leur attachement à leurs appareils, les gens courent un risque d’inaptitude sociale, c’est-à-dire qu’ils risquent d’être incapables de faire face à d’autres êtres humains, avec leurs problèmes et leurs défauts, et réticents à s’investir dans des relations humaines. Le recours à la machine accroît le risque d’enfermement 
			(30) 
			S. Turkle (2011), Alone together: Why we expect more from technology
and less from each other, New York, Basic Books; S. Turkle
(2015), Reclaiming conversation: The
power of talk in a digital age, New York, Basic Books..
37. Certains types de robots sont dotés d’une intelligence artificielle et programmés pour imiter l’aptitude sociale afin, par exemple, d’engager une conversation avec son utilisateur. C’est ainsi que l’informatique affective peut permettre aux robots de soins de reconnaître les émotions humaines et d’adapter en conséquence leur comportement 
			(31) 
			R. van Est, with the
assistance of V. Rerimassie, I. van Keulen et G. Dorren (translation:
K. Kaldenbach) (2014), Intimate technology: The battle for our body
and behaviour, Institut Rathenau, La Haye.. Potentiellement, les robots peuvent stimuler les relations humaines. Le robot néerlandais Alice demande aux personnes dont il s’occupe si elles ont récemment appelé les membres de leur famille, et ce afin de (re)nouer le contact et d’entretenir les relations. Plusieurs études réalisées sur l’effet de Paro, un robot phoque en peluche, dans le soin aux personnes âgées hospitalisées semblent montrer que l’humeur de ces personnes s’améliore et que le niveau de leur dépression diminue; en outre, leur condition mentale s’améliore, facilitant ainsi la communication entre personnes âgées et renforçant leurs liens sociaux. 
			(32) 
			S.T. Hansen, H.J. Anderson
et T. Bak (2010), Practical evaluation
of robots for elderly in Denmark: An overview. Proceedings
of the fifth ACM/IEEE international conference on human-robot interaction
(pp. 149-150), Osaka, Japon, 2‑5 mars, Piscataway, NJ. US: IEEE
Press. Toutefois, le risque existe bel et bien que les robots portent atteinte au droit au respect de la vie familiale, ce qui serait une conséquence (in)volontaire de la façon dont ils influencent leurs utilisateurs. Du fait de l’anthropomorphisme, des gens vulnérables comme les personnes âgées pourraient considérer un robot social comme leur petit-fils ou petite-fille. Si l’on n’y prend pas garde, le patient pourrait bien se focaliser sur le robot plutôt que sur les membres de sa famille ou d’autres êtres humains.
38. De façon similaire, les technologies virtuelles ou de réalité augmentée peuvent accroître la capacité d’une personne à établir et à nouer des relations avec ses semblables. C’est ainsi qu’elles pourraient faciliter les communications entre les membres d’une famille; Microsoft Research l’a montré en faisant la démonstration de l’«holoportation» 
			(33) 
			Engadget,
«“Holoportation” demo makes live-video holograms look easy», 26 mars 2016, <a href='https://www.engadget.com/2016/03/26/holoportation-demo-makes-live-video-holograms-look-easy/'>https://www.engadget.com/2016/03/26/holoportation-demo-makes-live-video-holograms-look-easy/</a>.. En revanche, ces technologies pourraient également réduire la capacité de la personne à établir et développer des relations si le monde virtuel était conçu de manière à la dissuader de nouer des relations (dignes de ce nom) avec d’autres et à la faire plutôt interagir avec des entités virtuelles.

3.3. La dignité humaine

39. La dignité humaine est l’un des principes de base des droits fondamentaux, mais elle sert aussi de fondement aux libertés et d’autres droits. À cet égard, plusieurs sources juridiques, dont la Charte sociale européenne (révisée) (STE n° 163) du Conseil de l’Europe et la Charte des droits fondamentaux de l’Union européenne 
			(34) 
			<a href='http://www.europarl.europa.eu/charter/pdf/text_fr.pdf'>www.europarl.europa.eu/charter/pdf/text_fr.pdf.</a>, soulignent l’importance, pour les personnes âgées et les personnes handicapées, de mener une vie indépendante et de participer pleinement à la société.
40. La communication et l’interaction avec les robots de soins peuvent potentiellement influer sur les relations physiques et morales dans notre société et pourraient avoir des conséquences positives, mais aussi négatives, sur la dignité. Même si les «conséquences invisibles» pour la dignité humaine peuvent s’avérer difficiles à quantifier, la commission des affaires juridiques du Parlement européen note dans son rapport sur la robotique 
			(35) 
			Actualités du Parlement
européen, Robots: les députés de la commission des affaires juridiques
demandent des règles européennes, 12 janvier 2017, <a href='http://www.europarl.europa.eu/news/fr/news-room/20170110IPR57613/robots-vers-des-r%C3%A8gles-europ%C3%A9ennes'>www.europarl.europa.eu/news/fr/news-room/20170110IPR57613/robots-vers-des-r%C3%A8gles-europ%C3%A9ennes</a>. qu’elles devront tout de même être envisagées si les soins et la compagnie d’un robot remplacent les soins et la compagnie d’un humain. C’est ainsi que l’assistance mécanique aux repas pourrait ne laisser aux personnes aucun choix ni aucune autonomie quant à la façon de se nourrir ce qui pourrait être dégradant. Dans le projet «Value Aging», financé par l’Union européenne, il est recommandé que le robot soit obligatoirement apte à avertir l’utilisateur de son intention de lui faire quelque chose et que l’utilisateur ait dans tous les cas la possibilité d’annuler l’action en question ou d’éteindre complètement le robot 
			(36) 
			O. Vermesan et P. Friess
(coordinateurs) (2015), Internet of Things – IoT Governance, Privacy
and Security Issues. European Research Cluster on the Internet of
Things (IERC), janvier 2015, p. 27, <a href='http://www.internet-of-things-research.eu/pdf/IERC_Position_Paper_IoT_Governance_Privacy_Security_Final.pdf'>www.internet-of-things-research.eu/pdf/IERC_Position_Paper_IoT_Governance_Privacy_Security_Final.pdf</a>..
41. Un appel en faveur de la conception et du développement de solutions robotiques préservant les droits de l’homme a été lancé par le contrôleur européen de la protection des données lors de la 38e Conférence internationale des commissaires à la protection des données et de la vie privée. Le Conseil de l’Europe pourrait répondre à cet appel et donner des orientations dans ce domaine.

3.4. Le droit à la propriété

42. On peut distinguer deux évolutions majeures en matière de propriété. En premier lieu, les objets que quelqu’un possède – son domicile ou un terrain par exemple – peuvent devenir partie intégrante d’une réalité virtuelle ou augmentée et les artefacts créés dans ce cadre peuvent venir s’ajouter aux possessions du monde réel. Ce qui soulève une question: si vous être propriétaire de votre terrain, l’êtes-vous également de l’espace virtuel que d’autres lui ont attribué? Par exemple, le fait que le développeur du jeu Pokémon Go ait installé les personnages virtuels – les pokémons – que les joueurs 
			(37) 
			On
estime qu’environ 45 millions de personnes dans le monde ont joué
à ce jeu lors du pic de juillet 2016. Voir: Bloomberg, «These Charts
Show That Pokemon Go Is Already in Decline», 22 août 2016, <a href='https://www.bloomberg.com/news/articles/2016-08-22/these-charts-show-that-pokemon-go-is-already-in-decline'>https://www.bloomberg.com/news/articles/2016-08-22/these-charts-show-that-pokemon-go-is-already-in-decline</a>. doivent trouver et attraper sur des maisons et dans des environnements bien réels a suscité un débat sur la violation de propriété, les droits fonciers et les limites légales de la propriété 
			(38) 
			Reuters,
«Get off my lawn! Pokemon Go tests global property laws», 22 septembre
2016, <a href='http://www.reuters.com/article/us-landrights-pokemongo-idUSKCN11S1GY'>www.reuters.com/article/us-landrights-pokemongo-idUSKCN11S1GY</a>..
43. En deuxième lieu, des questions de propriété se posent en ce qui concerne l’utilisation d’un objet tel qu’une voiture robotisée, un smartphone ou une imprimante. Deux éléments entrent en jeu. D’un côté, ces dispositifs font partie de l’internet des objets et sont donc connectés à des réseaux. Cela permet à des tiers d’exercer un contrôle sur eux et même d’intervenir effectivement sur leur utilisation, par exemple, au niveau du fabricant, en y accédant à distance par le biais d’internet, ou en intégrant un logiciel conçu à cet effet dans le dispositif. Il s’ensuit que la personne qui possède un robot ou un dispositif ne peut jouir paisiblement de ses biens.
44. Par ailleurs, le dispositif (acheté, loué ou utilisé par un particulier) enregistre des données à des fins diverses. C’est vrai pour une voiture robotisée, qui a besoin de ces données pour fonctionner en toute sécurité. L’utilisateur du dispositif est-il le propriétaire des données, qui peuvent être des données à caractère personnel (auxquelles s’applique la réglementation sur la protection des données) ou non (celles-ci pouvant alors entrer dans le champ d’application d’autres réglementations, comme le droit de la propriété intellectuelle)?
45. Ces exemples montrent que dans le monde actuel, il ne va pas de soi qu’une personne puisse interagir avec des biens tels que des robots ou autres dispositifs ni utiliser ceux-ci, et ce alors même qu’elle les a achetés. Les instruments juridiques en vigueur – droit de la consommation, droit de la concurrence ou droit de la propriété intellectuelle – peuvent permettre de régler ces questions. Mais on pourrait également adopter un autre point de vue et affirmer, en invoquant le droit de propriété, qu’une fois un objet acheté, le fabricant ou des tiers ne peuvent plus toucher à ce bien, à moins que le propriétaire n’y consente (par exemple pour les mises à jour logicielles).

3.5. Sécurité, responsabilité et obligations

46. Au cours des dernières décennies, l’industrie automobile a construit des voitures de plus en plus intelligentes. La robotisation des véhicules est une tendance à long terme 
			(39) 
			L. Royakkers et R.
van Est (2016), Just Ordinary Robots:
Automation from Love to War, Boca Raton, FL: CRC Press.. Depuis les années 2000, les voitures ont été progressivement dotées de capacités automatisées, comme le régulateur de vitesse et les systèmes de stationnement assisté. L’Evaluation des options technologiques et scientifiques (STOA) du Parlement européen estime que la sécurité doit être l’une de nos principales préoccupations, c’est-à-dire qu’il faut trouver de quelle manière les robots et les humains peuvent travailler ensemble sans accident.
47. L’Office parlementaire français d’évaluation des choix scientifiques et technologiques et la commission des affaires juridiques du Parlement européen estiment qu’il faut clarifier la question de la responsabilité en ce qui concerne les actions des robots afin de garantir la transparence et la sécurité juridique pour les producteurs et les consommateurs. 
			(40) 
			Actualités du Parlement
européen, Robots: les députés de la commission des affaires juridiques
demandent des règles européennes, op
cit. Il est au moins possible de recenser les acteurs à qui la responsabilité d’un accident pourrait être imputée: le constructeur automobile, les producteurs de logiciels qui ont programmé l’intelligence artificielle du véhicule, le revendeur, l’acheteur, l’administration routière ou autres. La question de la responsabilité et des obligations dépendra du niveau d’automatisation de la voiture 
			(41) 
			Six
niveaux d’automatisation des véhicules routiers à moteur ont été
classés par l’Association internationale des Ingénieurs automobiles
(SAE). Voir la nouvelle norme internationale SAE J3016: Taxonomy
and Definitions for Terms Related to On-Road Motor Vehicle Automated
Driving Systems: <a href='http://www.sae.org/misc/pdfs/automated_driving.pdf'>www.sae.org/misc/pdfs/automated_driving.pdf</a>..

3.6. Liberté d’expression

48. Google et Facebook sont devenus deux des principaux contrôleurs de l’accès à l’information dans notre société 
			(42) 
			E.
Bozdag (2013), Bias in algorithmic filtering and personalization. Ethics and Information Technology,
septembre 2013, vol. 15, no 3, p. 209-227.. Bien que Facebook insiste sur le fait qu’il n’est pas une entreprise de média 
			(43) 
			Reuters,
«Facebook CEO says group will not become a media company», 29 août 2016, <a href='http://www.reuters.com/article/us-facebook-zuckerberg-idUSKCN1141WN'>www.reuters.com/article/us-facebook-zuckerberg-idUSKCN1141WN</a>., il s’agit de la première source d’information pour près de la moitié des internautes 
			(44) 
			Reuters, «More than
half online users get news from Facebook, YouTube and Twitter: study»,
14 juin 2016, <a href='http://www.reuters.com/article/us-media-socialmedia-news-idUSKCN0Z02UB'>www.reuters.com/article/us-media-socialmedia-news-idUSKCN0Z02UB</a>..
49. Les décisions automatisées peuvent promouvoir ou empêcher le libre flux des informations. Si le programmeur de l’intelligence artificielle fournit à l’utilisateur les outils permettant de rassembler et de diffuser l’information, celait pourrait alors servir le droit à la liberté d’expression. Par exemple, les outils qui réunissent les flux RSS de sites de journaux peuvent faciliter la transmission de l’information. Toutefois, si l’intelligence artificielle détermine seulement quelles sont les informations à montrer, alors la liberté de recevoir ou de communiquer des informations ou des idées importantes sans qu’il puisse y avoir ingérence – protégée par l’article 10 de la Convention européenne des droits de l’homme (STE no 5) – est remise en question. C’est ainsi qu’il existerait un risque de «cocon d’information», de «caisse de résonance» 
			(45) 
			C. Sunstein (2001), Echo chambers: Bush v. Gore, impeachment, and
beyond, Princeton University Press, Princeton et Oxford. ou de «bulle de filtres» 
			(46) 
			E.
Pariser (2011), The filter bubble: What
the Internet is hiding from you, Penguin Books, Londres. qui entraverait notamment notre aptitude à former librement nos opinions. Le fait de sélectionner (automatiquement) des informations dans un réservoir apparemment infini peut lui aussi engendrer des limites. Dans le cas de Facebook, un algorithme reposant sur des critères comme l’affinité renforce celle-ci et les résultats de recherches sur Google dépendent par exemple de l’historique des recherches. Selon le Partenariat pour la jeunesse 
			(47) 
			Youth
Partnership – Partenariat entre la Commission européenne et le Conseil
de l’Europe dans le domaine de la jeunesse (2015), Report – Symposium
on youth participation in a digitalised world, Budapest, 14-16 septembre
2015: <a href='http://pjp-eu.coe.int/en/web/youth-partnership/digitalised-world'>http://pjp-eu.coe.int/en/web/youth-partnership/digitalised-world</a>.: «Les deux cas de restriction de l’information – décisions individuelles ou algorithmes automatiques – peuvent priver une personne d’informations “différentes” et pertinentes qui auraient dû être intégrées au processus décisionnel lié à une participation active.»
50. Selon la Cour européenne des droits de l’homme, non seulement il incombe aux médias de communiquer des informations et des idées d’intérêt public, mais encore le public a le droit d’en recevoir 
			(48) 
			Cour européenne des
droits de l’homme, Sunday Times c. Royaume-Uni (no 1),
Requête no 6538/74, arrêt du 26 avril 1979,
paragraphe 65.. Il y a un besoin d’établir des orientations sur la façon dont les plus grands contrôleurs d’accès à l’information, comme Google et Facebook, pourraient mettre leur puissance algorithmique au service des droits de l’homme, notamment en ce qui concerne le droit de recevoir et de communiquer des informations et des idées 
			(49) 
			En
s’appuyant sur la Recommandation CM/Rec(2012)3 du Comité́ des Ministres
sur la protection des droits de l’homme dans le contexte des moteurs
de recherche.. En outre, la commission va préparer un rapport sur «Les réseaux sociaux contribuent-ils à restreindre la liberté d’expression?» 
			(50) 
			Proposition
de résolution, Doc. 14184,..

3.7. Interdiction de la discrimination

51. Déléguer la prise de décision à une intelligence artificielle peut permettre de lutter contre les discriminations. Des outils d’intelligence artificielle ont par exemple été mis au point afin d’éliminer le parti pris dans les processus de recrutement; il s’agit notamment d’alertes automatiques déclenchées par l’utilisation d’une formulation tendancieuse dans les descriptions de postes 
			(51) 
			Fortune,
«SAP Is Building Bias Filters Into Its HR Software», 31 août 2016, <a href='http://www.fortune.com/2016/08/31/sap-successfactors-bias-filter/'>www.fortune.com/2016/08/31/sap-successfactors-bias-filter/</a>.. Des technologies virtuelles ont même été déployées pour promouvoir la diversité dans l’éducation et combattre les discriminations 
			(52) 
			USA
Today, «Virtual reality tested by NFL as tool to confront
racism, sexism», 10 avril 2016, <a href='http://www.usatoday.com/story/tech/news/2016/04/08/virtual-reality-tested-tool-confront-racism-sexism/82674406/'>www.usatoday.com/story/tech/news/2016/04/08/virtual-reality-tested-tool-confront-racism-sexism/82674406/</a>..
52. Néanmoins, les technologies peuvent aussi servir à porter atteinte aux droits de l’homme. C’est également vrai à l’égard de l’interdiction de la discrimination. Les groupes racistes peuvent avoir recours à l’intelligence artificielle pour diffuser leur message. Tout comme des algorithmes peuvent involontairement entraîner une discrimination. C’est ainsi qu’en 2015 une application photo de Google a associé le tag «gorilles» à la photo de deux personnes noires. Ce tag était dû à l’intelligence artificielle qu’emploie Google et qui suggère des catégories et des tags en s’appuyant sur l’apprentissage automatique. Google a retiré le tag et présenté ses excuses: Google considère que ses algorithmes s’amélioreront si davantage d’internautes corrigent les tags erronés. Le système peut donc être «entraîné» à ne pas suggérer de tags pouvant être considérés racistes 
			(53) 
			The Wall Street Journal, «Google
Mistakenly Tags Black People as “Gorillas”, Showing Limits of Algorithms»,
1er juillet 2015,<a href='http://blogs.wsj.com/digits/2015/07/01/google-mistakenly-tags-black-people-as-gorillas-showing-limits-of-algorithms/'> http://blogs.wsj.com/digits/2015/07/01/google-mistakenly-tags-black-people-as-gorillas-showing-limits-of-algorithms/.</a>. Il pourrait cependant être influencé par des groupes de pression souhaitant promouvoir leurs idées.
53. L’apprentissage automatique dépend des données recueillies dans la société; dans la mesure où la société connaît l’inégalité, l’exclusion et autres relents de discrimination, ce sera également le cas des données 
			(54) 
			B.
Goodman et S. Flaxman (2016), European Union regulations on algorithmic
decision-making and a «right to explanation».. L’apprentissage automatique reproduira les schémas discriminatoires présents dans l’ensemble des données sur lesquelles il se fonde. En conséquence, des décisions biaisées sont présentées comme le produit d’un algorithme objectif et le recours inconsidéré à l’extraction de données peut empêcher les membres des groupes vulnérables de participer pleinement à la société 
			(55) 
			S. Barocas et A.D.
Selbst (2016), Big data’s disparate impact, California
Law Review, vol. 104, p. 671.. Les techniques de profilage constituent un sous-ensemble particulier des décisions automatisées. Ces techniques sont par exemple mises à profit pour évaluer l’aisance pécuniaire des internautes sur un site donné afin de pouvoir automatiquement en ajuster les prix 
			(56) 
			The
Wallstreet Journal, «On Orbitz, Mac Users Steered to
Pricier Hotels», 23 août 2012, <a href='http://www.wsj.com/articles/SB10001424052702304458604577488822667325882'>www.wsj.com/articles/SB10001424052702304458604577488822667325882</a>.. Ce recours au profilage algorithmique peut être discriminatoire.
54. Afin de lutter contre la discrimination et la manipulation reposant sur les algorithmes, il convient d’examiner la notion de responsabilité algorithmique, au-delà de l’actuel «droit à une explication». Dans la pratique, cela impliquerait d’examiner correctement le problème du parti pris dans les ensembles de données, de prendre en compte le risque de discrimination dans l’exploration de données, de mettre en place une véritable transparence en ce qui concerne les algorithmes et le profilage, de limiter les contextes d’utilisation de l’intelligence artificielle et d’exiger des résultats évitant les effets disparates 
			(57) 
			F. Pasquale (2016),
Bittersweet Mysteries of Machine Learning (A Provocation), LSE Media
Policy Project, The London School of Economics and Political Science,
Media Policy Project Blog, <a href='http://blogs.lse.ac.uk/mediapolicyproject/2016/02/05/bittersweet-mysteries-of-machine-learning-a-provocation/'>http://blogs.lse.ac.uk/mediapolicyproject/2016/02/05/bittersweet-mysteries-of-machine-learning-a-provocation/.</a>.

3.8. Accès à la justice et droit à un procès équitable

55. De plus en plus, les tribunaux emploient des outils qui automatisent le processus décisionnel. Les robots logiciels font miroiter la promesse que les décisions juridiques seront plus cohérentes que celles prises par les humains et que les procédures judiciaires seront considérablement écourtées. L’intelligence artificielle basée sur des algorithmes peut aider les parties à évaluer les chances d’aboutissement de leur action en justice, ce qui pourrait entraîner une réduction du nombre de procédures judiciaires. Le recours à des outils automatisés par les juges pourrait également contribuer à assurer un procès équitable.
56. On peut imaginer que les ordinateurs soient capables de prendre des décisions sensées dans des affaires simples, dans le respect de l’article 6 de la Convention européenne des droits de l’homme 
			(58) 
			R.H. Van den Hoogen
(2007), E-Justice, beginselen van behoorlijke
elektronische rechtspraak, SDu Uitgevers, La Haye.. Toutefois, certains principes, destinés à garantir la transparence et la reconnaissance de la responsabilité, devraient entrer en ligne de compte lorsque des juges ont recours à un outil automatisé d’aide au processus décisionnel. En particulier, l’on doit savoir que le juge s’aide d’une intelligence artificielle et comment cet outil influe sur les décisions prises; le juge doit demeurer responsable de la décision finale, même si cette décision a été prise avec l’aide de systèmes [informatiques], voire directement par de tels systèmes. En outre, le fait que le juge ne suive pas les recommandations du système [informatique] doit être enregistré 
			(59) 
			Ibid.,
p. 152-153..
57. En revanche, lorsque l’intelligence artificielle n’est pas neutre, le principe d’impartialité pourrait être violé. Le recours accru à des algorithmes pour évaluer les risques dans le système de justice américain soulève des questions en matière de responsabilité et de transparence 
			(60) 
			M. Smith,
«In Wisconsin, a Backlash Against Using Data to Foretell Defendants’
Futures», The New York Times, 22 juin
2016, <a href='https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretell-defendants-futures.html'>https://www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretell-defendants-futures.html</a>.. D’aucuns ont signalé que le logiciel utilisé pour fixer les cautions était partial à l’encontre des Afro-Américains, même si les répercussions réelles de ce logiciel ne sont pas vraiment explicites 
			(61) 
			The Washington Post, «A computer
program used for bail and sentencing decisions was labeled biased
against blacks. It’s actually not that clear.», 17 octobre 2016, <a href='https://www.washingtonpost.com/news/monkey-cage/wp/2016/10/17/can-an-algorithm-be-racist-our-analysis-is-more-cautious-than-propublicas'>https://www.washingtonpost.com/news/monkey-cage/wp/2016/10/17/can-an-algorithm-be-racist-our-analysis-is-more-cautious-than-propublicas</a>.. En ce qui concerne les dispositifs d’intelligence artificielle utilisés par les forces de police qui conduisent à l’ouverture de poursuites pénales, il faut se garder de considérer que les résultats qu’ils fournissent sont forcément corrects, complets, voire pertinents concernant les suspects possibles et potentiels 
			(62) 
			M.
Hildebrandt (2016), «Data gestuurde intelligentie in het strafrecht»,
p. 137-240, in: E.M.L. Moerel, J.E.J. Prins, M. Hildebrandt, T.F.E
Tjong Tjin Tai, G-J. Zwenne et A.H.J. Schmidt (2016), Homo Digitalis, Handelingen Nederlandse Juristen-Vereniging,
146e volume/2016-I, Wolters Kluwer.. Le principe d’«égalité des armes» visé à l’article 6 de la Convention européenne des droits de l’homme ne saurait être respecté si le procureur, l’avocat de la défense et le juge ne peuvent pas vérifier la manière dont l’outil d’intelligence artificielle utilisé par la police est parvenu à sa conclusion. De tels outils devraient consigner ce qu’ils font, dans quel but et comment ils sont parvenus à leurs conclusions.
58. Nous devrions envisager d’établir un cadre normatif minimal dont les tribunaux qui recourent à l’intelligence artificielle devraient tenir compte, afin de prévenir, dans la mesure du possible, l’élaboration de cadres par les États eux-mêmes, ce qui présenterait le risque d’offrir des niveaux variables de protection au sens de l’article 6 de la Convention européenne des droits de l’homme.

4. Deux nouveaux droits potentiels

59. Pour que l’ère de la robotique demeure favorable à l’homme, nous proposons d’introduire le droit de pouvoir refuser de faire l’objet de profils, d’être géolocalisé, manipulé, sous l’influence d’entraîneur électronique et donc d’avoir un droit à la tranquillité et de pouvoir choisir entre le contact humain et l’assistance par un robot.

4.1. Le droit à la tranquillité 
			(63) 
			Dans
le texte anglais le titre de ce sous chapitre est traduit: «Right
to refuse to be measured, analysed or coached» (droit de refuser
d’être mesuré, analysé ou coaché)

60. Mû par internet et l’internet des objets, le profilage (par les entreprises et les acteurs étatiques) est devenu courant. Étant donné qu’aujourd’hui, de nombreuses technologies sont capables de fonctionner à distance, nous sommes une grande majorité à ignorer jusqu’à l’existence de cette surveillance de masse et sommes donc quelque peu démunis face à ce phénomène, car les possibilités d’y échapper sont rares. Cette évolution silencieuse et son impact sur la société et sur les droits de l’homme n’ont suscité jusqu’à présent que peu d’attention dans le débat politique et public.
61. Des chercheurs de l’université de Georgetown ont récemment publié que la moitié des adultes américains, y compris ceux qui sont innocents de toute infraction, sont inclus dans une base de données de reconnaissance faciale dans le cadre d’une «séance d’identification perpétuelle» 
			(64) 
			Center
on Privacy & Technology at Georgetown Law (Georgetown CPT) (2016),
The Perpetual Line-up: Unregulated Police Face Recognition in America
– Unregulated Police Face Recognition in America, 18 octobre 2016, <a href='http://www.perpetuallineup.org/'>www.perpetuallineup.org</a>.. Autre exemple, les consommateurs s’étant inquiétés que des commerçants les repèrent via le réseau Wi-Fi, le ministre néerlandais des Affaires économiques et l’ancien secrétaire d’État à la Sécurité et à la Justice ont déclaré que, si les gens ne souhaitaient pas être pistés, ils n’avaient qu’à éteindre leurs smartphones 
			(65) 
			Tweakers,
«Kabinet: zet telefoon uit om wifi-tracking tegen te gaan», 12 février
2014, <a href='https://tweakers.net/nieuws/94273/kabinet-zet-telefoon-uit-om-wifi-tracking-tegen-te-gaan.html'>https://tweakers.net/nieuws/94273/kabinet-zet-telefoon-uit-om-wifi-tracking-tegen-te-gaan.html</a> (Dutch).. Cette réponse semble indiquer que le pistage et la localisation des personnes seraient un droit jugé plus important que les droits des individus (au respect de leur vie privée). Jusqu’à récemment, les gens pouvaient éteindre leur PC s’ils ne voulaient pas être suivis en ligne. Dans notre monde hyperconnecté, cette stratégie est devenue obsolète. L’effet cumulatif de la surveillance de masse a suscité peu de débats. Des applications et des incidents spécifiques ont donné lieu à des «mini-débats», l’issue de chacun d’eux étant un exercice d’équilibriste qui favorise principalement la sécurité et les intérêts économiques nationaux. Il ressort toutefois de ces débats que le droit des personnes au respect de la vie privée et à l’anonymat disparaît progressivement mais régulièrement.
62. Plusieurs auteurs ont mis l’accent sur certains effets néfastes de l’omniprésence de la surveillance, du profilage ou de la notation, ainsi que de la persuasion. Le Berlin Telecom Group considère que la surveillance et le profilage à grande échelle constituent un risque sans précédent pour la vie privée de chaque citoyen. Dans le pire des scénarios, la planète pourrait devenir un «panoptique mondial» 
			(66) 
			Groupe
de travail international sur la protection des données en télécommunications
(Berlin Telecom Group) (2013), Working Paper on Web Tracking and
Privacy – Respect for context, transparency and control remains
essential, 53e réunion, Prague,15-16
avril 2013.. L’enjeu, ce n’est pas uniquement le risque d’abus, mais aussi le droit à l’anonymat et/ou le «droit à la tranquillité», autrement dit, à l’ère du numérique, le droit de ne pas être électroniquement mesuré, analysé ou coaché.
63. À cet égard, relevons que, dans le cadre de la modernisation de la Convention no 108, deux nouveaux droits ont déjà été introduits dans le projet de proposition 
			(67) 
			Projet modernisé de
Convention pour la protection des personnes à l'égard du traitement
automatisé des données à caractère personnel, septembre 2016: <a href='https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=09000016806b6f7b'>https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=09000016806b6f7b</a> et le projet de rapport explicatif: <a href='https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=09000016806b6ec3'>https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=09000016806b6ec3</a>. 
			(67) 
			<a href='https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=09000016806a616c'></a> afin de renforcer la protection des personnes à l’ère des mégadonnées. Ainsi, selon l’article 8: «Toute personne a le droit: a) ne pas être soumise à une décision l’affectant de manière significative, qui serait prise uniquement sur le fondement d’un traitement automatisé de données, sans que son point de vue soit pris en compte; … c) d’obtenir, à sa demande, connaissance du raisonnement qui sous-tend le traitement de données, lorsque les résultats de ce traitement lui sont appliqués …». En outre, aux termes du nouvel article 8bis, «… Chaque Partie prévoit que les responsables du traitement, et le cas échéant les sous-traitants, doivent procéder, préalablement au commencement de tout traitement, à l’examen de l’impact potentiel du traitement de données envisagé sur les droits et libertés fondamentales des personnes concernées et doivent concevoir le traitement de données de manière à prévenir ou à minimiser les risques d’atteinte à ces droits et libertés fondamentales …». Les Parties sont également tenues de «[prendre] en compte les implications du droit à la protection des données à caractère personnel à tous les stades du traitement des données».
64. D’autres aspects ont également été introduits dans le projet actuel de modernisation de la Convention no 108, notamment la minimisation des données et la sécurité, qui permettront également de répondre aux préoccupations actuelles. Face à la complexité croissante des systèmes de traitement de données, il faudra s’intéresser à chacune des différentes étapes pour assurer une protection effective.

4.2. Le droit de pouvoir choisir entre le contact humain et l’assistance par un robot

65. Il se peut que les robots soient en mesure d’assumer une série de tâches humaines. Face à la mise au point de drones militaires autonomes, des centaines de scientifiques et d’experts ont proposé d’interdire les armes autonomes offensives fonctionnant sans «contrôle humain significatif» 
			(68) 
			Future of Life Institute,
«Open Letter on Autonomous Weapons – Future of Life Institute»,
28 juillet 2015, <a href='https://futureoflife.org/open-letter-autonomous-weapons/'>https://futureoflife.org/open-letter-autonomous-weapons/</a>.. Ce concept de contrôle humain significatif est également applicable à d’autres domaines – le judiciaire par exemple – dans lesquels les systèmes autonomes ou d’intelligence artificielle peuvent prendre des décisions cruciales. Lorsque l’interaction et les contacts humains jouent un rôle central, comme dans l’éducation des enfants et les soins aux personnes âgées ou aux personnes handicapées, le «droit à de véritables rapports humains» pourrait avoir sa place.
66. Au niveau individuel, un droit à de véritables rapports humains pourrait permettre de protéger le bien-être des personnes et d’éviter la perte d’aptitude sociale et affective. La technologie moderne devrait faciliter et non pas remplacer les contacts humains: les robots devraient être cantonnés à un rôle consistant à prodiguer des soins courants, les tâches nécessitant une implication affective, intime et personnelle devant quant à elles être confiées à des personnes.

5. Conclusions

67. Sur le plan politique, nous n’avons pas suffisamment conscience de l’incidence croissante de la science et de la technologie sur la société et sur la vie quotidienne des personnes. Or ces questions se révèlent hautement polémiques et devraient donc être traitées comme une priorité politique. Elles supposent d’engager de nouvelles formes de débat public qui soient ouvertes, éclairées et contradictoires, le plus en amont possible et en y associant non seulement des législateurs et des experts, mais aussi des organisations non gouvernementales (ONG), le grand public et les médias. La science et la technologie ne peuvent contribuer au progrès que si, concomitamment, il y a progrès démocratique. Je propose de revenir sur ce point de manière plus approfondie dans un futur rapport.
68. Selon moi, il est nécessaire de sensibiliser l’opinion et de mieux faire connaître la «culture scientifique, technique et industrielle» par le biais d’un débat éclairé. Car trop souvent, les médias ont eu tendance à simplifier des sujets complexes en privilégiant la polémique et le sensationnalisme, aux dépens d’une analyse approfondie. Le public s’est donc forgé des idées bien tranchées, qui empêchent par la suite de considérer ouvertement le problème dans toute sa complexité. Par ailleurs, il importe d’intégrer dans les programmes scolaires des débats éclairés sur les avancées scientifiques et technologiques et d’y aborder les aspects éthiques afférents.
69. Nous avons aussi besoin de nouvelles formes de mécanismes réglementaires et de gouvernance. De fait, compte tenu de la vitesse à laquelle évoluent la science et les technologies, les législateurs ont de plus en plus de mal à suivre le rythme et à élaborer les textes réglementaires et normatifs qui s’imposent. Les délais sont toujours plus courts et il devient difficile d’évaluer les risques et les conséquences à moyen et long terme sur la santé, ainsi que les implications pour les droits de l’homme. Je suis donc convaincu que dans certains cas précis, nous aurions besoin d’un nouveau type de législation qui puisse être réexaminé périodiquement (on parle de «règles biodégradables») pour accompagner ces avancées scientifiques et technologiques, qui sont rapides et souvent radicales, ainsi que leurs applications.
70. La Convention du Conseil de l'Europe sur les droits de l'homme et la biomédecine (Convention d’Oviedo) est un instrument juridique très novateur, qui a été conçu dans les années 1990 pour relever les défis en matière de droits de l’homme au vu des applications de la biologie et de la médecine. Nous l’avons vu, aujourd’hui, les domaines d’application NBIC débordent largement du champ biomédical. Les préoccupations qui ont guidé l’élaboration de la convention restent d’actualité. La Convention d’Oviedo fixe des principes directeurs fondamentaux, dont certains, selon moi, pourraient être élargis aux applications NBIC en dehors du domaine biomédical et respectés dans ce contexte.
71. De l'homme soigné, on est passé à l'homme réparé. Ce qui se profile pour demain est l'homme augmenté. Cette évolution pose de nouvelles questions éthiques dues aux nouvelles interfaces entre l’homme et la machine, ou encore entre l’homme et la molécule. La loi doit permettre de résister à des pressions ou à des contraintes qui imposeraient à des individus de se soumettre à des technologies qui amélioreraient leurs performances, par exemple dans les domaines du sport, des jeux, mais aussi du travail. De même, dans une ère numérique caractérisée par une perpétuelle mutation, l’homme devrait avoir le droit de refuser d’être mesuré, analysé ou coaché.
72. Il est urgent que les procédures de traitement automatisé soient soumises à un contrôle plus soutenu en ce qui concerne la collecte, la manipulation et l’utilisation des données à caractère personnel et j’encourage vivement la conclusion rapide du processus de modernisation de la Convention no 108. Jusqu’à dernièrement, les procédures reposaient sur la contribution d’experts, de spécialistes du domaine, qui traduisaient sous forme de règles leurs observations et leurs expériences, afin d’établir un modèle. Aujourd’hui, ces experts ont été remplacés par des processus d’apprentissage automatique (algorithmes) qui parviennent à tirer ces mêmes règles des données mêmes.
73. Quelques clics et quelques métadonnées, filtrées en appliquant ce type de modèle, suffisent pour dresser le portrait-robot de quelqu’un et révéler ses caractéristiques les plus intimes. L’analyse des préférences sur les réseaux sociaux par exemple a permis de déterminer l’orientation politique (85 %), sexuelle (83 %) et religieuse (82 %) ainsi que l’origine ethnique (95 %) de certaines personnes avec des niveaux d’exactitude supérieurs à ceux obtenus par les hommes. Grâce à la modélisation (au profilage) des personnes, ces méthodes servent également à anticiper les comportements. Les GAFA (Google, Apple, Facebook, Amazon) font des investissements considérables dans cette recherche, qui se développe rapidement et exige un cadre juridique.
74. Tout au long du présent rapport, nous avons vu que diverses applications des nouvelles technologies et de l’intelligence artificielle peuvent avoir des répercussions profondes sur les droits de l’homme et qu’il faut donc les réglementer. Le public doit être informé de la valeur des données qui sont collectées et de leur utilisation. Un travail de réflexion doit être engagé sans délai, car le législateur risque de se retrouver démuni face au développement de ces technologies par les entreprises et les grands groupes rompus à la commercialisation rapide des innovations. Nous devons donc encadrer ces applications sur le plan éthique et légal. Pour ce faire, nous devons améliorer l’échange entre les statisticiens, les spécialistes des TI, les experts juridiques, les sociologues et les spécialistes de l’éthique. Un tel échange pluridisciplinaire qui reflète la nature hybride des algorithmes est la seule solution pour commencer à maîtriser, ces problèmes et mettre en place une protection juridique effective.
75. Dans un monde en mouvement rapide, l’évaluation scientifique est une condition essentielle du maintien de la place de la démocratie représentative dans le fonctionnement de nos institutions. Par conséquent, je propose que les parlements nationaux se dotent de structures de «technology assessment» et que d’autre part, ils favorisent des programmes éducatifs et des échanges réguliers entre les sciences humaines et sociales et les sciences technologiques.
76. Au niveau européen, il convient de mieux coordonner l’action du Conseil de l’Europe et de ses missions sur les droits de l’homme avec le travail mené par l’Union européenne ainsi qu’avec les parlements nationaux. Par exemple, l’Union européenne soutient déjà 120 projets de robotique par le biais du programme SPARC, qui finance les innovations apportées dans ce domaine par des sociétés européennes et des instituts de recherche. A cet effet, 700 millions d’euros ont été débloqués pour une utilisation jusqu’en 2020 dans le cadre du programme de recherche et d’innovation de l’Union européenne «Horizon 2020». Par ailleurs, la commission des affaires juridiques du Parlement européen a adopté, en janvier 2017, le rapport de Mme Mady Delvaux 
			(69) 
			Actualités du Parlement
européen, Robots: les députés de la commission des affaires juridiques
demandent des règles européennes, op.
cit.; par la suite, la Résolution du Parlement européen (2015/2103(INL)) 
			(70) 
			<a href='http://www.europarl.europa.eu/sides/getDoc.do?type=TA&reference=P8-TA-2017-0051&language=FR&ring=A8-2017-0005'>www.europarl.europa.eu/sides/getDoc.do?type=TA&reference=P8-TA-2017-0051&language=FR&ring=A8-2017-0005.</a> était adoptée le 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique qui comportent notamment des dispositions sur la responsabilité, les droits de propriété intellectuelle, la normalisation, la sûreté et la sécurité.
77. Le réseau de l’EPTA, dont à la fois le Parlement européen et l’Assemblée parlementaire du Conseil de l’Europe sont membres, pourrait être l’un des lieux d’organisation d’auditions publiques et contradictoires réunissant experts, politiques et citoyens. Je préconise également de travailler sur les questions de l’éthique, de la science et de la technologie en lien avec l’Organisation des Nations Unies pour l'éducation, la science et la culture (UNESCO) pour harmoniser les recommandations au niveau mondial.