LQJ-274

N.P. : Si l’UE ne le fait pas, qui va le faire ? On peut en effet se dire que ce n’est pas réaliste et alors laisser les Américains et les Chinois dicter le stan- dard éthique en la matière. Ce qui me semble plus constructif, c’est de définir une ambition collective et d’essayer de l’atteindre. Par ailleurs, il y a un malheur européen qui consiste à toujours se présenter comme un ensemble sociopolitique en crise, en déclin. C’est à mon avis singulièrement faux en ce qui concerne l’intelligence artificielle. En effet, l’UE est presque la première économie du monde et aucune entreprise, que ce soit Google, Amazon ou les géants chinois, ne pourra faire l’impasse sur le marché européen. Du reste, l’UE a une tradition d’excellence en mathéma- tiques, ingénierie, logique et robotique. Certes, son marché n’offre pas autant de potentiel d’échelle, du fait de l’existence de marchés du travail distincts, de langues différentes et d’institutions hétérogènes. Je crois donc qu’avec un peu d’efforts et une accé- lération du marché unique numérique, on pourrait rapatrier beaucoup de connaissances et d’investisse- ments en Europe. G.L. : Au niveau de la recherche, les États-Unis, le Canada et la Chine sont montés en puissance depuis une dizaine d’années. On fait de la bonne recherche en Europe mais nos cerveaux partent inéluctablement à l’étranger, là où les conditions de travail sont souvent meilleures. La question est par conséquent de savoir si on veut seulement être client de la recherche, et dans ce cas Google, Amazon ou les géants chinois devront s’adapter aux spécificités légales et culturelles du mar- ché européen, ou si, au contraire, on veut être acteur et contributeur de cette recherche. Si tel est le souhait de l’UE, il est alors impératif que l’on se réveille et que des moyens concrets soient mis en œuvre pour soute- nir notre recherche. En ce qui concerne l’ambition de doter l’UE d’une intelligence artificielle centrée sur l’hu- main, qu’est-ce que cela veut dire ? La technique n’est ni humaine, ni inhumaine. N.P. : On peut partir d’un exemple concret, celui de l’Université en période d’examens. Les locaux sont alors rares, les horaires d’examens sont assez serrés et il faut les partager avec d’autres collègues. Avec trois heures d’examen, il faut compter en plus le temps de faire l’appel. On pourrait imaginer avoir un logiciel de reconnaissance faciale avec un drone qui survolerait l’amphithéâtre. Il pourrait en un cliché reconnaître tous les étudiants et produire une liste d’appel en quelques secondes. Les gains de productivité seraient fabuleux. On pourrait aller encore plus loin et déterminer un profil de triche pour chaque étudiant. Ce serait tout à fait possible. Un logiciel suffisamment puissant pourrait dresser un profil type. Des logiciels sont déjà utilisés pour calculer le risque de récidive des détenus éligibles à la libération conditionnelle. Seulement, est-ce éthique de faire cela ? Ce sont des questions complexes. P.D. : Je me demande comment les profils seraient établis et en fonction de quels critères. Si ces critères ont été validés, par qui l’ont-ils été ? La technolo- gie serait utilisée ici pour classer les étudiants d’une manière qui serait tout sauf transparente. C’est pour- quoi, de mon point de vue, la question n’est pas celle de l’utilité. On trouvera toujours des applications très pratiques, très utiles à la technologie. Non, la première question qu’on ne pose jamais et qu’il est urgent de mettre en avant est la suivante : veut-on ce type de développement ? Le veut-on en tant que communauté politique, le veut-on en tant qu’Université ? C’est, je crois, une question qui trop souvent est balayée d’un revers de la main. système de reconnaissance faciale et, en plus, vous êtes coté. Vos comportements sont classés selon qu’ils doivent être encouragés ou au contraire sanctionnés. C’est une dangereuse dérive qui montre bien que la technologie peut être un instrument aux mains d’un pouvoir autoritaire. Les technologies ne sont jamais neutres ; elles reflètent à la fois les valeurs de leurs concepteurs et celles des per- sonnes qui encadrent leur développement. Bien sûr, le cas chinois est un exemple extrême, mais il représente tout de même un basculement et il impose à mon avis de mettre en débat de manière démocratique les questions techno- logiques. N’oublions pas que les entreprises comme les GAFAM 1 exercent aussi un pouvoir et que les utilisateurs ont une responsabilité. Lorsque vous acceptez de commu- niquer vos empreintes digitales pour pouvoir déverrouiller votre téléphone, ce sont des données qui sont ensuite stockées quelque part et auxquelles des personnes ont accès. Il peut ensuite y avoir une convergence entre le privé et l’État lorsqu’ils travaillent ensemble à des fins de surveillance et de contrôle de la population. Par exemple, les États-Unis vont demander désormais aux personnes souhaitant se rendre sur leur territoire de déclarer l’en- semble de leurs comptes sur les réseaux sociaux. N.P. : La technologie n’est en effet pas neutre culturelle- ment. Mais je rappelle que la culture européenne est sin- gulièrement différente de la culture chinoise et américaine. Les applications qui seront faites de l’intelligence artificielle en Europe tiendront compte, pour des raisons écono- miques et pour des raisons morales, de certaines considé- rations d’ordre culturel. Je ne peux pas croire que ce qui sera créé en Chine sera exporté tel quel en Europe et qu’on acceptera d’utiliser la reconnaissance faciale à la chinoise. LQJ : Mais l’Union européenne² a-t-elle les outils pour imposer à l’échelle internationale “une intelligence artificielle basée sur l’humain” ? P.D. : Oui. Il suffit de le vouloir politiquement. Gilles Louppe Nicolas Petit Pierre Delvenne 1 Gafam : Google, Amazon, Facebook, Appel, Microsoft ² Communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions, “Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain”, 8 avril 2019 60 septembre-décembre 2019 / 274 ULiège www.uliege.be/LQJ 61 le dialogue le dialogue

RkJQdWJsaXNoZXIy MTk1ODY=