LQJ-274

G.L. : Je suis toujours un peu gêné devant ce genre d’exemple. Pour moi, ce n’est pas de l’intelligence artifi- cielle. C’est juste de l’informatique. Vous pouvez très bien dès aujourd’hui embaucher un assistant, donc un humain, pour répartir les étudiants selon les critères que vous avez énoncés. À partir du moment où vous acceptez qu’un humain le fasse, alors pourquoi empêcher la machine de le faire ? P.D. : C’est une question d’imaginaire et je dirais même d’idéologie. Est-ce qu’on a envie de faire confiance en l’homme ou bien plutôt en une machine ? Tout en sachant que la machine est toujours socialisée et qu’elle porte tou- jours les traces de l’homme. Donner ce rôle à la machine, c’est l’aboutissement d’un imaginaire basé sur le dépasse- ment de l’homme, par nature déficient, vers l’intelligence artificielle. La machine est déficiente également, mais elle serait supposée l’être moins que l’homme. On voit bien ici que c’est la norme de la performance qui redéfinirait toute une série de choses qui marquent notre civilisation. Est-ce que l’on est d’accord pour que ce soit cette norme-là qui l’emporte sur les autres ? Cela représenterait une rup- ture avec ce qu’a fait l’humanisme européen, notamment avec la question du libre-examen. Est-ce qu’on a bien conscience de cette évolution et est-ce qu’on a envie de vivre dans une société où chaque souffle, chaque batte- ment de cœur, chaque geste sera capté par des machines qui les transformeront ensuite en données, moteur de pro- fits ? Pour le moment, ces évolutions technologiques sont présentées comme neutres, comme si elles n’avaient pas les contours d’une idéologie et d’un imaginaire. Mais ce n’est pas vrai. LQJ : Un des sept éléments essentiels retenus par la Commission européenne pour parvenir à une intelligence artificielle “digne de confiance” est le respect de la vie pri- vée et la gouvernance des données. Comment pourrait-on le garantir ? P.D. : Pour moi, il s’agit de formules incantatoires. Ces lignes de conduite permettent certes de clarifier la posi- tion d’une institution publique, mais ce n’est pas suffisant. L’éthique est ici cantonnée à des check lists. Les cher- cheurs qui veulent recevoir de l’argent de la Commission promettent qu’ils vont respecter ces lignes de conduite éthiques et ils font ensuite comme bon leur semble. C’est là la limite de ces déclarations. G.L. : Il existe par exemple tout un domaine de l’intelli- gence artificielle qui se concentre sur la confidentialité des données. Utiliser un réseau de neurones artificiels classique induit nécessairement une certaine forme de stockage et de mémorisation des données utilisées pour son entraînement. Lorsque le modèle est construit, il est souvent possible de recouvrir certaines de ces données, ce qui pose immédiatement des problèmes de respect de la vie privée. Une question de recherche consiste alors à se demander s’il est possible d’entraîner ces mêmes réseaux de neurones tout en garantissant la préservation de l’ano- nymat des données originales. N.P. : On entend souvent “Facebook vous surveille”. C’est une idée fausse. Facebook vend à des régies publicitaires un profil de candidat à la consommation, identifié par une série de 1 et de 0 et qui présente une grande probabilité d’acheter des chaussures de sport par exemple. Facebook ne se pose pas la question de savoir si vous courez bien ou mal. Je crois que, dans l’inconscient collectif, il y a cette confusion qui consiste à croire que quand des don- nées sont traitées par une machine à grande échelle, il y a derrière cela une forme de surveillance morale, sociale ou autre. Nous disposons maintenant d’une réglementa- tion en Europe, le Règlement général sur la protection des données (RGPD), qui nous protège davantage, de manière à permettre la pseudonymisation, à limiter la transmission vers des tiers et à restreindre toute instrumentalisation des données pour atteindre des objectifs qui violeraient la vie privée. L’une des questions à se poser est de savoir si de telles réglementations empêchent les ingénieurs de travailler. G.L. : Je pense que c’est bien qu’il y ait un cadre. Cela peut être vu comme un obstacle à court terme mais, à long terme, c’est certainement une bonne chose. Là où les problèmes se posent parfois, c’est dans le domaine des sciences médicales, avec les données de patients. Quand on veut faire de la recherche dans ce domaine, cela devient très compliqué. N.P. : Je crois qu’on fait une erreur en décrivant le monde de la tech comme un monde très froid, pas très intéressé par ces grandes questions éthiques. Les employés d’en- treprises comme Google sont plutôt jeunes et ce sont des gens pour qui les préoccupations socio-éthiques sont très proches de leur système de valeurs personnel. On le voit d’ailleurs avec Mark Zuckerberg qui était en Europe récemment et qui réclame de la réglementation. Il doit gérer les données personnelles de plus de deux milliards d’utilisateurs, une tâche herculéenne. Son message est un véritable appel à l’aide pour que les pouvoirs publics expriment exactement leur position. Rendez-vous compte : on demande aux plateformes moins de contrôle des conte- nus avec l’antitrust et plus de contrôle des contenus sur d’autres fondements. L’environnement réglementaire est très complexe. P.D. : Sur la question des valeurs personnelles des diri- geants d’entreprise comme Facebook, cela ne tient pas à l’épreuve des faits. Il suffit de voir le rôle joué par les réseaux sociaux comme Facebook pendant les élections américaines pour essayer de faire du ciblage d’électeurs susceptibles de faire basculer les résultats d’un côté ou de l’autre. Face à cela, des entrepreneurs comme Mark Zuckerberg ont tardé à prendre au sérieux ce type de menace, à reconnaître leur passivité et leur responsabilité dans cette négligence. Cela ne veut pas dire qu’ils n’ont pas de conscience éthique mais que ce qui les anime, et c’est normal, c’est le profit. On ne peut donc pas attendre d’eux qu’ils développent une conscience éthique propor- tionnelle à la puissance détenue par leur entreprise. Par ail- leurs, il peut aussi y avoir du double discours. Prenez le cas d’Elon Musk qui déclarait il n’y a encore pas si longtemps que l’intelligence artificielle représentait un risque majeur pour la civilisation alors que, dans le secret de ses labos, il contribue à son développement. LQJ : L’intelligence artificielle apportera-t-elle une réponse aux problèmes de chômage et à la crise sociale que l’on connaît en Europe depuis la désindustrialisation ? G.L. : Des emplois vont disparaître, d’autres vont être créés. Par exemple, il y a une demande croissante en ingé- nieurs dans le but de construire des véhicules totalement autonomes pour le transport de personnes ou celui des marchandises. Il y a aussi une demande très importante en médecine et en robotique. D’ailleurs, si on prend les pays les plus robotisés, c’est-à-dire l’Allemagne ou la Corée du Sud, ce sont aussi des pays qui ont un taux de chômage très bas. N.P. : L’introduction de la technologie permet de générer des gains de productivité qui débouchent sur une réalloca- tion des emplois. Ce qui est à l’œuvre, c’est un processus de “destruction créatrice”. Malheureusement, les médias ne s’intéressent qu’au volet destruction. Certes, tout le monde ne peut pas être ingénieur, mais de nombreux métiers vont se créer autour de l’ingénierie. Par exemple, on pourrait avoir demain, avec les véhicules autonomes des contrô- leurs du trafic routier qui seraient là pour gérer notamment la problématique de l’insertion sur autoroute. P.D. : Jamais un mouvement industriel n’aura été bâti sur autant de promesses. La transition numérique est présen- tée comme un nouvel eldorado permettant une réindustria- lisation vertueuse. Sur l’ensemble de l’échiquier politique, tout le monde dit à peu près la même chose. Pourquoi ? Parce que les promesses concernent l’emploi et la com- pétitivité. Celles-ci sont censées se traduire par des poli- tiques publiques qui finalement n’apportent pas les résul- tats escomptés. Les chiffres sont toujours en-deçà des attentes formulées. Et on analyse ce manque de résultats comme étant la preuve qu’on n’a pas été assez loin dans l’innovation numérique… Et le cercle vicieux s’installe. G.L. : Techniquement, aujourd’hui, la plupart des tâches pouvant être résolues en moins d’une seconde – dans tous les domaines d’activité – peuvent être faites par un ordinateur. La question est donc plutôt de savoir s’il est rentable ou non d’automatiser ces tâches-là. Les métiers qui demandent du contact humain ont nettement moins de chances d’être exercés par des robots. Par exemple, ce n’est sans doute pas demain la veille que l’on verra des robots remplacer les puéricultrices dans les crèches (fort heureusement !). N.P. : Comme certains le rappellent parfois avec facétie, Voltaire a dit que le travail éloignait de l’individu le besoin, l’ennui et le vice. Lorsque l’intelligence artificielle se sera substituée au travail, et nous aura libérés du besoin, que restera-t-il ? Plus sérieusement, il est permis d’imaginer un monde dans lequel le travail humain aura une valeur marchande significativement plus élevée comparée à la réalisation mécanique. Il revient aux juristes d’inventer les institutions, les principes, et les règles à cet effet. Pour le moment, nous avons le “ made in China ” versus le “ made in Europe ”. Demain, on pourrait avoir le “ machine-made ” versus le “ man-made ”. Informations sur les études * master en sciences des données www.programmes.uliege.be/info/master/sciences-donnees 62 63 septembre-décembre 2019 / 274 ULiège www.uliege.be/LQJ septembre-décembre 2019 / 274 ULiège www.uliege.be/LQJ le dialogue le dialogue

RkJQdWJsaXNoZXIy MTk1ODY=