LQJ-272

souligner que ce n’est pas anodin au niveau de la protec- tion des données à caractère médical. Il ne s’agit pas tant de respect de la vie privée, puisque l’identité des individus n’est pas en première ligne avec l’analyse génomique, mais bien plutôt de questions de métadonnées. On parle ici des données générales, des statistiques, des façons les plus pertinentes de regrouper et de catégoriser les informa- tions. En disposant des plus grandes quantités possibles de métadonnées, on peut recouper les caractéristiques génériques de toute une série de populations et d’indivi- dus. On peut ainsi établir des tendances, une précision dia- gnostique et donc des thérapies mieux ciblées. C’est pour- quoi ces données valent de l’argent. C’est donc loin d’être anodin d’envoyer ces données en Chine ou ailleurs. Ces informations ont une grande valeur financière, par exemple dans le secteur des assurances. LQJ : Comment gérer la question du stockage de toutes ces données génétiques ? N’y a-t-il pas un risque qu’elles tombent à terme sous le contrôle d’en- treprises privées ? F.T. : C’est un énorme problème ! La question n’est pas d’opposer les formes de stockage. Bien souvent, les hôpi- taux ont une structure duale, avec un stockage physique dédoublé dans le cloud pour des questions de sécurité. Dans ce cas, vous avez deux possibilités : soit le stockage est organisé en interne et par la structure hospitalière elle-même, éventuellement en partenariat avec d’autres structures pour mutualiser les investissements, soit elle fait appel à des clouds externes pour des raisons de facilité. Ils sont alors gérés par des prestataires privés comme Google ou Amazon à des tarifs dérisoires par rapport à ce que coûte la mise en place d’une infrastructure propre. C’est donc très tentant de recourir à des acteurs privés qui vont ensuite monétiser les métadonnées. V.B. : Le stockage des données engendre premièrement une problématique économique parce que cela coûte très cher. La deuxième question est celle de la possibilité ou de la nécessité de réexaminer les données génétiques d’un individu à plusieurs reprises afin d’affiner les résultats. En effet, si je séquence le génome d’un individu aujourd’hui et que je lui donne quelques éléments issus de mon analyse, est-ce que je dois réexaminer cette séquence dans quelques années en fonction de nouveaux développements scienti- fiques pour améliorer les informations de départ, voire pour revenir sur certaines d’entre elles ? Cela est déjà d’actualité, nous y sommes déjà confrontés. Techniquement, à cause de cette quantité gigantesque de données émises à chaque séquençage, il ne sera pas possible d’effectuer des analyses à répétition pour un même individu. Ce qui nous ramène à la question cruciale du risque de mauvaise interprétation. Par ailleurs, si après avoir réalisé le séquençage du génome d’un individu, celui-ci revient dix ans plus tard souffrant d’un cancer, en m’accusant de ne pas l’avoir informé qu’il était porteur d’un gène associé à un risque pour ce type de can- cer, détectable dans son génome… Que lui répondre ? Que je n’avais pas identifié l’information ou que je ne l’avais pas jugée cruciale ? Cela pose vraiment la question de notre res- ponsabilité. François Thoreau janvier-avril 2019 / 272 ULiège www.uliege.be/LQJ 63 le dialogue

RkJQdWJsaXNoZXIy MTk1ODY=