• Droit,

[Retour sur] Séminaire « L'IA, progrès ou dégradation »

Evènement | 1 décembre 2025

Le lundi 1 décembre 2025 nous avons eu l’honneur d’accueillir Monsieur Ludovic Pailler, Directeur du Master Droit et Activités numériques, Professeur de Droit privé et de sciences criminelles et Vice-Président en charge du pilotage et de la coordination des projets transversaux à l’Université Jean Moulin Lyon 3, qui nous a présenté le thème « l’Intelligence Artificielle ». À ce sujet d'actualité qui soulève de nombreux questionnements et préoccupations, Monsieur Pailler a ainsi pu répondre, dressant un portrait nuancé des apports de ce nouvel outil...

Vignette IA progrès ou dégradation

Présentation de la conférence


Selon le Parlement européen, l’intelligence artificielle est "tout outil utilisé par une machine capable de "reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité". Cet outil se caractérise notamment par son autonomie, qui doit être prise en compte pour cerner le responsable de certaines actions. 


Quels sont les usages principaux de l’IA ? 


De nos jours, les sites mettant à disposition cet outil sont particulièrement accessibles, ce qui conduit plusieurs usagers d’Internet à l’exploiter de façon très diverse. Certains l’utilisent pour recevoir une aide psychologique, d’autres pour l’analyse d’images, pour une synthèse de texte, voire pour des diagnostics médicaux. 
De plus, cet outil numérique permet d’accélérer l’accomplissement de certaines tâches. Il peut même parfois contribuer à la sauvegarde de vies humaines. En effet, à titre d’exemple, la start-up Owkin, créée par un cancérologue et un mathématicien français, permet aux médecins-chercheurs traitant des patients cancéreux de trouver des réponses pertinentes à leurs questions sur une plateforme qui rassemble plus de 10 millions de dossiers de personnes souffrant d’un cancer.


Quelles sont les limites de l’IA ? 


L’intelligence artificielle fonctionne sur une base probabiliste. Autrement dit, contrairement à une personne, elle ne comprend aucun mot, mais propose les réponses les plus probables aux questions qui lui sont posées. Pour cette raison, elle reste assez faible en mathématiques et ne peut pas non plus être considérée comme étant entièrement capable de juger les cas particuliers qui lui sont présentés. 

Par ailleurs, lorsque se pose la question d’une justice algorithmique, il doit être rappeler que l’une des missions principales de la justice est l’apaisement de la société. Un juge, en tant que personne humaine, incarne la société et écoute l’opinion de chacun. La capacité d’un robot à répondre à ce besoin reste assez contestable...   

Une autre caractéristique intéressante de l’IA réside dans sa programmation. Elle est configurée pour donner nécessairement une réponse à la question ou à la tâche posée (à l’exception des cas dangereux pour la société). De fait, si elle ne possède pas les informations suffisantes pour le faire, elle peut avoir recours à des données hypothétiques, voire aller jusqu’à inventer des faits pour remplir sa mission. 

Un autre enjeu important lié à l’usage persistant de l’IA est son apprentissage constant. Ce dernier nécessite une quantité très conséquente d’informations. Cela peut porter atteinte à la vie privée et à la confidentialité des données personnelles des internautes. Pourtant,  l’Union européenne encourage toujours plus la facilité de circulation des données comme carburants de l’IA. 
 

Notre participation à l’apprentissage de l’IA est-elle toujours consciente ?

 

Nous pourrions tous nous questionner : Ai-je déjà aidé l’IA à progresser ? 


Peut-être pensez-vous que non. Et pourtant… Si vous avez fait le test « captcha » qui prétend vérifier que vous n’êtes pas un robot, vous l’avez fait, inconsciemment. En effet, le site qui vous demande de faire ce test n’en a pas besoin. Il peut contrôler votre identité en observant notamment votre vitesse de réaction. Ces sites mentent en utilisant notre temps pour annoter gratuitement l’IA. En répondant à ces questionnaires (reconnaître des images, des lettres, des objets), nous entrainons l’IA à notre insu. Cela soulève des questions d’ordre éthique : pour nourrir l’IA, le mensonge aux consommateurs sur la finalité de ces tests est-il justifié ? 
 

Est-ce que l’IA dégrade nos capacités intellectuelles ? 


Pas nécessairement, mais les études fiables montrent que l’utilisation de l’IA amène à une « réallocation des capacités cognitives à des tâches plus complexes » que l’IA n’est pas encore apte à bien accomplir seule.


L’IA est-elle notre concurrent dans la consommation de l’eau ?


Oui ! « Les émissions de gaz à effet de serre liées au numérique représentent environ 4 % de l'empreinte carbone totale ». En outre, les data centers nécessitent de l’électricité et un refroidissement par une eau relativement propre. Il est nécessaire d’essayer d’avoir recours à d’autres services moins énergivores et tout aussi apte à accomplir la tâche demandée, comme un moteur de recherche (qui requiert 10 fois moins d’énergie que l’IA). Être moins dépendants de l’IA revient indirectement à prendre soin de l’environnement ! 

En guise de conclusion, l’IA est un outil fort de recherche et d’analyse des données, auquel nous pouvons avoir recours. Cependant, il faut tenir compte de ses limites et en réduisant son impact sur nos vies et notre planète…

Gayane Aydinyan,
étudiante en première année du Collège de droit

INFOS PRATIQUES

Lieu(x)

Campus des Quais

Type

Colloque / Séminaire

Thématique

Droit