Robot conversationnel, quel encadrement?

Marché du travail en 2022 : les interrogations
7 avril 2023
Insertion des bénéficiaires du RSA: une réforme à suivre
20 avril 2023

Robot conversationnel, quel encadrement?

Après la présentation au grand public de modèles de « robots conversationnels », la presse a fait état d’une forte inquiétude des politiques, des experts et de l’opinion sur la fiabilité des réponses apportées par le robot, sur sa capacité (ou son incapacité) à élaborer une réponse éthique dans une situation de danger pour les personnes et, d’une manière plus large, sur les risques de manipulation de l’opinion (ou du moins de la diffusion d’inexactitudes ou de mensonges) : l’on sait en effet qu’un robot conversationnel est alimenté par une masse  énorme de textes dont la qualité n’est pas garantie, que l’application d’une démarche « statistique »  qui met en avant les assertions les plus courantes peut inciter à des discriminations, comme on le voit dans les algorithmes de tri déjà utilisés, et que le robot ne sait pas raisonner, démêler le faux du vrai, assurer la cohérence de ses affirmations ni a fortiori porter sur les assertions émises un regard critique. Certes, les concepteurs ont institué des limites et le robot refuse de répondre à certaines questions ou parfois ne peut pas être « sursollicité » longtemps, car il finit alors par dérailler. Reste que l’on peut craindre que les robots conversationnels ne deviennent des machines à brouiller la frontière entre le vrai et le faux.

Chacun s’est alors reporté au travail déjà entrepris au niveau européen pour encadrer le recours à l’intelligence artificielle : un projet de règlement européen a été publié en avril 2021 pour réguler l’IA de manière large, la Commission affirmant parallèlement que de nombreux bénéfices en sont attendus, dans le domaine de la santé (aide au diagnostic) ou des transports (aide à la conduite).  Pour que, parallèlement, les droits humains fondamentaux soient respectés, le projet de règlement européen a fait le choix d’une approche par risque, allant du risque limité au risque élevé ou inacceptable. Dans ce dernier cas, le recours à l’IA est interdit, l’exemple pris étant celui de la « notation sociale » en vigueur en Chine qui attribue aux citoyens des points (et des droits) s’ils se comportent « bien » et leur en enlève si leur attitude est moins « civique ». Les logiciels de reconnaissance faciale relèveraient du risque inacceptable mais avec des exceptions (urgence, recherche de délinquants) qui font l’objet d’âpres débats.

 

Le risque serait considéré comme élevé s’agissant des logiciels de tri, qu’il s’agisse des candidatures à un emploi, de sélection des lauréats à un concours ou de demandeurs d’avantages ou de prestations (prêts bancaires). Dans ce cas, des normes spécifiques s’appliqueraient, vérification des données utilisées, robustesse de l’application, traçabilité pour régler les litiges, mise en place d’un contrôle humain. L’application devrait être déclarée et enregistrée et la personne concernée devrait être avertie. Les obligations (respecter un code de bonne conduite) seraient plus légères en cas de risque limité.

Comment le dispositif va-t-il prendre en compte le recours aux robots conversationnels ? Leur classement en risque limité puis élevé a été évoqué.  S’ils étaient classés en risque élevé, l’entreprise qui les a créés serait-elle tenu de garantir la qualité des données utilisées ? Mais comment, s’agissant d’une masse énorme de textes que personne n’a relus ? De respecter les règles de propriété intellectuelle qui régissent ces données ? Mais comment ? Suffira-t-il de brider certaines utilisations du robot ? De prévenir l’utilisateur qu’il a affaire à une machine dont l’utilisation a des limites et de l’avertir du risque d’inexactitude et de partialité que présentent ses prestations pour dédouaner les fabricants de leur responsabilité en cas de faute ou d’erreur ? C’est, aujourd’hui, le brouillard.