Les régulateurs dépoussiérent les livres de règles pour s'attaquer à une IA générative comme Chatgpt

Openai a pris le ChatGPT hors ligne en Italie après que l'autorité de protection des données du gouvernement a temporairement interdit le chatbot et a lancé une enquête sur les règles suspectées de la pertinence de la confidentialité de la demande d'intelligence artificielle.

Les régulateurs dépoussiérent les livres de règles pour s'attaquer à une IA générative comme Chatgpt
Les régulateurs dépoussiérent les livres de règles pour s'attaquer à une IA générative comme Chatgpt

Alors que la race pour développer des services d'intelligence artificielle plus puissants comme Chatgpt accélère, certains régulateurs comptent sur les anciennes lois pour contrôler une technologie qui pourrait bouleverser le fonctionnement des sociétés et des entreprises.

L'Union européenne est à l'avant-garde de la rédaction de nouvelles règles d'IA qui pourraient établir le référence mondiale pour répondre aux problèmes de confidentialité et de sécurité qui ont eu lieu avec les progrès rapides de la technologie générative de l'IA derrière le chatpt d'Openai.

Mais il faudra plusieurs années pour que la législation soit appliquée.

"En l'absence de réglementations, la seule chose que les gouvernements peuvent faire est d'appliquer les règles existantes", a déclaré Massimiliano Cimnaghi, un expert européen de gouvernance des données chez Consultancy BIP.

"S'il s'agit de protéger les données personnelles, ils appliquent des lois sur la protection des données, s'il s'agit d'une menace pour la sécurité des personnes, il existe des réglementations qui n'ont pas été spécifiquement définies pour l'IA, mais elles sont toujours applicables. "

En avril, les chiens de surveillance nationaux de la confidentialité de l'Europe ont mis en place un groupe de travail pour résoudre les problèmes avec Chatgpt après que le régulateur italien Garante, le service soit mis hors ligne, accusant Openai de violer le RGPD de l'UE, un régime de confidentialité de grande envergure promulgué en 2018.

Chatgpt a été réintégré après que la société américaine a accepté d'installer des fonctionnalités de vérification d'âge et de permettre aux utilisateurs européens de bloquer leurs informations par leur utilisation pour former le modèle d'IA.

L'agence commencera à examiner plus largement les autres outils d'IA génératifs, a déclaré à Reuters une source proche de Garante. Les autorités de protection des données en France et en Espagne ont également lancé en avril sonde sur la conformité d'Openai aux lois sur la confidentialité.

Apporter les experts

Les modèles génératifs d'IA sont devenus bien connus pour faire des erreurs, ou «hallucinations», crachant une désinformation avec une certitude étrange.

De telles erreurs pourraient avoir de graves conséquences. Si une banque ou un département du gouvernement utilisait l'IA pour accélérer la prise de décision, les individus pourraient être injustement rejetés pour les prêts ou les paiements de prestations. Les grandes entreprises technologiques, dont Google d'Alphabet (Googl. O) et Microsoft Corp (MSFT. O), avaient cessé d'utiliser des produits AI jugés éthiques dicey, comme les produits financiers.

Les régulateurs visent à appliquer les règles existantes couvrant tout, de la confidentialité des droits d'auteur et des données à deux problèmes clés: les données alimentées dans les modèles et le contenu qu'ils produisent, selon six régulateurs et experts aux États-Unis et en Europe.

Les agences des deux régions sont encouragées à "interpréter et réinterpréter leurs mandats", a déclaré Suresh Venkatasubramanian, un ancien conseiller technologique de la Maison Blanche. Il a cité l'enquête de la Federal Trade Commission (FTC) des États-Unis sur les algorithmes pour les pratiques discriminatoires en vertu des pouvoirs réglementaires existants.

Dans l'UE, les propositions de la loi sur l'IA du Bloc obligeront des entreprises comme OpenAI pour divulguer tout matériel protégé par le droit d'auteur - tel que des livres ou des photographies - utilisés pour former leurs modèles, les laissant vulnérables aux défis juridiques.

La prouvant de la violation du droit d'auteur ne sera pas simple, selon Sergey Lagodinsky, l'un des nombreux politiciens impliqués dans la rédaction des propositions de l'UE.

"C'est comme lire des centaines de romans avant d'écrire le vôtre", a-t-il déclaré. "Si vous copiez réellement quelque chose et le publiez, c'est une chose. Mais si vous ne plagiez pas directement le matériel de quelqu'un d'autre, peu importe ce sur quoi vous vous êtes formé.

«Penser créatif»

Le régulateur de données français CNIL a commencé à "penser de manière créative" sur la façon dont les lois existantes pourraient s'appliquer à l'IA, selon Bertrand Pailhes, son exemple de technologie.

Par exemple, en France, les réclamations de discrimination sont généralement traitées par la défense des Droits (défenseur des droits). Cependant, son manque d'expertise en biais d'IA a incité CNIL à prendre des devants sur la question, a-t-il déclaré.

"Nous examinons la gamme complète des effets, bien que notre objectif reste sur la protection des données et la vie privée", a-t-il déclaré à Reuters.

L'organisation envisage d'utiliser une fourniture de RGPD qui protège les individus de la prise de décision automatisée.

"À ce stade, je ne peux pas dire si cela suffit, légalement", a déclaré Pailhes. "Il faudra un certain temps pour construire une opinion, et il y a un risque que différents régulateurs prennent des opinions différentes. "

En Grande-Bretagne, la Financial Conduct Authority est l'un des nombreux régulateurs de l'État qui a été chargé de publier de nouvelles directives couvrant l'IA. Il consulte l'Alan Turing Institute à Londres, aux côtés d'autres institutions juridiques et universitaires, pour améliorer sa compréhension de la technologie, a déclaré un porte-parole à Reuters.

Alors que les régulateurs s'adaptent au rythme des progrès technologiques, certains initiés de l'industrie ont appelé à un plus grand engagement avec les chefs d'entreprise.

Harry Borovick, avocat général de Luminance, une startup qui utilise l'IA pour traiter les documents juridiques, a déclaré à Reuters que le dialogue entre les régulateurs et les entreprises avait été "limité" jusqu'à présent.

"Cela n'augmente pas particulièrement bien en termes d'avenir", a-t-il déclaré. "Les régulateurs semblent lents ou ne veulent pas mettre en œuvre les approches qui permettraient le bon équilibre entre la protection des consommateurs et la croissance des entreprises. "