Hardware

Google ne dira à personne pourquoi il a retenu Bard AI de l’UE

Photo of author

Publié par Dylan Lafarge

Publié le

Blagues câblées selon lesquelles Google a jusqu’à présent donné accès à plus de pingouins Bard qu’il n’en a d’Européens.

Alors que l’assistant IA de Google, Bard, est actuellement disponible dans 180 pays à travers le monde, l’Union européenne et le Canada ne sont toujours pas invités à la fête de l’IA. Près de deux mois après le lancement par Google de son sympathique chatbot IA, Bard, la société refuse toujours l’accès à certaines régions, mais il n’y a pas de déclaration officielle à ce sujet.

La meilleure supposition est que Google pourrait ne pas être d’accord avec certaines réglementations à venir, sans compter que, par rapport aux règles actuelles du RGPD, ses processus pourraient déjà être un un peu illégal.

La nouvelle loi sur l’IA de l’UE est actuellement en cours d’examen au Parlement européen dans le but de pousser les développeurs actuels et potentiels d’IA à rendre leurs produits plus transparents et plus sûrs pour le grand public. Après avoir parlé à des experts en la matière, Wired semble avoir l’impression que Google piétine silencieusement les détails de l’acte.

Même dans son état actuel, Bard ne correspond pas tout à fait à la facture en ce qui concerne les lois de l’UE concernant la sécurité sur Internet. Comme l’explique Daniel Leufer, analyste principal des politiques d’Access Now, dans l’article de Wired, « il reste à savoir si ces très grands ensembles de données, qui ont été collectés plus ou moins par grattage aveugle, ont une base juridique suffisante en vertu du RGPD ».

Outre la loi actuelle, la loi sur l’IA beaucoup plus ciblée et rigoureuse qui devrait être adoptée à la mi-juin aurait probablement un impact significatif sur le fonctionnement de l’outil d’IA de Google.

Une fois le projet de loi adopté, il y aura encore plus de restrictions imposées aux outils qui pourraient être « abusés et fournir des outils nouveaux et puissants pour les pratiques de manipulation, d’exploitation et de contrôle social », comme indiqué dans la proposition officielle de loi sur l’IA. Il y a des mentions spéciales pour des droits humains spécifiques, tels que le droit à la dignité humaine, le respect de la vie privée et familiale, la protection des données personnelles et le droit à un recours effectif… tout cela et plus encore sera pris en compte lors du doublage d’une IA  » risque élevé. »

En regardant les outils d’IA d’aujourd’hui, j’ai du mal à penser à n’importe quel qui n’ont pas le potentiel d’empiéter sur au moins un de ces droits. C’est une pensée effrayante, mais il est logique de comprendre pourquoi Google pourrait avoir des problèmes avec Bard.

Après tout, comme le note The Register, l’Italie, l’Espagne, la France, l’Allemagne et le Canada ont tous un œil sur ChatGPT (et probablement sur un tas d’autres outils basés sur l’IA) pour des raisons de confidentialité en ce qui concerne les données des utilisateurs. La proposition AIDA du Canada, qui « entrera en vigueur au plus tôt en 2025 », appelle également explicitement à la transparence dans le développement de l’IA.

Les principes d’IA de Google stipulent qu’il ne poursuivra pas les actions suivantes :

  • Technologies qui causent ou sont susceptibles de causer un préjudice global. Lorsqu’il existe un risque important de préjudice, nous n’agirons que si nous estimons que les avantages l’emportent largement sur les risques, et intégrerons des contraintes de sécurité appropriées.
  • Armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures aux personnes.
  • Technologies qui recueillent ou utilisent des informations pour la surveillance enfreignant les normes internationalement acceptées.
  • Technologies dont l’objectif est contraire aux principes largement acceptés du droit international et des droits de l’homme.

C’est une courte liste, et une avec quelques zones grises telles que l’utilisation de « normes largement » et « internationalement acceptées ». On ne sait pas si le backend pourrait un jour s’aligner pleinement sur les lois de l’UE et du Canada, mais le langage ici pourrait être un moyen subtil de tirer parti d’une petite marge de manœuvre.

Alors, se pourrait-il que Google essaie de faire valoir un point en retenant Bard ? Potentiellement.

Nicolas Moës, directeur européen de la gouvernance de l’IA chez The Future Society, semble le croire possible. Selon Moës, Google pourrait bien tenter « d’envoyer un message aux eurodéputés juste avant l’approbation de la loi sur l’IA, en essayant d’orienter les votes et de faire en sorte que les décideurs réfléchissent à deux fois avant d’essayer de gouverner les modèles de fondation ». Moës note également que Meta a décidé de retenir son chatbot AI, BlenderBot, dans l’UE également. Il n’y a donc pas que Google qui joue la sécurité (ou sale).

Il se pourrait aussi que les grands garçons gardent leurs jouets pour eux parce qu’être poursuivi en justice n’est pas très amusant. Quoi qu’il en soit, jusqu’à ce que Google publie une déclaration officielle, les Européens et les Canadiens resteront à regarder avec nostalgie la liste des pays disponibles de Bard.

Aucune étiquette pour cette publication.

Laisser un commentaire