Actualités

L’autorité de marché britannique définit des orientations pour une utilisation raisonnée de l’IA

Photo of author

Publié par Dylan Lafarge

Publié le

En vous aidant, vous nous aidez tous.

Pour le meilleur ou pour le pire, l’intelligence artificielle est là pour rester. Ce n’est pas tout à fait exact, car l’industrie de l’intelligence artificielle est en plein essor. Il suffit de demander à Nvidia. Les industries du monde entier dépensent des milliards pour trouver des moyens d’intégrer des modèles d’IA dans leurs activités. Mais si l’IA a le potentiel de stimuler la productivité, d’accélérer l’innovation et de devenir un outil utile pour les utilisateurs finaux, la politique mondiale n’a pas encore rattrapé son retard pour répondre aux préoccupations croissantes.

L’autorité britannique de la concurrence et des marchés (CMA) a publié un rapport à la suite d’un examen des modèles de fondation (FM). Ce rapport présente une série de principes qui, espère-t-elle, conduiront à des mesures protégeant les consommateurs et favorisant une concurrence saine et un développement responsable de l’IA.

Les sept principes directeurs énoncés dans le rapport sont la responsabilité, l’accès, la diversité, le choix, la flexibilité, l’équité et la transparence. Ce sont tous des objectifs louables. Mais c’est le dernier qui mérite d’être souligné. La morale et l’éthique peuvent-elles être divisées en un et en zéro ?

Sarah Cardell, directrice générale de la CMA, a déclaré : « Le rôle de la CMA est de contribuer à façonner ces marchés de manière à favoriser une concurrence forte et une protection efficace des consommateurs, afin d’obtenir les meilleurs résultats pour les citoyens et les entreprises du Royaume-Uni ».

Ces objectifs sont importants et la CMA mérite d’être félicitée pour son approche proactive. Mais le rapport mentionne que sa portée est limitée. Des questions clés telles que la protection de la propriété intellectuelle, la diffusion de fausses informations, le potentiel de fraude, la nécessité de protéger les données et la sécurité n’ont pas encore été abordées. C’est dire le chemin qu’il reste à parcourir pour éviter que les modèles d’IA ne deviennent des outils utilisés à des fins malveillantes.

Les IA les plus connues du public sont les grands modèles linguistiques (LLM) comme ChatGPT. Il s’agit essentiellement d’une énorme base de données provenant d’Internet, et toutes ces données ne sont pas légitimes. Certaines d’entre elles peuvent être propriétaires, d’autres peuvent être illégales, et d’autres encore sont tout simplement des déchets. Un cadre réglementaire complet est nécessaire, mais cela sera certainement plus facile à dire qu’à faire.

Votre prochaine mise à niveau

Meilleur CPU pour les jeux: Les meilleures puces d’Intel et d’AMD.
Meilleure carte mère pour le jeu: Les bonnes cartes.
Meilleure carte graphique: Le pixelliste idéal vous attend.
Le meilleur SSD pour les jeux: Entrez dans le jeu avant les autres.

Tous les jours ou presque, on apprend que quelqu’un a perdu les économies de toute une vie. Les escroqueries et les fraudes sont monnaie courante. Les logiciels malveillants, les rançongiciels et les usurpations d’identité sont monnaie courante. Un scambot à l’IA malveillante pourrait être utilisé à toutes sortes de fins douteuses. Il faut espérer que les grands acteurs de l’industrie ne se contentent pas de parler de la nécessité de s’assurer que leurs modèles ne peuvent pas être utilisés à des fins malveillantes. On sait que les salauds responsables du fléau des logiciels malveillants cherchent des moyens d’exploiter l’IA, qu’ils aillent au diable.

C’est un monde nouveau qui s’ouvre à nous, et les législateurs doivent le devancer. Plus facile à dire qu’à faire, je suppose, mais il est bon de voir l’AMC adopter une approche proactive. Il ne nous reste plus qu’à nous protéger de l’extinction mondiale !

L’IA qui se fait passer pour Jésus est l’une de celles dont je me méfierai le plus.

Aucune étiquette pour cette publication.

Laisser un commentaire