Le Groupe des Sept (G7), un groupe d'économies avancées du monde, a convenu d'un code de conduite pour les entreprises engagées dans le développement de technologies d'intelligence artificielle.
Bien que le code de conduite soit volontaire, il est destiné à servir de guide aux entreprises qui développent des technologies d’IA, un palliatif jusqu’à ce qu’une réglementation formelle soit en place.
Quel est l’accord ?
Le code de conduite est un accord en 11 points visant à promouvoir des pratiques sûres et responsables.
Selon le rapport , le document comprend le libellé suivant :
«….vise à promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier et fournira des conseils volontaires pour les actions des organisations développant les systèmes d'IA les plus avancés, y compris les modèles de base et les systèmes d'IA génératifs les plus avancés.»
De nombreuses grandes entreprises d’IA ont déjà élaboré leurs propres lignes directrices volontaires ainsi que des organismes de financement pour étudier la sécurité du développement de l’IA.
Anthropic, Google, Microsoft et OpenAI ont annoncé la création d'un forum sur la sécurité pour étudier les dommages possibles de l'IA et ont récemment promis 10 millions de dollars pour financer l'organisation.
Les mêmes organisations, ainsi qu'IBM, Meta, Nvidia et Palantir, ont également accepté un engagement de sûreté et de sécurité dans le développement de l'IA.
L’accord du G7 suit ces mêmes contours.
Néanmoins, l’accord est important car il souligne l’importance d’évaluer les risques possibles et demande aux entreprises de prendre des mesures concrètes avant que des réglementations formelles ne soient imposées.
Groupe des Sept (G7)
Le groupe des sept est composé de sept pays plus une région (l’Union européenne).
Les pays membres sont :
- Canada
- France
- Allemagne
- Italie
- Japon
- Royaume-Uni
- États-Unis
Décret présidentiel des États-Unis
Le président Biden aurait rédigé un décret ordonnant aux agences fédérales d’établir des normes et d’influencer les entreprises qui développent des technologies d’IA pour qu’elles adhèrent à des pratiques sûres et sécurisées.
La Federal Trade Commission des États-Unis serait spécifiquement chargée d’examiner les sociétés d’IA.
Image en vedette par Shutterstock/Lano4ka