La récente interdiction de ChatGPT en Italie n'est qu'un des nombreux défis juridiques potentiels auxquels OpenAI est confronté.
Alors que l'Union européenne travaille à l'adoption d'une Artificial Intelligence Act, les États-Unis définissent un AI Bill of Rights, et le Royaume-Uni recommande aux agences existantes réglementer l'IA, les utilisateurs de ChatGPT ont déposé des plaintes à l'échelle mondiale contre OpenAI pour sécurité potentielle problèmes.
Le Centre pour l'IA et la politique numérique a déposé une plainte auprès de la Federal Trade Commission pour empêcher OpenAI de développer de nouveaux modèles de ChatGPT jusqu'à ce que des garde-corps de sécurité soient en place.
La Garante italienne a lancé un enquête sur OpenAI sur une récente violation de données et l'absence de vérification de l'âge pour protéger les jeunes utilisateurs contre les contenus d'IA génératifs inappropriés lors de l'inscription.
La Commission irlandaise de protection des données prévoit de se coordonner avec la Garante italienne et la commission européenne de protection des données pour déterminer si ChatGPT a enfreint les lois sur la confidentialité.
Selon Reuters, les régulateurs de la confidentialité en Suède et en Espagne n'ont pas l'intention d'enquêter sur ChatGPT pour le moment, mais peuvent le faire à l'avenir si les utilisateurs déposent des plaintes contre la technologie de l'IA.
Et ce ne sont là que quelques-unes des récentes plaintes, enquêtes et commentaires de divers pays concernant la responsabilité des entreprises d'IA.
Pendant ce temps, en Allemagne, Ulrich Kelber, porte-parole du Commissaire fédéral à la protection des données de la région, a déclaré une interdiction similaire à ceux d'autres pays pourraient suivre si OpenAI viole le RGPD ou des politiques similaires.
Cependant, Volker Wissing, ministre des Transports et de l'Infrastructure numérique d'Allemagne, a indiqué qu'une interdiction n'est pas la meilleure approche.
"Nous n'avons pas besoin d'une interdiction des applications d'IA, mais de moyens de garantir des valeurs telles que la démocratie et la transparence", déclare Wissing.
Mais quelles sont les chances que les enquêtes contre OpenAI aboutissent à une interdiction permanente de sa technologie en Italie et dans d'autres pays ?
Considérant qu'un juge de La Colombie a récemment utilisé ChatGPT pour rendre une décision de justice et une autre dans L'Inde l'a utilisé pour décider de la libération sous caution, OpenAI a quelques chances en sa faveur.
ChatGPT+ avec le modèle GPT-4 offre des points étonnamment équilibrés sur l'impact de sa technologie et les risques qu'elle pose.
En réponse à l'invite : "Est-ce qu'un pays comme l'Italie devrait interdire ChatGPT en raison de problèmes de traitement des données ?" , ChatGPT+ répond :
« Confidentialité des données : il est essentiel que les systèmes d'IA se conforment aux réglementations sur la protection des données, telles que le règlement général sur la protection des données (RGPD) de l'UE. Il est crucial de s'assurer que ChatGPT suit ces règles et respecte la vie privée des utilisateurs. S'il y a des inquiétudes concernant le traitement des données, il serait utile de vérifier si OpenAI respecte les réglementations nécessaires. »
« Confidentialité des données : il est essentiel que les systèmes d'IA se conforment aux réglementations sur la protection des données, telles que le règlement général sur la protection des données (RGPD) de l'UE. Il est crucial de s'assurer que ChatGPT suit ces règles et respecte la vie privée des utilisateurs. S'il y a des inquiétudes concernant le traitement des données, il serait utile de vérifier si OpenAI respecte les réglementations nécessaires. »
La réponse se poursuit avec un aperçu des avantages de l'IA, de l'éthique et des préjugés, de la compétitivité et des alternatives.
Capture d'écran de ChatGPT, avril 2023
Bien sûr, si un pays n'a pas accès à ChatGPT, certains utilisateurs peuvent y accéder à l'aide d'un service de réseau privé virtuel (VPN). Google Trends montre que l'Italie a connu une augmentation des recherches de VPN début avril, coïncidant avec l'interdiction de ChatGPT.
Les poursuites contre la technologie OpenAI peuvent-elles affecter les utilisateurs ?
Les utilisateurs d'OpenAI sont-ils légalement responsables des problèmes résultant de l'utilisation et de la sortie de ses outils ? Cela dépend, selon les Conditions d'utilisation d'OpenAI.
Si les utilisateurs a enfreint les conditions ou politiques d'OpenAI lors de l'utilisation d'outils tels que ChatGPT ou l'API, ils pourraient être responsables de leur propre défense.
OpenAI ne garantit pas que ses services fonctionneront toujours comme prévu ou que certains contenus (entrée et sortie de un outil d'IA générative) est sûr - en notant qu'il ne sera pas tenu responsable de tels résultats.
La plupart des offres d'OpenAI pour indemniser les utilisateurs des dommages causés par ses outils sont le montant que l'utilisateur a payé pour les services au cours de l'année écoulée, ou 100 $, en supposant qu'aucune autre loi régionale ne s'applique.
Les cas ci-dessus ne sont que la pointe de l'iceberg juridique de l'IA. OpenAI et ses pairs sont confrontés à des problèmes juridiques supplémentaires, notamment les suivants.
Un maire australien peut poursuivre OpenAI pour diffamation sur des informations inexactes à son sujet fournies par ChatGPT.
GitHub Copilot fait face à un recours collectif concernant les droits légaux des créateurs du codage open source dans Données de formation des copilotes.
Stability AI, DeviantArt et Midjourney font l'objet d'un recours collectif pour utilisation de StableDiffusion, qui a utilisé des œuvres d'art protégées par le droit d'auteur dans ses données de formation.
Getty Images a intenté une action en justice contre Stability AI pour l'utilisation du contenu protégé par le droit d'auteur de Getty Images dans les données d'entraînement.
Un maire australien peut poursuivre OpenAI pour diffamation sur des informations inexactes à son sujet fournies par ChatGPT.
GitHub Copilot fait face à un recours collectif concernant les droits légaux des créateurs du codage open source dans Données de formation des copilotes.
Stability AI, DeviantArt et Midjourney font l'objet d'un recours collectif pour utilisation de StableDiffusion, qui a utilisé des œuvres d'art protégées par le droit d'auteur dans ses données de formation.
Getty Images a intenté une action en justice contre Stability AI pour l'utilisation du contenu protégé par le droit d'auteur de Getty Images dans les données d'entraînement.