OpenAI a publié une réponse au procès du New York Times en alléguant que le NYTimes avait utilisé des techniques d'incitation manipulatrices afin d'inciter ChatGPT à régurgiter de longs extraits, déclarant que le procès était basé sur une utilisation abusive de ChatGPT afin de « sélectionner » des exemples pour le procès. procès.
Le procès du New York Times contre OpenAI
Le New York Times a intenté une action en justice contre OpenAI (et Microsoft) pour violation du droit d'auteur, alléguant que ChatGPT « récite textuellement le contenu du Times », entre autres plaintes.
Le procès a présenté des preuves montrant comment GPT-4 pouvait produire de grandes quantités de contenu du New York Times sans attribution, comme preuve que GPT-4 porte atteinte au contenu du New York Times.
L'accusation selon laquelle GPT-4 produit des copies exactes du contenu du New York Times est importante car elle contredit l'insistance d'OpenAI selon laquelle son utilisation des données est transformatrice, ce qui est un cadre juridique lié à la doctrine de l'utilisation équitable.
« L'usage équitable est une doctrine juridique qui promeut la liberté d'expression en autorisant l'utilisation sans licence d'œuvres protégées par le droit d'auteur dans certaines circonstances.
…les utilisations « transformatrices » sont plus susceptibles d'être considérées comme équitables. Les utilisations transformatrices sont celles qui ajoutent quelque chose de nouveau, avec un objectif supplémentaire ou un caractère différent, et ne remplacent pas l’utilisation originale de l’œuvre.
C'est pourquoi il est important pour le New York Times d'affirmer que l'utilisation du contenu par OpenAI n'est pas un usage loyal.
« Les accusés insistent sur le fait que leur conduite est protégée en tant qu'« usage équitable », car leur utilisation sans licence de contenu protégé par le droit d'auteur pour former des modèles GenAI sert un nouvel objectif « transformateur ». Mais il n’y a rien de « transformateur » dans l’utilisation du contenu du Times… Parce que les résultats des modèles GenAI des accusés entrent en concurrence et imitent étroitement les entrées utilisées pour les former, copier les travaux du Times à cette fin n’est pas un usage équitable.
La capture d'écran suivante montre comment GPT-4 génère une copie exacte du contenu du Times. Le contenu en rouge est un contenu original créé par le New York Times et publié par GPT-4.
La réponse d’OpenAI mine les réclamations du procès du New York Times
OpenAI a fortement réfuté les affirmations formulées dans le procès du New York Times, affirmant que la décision du Times d'aller en justice avait surpris OpenAI parce qu'ils avaient supposé que les négociations progressaient vers une résolution.
Plus important encore, OpenAI a démystifié les affirmations du New York Times selon lesquelles GPT-4 génère du contenu textuel en expliquant que GPT-4 est conçu pour ne pas produire de contenu textuel et que le New York Times a utilisé des techniques d'incitation spécialement conçues pour briser les garde-fous de GPT-4 afin de produire le résultat contesté, sapant ainsi l'implication du New York Times selon laquelle la production de contenu verbatim est une sortie GPT-4 courante.
Ce type d'invite conçu pour interrompre ChatGPT afin de générer un résultat indésirable est connu sous le nom d'invite contradictoire.
Attaques contradictoires
L'IA générative est sensible aux types d'invites (demandes) qui en sont faites et malgré les meilleurs efforts des ingénieurs pour bloquer l'utilisation abusive de l'IA générative, il existe encore de nouvelles façons d'utiliser les invites pour générer des réponses qui contournent les garde-fous intégrés à la technologie qui sont conçus pour empêcher toute sortie indésirable.
Les techniques permettant de générer des résultats involontaires sont appelées Adversarial Prompting et c'est ce que OpenAI accuse le New York Times de faire afin de fabriquer une base prouvant que l'utilisation de GPT-4 de contenu protégé par le droit d'auteur n'est pas transformatrice.
L'affirmation d'OpenAI selon laquelle le New York Times a abusé de GPT-4 est importante car elle sape l'insinuation du procès selon laquelle la génération textuelle de contenu protégé par le droit d'auteur est un comportement typique.
Utilisez nos Services d'une manière qui porte atteinte, détourne ou viole les droits de quiconque.
Interférer avec ou perturber nos Services, y compris contourner toute limite ou restriction de débit ou contourner toute mesure de protection ou atténuation de sécurité que nous mettons en place sur nos Services.
OpenAI revendique un procès basé sur des invites manipulées
La réfutation d'OpenAI affirme que le New York Times a utilisé des invites manipulées spécifiquement conçues pour contourner les garde-fous GPT-4 afin de générer du contenu textuel.
OpenAI écrit :
« Il semble qu’ils aient intentionnellement manipulé les invites, comprenant souvent de longs extraits d’articles, afin de faire régurgiter notre modèle.
Même lorsqu’ils utilisent de telles invites, nos modèles ne se comportent généralement pas comme le laisse entendre le New York Times, ce qui suggère qu’ils ont soit demandé au modèle de régurgiter, soit sélectionné leurs exemples parmi de nombreuses tentatives.
OpenAI a également riposté au procès du New York Times en affirmant que les méthodes utilisées par le New York Times pour générer du contenu textuel constituaient une violation de l'activité autorisée des utilisateurs et une utilisation abusive.
Ils écrivent:
"Malgré leurs affirmations, cette utilisation abusive ne constitue pas une activité utilisateur typique ou autorisée."
OpenAI a terminé en déclarant qu'ils continuent de construire une résistance contre les types d'attaques rapides contradictoires utilisées par le New York Times.
Ils écrivent:
« Quoi qu’il en soit, nous rendons continuellement nos systèmes plus résistants aux attaques adverses visant à régurgiter les données d’entraînement, et nous avons déjà fait de nombreux progrès dans nos modèles récents. »
OpenAI a étayé son affirmation de diligence dans le respect du droit d'auteur en citant sa réponse de juillet 2023 aux informations selon lesquelles ChatGPT générait des réponses textuelles.
Nous avons appris que la version bêta « Parcourir » de ChatGPT peut parfois afficher le contenu d'une manière que nous ne souhaitons pas, par exemple si un utilisateur demande spécifiquement le texte intégral d'une URL, il peut répondre à cette demande par inadvertance. Nous désactivons la navigation pendant que nous corrigeons ce problème : nous voulons faire ce qui est bien pour les propriétaires de contenu.
Il y a toujours deux côtés à une histoire et OpenAI vient de publier son côté qui montre que les affirmations du New York Times sont basées sur des attaques contradictoires et une utilisation abusive de ChatGPT afin d'obtenir des réponses textuelles.
Lisez la réponse d'OpenAI :
OpenAI et journalisme : Nous soutenons le journalisme, collaborons avec des agences de presse et pensons que le procès du New York Times est sans fondement.