Perplexity, une startup basée à San Francisco, a dévoilé deux nouveaux modèles de langage étendus en ligne (LLM) appelés pplx-7b-online et pplx-70b-online.
Ces LLM en ligne visent à surmonter les principales limites de nombreux LLM existants : l'incapacité de fournir des informations à jour et une tendance à halluciner des faits inexacts.
Qu'est-ce qu'un LLM en ligne ?
Les LLM en ligne de Perplexity peuvent exploiter les dernières informations provenant d'Internet pour générer des réponses, ce qui les rend particulièrement capables de répondre aux requêtes qui dépendent d'événements ou de données récents.
Par exemple, les modèles peuvent rapporter les derniers résultats sportifs, les cours des actions ou les dernières actualités de Google.
Cette mise à la terre en temps réel contraste avec les LLM hors ligne comme GPT-3.5 qui s'appuient uniquement sur leurs données d'entraînement, qui deviennent progressivement obsolètes.
De plus, Perplexity utilise diverses techniques pour maximiser l'exactitude factuelle et minimiser la génération de fausses informations.
Les modèles PPLX s'appuient sur les modèles open source mistral-7B et llama2-70B et ont été spécifiquement affinés par Perplexity sur des ensembles de données divers et de haute qualité pour optimiser l'utilité et la factualité.
Technologie de recherche interne : notre infrastructure interne de recherche, d'indexation et d'exploration nous permet d'augmenter les LLM avec les informations les plus pertinentes, les plus récentes et les plus précieuses. Notre index de recherche est volumineux, mis à jour régulièrement et utilise des algorithmes de classement sophistiqués pour garantir que les sites non référencés de haute qualité sont prioritaires. Des extraits de sites Web, que nous appelons « extraits », sont fournis à nos modèles pplx-online pour permettre des réponses contenant les informations les plus récentes.
Comment les modèles PPLX se comparent-ils à GPT 3.5 ?
Les premiers tests fournis par la société indiquent que les LLM en ligne de Perplexity correspondent ou dépassent les capacités des principaux LLM propriétaires tels que GPT-3.5 sur des critères mesurant la robustesse, l'utilité et les connaissances dans toutes les matières académiques.
La capacité des modèles PPLX à exploiter les dernières informations en ligne leur permet de fournir des faits et des données en temps opportun en réponse aux requêtes.
Captures d'écran de Perplexity, novembre 2023
Comment les LLM en ligne surmontent les défis de précision
Un article intitulé « FRESHLLMS : Refreshing Large Language Models with Search Engine Augmentation » ( en cours de révision ) a mis en évidence les limites critiques des LLM traditionnels.
Il s'est particulièrement concentré sur la lutte des LLM pour rester au courant des connaissances mondiales en constante évolution et sur leur tendance à produire des réponses factuellement inexactes, connues sous le nom d'hallucinations.
L'article propose le benchmark FRESHQA, un système de questions-réponses dynamique conçu pour évaluer la factualité des LLM, et introduit FRESHPROMPT, une méthode qui améliore les performances des LLM en incorporant des informations à jour provenant des moteurs de recherche.
Capture d'écran du PDF FreshLLMs, novembre 2023
Malgré ces progrès, l'article a souligné un défi persistant pour les LLM : maintenir la fraîcheur et l'exactitude de leurs réponses, en particulier dans les domaines de connaissances en évolution rapide.
Les nouveaux LLM en ligne de Perplexity sont particulièrement équipés pour accéder et utiliser des informations en temps réel provenant d'Internet, abordant ainsi le problème critique de fraîcheur et d'exactitude auquel sont confrontés la plupart des LLM ayant une date limite de connaissances.
Les modèles PPLX démontrent une nette amélioration dans la gestion des limites de fraîcheur et de factualité, répondant ainsi aux préoccupations soulevées dans le document FRESHLLMS.
Comment accéder aux nouveaux LLM en ligne de Perplexity
Les modèles sont accessibles au public via l'interface Web API et Labs de Perplexity, permettant aux développeurs d'intégrer la technologie dans leurs propres applications et sites Web.
La sortie de ces LLM en ligne très performants mais abordables marque un moment charnière pour la démocratisation de l'IA, selon Aravind Srinivas, PDG de Perplexity.
Je suis ravi d'annoncer que pplx-api sort de la version bêta et passe à une tarification basée sur l'utilisation, ainsi que les toutes premières API LLM en direct basées sur des données de recherche sur le Web et n'ayant aucune limite de connaissances ! https://t.co/VYXIjqdLy9
En donnant accès aux dernières informations et perspectives du Web, les modèles de Perplexity contribuent à uniformiser les règles du jeu entre les grandes entreprises technologiques et les petites organisations qui cherchent à bénéficier de l'IA.
Avec de nouveaux gains de performances à l'horizon, Perplexity envisage un nouveau paradigme de recherche et de découverte d'informations centré sur les interfaces conversationnelles. Ses LLM en ligne font allusion à un avenir où nous pourrons interroger un assistant IA un peu comme un expert humain – et recevoir des réponses opportunes, factuelles et nuancées.