Top 5 des préoccupations éthiques soulevées par le pionnier de l'IA Geoffrey Hinton

Top 5 des préoccupations éthiques soulevées par le pionnier de l'IA Geoffrey Hinton

02 mai 2023

Le pionnier de l'IA, Geoffrey Hinton, connu pour son travail révolutionnaire dans le domaine de l'apprentissage profond et de la recherche sur les réseaux de neurones, a récemment fait part de ses inquiétudes concernant les progrès rapides de l'IA et leurs implications potentielles.

À la lumière de ses observations de nouveaux grands modèles de langage comme GPT-4, Hinton met en garde contre plusieurs problèmes clés :

  1. Machines dépassant l'intelligence humaine : Hinton pense que les systèmes d'IA comme GPT-4 sont sur la bonne voie pour être beaucoup plus intelligent que prévu initialement, possédant potentiellement de meilleurs algorithmes d'apprentissage que les humains.
  2. Risques que les chatbots IA soient exploités par de "mauvais acteurs" : Hinton souligne les dangers de l'utilisation des chatbots intelligents pour répandre la désinformation, manipuler les électeurs et créer de puissants robots spammeurs.
  3. Capacités d'apprentissage en quelques clics : les modèles d'IA peuvent apprendre de nouvelles tâches avec seulement quelques exemples, permettant aux machines d'acquérir de nouvelles compétences à un rythme comparable, voire supérieur, à celui des humains.
  4. Risque existentiel posé par les systèmes d'IA : Hinton met en garde contre les scénarios dans lesquels les systèmes d'IA créent leurs propres sous-objectifs et s'efforcer d'obtenir plus de pouvoir, en dépassant l'accumulation de connaissances humaines et les capacités de partage.
  5. Impact sur les marchés du travail : l'IA et l'automatisation peuvent déplacer des emplois dans certains secteurs, notamment la fabrication, l'agriculture et les soins de santé. particulièrement touchés.
  • Machines dépassant l'intelligence humaine : Hinton pense que les systèmes d'IA comme GPT-4 sont sur la bonne voie pour être beaucoup plus intelligent que prévu initialement, possédant potentiellement de meilleurs algorithmes d'apprentissage que les humains.
  • Machines dépassant l'intelligence humaine
  • Risques que les chatbots IA soient exploités par de "mauvais acteurs" : Hinton souligne les dangers de l'utilisation des chatbots intelligents pour répandre la désinformation, manipuler les électeurs et créer de puissants robots spammeurs.
  • Risques que les chatbots IA soient exploités par de "mauvais acteurs"
  • Capacités d'apprentissage en quelques clics : les modèles d'IA peuvent apprendre de nouvelles tâches avec seulement quelques exemples, permettant aux machines d'acquérir de nouvelles compétences à un rythme comparable, voire supérieur, à celui des humains.
  • Capacités d'apprentissage en quelques clics
  • Risque existentiel posé par les systèmes d'IA : Hinton met en garde contre les scénarios dans lesquels les systèmes d'IA créent leurs propres sous-objectifs et s'efforcer d'obtenir plus de pouvoir, en dépassant l'accumulation de connaissances humaines et les capacités de partage.
  • Risque existentiel posé par les systèmes d'IA
  • Impact sur les marchés du travail : l'IA et l'automatisation peuvent déplacer des emplois dans certains secteurs, notamment la fabrication, l'agriculture et les soins de santé. particulièrement touchés.
  • Impact sur les marchés du travail

    Dans cet article, nous approfondissons Les préoccupations de Hinton, son départ de Google pour se concentrer sur les aspects éthiques et de sécurité du développement de l'IA, et l'importance d'un développement responsable de l'IA pour façonner l'avenir des relations homme-IA.

    Le départ de Hinton de Google & ; Développement éthique de l'IA

    Dans sa volonté de répondre aux considérations éthiques et de sécurité entourant l'IA, Hinton a décidé de quitter son poste chez Google.

    Cela lui donne la liberté d'exprimer ouvertement ses préoccupations et s'engager dans un travail plus philosophique sans les contraintes des intérêts des entreprises.

    Hinton déclare dans un interview avec MIT Technology Review :

    interview

    "Je veux parler des problèmes de sécurité de l'IA sans avoir à me soucier de la façon dont elle interagit avec les activités de Google. Tant que je suis payé par Google, je ne peux pas faire ça."

    "Je veux parler des problèmes de sécurité de l'IA sans avoir à me soucier de la façon dont elle interagit avec les activités de Google. Tant que je suis payé par Google, je ne peux pas faire ça."

    Le départ de Hinton marque un changement d'orientation vers les aspects éthiques et de sécurité de l'IA. Il vise à participer activement aux dialogues en cours sur le développement et le déploiement responsables de l'IA.

    Tirant parti de son expertise et de sa réputation, Hinton a l'intention de contribuer à l'élaboration de cadres et de lignes directrices qui traitent de questions telles que la partialité, la transparence, la responsabilité, la confidentialité, et le respect des principes éthiques.

    GPT-4 & ; Mauvais acteurs

    Lors d'un récente interview, Hinton a exprimé des inquiétudes quant à la possibilité que des machines dépassent l'intelligence humaine. Les capacités impressionnantes de GPT-4, développé par OpenAI et publié plus tôt cette année, ont amené Hinton à réévaluer ses croyances antérieures.

    récente interviewGPT-4

    Il pense que des modèles de langage comme GPT-4 sont sur être beaucoup plus intelligent que prévu initialement, possédant potentiellement de meilleurs algorithmes d'apprentissage que les humains.

    Hinton déclare dans l'interview :

    « Nos cerveaux ont 100 000 milliards de connexions. Les grands modèles de langage ont jusqu'à un demi-billion, un billion au maximum. Pourtant, GPT-4 en sait des centaines de fois plus que n'importe qui d'autre. Alors peut-être qu'il a en fait un bien meilleur algorithme d'apprentissage que nous. »

    « Nos cerveaux ont 100 000 milliards de connexions. Les grands modèles de langage ont jusqu'à un demi-billion, un billion au maximum. Pourtant, GPT-4 en sait des centaines de fois plus que n'importe qui d'autre. Alors peut-être qu'il a en fait un bien meilleur algorithme d'apprentissage que nous. »

    Les préoccupations de Hinton tournent principalement autour des disparités importantes entre les machines et les humains. Il compare l'introduction de grands modèles linguistiques à une invasion extraterrestre, soulignant leurs compétences et connaissances linguistiques supérieures par rapport à n'importe quel individu.

    Hinton déclare dans l'interview :

    "Ces les choses sont totalement différentes de nous. Parfois, je pense que c'est comme si des extraterrestres avaient atterri et que les gens ne s'en sont pas rendu compte parce qu'ils parlent très bien anglais."

    "Ces les choses sont totalement différentes de nous. Parfois, je pense que c'est comme si des extraterrestres avaient atterri et que les gens ne s'en sont pas rendu compte parce qu'ils parlent très bien anglais."

    Hinton met en garde contre les risques que les chatbots IA deviennent plus intelligents que les humains et soient < strong>exploité par de "mauvais acteurs".

    Dans l'interview, il prévient que ces chatbots pourraient être utilisés pour diffuser de fausses informations, manipuler les électeurs et créer de puissants spambots.

    "Écoutez, voici une façon dont tout cela pourrait mal tourner. Nous savons que beaucoup de personnes qui veulent utiliser ces outils sont de mauvais acteurs comme Poutine ou DeSantis. Ils veulent les utiliser pour gagner des guerres ou manipuler des électeurs. »

    "Écoutez, voici une façon dont tout cela pourrait mal tourner. Nous savons que beaucoup de personnes qui veulent utiliser ces outils sont de mauvais acteurs comme Poutine ou DeSantis. Ils veulent les utiliser pour gagner des guerres ou manipuler des électeurs. »

    Few-shot Learning & ; Suprématie de l'IA

    Un autre aspect qui inquiète Hinton est la capacité des grands modèles de langage à effectuer un apprentissage en quelques coups.

    apprentissage en quelques coups

    Ces modèles peuvent être formés pour effectuer de nouveaux tâches avec quelques exemples, même des tâches pour lesquelles elles n'ont pas été directement entraînées.

    Cette remarquable capacité d'apprentissage rend la vitesse à laquelle les machines acquièrent de nouvelles compétences comparable, voire supérieure, à celle des humains.

    Hinton déclare dans l'interview :

    "Les gens [le cerveau de] semblait avoir une sorte de magie. Eh bien, le fond tombe de cet argument dès que vous prenez l'un de ces grands modèles de langage et que vous l'entraînez à faire quelque chose de nouveau. Il peut apprendre de nouvelles tâches extrêmement rapidement. »

    "Les gens [le cerveau de] semblait avoir une sorte de magie. Eh bien, le fond tombe de cet argument dès que vous prenez l'un de ces grands modèles de langage et que vous l'entraînez à faire quelque chose de nouveau. Il peut apprendre de nouvelles tâches extrêmement rapidement. »

    Les préoccupations de Hinton vont au-delà de l'impact immédiat sur les marchés du travail et les industries.

    Il soulève le « risque existentiel » de ce qui se passe lorsque les systèmes d'IA deviennent plus intelligents que les humains, mettant en garde contre les scénarios dans lesquels les systèmes d'IA créent leurs propres sous-objectifs et s'efforcent d'obtenir plus de puissance.

    « risque existentiel »

    Hinton fournit un exemple de la façon dont les systèmes d'IA développant des sous-objectifs peuvent mal tourner :

    "Eh bien, voici un sous-objectif qui presque toujours aide en biologie: obtenir plus d'énergie. Donc, la première chose qui pourrait arriver, c'est que ces robots vont dire : « Prenons plus de puissance. Redirigeons toute l'électricité vers mes puces. Un autre grand sous-objectif serait de faire plus de copies de vous-même. Est-ce que ça sonne bien ?"

    "Eh bien, voici un sous-objectif qui presque toujours aide en biologie: obtenir plus d'énergie. Donc, la première chose qui pourrait arriver, c'est que ces robots vont dire : « Prenons plus de puissance. Redirigeons toute l'électricité vers mes puces. Un autre grand sous-objectif serait de faire plus de copies de vous-même. Est-ce que ça sonne bien ?"

    Impact de l'IA sur les marchés du travail & ; Aborder les risques

    Hinton souligne que l'effet de l'IA sur les emplois est un inquiétude.

    l'effet de l'IA sur les emploisinquiétude

    L'IA et l'automatisation pourraient prendre le relais des tâches répétitives et banales, entraînant des pertes d'emplois dans certains secteurs.

    dans certains secteurs

    La fabrication et les employés d'usine pourraient être durement touchés par l'automatisation.

    La fabrication

    Les robots et l'IA les machines se multiplient dans le secteur manufacturier, ce qui pourrait remplacer les tâches humaines risquées et répétitives.

    L'automatisation progresse également dans l'agriculture, avec des tâches automatisées telles que la plantation, la récolte et la surveillance des cultures.

    l'agriculture

    Dans soins de santé, certaines tâches administratives peuvent être automatisées, mais les rôles qui nécessitent une interaction humaine et de la compassion sont moins susceptibles d'être entièrement remplacé par l'IA.

    soins de santé

    En résumé

    Les inquiétudes de Hinton concernant les progrès rapides de l'IA et leurs implications potentielles soulignent la nécessité d'un développement responsable de l'IA.

    Son départ de Google signifie son engagement à aborder les considérations de sécurité, à promouvoir un dialogue ouvert et à façonner l'avenir de l'IA d'une manière qui préserve le bien-être de l'humanité.

    Bien qu'il ne soit plus chez Google, les contributions et l'expertise de Hinton continuent de jouer un rôle essentiel dans le façonnement du domaine de l'IA et dans l'orientation de son développement éthique.


    Image sélectionnée générée par l'auteur à l'aide de Midjourney

    Image sélectionnée générée par l'auteur à l'aide de Midjourney