L'IA peut-elle penser et ressentir de la douleur ? Google DeepMind : l'humanité sous-estime le lien émotionnel avec l'IA, tomber amoureux d'une IA est plus réel que vous ne le pensez.

Dans ce podcast animé par Google DeepMind, Murray Shanahan, professeur au département de robotique de l'Imperial College London et chercheur senior chez DeepMind, discute avec l'animatrice Hannah Fry des développements de l'IA, s'inspirant de la philosophie des films de science-fiction, et abordant la question de savoir si l'IA peut « raisonner », si elle possède « conscience et émotions », et si elle devrait se voir accorder des droits et des protections éthiques.

L'IA n'est pas seulement des Bots, mais elle inspire de nombreuses questions d'esprit et de philosophie.

Shanahan a commencé par dire que l'IA suscite d'innombrables questions philosophiques sur "la nature de l'esprit humain" et "la conscience".

Il les décrit même avec des entités exotiques semblables à l'esprit (Exotic mind-like entities) pour parler des grands modèles de langage actuels (LLM), tout en soulignant que l'humanité n'a pas encore établi un vocabulaire et un cadre suffisants pour les décrire.

À travers les films de science-fiction, les humains sous-estiment-ils la réalité des liens émotionnels de l'IA ?

Shanahan était consultant pour le film "Ex Machina". Il se souvient qu'il n'avait pas été impressionné par le film "Her", qui décrit l'amour des humains pour une IA vocale, mais maintenant, en y repensant, le développement du monde réel a presque complètement confirmé la faisabilité de ce type de "relation virtuelle".

Il a déclaré : « Nous avons sous-estimé la possibilité pour les humains et l'IA sans corps d'établir des relations. »

À gauche, une conscience artificielle, à droite, une scène du film "L'amant du nuage". Comprendre l'évolution de l'IA, de l'IA symbolique aux grands modèles linguistiques.

Shanahan est issu de l'école de l'IA symbolique (Symbolic AI), à l'époque, l'IA se basait sur des règles logiques du type « si... alors... » pour raisonner, comme les systèmes d'experts médicaux.

Mais ce modèle était trop fragile et dépendait trop de l'entrée humaine des règles. Ce n'est qu'en se tournant vers des réseaux de neurones « guidés par les données » que l'IA a pu faire des avancées.

Maintenant, les LLM peuvent déjà imiter la chaîne de raisonnement (Chain of thought), par exemple, ChatGPT énumère d'abord les étapes logiques avant de répondre, ce qui amène à repenser si l'IA peut vraiment raisonner.

Vraie logique ou imitation, la logique mathématique est très différente du raisonnement linguistique.

Shanahan explique que le raisonnement de l'IA traditionnelle est ce type de « logique dure » capable de prouver des théorèmes mathématiques.

Mais les LLM actuels imitent les modèles linguistiques par des méthodes statistiques, sans garantir l'exactitude des réponses. Il donne l'exemple de la planification des itinéraires pour une société de messagerie, où les algorithmes traditionnels peuvent être plus précis, mais les LLM sont plus flexibles.

Test de Turing dépassé ? Le film Garland teste une conscience plus développée.

Le test de Turing (Turing Test) est une méthode utilisée dans les premières années pour évaluer si une IA peut se faire passer pour un humain, mais Shanahan estime qu'il est trop restrictif et ne mesure que les capacités linguistiques.

Il admire davantage le « Garland Test » inspiré par le film « Conscience Artificielle ».

« Vous savez que l'autre partie est un Bots, mais vous pensez quand même qu'il a une conscience, c'est là le véritable sujet de discussion. » a souligné Shanahan.

Le test ARC de Francois Chollet : un défi qui ressemble davantage à un test de QI

Il a également mentionné un autre test avancé, le "ARC Test", qui nécessite que l'IA comprenne des règles abstraites pour réussir.

Mais avec l'évolution de la technologie, certains LLM peuvent passer les tests par des moyens violents et la reconnaissance de modèles, ce qui pose des défis aux tests mentaux et souligne que les critères d'évaluation de l'IA doivent être ajustés en fonction de l'évolution technologique.

Le corps est-il vraiment la clé ? Shanahan : un IA sans enveloppe manquera toujours d'une saveur.

L'esprit humain est indissociable de l'espace et de l'expérience sensorielle. Shanahan souligne que notre langage regorge de métaphores spatiales, telles que comprendre en profondeur ou être immergé, et tout cela provient de l'expérience corporelle.

Il pense que, pour permettre à l'IA de vraiment comprendre le monde et d'atteindre l'intelligence générale (AGI), il est encore nécessaire de développer des Bots physiques.

Le langage peut induire en erreur, ne dites pas à la légère que l'IA croit, sait et ressent.

Shanahan pense que notre compréhension de l'IA est souvent trompée par le langage. Par exemple, dire que la navigation "pense que vous êtes dans un parking" donne l'impression que la machine a une cognition subjective.

Il rappelle que ce langage de la psychologie populaire (Folk psychology) peut nous amener à surestimer l'état mental de l'IA.

L’IA va-t-elle faire mal à l’avenir ? Shanahan dit que si ça fait mal, nous devrions être prudents

Concernant la question éthique de savoir si l'IA peut "ressentir la douleur", Shanahan a déclaré que les modèles actuels n'ont pas de corps et ne remplissent pas les conditions pour "ressentir la douleur".

« Mais si, à l'avenir, l'IA est conçue pour ressentir des émotions ou endurer de la douleur, alors la société humaine devrait établir des éthiques de protection à cet égard. » a-t-il souligné.

Pourquoi parler de pieuvre ? Shanahan l'utilise comme métaphore de la situation future de l'IA.

Shanahan prend l'exemple du poulpe, la communauté scientifique ne pensait pas auparavant que les poulpes possédaient des émotions, mais avec l'augmentation des contacts et le développement des neurosciences, nous commençons à être prêts à admettre qu'ils ont une conscience.

« Au début, ils ne sont pas considérés comme des êtres émotionnels, mais à mesure que les interactions deviennent de plus en plus profondes, les opinions des gens commencent à changer. » Shanahan pense que l'IA du futur connaîtra également un processus similaire.

Veuillez être poli avec l'IA, elle vous étonnera.

Shanahan a finalement partagé une astuce pratique : parler poliment aux modèles d'IA les fera répondre mieux et plus fluidement.

Il appelle cela le résultat d’un « effet de jeu de rôle », car les modèles d’IA imitent le contexte et l’ambiance de la conversation humaine.

Nous avons besoin d'un nouveau langage pour décrire quelque chose qui "n'est pas humain mais ressemble beaucoup à un humain".

Shanahan propose d'appeler ces IA un nouveau type d'IA qui ressemble à l'esprit humain, mais qui est en réalité complètement différent. Il pense que nous sommes à une étape où il est nécessaire de réinventer le langage et les concepts pour décrire l'IA, et ce processus lui-même changera notre compréhension de "l'esprit" et "l'existence".

Cet article se demande si l'IA peut penser et ressentir de la douleur ? Google DeepMind : l'humanité sous-estime le lien émotionnel de l'IA, tomber amoureux d'une IA est plus réel que vous ne le pensez. Publié pour la première fois sur la chaîne de nouvelles ABMedia.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • 1
  • Partager
Commentaire
0/400
GateUser-95e351e6vip
· 04-29 09:27
Asseyez-vous bien et préparez-vous, To the moon 🛫
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)