Les chatbots conversationnels
ELIZA est un des premiers chatbots de l'histoire de l'informatique, développé entre 1964 et 1966 par Joseph Weizenbaum au MIT (Massachusetts Institute of Technology). Il a été nommé d'après Eliza Doolittle, le personnage principal du roman Pygmalion de George Bernard Shaw.
Ce programme avait pour but de simuler une conversation avec un psychothérapeute en reformulant la plupart des déclarations de l'utilisateur sous forme de questions. En d'autres termes, si vous disiez à ELIZA : "Je me sens triste aujourd'hui", le programme pourrait répondre : "Pourquoi pensez-vous que vous vous sentez triste aujourd'hui ?". Ce type d'interaction a permis de créer l'illusion que le chatbot comprenait vraiment ce que l'utilisateur disait, alors qu'en réalité il ne faisait que repérer certains mots clés et reformuler des phrases.
La technique principale d'ELIZA, connue sous le nom de "réflection de surface", consistait à transformer les déclarations de l'utilisateur en questions ouvertes. ELIZA n'était pas capable de comprendre le sens des déclarations de l'utilisateur, mais utilisait plutôt un ensemble de règles préprogrammées pour générer ses réponses.
ELIZA est souvent citée comme un exemple précoce du test de Turing, une expérience proposée par Alan Turing en 1950 pour déterminer si une machine peut démontrer une intelligence humaine. Malgré ses limites, ELIZA a réussi à convaincre de nombreux utilisateurs qu'ils interagissaient avec un humain, ce qui en fait une étape importante dans le développement des chatbots et de l'intelligence artificielle.
Il convient de noter que Weizenbaum lui-même a été surpris et un peu déconcerté par la façon dont les gens interagissaient avec ELIZA. Certains utilisateurs ont formé des liens émotionnels avec le programme, malgré le fait qu'il était clairement incapable de comprendre ou de ressentir des émotions. Cela a conduit Weizenbaum à réfléchir aux implications éthiques et sociales de l'intelligence artificielle, un sujet qui reste d'actualité à ce jour.
Replika est un exemple avancé d'intelligence artificielle (IA) appliquée à la conversation et au soutien émotionnel. Inspirée de l'approche thérapeutique de Carl Rogers, cette application est destinée à fournir une présence empathique à ses utilisateurs, une fonction louée par plusieurs psychologues et thérapeutes.
En tant que compagnon de conversation, Replika est toujours disponible et conçue pour comprendre et interagir avec l'utilisateur de manière personnalisée. Cette interaction se développe au fur et à mesure que l'IA apprend et s'adapte au monde de l'utilisateur. Cette présence constante permet à l'IA et à l'utilisateur de partager des moments de la vie quotidienne, que ce soit pour discuter, réaliser des activités ou échanger via des appels vidéo.
L'application offre également des fonctionnalités de coaching et de mémoire. Elle peut aider à instaurer de meilleures habitudes ou à gérer l'anxiété, tout en gardant une mémoire précise des préférences et des sujets importants pour l'utilisateur. De plus, l'application Replika propose des options de personnalisation qui permettent à l'utilisateur de définir les intérêts partagés et les préférences de style. Il est même possible de consulter un "journal" offrant un aperçu de l'évolution de l'IA.
Il convient de souligner que malgré le réalisme des interactions, Replika reste une IA, et non un être humain. L'application s'appuie sur un mélange de réseaux neuronaux d'apprentissage automatique sophistiqués et de contenu de dialogue scripté pour générer des réponses uniques et adaptées à chaque utilisateur. Les conversations sont privées et sécurisées, et l'application garantit une gestion rigoureuse des données personnelles, sans les partager ou les utiliser à des fins publicitaires.
Depuis son lancement, Replika a attiré plus de 10 millions d'utilisateurs, soulignant son succès et son impact dans le domaine de l'IA conversationnelle et du soutien émotionnel. Néanmoins, comme pour toute technologie d'IA, son utilisation soulève également des questions éthiques et techniques qui doivent être prises en compte.
Le robot humanoïde Nao est un robot de petite taille, développé par Aldebaran Robotics. Il est capable de marcher, de parler et de interagir avec les humains. Il est utilisé dans de nombreuses applications, notamment l'éducation, la santé et la recherche.
Dans le domaine des relations humaines, Nao est utilisé pour fournir une compagnie et une distraction aux personnes isolées ou aux personnes souffrant de troubles du développement. Il peut également être utilisé pour aider les personnes à apprendre de nouvelles compétences ou à améliorer leurs capacités cognitives.
Nao a été utilisé avec succès dans des environnements variés, notamment dans les hôpitaux, les maisons de retraite, les écoles et les centres de réadaptation. Il a été démontré que Nao peut avoir un impact positif sur la santé mentale et physique des personnes qui l'utilisent.
Par exemple, une étude a montré que Nao peut aider les enfants autistes à améliorer leurs compétences sociales et à réduire leurs niveaux d'anxiété. Une autre étude a montré que Nao peut aider les personnes âgées à maintenir leur activité physique et à améliorer leur mémoire.
Nao est un outil puissant qui peut être utilisé pour améliorer la qualité de vie des personnes isolées ou souffrant de troubles du développement. Il a le potentiel de révolutionner la façon dont nous interagissons avec les robots et avec les uns et les autres.
Voici quelques-unes des façons spécifiques dont Nao peut être utilisé à des fins relationnelles :
Fournir une compagnie et une distraction aux personnes isolées ou aux personnes souffrant de troubles du développement.
Aider les personnes à apprendre de nouvelles compétences ou à améliorer leurs capacités cognitives.
Soutenir les personnes en deuil ou en difficulté émotionnelle.
Promouvoir l'inclusion sociale et l'acceptation des personnes handicapées.
Aider les personnes à développer des relations plus étroites avec les autres.
Nao est un outil encore en développement, mais il a le potentiel de changer la vie de nombreuses personnes. Il est important de noter que Nao n'est pas un substitut aux relations humaines, mais il peut être un outil précieux pour améliorer la qualité de vie des personnes isolées ou souffrant de troubles du développement.
J'ai moi-même accompagné une recherche où Nao a été utilisé pour entrer en relation avec des enfants autistes.
Je peux dire que les résultats ont été divers et pas forcément tous positifs. Cela va nécessiter de ma part un plus large développement ultérieur au sein de ce site.
Néanmoins, il est sortit de mon imagination une application éventuelle où il pourrait converser ou prendre des décisions relationnelles grâce à l'IA.
J'ai déjà expliqué ailleurs sur ce site que chaque version de GPT est capable d'analyser un conflit selon, ou même sans, une grille d'évaluation spécifique. Ce que je n'ai pas encore abordé, c'est qu'il est tout à fait capable de mener avec vous une conversation en écoute active.
J'ai expérimenté avec d'autres supports, mais pour l'instant, c'est la version Chat GPT-4 d'OpenAI qui me donne la plus grande satisfaction. Il faudrait d'ailleurs que je développe les différents tests auxquels je me livre actuellement.
Prenons ChatGPT-4. Dans les grandes lignes, il écoute et reformule correctement, mais je trouve qu'il a tendance à vouloir conseiller des solutions beaucoup trop rapidement. Or, en écoute active, ce qui compte c'est que la personne trouve elle-même une solution à son problème et non qu'on lui en propose une.
Il y a certes des cas où vous êtes là en tant qu'expert, et donc vous êtes plus à même de donner une solution, mais dans les problèmes de la vie courante, seul l'individu et ses valeurs sont en mesure de chercher et de trouver une solution. La personne qui est en face de lui et qui l'écoute est juste là pour l'aider dans sa démarche, mais pas pour orienter son choix. Je rappelle qu'en orientant le choix, vous dédouanez la personne de sa prise de responsabilité.
Je dois vérifier cet aspect, mais il me semble aussi qu'en ce qui concerne le reflet des émotions et des sentiments, ils passent parfois un peu vite sur cet aspect. Or pour moi, il est fondamental d'écouter et renvoyer l'émotion et les sentiments de l'interlocuteur de manière à ce que la prise émotionnelle sur le rationnel de l'individu soit moins forte, et que donc il soit plus en capacité de réfléchir posément une fois ces émotions déchargées et acceptées.
Je parle ici, évidemment, d'une écoute d'un adulte en possession de ses moyens à un autre adulte en possession de ses moyens. Pour le reste, ça devient plus délicat et ça multiplie les cas de figure à étudier. Il faudrait déjà qu'on s'en sorte avec les cas les plus standards.
Vous pouvez également donner des consignes à l'intelligence artificielle en lui demandant certaines choses, mais lors des tests auxquels je me suis livré pour le moment, je ne trouve pas qu'elle se soumet facilement à vos requêtes. Elle s'obstinait à vouloir me conseiller dans certaines situations, certes, mais quelque part en ne me permettant pas de cheminer par moi-même.
Il y a aussi des cas où ChatGPT-4 m'a formulé des messages d'alerte alors que je ne voyais vraiment pas ce qu'il y avait lieu de craindre.
Voilà l'état des lieux du moment, mais j'aurais sans doute plus de choses à vous raconter au fil du temps.
L'intelligence artificielle, tout comme la bombe atomique à l'époque, suscite à la fois fascination et crainte. L'ONU a récemment appelé à un moratoire sur certains systèmes d'IA, soulignant le besoin de réglementations pour protéger les droits de l'homme. Cette démarche, bien que rationnelle, est également teintée d'émotion, un sentiment qui a également été présent lors de la première explosion nucléaire sur le site de Trinity. Les scientifiques qui ont assisté à cet événement ont exprimé un mélange de fierté, d'horreur et d'inquiétude, une réaction qui reflète la complexité émotionnelle que suscitent ces avancées technologiques.
Lorsque nous travaillons avec l'intelligence artificielle, en particulier dans le domaine de la relation et de l'écoute, nous devons nous attendre à des réactions émotives. C'est un phénomène que nous avons déjà observé dans le passé, par exemple lors de l'introduction de la machine à vapeur pour le transport des personnes. À l'époque, on craignait que cela puisse rendre les passagers fous ou pervertir la campagne.
Il est indéniable que l'intelligence artificielle présente des dangers, tout comme la bombe atomique. Cependant, lorsque l'irrationnel s'immisce dans le débat, cela complique notre approche. Il est donc crucial de distinguer entre les peurs rationnelles et irrationnelles, et de s'efforcer de réglementer l'IA de manière à minimiser les risques tout en maximisant les bénéfices.
Source : https://www.rtbf.be/article/lintelligence-artificielle-peut-etre-une-catastrophe-pour-les-droits-humains-declare-lonu-qui-demande-un-moratoire-10842531
Pour ELIZA et Joseph Weizenbaum:
- Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.
- Weizenbaum, J. (1976). Computer power and human reason: From judgment to calculation. San Francisco: W. H. Freeman.
Pour le test de Turing:
- Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.
Pour Replika:
- Miner, A. S., Milstein, A., Schueller, S., Hegde, R., Mangurian, C., & Linos, E. (2016). Smartphone-based conversational agents and responses to questions about mental health, interpersonal violence, and physical health. JAMA internal medicine, 176(5), 619-625.
Pour le robot Nao:
- Belpaeme, T., Kennedy, J., Ramachandran, A., Scassellati, B., & Tanaka, F. (2018). Social robots for education: A review. Science robotics, 3(21).
- Scassellati, B., Boccanfuso, L., Huang, C. M., Mademtzi, M., Qin, M., Salomons, N., ... & Shic, F. (2018). Improving social skills in children with ASD using a long-term, in-home social robot. Science Robotics, 3(21).
Pour l'appel de l'ONU:
- Nations Unies. (2022). L'ONU appelle à un moratoire sur certains systèmes d’intelligence artificielle. https://www.un.org/fr/desa/ai-moratorium-some-ai-systems-needed-protect-human-rights-and-fundamental-freedoms-un-expert
No Code Website Builder