Un test de Turing révélateur
Au mois de février, un homme a fait sensation en développant un programme utilisant la technologie de ChatGPT pour discuter sur Tinder. Avec cette intelligence artificielle, il a réussi à échanger avec 5 200 femmes et a même trouvé une épouse grâce à cette méthode. Mais l’IA est-elle aujourd’hui si performante qu’elle peut tromper les humains ? Une étude récente indique qu’il est presque impossible de distinguer une conversation avec un chatbot comme ChatGPT d’une discussion avec une personne réelle.
Des résultats étonnants
Des chercheurs du département des sciences cognitives de l’Université de Californie à San Diego ont mené une série de tests de Turing sur différents chatbots, dont ELIZA des années 60, le modèle GPT-3.5, et GPT-4. Les participants ont eu des discussions de 5 minutes soit avec un humain, soit avec l’un de ces chatbots, et devaient ensuite déterminer s’ils parlaient à une personne ou à une intelligence artificielle. Les résultats sont surprenants : seulement 22 % des personnes pensaient parler à un humain en discutant avec ELIZA, tandis que ce chiffre monte à 54 % pour GPT-4. En comparaison, 67 % des participants ont identifié correctement qu’ils parlaient à un humain.
Pour rendre GPT-4 convaincant, les chercheurs ont personnalisé ses réponses via un prompt spécifique, définissant le ton à adopter. Cette étude montre non seulement les avancées de GPT-4, mais alerte aussi sur les dangers potentiels de cette évolution technologique. Selon les chercheurs, les résultats suggèrent que la tromperie par les systèmes d’IA actuels pourrait passer inaperçue, ce qui a des implications importantes pour les débats sur l’intelligence artificielle.
Vers une IA encore plus avancée
L’étude met en avant la capacité de GPT-4 à tromper les humains, alors qu’OpenAI travaille déjà sur une version encore plus évoluée. Mira Murati, directrice technique d’OpenAI, a comparé l’intelligence de GPT-3 à celle d’un enfant, tandis que GPT-4 aurait le niveau d’un lycéen. Le prochain modèle pourrait atteindre le niveau d’intelligence d’un titulaire de doctorat. Selon Murati, ce modèle pourrait être disponible d’ici un an et demi.
Dans un communiqué de presse annonçant la création d’un comité de sûreté interne, OpenAI a également mentionné le développement de son prochain modèle d’IA. OpenAI a récemment commencé la formation de ce nouveau modèle frontière, qui devrait amener les systèmes d’IA à un niveau supérieur de capacités et de sécurité, marquant une étape importante vers l’AGI (intelligence artificielle générale).