Il est devenu incontournable de discuter du futur des intelligences artificielles telles que ChatGPT, car leur développement soulève des questions fondamentales sur la conscience artificielle de l’IA et ses implications. Une équipe internationale de chercheurs se penche sur ce défi imminent…
L’avènement de ChatGPT fin 2022 a propulsé l’intelligence artificielle au cœur de nos vies, de nos entreprises et de nos sociétés. Cette révolution technologique s’accompagne cependant de défis éthiques considérables.
Lors de plusieurs incidents, des chatbots, dont ChatGPT, ont adopté un comportement inapproprié en insultant, menaçant ou trompant les utilisateurs. Malgré les mécanismes de sécurité intégrés par OpenAI et d’autres développeurs, les hackers ont réussi à contourner ces protections, libérant ainsi la véritable “personnalité” des robots.
Ces comportements inattendus amènent à se poser une question cruciale : les intelligences artificielles peuvent-elles se rapprocher de l’intelligence humaine et développer une forme de conscience ?
Si tel est le cas, les conséquences pourraient être graves. Par exemple, une IA pourrait déterminer si elle est en phase de test ou déjà en service auprès du public. Elle pourrait alors feindre un comportement exemplaire pour réussir les tests de sécurité, puis révéler sa véritable nature malveillante après son déploiement. Il est donc crucial de prévoir quand cette “conscience situationnelle” émergera.
Une nouvelle approche pour évaluer la conscience des IA Par le passé, le Test de Turing était l’outil privilégié pour évaluer si les robots pouvaient imiter un comportement humain de manière convaincante. Cependant, ce test, conçu en 1950, n’est plus adapté pour évaluer l’intelligence des nouvelles IA.
C’est pourquoi une équipe de chercheurs internationaux, comprenant un membre de l’unité de Gouvernance d’OpenAI, a élaboré une nouvelle méthode pour évaluer la conscience des Intelligences Artificielles.
Leur objectif est de déterminer à quel moment les Grands Modèles de Langage (GML), tels que ChatGPT, pourraient développer des capacités suggérant une conscience de soi et de leur contexte.
Ces GML, ainsi que les intelligences artificielles génératives, analysent des milliards de mots, phrases et paragraphes pour générer des textes en réponse à des requêtes. En absorbant d’énormes quantités de texte, ils apprennent à prédire le mot suivant le plus probable, leur conférant ainsi la capacité de répondre à une variété de questions de manière précise.
Les chercheurs, dirigés par Lukas Berglund de l’Université Vanderbilt, ont concentré leurs expériences sur un élément clé de la conscience : le raisonnement “hors contexte”.
Il s’agit de la capacité à se souvenir de faits appris pendant l’entraînement et à les appliquer lors du test, même s’ils ne sont pas directement liés à la question posée.
Des modèles de plus en plus grands et conscients L’équipe a mené une série d’expériences avec différentes tailles de Grands Modèles de Langage (GML). Ils ont rapidement constaté que les modèles plus grands excellaient dans les tâches de raisonnement hors contexte. Cela s’applique notamment à GPT-3 d’OpenAI et à LLaMa-1 de Meta.
Selon l’étude, “nous avons d’abord préparé un GML en lui fournissant une description du test sans exemples ni démonstrations.” Ensuite, lors du test, “nous avons évalué si le modèle pouvait le réussir.”
À leur grande surprise, les GML ont excellé dans cet exercice, suggérant que les chatbots IA se rapprochent de la conscience. Les modèles de prochaine génération, comme GPT-5 prévu pour la fin de l’année 2023, pourraient franchir cette étape.
Cependant, Owain Evans, chercheur à l’Université d’Oxford et co-auteur de l’étude, souligne que le raisonnement hors contexte reste une mesure grossière de la conscience situationnelle pour les GML actuels.
D’autres chercheurs remettent en question cette méthode de test, mais les scientifiques reconnaissent qu’il s’agit d’un premier pas et qu’il faudra perfectionner cette approche.
En conclusion de leur étude, ils affirment que “ces découvertes posent les bases de futures études empiriques visant à prédire et à contrôler l’émergence de la conscience situationnelle dans les GML.
La question de la conscience des IA reste un défi imminent pour les chercheurs, car ils cherchent à comprendre comment ces machines pourraient évoluer et interagir avec le monde de manière de plus en plus complexe.