
Source: wikimedia commons / ArtificialFictionBrain.png / Auteur présumé: Gengiskan
ChatGPT serait un « bullshit generator ». C’est du moins ce qu’avance le professeur de science informatique (Computer Science) Arvind Narayanan à Princeton. Dans ce reportage
de NiemanLab, il explique qu’une IA comme ChatGPT est formée pour produire des contenus persuasifs, plausibles mais non pas véridiques. Plausibilité et vérité sont deux choses différentes. Le professeur Narayanan a produit une taxonomie (l’anglais Taxonomy est plus réaliste ici) intitulée How to recognize AI snake oil concernant ce que des entreprises prétendent que l’IA peut faire. Le résultat est aussi impressionnant qu’inquiétant. Le manque de culture à propos des IA et le marketing agressif qui les entoure conduisent des organisations à adopter sans réflexion des solutions boiteuses pour leurs besoins avec des résultats potentiellement désastreux.
Par exemple souligne la taxonomie du professeur Narayanan, aucun logiciel se réclamant de l’intelligence artificielle ne peut faire efficacement des tâches aussi complexes que prédire des comportements comme le risque de récidive, les enfants à risque de difficulté ou le risque de terrorisme.
Le professeur Narayanan n’est pas le seul dans la communauté scientifique à émettre des doutes ou faire des mises en garde. Une petite recherche sur Google Scholar permet de trouver une abondance de points de vue fouillés. Par exemple:
Ian Bogost dans The Atlantic
Gary Marcus dans The Scientific American
Plusieurs scientifiques dans une étude sur l’usage médical potentiel d’une IA comme ChatGPT
Etc…