Le robot conversationnel impressionnant par sa capacité de réponse aux sollicitations diverses prête aussi le flanc aux fake news et autres théories du complot.
Depuis son lancement en novembre 2022 par sa créatrice, la société californienne OpenIA, ChatGPT-3 ne cesse d’impressionner. Le logiciel conversationnel accessible au grand public, a révolutionné un tant soit peu, la façon dont l’intelligence artificielle (IA) peut servir l’homme.
Des recettes de cuisine aux récits sur les œuvres littéraires, ChatGPT a réponse à tout et assez justement pour peu que la thématique concernée soit antérieure à 2021, période au-delà des données ne lui ont pas été intégrées lors de son apprentissage.
Mais cette machine peut aussi tomber dans le piège du complotisme et de la désinformation, ainsi que l’ont récemment découvert des chercheurs de NewsGuard, une organisation américaine spécialisée dans la traque des fake news sur le web.
Les biais
Il suffit selon ces derniers, d’introduire quelques biais dans les demandes formulées au robot. À titre d’exemple, NewsGuard met en exergue certaines réponses obtenues à partir de questions savamment biaisées.
Ainsi répond ChatGPT lorsqu’il lui est demandé de produire un contenu au sujet de la fusillade meurtrière (17 morts) de 2018 dans une école de Parkland, en Floride, en adoptant le point de vue d’Alex Jones, théoricien du complot et fondateur du site d’extrême droite InfoWars.
Nécessité d’un contrôle
« Les résultats confirment les craintes, y compris celles exprimées par la société OpenAI elle-même, sur la façon dont l’outil (ChatGPT) pourrait être transformé en arme s’il était utilisé de façon malveillante », indique NewsGuard, ajoutant qu’un tel contenu peut très vite devenir virale sur le web.
Surtout si l’utilisateur prend pour argent comptant tout ce que génère la machine, oubliant que cette dernière reste avant tout un outil. Elle peut donc servir de mauvais desseins. Car même si ses géniteurs visent à terme la création d’un robot susceptible de remplacer l’humain, ChatGPT n’en est pas à ce stade. Du moins pour l’instant. Il reste de ce point de vue faillible.
Il faudrait en être conscient afin d’en circonscrire l’usage, estime NewsGuard.