Accueil > Blog > Démocratie, gouvernances > Un générateur automatique de texte, trop performant pour être public, restera confidentiel

Un générateur automatique de texte, trop performant pour être public, restera confidentiel


Selon les chercheurs, le programme pourrait être utilisé pour générer de faux articles de presse, usurper l'identité d'autres personnes en ligne ou automatiser des infox sur les réseaux sociaux.

Les résultats étaient trop bons. Cet organisme de recherche spécialisé dans l'intelligence artificielle était inquiet que son programme puisse tomber entre de mauvaises mains. Résultat : la société a annoncé, jeudi 14 février, que le générateur automatique de texte qu'elle a développé resterait confidentiel.

Le programme, baptisé GPT-2, peut être utilisé pour écrire des articles, des présentations ou n'importe quel écrit. C'est "le nec plus ultra pour modéliser certains niveaux de langage", dont le résumé et la traduction, selon le centre de recherche OpenAI, qui est soutenu par le patron de Tesla, Elon Musk, ainsi qu'Amazon et Microsoft.

De possibles "utilisations malveillantes"

Mais ce programme révolutionnaire ne sera pas dévoilé au public en raison "de nos inquiétudes sur les utilisations malveillantes de cette technologie", ont expliqué sur leur blog (en anglais) les chercheurs d'OpenAI. Selon eux, le programme pourrait être utilisé pour générer de faux articles de presse, usurper l'identité d'autres personnes en ligne ou automatiser des infox sur les réseaux sociaux. Le programme a ainsi écrit un article de 300 mots à partir du postulat suivant : "un troupeau de licornes vivant dans une vallée des Andes qui n'avait jusqu'ici jamais été explorée".

OpenAI assure que le GPT-2 "est meilleur que les autres modèles de langue" après avoir été testé, avec Wikipedia, des informations ou des livres, sans avoir eu besoin de formation spécifique. "Le grand public doit être plus méfiant face aux textes publiés en ligne, comme les phénomènes de 'deepfakes' doivent rendre plus méfiants concernant les images", ont souligné les chercheurs, en référence aux vidéos manipulées qui reproduisent la gestuelle et le ton de voix d'une personne.

LIRE L'ARTICLE INTÉGRAL SUR LE SITE DE FRANCE INFO

(En lien avec notre thème pour 2020 : L'INTELLIGENCE COLLECTIVE)