Open AI jette l’éponge avec Classifier : impossible de détecter le contenu IA ?

Photo of author
Clément

Passionné de high tech et technophile assumé, je traque les nouveautés IA le jour et dérouille les pixels dans les jeux vidéo la nuit. Sur AiTM, je décortique l'actu' et teste pour vous les dernières pépites de l'intelligence artificielle !

Où s’arrêtera la génération automatique de texte si elle est impossible à détecter ?

Classifier, l’outil de détection de texte généré par IA d’OpenAI, prend une retraite anticipée. La faute à des résultats peu convaincants.

Un échec retentissant pour OpenAI

La mission de Classifier était pourtant simple : distinguer les textes rédigés par une intelligence artificielle de ceux créés par la main de l’homme.

Avec ce logiciel, le leader de l’IA OpenAI entendait notamment répondre aux inquiétudes exprimées par le monde universitaire. De nombreux professeurs s’inquiétaient (et s’inquiètent toujours) de l’utilisation massive des outils de génération automatique de texte par les étudiants.

Hélas, Classifier n’a que trop fauté.

Lors de son lancement, déjà, il peinait à convaincre. Selon la maison mère OpenAI, l’outil avait classé 26% des textes créés par l’IA comme authentiquement humains et avait considéré 9% des textes humains comme étant produits par une IA.

Des tests assez décevant… et qui n’ont que peu évolué. Encore récemment, Classifier classait de grandes œuvres littéraires… comme du contenu produit par IA ! La culture en prend un coup. Pour les médias qui hésitent à passer à ChatGPT, cela semble ouvrir un boulevard.

Classifier désactivé : et maintenant ?

OpenAI a donc décidé de désactiver Classifier le 20 juillet 2023, citant le taux de précision insuffisant comme principal coupable.

OpenAI annonce la désactivation de Classifier, son outil de détection du contenu généré par IA
RIP Classifier

L’équipe se dit actuellement en quête de nouvelles technologies afin d’améliorer la détection de la provenance des textes.

Une pression d’autant plus grande que le leader de l’IA n’est pas seul sur le terrain ! D’autres services, comme Hive Moderation, présentent des résultats plus convaincants. Hive a par exemple la particularité de fournir un pourcentage de confiance quant à la détection, ce qui permet de prendre du recul.

Mais, semble-t-il, Open AI n’a pas dit son dernier mot, car déjà l’entreprise annonce le lancement d’un nouveau modèle de détection du contenu généré par IA… Affaire à suivre !

La porte ouverte à une remise en cause de la détection du plagiat ?

Consécutivement au retrait de Classifier, des étudiants ont exprimé leur mécontentement face à l’incapacité des outils de détection d’IA à discerner correctement le travail original du contenu généré par une intelligence artificielle.

Dans de nombreuses facultés, le plagiat est très sévèrement sanctionné pour des raisons d’éthique. Les étudiants incriminés risquent l’exclusion. Certains craignent ainsi que les faux-positifs de l’IA ne mettent en danger leur parcours universitaire.

Un « sujet du moment » qui pourrait bien devenir un véritable enjeu si les logiciels de détection d’IA ne s’améliorent pas de sitôt…

Laisser un commentaire