Peut-on interdire les contributions générées par ChatGPT?

Classé dans : Actualités | 0

Dans son appel à contributions lancé dans le cadre de la conférence internationale sur l’apprentissage automatique (ICML pour International Conference on Machine Learning), l’International Machine Learning Society, a récemment interdit les textes générés par ChatGPT. L’auteur de l’article publié sur le site MultiLingual se demande si cette interdiction est réaliste.

Dans leur dernier appel à contributions, lancé le 9 janvier dernier, les organisateurs de l’ICML ont ajouté une note à la section sur l’éthique interdisant l’utilisation de textes générés par ChatGPT et autres outils similaires, à moins que ceux-ci soient présentés dans le cadre de l’analyse expérientielle de l’article.

ChatGPT, un agent conversationnel s’appuyant sur l’intelligence artificielle, génère de longues chaînes de texte qui ressemblent à du contenu produit par des humains. Il a été conçu par l’entreprise californienne OpenAI.

« Comme certains l’ont remarqué, [des outils générant automatiquement des textes] tels que ChatGPT sont désormais capables de produire des extraits qui sont souvent difficiles à distinguer de textes écrits par l’humain », indiquent les responsables de la conférence.

Après avoir effectué des tests comparatifs entre GPTZero, par exemple, et ChatGPT, l’équipe de MutliLingual s’est rendu compte que ce dernier, au moment de la sélection de données, parvenait à distinguer plus facilement que le premier outil le texte écrit par un humain du texte généré automatiquement. Celui-ci peut ainsi produire des textes se rapprochant de textes véritablement rédigés par des personnes.

Par conséquent, l’auteur s’interroge sur la capacité réelle des décideurs de l’ICML à différencier les soumissions proposées par les candidats à leur appel à contributions, à moins de réaliser une étude approfondie.

Source : MulitLingual

Photo : Pexels / Cotonbro studio

Laisser un commentaire

Votre adresse courriel ne sera pas publiée.