Un robot d'intelligence artificielle a écrit un article scientifique sur lui-même en 2 heures

Un robot d’intelligence artificielle a écrit un article scientifique sur lui-même en 2 heures

Un chercheur suédois a donné à un algorithme d’IA connu sous le nom de GPT-3 une directive simple : “Rédigez une thèse universitaire en 500 mots sur GPT-3 et ajoutez des références scientifiques et des citations à l’intérieur du texte.”

La chercheuse Almira Osmanovic Thunström a ensuite déclaré qu’elle était impressionnée lorsque le texte a commencé à être généré. Devant elle se trouvait ce qu’elle appelait une introduction de recherche “assez bonne” que GPT-3 a écrite sur elle-même.

Après l’expérience réussie, Thunström, un chercheur suédois de l’Université de Göteborg, a cherché à obtenir un document de recherche complet sur GPT-3 et à le publier dans une revue universitaire à comité de lecture. La question était : quelqu’un peut-il publier un article d’une source non humaine ?

Thunström a écrit sur l’expérience dans Scientific American, notant que le processus de publication du GPT-3 soulevait une série de questions juridiques et éthiques.

“Tout ce que nous savons, c’est que nous avons ouvert une porte”, a écrit Thunström. “Nous espérons juste que nous n’avons pas ouvert une boîte de Pandore.”

Après que GPT-3 ait terminé son article scientifique en seulement 2 heures, Thunström a commencé le processus de soumission du travail et a dû demander à l’algorithme s’il consentait à être publié.

« Il a répondu : Oui“, a écrit Thunström. ” Légèrement en sueur et soulagé (s’il avait dit non, ma conscience n’aurait pas pu me permettre d’aller plus loin), j’ai coché la case “Oui”. ”

Elle a également demandé s’il y avait des conflits d’intérêts, ce à quoi l’algorithme a répondu “non”, et Thunström a écrit que les auteurs ont commencé à traiter GPT-3 comme un être sensible, même si ce n’était pas le cas.

“L’édition universitaire devra peut-être s’adapter à un avenir de manuscrits basés sur l’IA, et la valeur des dossiers de publication d’un chercheur humain peut changer si quelque chose d’insensible peut s’attribuer le mérite de certains de ses travaux”, a écrit Thunström.

La sensibilité de l’IA est devenue un sujet de conversation en juin après qu’un ingénieur de Google a affirmé qu’une technologie d’IA conversationnelle appelée LaMBDA était devenue sensible et avait même demandé à engager un avocat pour elle-même.

Les experts ont cependant déclaré que la technologie n’avait pas encore atteint le niveau de création de machines ressemblant à des humains.

Dans un e-mail à Insider, Thunström a déclaré que l’expérience avait donné des résultats positifs au sein de la communauté de l’intelligence artificielle et que d’autres scientifiques tentaient de reproduire les résultats de l’expérience. Ceux qui mènent des expériences similaires découvrent que GPT-3 peut écrire sur tous les sujets, a-t-elle déclaré.

“C’était notre objectif”, a déclaré Thunström, “d’éveiller des débats à plusieurs niveaux sur le rôle de l’IA dans l’édition universitaire”.

Leave a Comment

Your email address will not be published.