Sommaire
Dans le monde de la presse scientifique, le magazine Cosmos, édité par l’Agence scientifique nationale australienne, est une référence. Cependant, depuis la publication de six articles générés par l’intelligence artificielle sur son site web, le magazine est au cœur d’une polémique, rapporte le média local ABC le 7 août dernier.
Des erreurs et simplifications dans les contenus générés par l’IA
Les articles générés par l’IA utilisant GPT4, l’IA développée par la société OpenAI, ont été critiqués par le président de l’Association des journalistes scientifiques, Jackson Ryan. Selon lui, ces contenus contiennent des simplifications voire des erreurs. Par exemple, l’un de ces articles, intitulé « Qu’arrive-t-il à notre corps après la mort ? », mentionne que des signes de rigidité cadavérique apparaissent trois ou quatre heures après le décès, alors que la recherche scientifique est moins précise sur ce sujet. De plus, la description du processus d’autolyse, où les cellules sont détruites par leurs enzymes, est également inexacte.
Des préoccupations concernant la confiance des lecteurs
Jackson Ryan exprime sa préoccupation quant aux inexactitudes contenues dans ces articles générés par l’IA. Il craint que cela n’ait un impact sur la confiance des lecteurs envers le magazine et leur perception de la qualité des contenus scientifiques publiés.
Une bataille avec les éditeurs et l’utilisation des subventions
Un porte-parole de l’Agence scientifique nationale australienne affirme que le contenu généré par l’IA a été vérifié par un « outil scientifique qualifié et édité par l’équipe de publication de Cosmos ». Cependant, cela n’apaise pas les critiques. Le magazine Cosmos a également été critiqué pour avoir utilisé des subventions destinées au secteur du journalisme pour développer ses capacités d’intelligence artificielle. Jackson Ryan souligne que l’utilisation de l’IA devient un sujet de préoccupation majeur pour les éditeurs, car cela est perçu comme une tentative de réaliser des économies au détriment des journalistes.
Inquiétudes aux États-Unis sur l’utilisation de l’IA par les médias
L’utilisation de l’IA par les médias suscite également de sérieuses inquiétudes aux États-Unis. Récemment, le New York Times a poursuivi OpenAI et Microsoft devant un tribunal américain, accusant les puissants modèles d’IA développés par ces entreprises d’utiliser des millions d’articles sans autorisation pour l’entraînement de leurs modèles.
L’utilisation croissante de l’IA dans le domaine des médias soulève donc des questions éthiques et pose des défis quant à la confiance des lecteurs et au rôle des journalistes dans la production de contenus fiables et précis.