Quel impact ChatGPT pourrait-il avoir sur le journalisme ?

Depuis sa sortie en novembre 2022, ChatGPT, un chatbot basé sur l’intelligence artificielle développé par la société de recherche et développement OpenAI, est un sujet de discussion parmi les journalistes concernant son influence potentielle sur l’industrie de l’information et les médias.

ChatGPT est capable de générer automatiquement du texte basé sur des invites écrites et d’engager des interactions conversationnelles avec les utilisateurs en répondant à leurs questions.

Il a acquis une immense popularité, atteignant plus de 100 millions d’utilisateurs au cours des deux premiers mois.

L’attrait du chatbot réside dans ses réponses détaillées et humaines dans un format conversationnel, y compris la capacité de contester les hypothèses incorrectes et de répondre aux questions de suivi.

L’Associated Press, Reuters, le Washington Post, la BBC et le New York Times bénéficient de l’intelligence artificielle pour produire du contenu, personnaliser leurs offres et améliorer l’engagement du public.

Le média américain BuzzFeed prévoit également d’utiliser ChatGPT pour améliorer ses quiz et personnaliser certains contenus pour son public.

S’adressant à Anadolu, Jonathan Soma, qui dirige un programme de journalisme de données à l’école de journalisme de l’Université de Columbia, a décrit ChatGPT comme un « outil fantastique » pour produire des idées et faire des suggestions aux journalistes.

« Mais comme toutes les suggestions, elles sont susceptibles d’être trompeuses ou incorrectes. C’est pourquoi ChatGPT fonctionne mieux aux côtés des journalistes, comme un outil pour aider leur processus, et non comme un produit autonome qui fait le travail d’un journaliste », a déclaré Soma dans un entretien par e-mail.

Il a déclaré que de nombreux organes de presse étaient enthousiastes à l’idée d’utiliser des instruments alimentés par GPT pour publier des articles, mais a noté qu’il s’agissait d’un investissement plus coûteux.

« Cela a pu être vu lorsque CNET a récemment publié un grand nombre d’articles sujets aux erreurs : même lorsqu’il est affirmé que les éditeurs examinent et révisent les articles générés par l’IA, ils ne le font probablement pas ! »

« Il est très facile pour l’analyse de rentabilisation d' »accroître la productivité » d’annuler la capacité des journalistes à faire attention et à produire leur meilleur travail », a-t-il ajouté.

CNET, un site Web technologique basé aux États-Unis, aurait publié du contenu généré par l’IA.

Interrogé sur le rôle de ChatGPT pour améliorer la qualité et l’efficacité du journalisme, Soma a déclaré qu’il pouvait faire un bon travail de vérification des faits malgré sa « tendance à halluciner ».

« Les outils automatisés basés sur GPT pour analyser des ensembles de données et interroger de grands ensembles de documents arrivent rapidement à maturité et peuvent faire beaucoup pour améliorer la précision des rapports. »

« Par exemple, si j’écris sur une augmentation du vol à l’étalage, il peut automatiquement interroger une base de données pour voir s’il s’agit d’une représentation exacte. »

Le plus gros problème avec ChatGPT est « l’exactitude absolue »

En février 2023, OpenAI a annoncé son intention d’offrir un service d’abonnement appelé ChatGPT Plus.

Ce service offre de nombreux avantages à ses abonnés tels que des réponses plus rapides avec un accès prioritaire aux nouvelles mises à jour et améliorations. Cela coûte 20 $ par mois.

ChatGPT a certaines limites, car il peut donner de mauvaises réponses, pas seulement une fois, mais peut-être plusieurs fois.

OpenAI accepte déjà les limitations.

« ChatGPT écrit parfois une réponse plausible mais incorrecte ou absurde », explique la société.

Soma convient également que le plus gros problème avec ChatGPT est « l’exactitude absolue », ce qui entraîne des problèmes éthiques potentiels associés à son utilisation dans le journalisme, tels que des problèmes de partialité ou d’exactitude.

« Les grands modèles de langage ont tendance à » halluciner « et à donner des réponses à des questions incorrectes mais qui semblent exactes », a-t-il déclaré.

« Quelqu’un qui peut dire « je ne sais pas » est plus digne de confiance que quelqu’un qui a toujours une réponse, et il est malheureusement très difficile d’amener ChatGPT à dire « je ne sais pas ».

Interrogé sur les défis auxquels les journalistes seraient confrontés pour intégrer ChatGPT dans leur flux de travail, il a déclaré que la « peur » et le « manque de connaissances » sont probablement les problèmes les plus importants pour l’industrie de l’information.

« La messagerie autour de ChatGPT est l’une de ces choses – elle est parfaite et sait tout, ou c’est une machine à ordures biaisée. »

« Si les journalistes peuvent prendre le temps – pas dans les délais, pas explicitement pour le travail – de jouer avec ChatGPT dans un environnement guidé, cela pourrait faire beaucoup pour les aider à voir ses forces et ses faiblesses. »

Agence

Laisser un commentaire

Bouton retour en haut de la page