ChatGPT : comment Wikipedia envisage d’utiliser l’IA pour écrire des articles ?

Les capacités de ChatGPT à générer du texte ne sont plus à prouver et elles pourraient être bien utile pour la plus grande encyclopédie de la planète : Wikipedia. La semaine dernière, Jimmy Wales s’interrogeait sur les usages possibles de l’IA sur son site.

Image 1 : ChatGPT : comment Wikipedia envisage d'utiliser l'IA pour écrire des articles ?

Pour l’instant, ChatGPT sert surtout aux étudiants qui trichent. Néanmoins avec les dernières mises à jour, les usages de l’IA ont été démultipliés grâce aux plugins et maintenant le concurrent Google Bard se déploie sur Gmail et Docs. L’utilité des chatbots génératifs fait du bruit, notamment par leur capacité à générer du texte à partir d’internet qu’ils ratissent en long et en large pour obtenir la meilleure réponse.

Mais imaginons maintenant l’inverse. Au lieu que l’IA s’inspire d’un corpus d’écrits humains, elle pourrait bientôt être la rédactrice de textes que les humains liront. Récemment, le site d’information américain CNET licenciait 12 journaliste pour leur préférer l’IA. C’est une possibilité à laquelle Jimmy Wales, le fondateur de Wikipédia, réfléchit déjà pour l’avenir de la plus grande encyclopédie en ligne.

ChatGPT pourrait aider les bénévoles de Wikipedia

Selon Jimmy Wales, même si l’IA est au centre de l’attention depuis les dernièrs mois, cela ne prouve pas ses capacités. Au contraire, ses propres tests montrent qu’elle est encore trop faillible. « L’un des problèmes de ChatGPT actuellement est ce qu’on appelle dans l’industrie “l’hallucination”. Moi, j’appelle ça mentir », explique-t-il, en faisant référence à la boite noire de laquelle ChatGPT sort ses informations. « ChatGPT a tendance à inventer des choses à partir de rien, ce qui est vraiment mauvais pour Wikipédia, ce n’est tout simplement pas acceptable. Nous devons être très prudents à ce sujet » ajoute-t-il.

En plus de ne pas dire la vérité, M. Wales affirme que ChatGPT ne parvient généralement pas à déceler les contradictions internes dans ses propres écrits. Il a réussi à embourber l’IA lui-même de la façon suivante :

« J’ai demandé à ChatGPT si un avion s’était écrasé sur l’Empire State Building. Il m’a répondu que non, qu’un avion ne s’était pas écrasé sur l’Empire State Building. Mais il a poursuivi en disant qu’il y a un bâtiment célèbre à New York et que l’une des choses les plus célèbres qui s’y soit produite est qu’un bombardier B25 s’est écrasé sur l’Empire State Building. J’ai demandé si un bombardier B25 était un type d’avion. Il m’a répondu que oui. Je lui ai donc répondu qu’il avait tort de dire qu’un avion ne s’était pas écrasé sur l’Empire State Building. Il m’a déclaré : “Vous avez raison, je m’excuse pour mon erreur“. »

Si laisser l’IA travailler en autonomie n’est pas à l’ordre du jour à court terme, la communauté de rédacteurs de Wikipedia envisage tout de même un rôle d’assistance que l’IA pourrait jouer. Jimmy Wales imagine ainsi que une fois entrainée sur le bon corpus de données, l’IA pourrait aider à vérifier la véracité des articles, déceler les contradictions entre eux et d’identifier lorsqu’un article semble dire les choses différemment d’un autre. Cela accélérerait beaucoup le travail pour les humains, qui n’aurait ensuite qu’à corriger les problèmes identifiés par l’IA.

Source : Evening Standard