1-1-e1669908198824-png
chatgpt-a-le-risque-que-les-gens-pensent-quil-donne

ChatGPT a le risque que les gens pensent « qu’il donne toujours les bonnes réponses »

Rogério Carapuça mentionne que l’interaction avec le système est très similaire à un dialogue avec un humain, mais les gens doivent « faire attention, bien sûr, à savoir qu’ils parlent ou qu’ils interagissent avec une machine et pas exactement avec une machine ». « personne et que les réponses qu’elle obtient n’ont pas à être exactes ».

Et cela « est un enjeu essentiel, même pour ceux qui sont dans le domaine de la communication sociale, où il est de plus en plus difficile de distinguer ce qui est vrai de ce qui ne l’est pas, surtout lorsque nous interagissons avec des systèmes qui ne disent pas quelle est la référence (. ..) la source de l’origine de cette information », prévient le président d’APDC – Digital Business Community, dans une interview à Lusa.

Lorsqu’il interagit avec un moteur de recherche traditionnel, tel que Google, par exemple, il présente un « ensemble de réponses et les réponses disent d’où il vient et quelle est la source ».

Cependant, « ce système ne dit pas quelle est la source » et comme il « interagit avec nous de manière beaucoup plus naturelle, nous risquons de lui accorder de la crédibilité, de penser que par définition il est vrai, alors que ce n’est pas le cas ». l’affaire », renforce Rogério Carapuça.

Incidemment, ChatGPT lui-même a déjà passé des examens à l’Université de Wharton, aux États-Unis.

« Il y a un risque que les gens pensent que c’est quelque chose qui donne toujours les bonnes réponses, ce qui n’est pas le cas. Non seulement il échoue, mais il peut être manipulé. Et, par conséquent, la question de savoir si quelque chose est vrai ou non, si nous avons des sources qui corroborent ou non cette réponse va être une question de plus en plus pressante dans nos sociétés et l’une des qualités que nous devons développer en tant qu’humains et étudiants. en tant qu’étudiants », entre autres, « c’est précisément cette validation de savoir si ce qu’ils nous disent est ou non quelque chose que nous pouvons considérer comme vrai », renforce Rogério Carapuça.

Des solutions comme ChatGPT posent également des défis aux médias, car « avec un système de ce type, il sera très facile de générer automatiquement des nouvelles qui peuvent être vraies ou non car elles sont très crédibles du point de vue de l’interaction ».

Par exemple, les « deep fakes », la désinformation résultant de la manipulation d’images et d’audio, dans laquelle il est possible de placer des images d’une certaine personne, avec une voix similaire à la vôtre, disant des choses que vous n’avez pas dites, à travers une voix qui a été généré.

« Il va être de plus en plus difficile pour nous de comprendre si une certaine image correspond à cette personne ou non, si la personne a dit cela ou non et/ou, dans ce cas, si ce système dit quelque chose qui est vrai ou pas, donc, notre capacité en tant qu’humains à comprendre, à distinguer ce qui est vrai de ce qui ne l’est pas, sera de plus en plus contestée », anticipe le président de l’APDC, qui prévoit que ce sera « un grand défi pour les journalistes comme Bien ».

Avec des systèmes comme ChatGPT, les journalistes « auront ici un bon assistant pour produire » des nouvelles simples comme la fermeture des marchés par exemple, mais « il y a aussi le risque d’écrire quelque chose qui n’est même pas vrai », conclut-il.

ALU // CSJ

Articles récents