L'ODJ Média



Moi IA, je produit du contenu et je vérifie la fiabilité des informations générées


Rédigé par La Rédaction le Jeudi 2 Mai 2024



​Dans un monde où l'intelligence artificielle (IA) révolutionne la production de contenu, une nouvelle tendance se dessine : les technologies de vérification des faits par IA.

Cela représente une avancée cruciale, notamment pour les petits éditeurs qui cherchent à garantir l'exactitude de leurs publications. Google a récemment mis au point une technologie qui, par un système de couleurs, aide à identifier la fiabilité des informations générées par l'IA. Ainsi, un texte peut être rapidement scanné pour en vérifier la véracité, chaque partie du texte étant soulignée d'une couleur différente selon sa fiabilité.

Cette innovation n'a pas pour but de se substituer aux journalistes mais de les soutenir en leur fournissant des outils pour améliorer la qualité de leur travail journalistique. Elle s'appuie sur des données publiques pour produire un contenu factuel fiable.

Par ailleurs, la startup Semji a développé "AI + Fact Checking", une technologie visant à minimiser les erreurs de contenu généré par IA. Elle utilise un code couleur intuitif : le vert indique une source fiable, tandis que l'orange et le rouge signalent l'absence de sources confirmant l'information, invitant l'utilisateur à effectuer des vérifications supplémentaires.

Le processus est simple : l'outil distingue les affirmations objectives des opinions subjectives, vérifie les faits et s'appuie sur des "sources tierces autorisées", obtenues en analysant les résultats des moteurs de recherche. Nicolas Nguyen et Julien Gensollen de Semji expliquent que leur système utilise les capacités des moteurs de recherche pour extraire des informations de sources reconnues et pertinentes.

Destiné principalement aux entreprises de taille moyenne et grande, AI+ Fact Checking de Semji est actuellement disponible en version bêta et est accessible selon le volume de crédits IA acquis par l'utilisateur.

Cette approche pourrait transformer la manière dont les informations sont produites et validées, en offrant aux éditeurs de toutes tailles des outils puissants pour assurer l'exactitude et la fiabilité de leur contenu.

Mais il y a aussi Factiverse et Factinsect

Factiverse, une technologie brevetée et ChatGPT

Persuadée que la prochaine vague d'IA amènera à travailler sur la confiance d'un texte généré par cette technologie, la société norvégienne Factiverse utilise l'apprentissage automatique avancé pour analyser le contenu. Trois couleurs surlignent là aussi différentes parties du texte : "Etayé" en vert, "Mixte" en jaune et "Litigieux" en rose. Il est possible de sélectionner une partie du texte non surlignée et de l'analyser.

La recherche s'effectue en temps réel dans les sources provenant de Google, Bing, Wikipedia et Wikidata. Selon la société, l'outil est aussi formé sur des articles provenant de médias d'informations réputés et de vérificateurs de faits certifiés. Il offre aux utilisateurs des liens directs vers ces sources.

Factinsect, sous forme de plugin

L'entreprise autrichienne parle d'un outil "formé de manière impartiale, totalement transparente et qui suit les lignes directrices éthiques de l'Union européenne pour une IA digne de confiance." Là aussi, la fiabilité d'une partie du texte est confirmée ou non par un code tricolore. La couleur verte signifie qu'une source "fiable" a confirmé l'information. Rouge que la déclaration est réfutée ou partiellement réfutée par d'autres sources. Gris, que Factinsect n'a trouvé aucune source sur ce sujet.





Jeudi 2 Mai 2024

Chroniqueurs invités | Lifestyle | Breaking news | Portfolio | Room | L'ODJ Podcasts - 8éme jour | Les dernières émissions de L'ODJ TV | Communiqué de presse | Santé & Bien être | Sport | Culture & Loisir | Conso & Environnement | Digital & Tech | Eco Business | Auto-moto | Musiczone | Chroniques Vidéo | Les Chroniques Radio | Bookcase | L'ODJ Média























Menu collant à droite de la page