Cedille, une IA qui évite les biais sexistes et racistes

Interface3.NamurRessources Genre-et-TICCedille, une IA qui évite les biais sexistes et racistes

Cedille, une IA qui évite les biais sexistes et racistes

Cedille est une Intelligence Artificielle qui a la particularité de générer du texte en français à partir d’un début de phrase entré par l’utilisateur. Développée par l’agence digitale suisse Coteries, elle semble se développer en dehors des biais sexistes et racistes.

Actuellement en version bêta, elle est entrainée sur base d’un modèle français composé de grandes bases de contenus disponibles publiquement sur internet. Malheureusement, ces derniers contiennent une part de désinformation, de racisme et de sexisme. Les IA se basant sur ces modèles, sans les filtrer, ils développeront une tendance discriminatoire non désirée par les créateurs.

Or l’agence a l’origine de Cedille a mis en place un énorme testing ainsi qu’un examen manuel minutieux des données afin de supprimer tout le contenu inapproprié et toxique de son IA. Suite à cette mise en place, Cedille est désormais capable de rédiger du texte francophone de qualité avec une réduction significative du contenu toxique.

Cependant, l’outil est toujours en phase bêta et en cours d’amélioration. Les utilisateurs sont avertis quant à la possibilité de se voir générer du contenu incohérent, voir choquant, et sont invités à le signaler à la plateforme pour qu’elle puisse palier à ces biais persistants.

Capture d’écran provenant de l’outil Cedille

Cedille peut générer du texte en français pour de nombreuses utilisations différentes : lettre de motivation, reformulation, chatbot ou encore résumé de vacances…

Chez Interface3.Namur nous sommes très favorables à ces outils qui peuvent faciliter la rédaction ou encore faire émerger de nouvelles idées, d’autant plus quand ils ont une intention appuyée de s’éloigner du sexisme. Nous pourrions tout à fait faire intervenir Cedille p brainstormings lors de la rédaction de nouveaux projets. L’élaboration de cet outil est encourageante et prouve que les propos sexistes, homophobes ou racistes des IA peuvent être maîtrisés et ainsi développer des outils plus sains et de meilleure qualité.

Vous pouvez essayer Cedille ici.

 

 

 

X