France-Soir
Depuis 2024, La Banque Postale analyse les appels de ses conseillers clientèle à l'aide d'un logiciel d'intelligence artificielle. Avec pour objectif affiché l'amélioration de la qualité, la machine multiplie les des erreurs et les biais. Résultat : des salariés notés injustement.
Être noté par une machine pour sa politesse, c'est le nouveau quotidien de certains salariés. À La Banque Postale, une IA baptisée Quality Monitoring juge désormais les performances des conseillers clientèle sur une vingtaine de critères comportementaux. Voix trop monocorde, oubli d'un mot magique ou… nom mal compris par l'algorithme : autant de raisons pour finir dans le rouge.
Une enquête de Cash Investigation, diffusée ce 10 avril sur France 2, révèle les dérives de cet outil censé améliorer la relation client. Derrière la promesse d'un encadrement bienveillant se cache une notation automatisée et arbitraire, qui inquiète même en interne. "Jamais je n'aurais pensé qu'on en arriverait là", confie un cadre de la banque sous couvert d'anonymat. Il dénonce notamment un biais flagrant du système : "On a la preuve que l'outil a mal jugé ce qu'il a entendu". Un conseiller, parfaitement identifié au téléphone, a été mal noté simplement parce que son nom, à consonance arabe, n'a pas été reconnu par l'IA.
France Info précise que seuls 10 % des appels sont analysés, et que le logiciel ne serait utilisé qu'à des fins de formation. Pourtant, selon le cadre interrogé, des agents expérimentés se retrouvent avec des scores ridicules, sans que personne ne corrige les erreurs de la machine. Pour Thomas Dautieu, directeur juridique à la Cnil, "le salarié peut contester… et saisir la justice". Une position qui rappelle que l'automatisation ne doit jamais se faire au détriment de l'humain.