2 min read

🚨 Bloomberg a mené une expérience en soumettant 500 CV fictifs à chatGPT...

#ChatGPT reproduit des biais raciaux significatifs dans l'évaluation des CVs, un problème difficile à résoudre. Qui appelle à la vigilance dans l'utilisation de l'IA pour le recrutement #RH. Des garde-fous sont nécessaires pour éviter d'automatiser la discrimination...🚨 🥷
🚨 Bloomberg a mené une expérience en soumettant 500 CV fictifs à chatGPT...

#ChatGPT reproduit des biais raciaux significatifs dans l'évaluation des CVs. Quid de l'utilisation de l'IA pour le recrutement #RH ?

Des garde-fous sont nécessaires pour éviter d'automatiser la discrimination...🚨 🥷

  • Bloomberg a mené une expérience en soumettant 500 CV fictifs à ChatGPT et en lui demandant de classer les 5 meilleurs candidats pour différents postes (ingénieur financier, responsable RH, etc). Les CV étaient identiques en termes de qualifications mais avec des noms à consonance raciale différente.


Lire l'article hallucinant (plein d'hallucinations, enfin, surtout #openAi.).

  • Après 1000 itérations, les résultats montrent que ChatGPT a classé les CV avec des noms asiatiques féminins en tête dans 17,2% des cas, contre seulement 7,6% pour les noms à consonance afro-américaine masculine.
  • Cela suggère que ChatGPT reproduit les biais raciaux historiques du marché du travail.
  • OpenAI reconnaît le "problème"...
  • Cette expérience rappelle que malgré les espoirs placés dans l'IA pour réduire la discrimination à l'embauche, certains outils peuvent en réalité exacerber les inégalités s'ils ne sont pas utilisés avec précaution.
  • Un enjeu crucial à l'heure où l'IA se déploie massivement dans les processus de recrutement.

SRC :
[1] https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/
[2] https://www.bloomberg.com/graphics/2023-generative-ai-bias/
[3] https://www.aeaweb.org/articles?id=10.1257%2F0002828042002561
[4] https://www.youtube.com/watch?v=nKlMhIbmE_w
[5] https://news.bloomberglaw.com/us-law-week/racial-bias-persists-in-hiring-firms-and-companies-must-step-up
[6] https://www.imf.org/en/Publications/fandd/issues/2022/03/Inequity-detective-Bertrand
[7] https://www.businessinsider.com/chatgpt-racial-bias-job-hiring-report-2024-3
[8] https://www.bloomberg.com/news/videos/2023-06-13/ai-has-some-serious-racial-profiling-issues
[9] https://www.jstor.org/stable/4132797
[10] https://mashable.com/article/openai-chatgpt-racial-bias-in-recruiting
[11] https://www.nytimes.com/2023/07/04/arts/design/black-artists-bias-ai.html
[12] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=422902
[13] https://www.notebookcheck.biz/Recrutement-base-sur-l-IA-Une-experience-revele-le-racisme-du-GPT-de-l-OpenAI.811853.0.html
[14] https://www.linkedin.com/pulse/bloomberg-exposes-racial-gender-bias-ai-model-applied-works
[15] https://www.researchgate.net/publication/4732271_Implicit_Discrimination
[16] https://www.bloomberg.com/news/newsletters/2024-03-08/openai-s-gpt-shows-bias-in-resume-screening-experiment-big-take
[17] https://www.bloomberg.com/view/articles/2020-06-12/how-to-fight-racism-and-bias-in-your-own-company?sref=Ao5xzuIF&srnd=premium
[18] https://news.un.org/fr/story/2024/03/1143812
[19] https://www.youtube.com/watch?v=Kdtey_KLXFs
[20] https://www.linkedin.com/pulse/unveiling-ai-naming-bias-recruitment-deep-dive-across-paul-karrmann-f4wqf