Sesgo de la IA en Verificaciones de Antecedentes: Evitar la Discriminación bajo el Título VII y la ADA
- Sesgo de la IA en Verificaciones de Antecedentes: Evitar la Discriminación bajo el Título VII y la ADA
- Blog
- Errores en la Verificación de Antecedentes de Empleo
Sesgo de la IA en Verificaciones de Antecedentes: Evitar la Discriminación bajo el Título VII y la ADA

Sesgo de la IA en las Verificaciones de Antecedentes: Cómo las Herramientas Algorítmicas de Contratación Pueden Violar el Título VII y la ADA
La inteligencia artificial promete velocidad y escala en el reclutamiento. Pero los mismos sistemas automatizados de decisión que clasifican currículums, puntúan verificaciones de antecedentes o verifican identidades también pueden replicar prejuicios antiguos – o introducir nuevos – si se entrenan con datos sesgados o funcionan como “cajas negras” opacas. Eso no es solo un problema técnico; es un problema legal bajo el Título VII (trato y efecto dispar) y la ADA (evaluaciones relacionadas con discapacidades y accesibilidad). Departamento de la EEOC de Justicia
Cómo se infiltra el sesgo de la IA en la contratación y el filtrado
La IA aprende patrones de datos históricos. Si las decisiones pasadas fueron sesgadas – o si factores como el código postal, la escuela a la que asistió o las brechas laborales sustituyen a rasgos protegidos – el modelo puede puntuar a los candidatos de formas que excluyen desproporcionadamente a ciertos grupos. Estos riesgos se intensifican cuando los sistemas no son transparentes y son difíciles de auditar. La orientación de firmas legales y de reguladores enfatiza que los algoritmos “objetivos” aún pueden codificar sesgos humanos a gran escala. OgletreeEEOC
La literatura técnica respalda esto: las tecnologías de análisis facial y emparejamiento de rostros han mostrado brechas de rendimiento demográfico, con tasas más altas de falsos positivos/falsos negativos para algunas razas y géneros (y para niños y adultos mayores), lo que subraya la necesidad de una validación cuidadosa antes de usar tales herramientas en flujos de verificación de identidad o antecedentes. NISTPublicaciones de NISTMIT News
Mientras tanto, la adopción sigue aumentando. El informe de SHRM de 2024 muestra que los equipos de RR. HH. confían cada vez más en la IA en tareas de reclutamiento – incluyendo aproximadamente un tercio que utiliza IA para revisar o filtrar currículums – lo que amplifica los riesgos de cumplimiento. SHRM
El marco legal: Título VII, ADA y la FCRA cuando se involucran verificaciones de antecedentes
- Título VII se aplica plenamente a los “procedimientos de selección” algorítmicos. Si una herramienta (incluida la de un proveedor) causa un impacto dispar en un grupo protegido, el empleador puede ser responsable a menos que demuestre necesidad empresarial y ausencia de alternativas menos discriminatorias. La EEOC emitió asistencia técnica explicando cómo evaluar el impacto adverso en software y IA usados para la selección laboral. EEOC
- ADA: Los empleadores deben garantizar que las herramientas de IA no excluyan a solicitantes calificados con discapacidades y deben ofrecer adaptaciones razonables (ej., formatos alternativos o evaluaciones). El DOJ y la EEOC advirtieron conjuntamente en 2022 que la contratación habilitada por IA puede violar la ADA si perjudica a personas con discapacidades. Departamento de Justicia, ADA.gov
- FCRA: Cuando se usa IA en la verificación de antecedentes (puntuaciones de riesgo, índices de “idoneidad”, dosieres de intermediarios de datos), puede aplicarse la Fair Credit Reporting Act. Eso significa divulgación previa y consentimiento escrito, y antes de tomar una acción adversa, los empleadores deben proporcionar el informe y el Resumen de Derechos de la CFPB y dar al solicitante tiempo para responder. La CFPB también aclaró que los dosieres y puntuaciones algorítmicos usados en decisiones laborales son informes de consumidores sujetos a la FCRA. Consumer Financial Protection Bureau, Consumer Financial Protection Bureau
- Leyes locales/estatales: La Ley Local 144 de la ciudad de Nueva York exige auditorías de sesgo anuales y avisos a candidatos para las Herramientas Automatizadas de Decisión de Empleo. Iniciativas y normativas similares están surgiendo en otros lugares, con California avanzando en regulaciones sobre el uso de IA y sistemas automatizados de decisión por parte de empleadores. NYC.gov, Ogletree
La aplicación es real
El decreto de consentimiento de la EEOC de 2023 con iTutorGroup resolvió acusaciones de que el software de reclutamiento de la empresa rechazaba automáticamente a solicitantes de mayor edad – una prueba temprana de cómo la selección automatizada puede desencadenar responsabilidad por discriminación por edad. El acuerdo incluyó compensación monetaria y cambios prospectivos. Incluso cuando un caso se presenta bajo otros estatutos (como la ADEA), ilustra el mismo riesgo central: si su herramienta filtra por rasgos protegidos o proxies, usted asume las consecuencias. EEOC
Estudio de caso: verificación facial automatizada y desactivaciones
En 2024, Uber Eats UK pagó un acuerdo para resolver una demanda que alegaba que sus controles de inicio de sesión con reconocimiento facial marcaron erróneamente a un conductor negro, lo que llevó a la pérdida de acceso al trabajo. Reguladores e investigadores han documentado disparidades demográficas en el rendimiento del reconocimiento facial – una razón por la cual estos sistemas requieren pruebas más rigurosas, divulgaciones y revisión humana cuando se usan en procesos de empleo o verificación de antecedentes. Personnel Today, Equality and Human Rights Commission, NIST
Salvaguardias prácticas para empleadores (manténgalo simple – y documentado)
- Realizar auditorías periódicas de sesgo (previas al despliegue y en intervalos establecidos). Probar el impacto dispar en grupos legalmente protegidos; mantener los análisis y pasos de mitigación archivados. NYC exige auditorías independientes para muchas herramientas. NYC.gov
- Preferir criterios explicables/transparentes. Elija proveedores que ofrezcan entradas claras, lógica del modelo y herramientas de auditoría; evite “cajas negras” incontrolables. Ogletree
- Incluir revisión humana. No permita que una puntuación automatizada sea la última palabra. Capacite a los reclutadores sobre señales de alerta del Título VII/ADA y requiera revisiones humanas de segundo nivel antes de una acción adversa. EEOC
- Diseñar para la accesibilidad. Ofrezca evaluaciones e interfaces alternativas; publique rutas de adaptación desde el principio. ADA.gov
- Cumpla estrictamente la FCRA para cualquier resultado de IA relacionado con antecedentes: divulgación, consentimiento, notificación previa adversa, copia del informe y período de espera. Consumer Financial Protection Bureau
- ¿Planea implementar o ya está usando IA en reclutamiento o filtrado? Lo ayudamos con diseño de políticas, diligencia debida de proveedores, pruebas de sesgo, flujos de trabajo compatibles con la FCRA y cumplimiento multijurisdiccional (incluida la norma AEDT de NYC).
Qué pueden hacer los solicitantes de empleo
Si un sistema automatizado lo excluye, pida la documentación. Para decisiones relacionadas con antecedentes, la FCRA le otorga derecho al informe y al aviso de derechos de la CFPB antes de que el empleador tome una decisión final. Consumer Financial Protection Bureau


David Pinkhasov es Abogado Asociado de Consumer Attorneys. David está admitido en las Cortes del Estado de Nueva York y Florida. Leer más





Artículos relacionados






Usted no asume ningún gasto. La ley exige que ellos paguen.