Sesgo de la IA en Verificaciones de Antecedentes: Evitar la Discriminación bajo el Título VII y la ADA

  • Sesgo de la IA en Verificaciones de Antecedentes: Evitar la Discriminación bajo el Título VII y la ADA

Contáctenos
1
2
3
12 Sep, 2025
7 min
106
Un busto de una persona bajo una lupa sostenida por un brazo robótico contra el fondo de un grupo de personas diferentes | Consumer Attorneys PLLC

Sesgo de la IA en las Verificaciones de Antecedentes: Cómo las Herramientas Algorítmicas de Contratación Pueden Violar el Título VII y la ADA

La inteligencia artificial promete velocidad y escala en el reclutamiento. Pero los mismos sistemas automatizados de decisión que clasifican currículums, puntúan verificaciones de antecedentes o verifican identidades también pueden replicar prejuicios antiguos – o introducir nuevos – si se entrenan con datos sesgados o funcionan como “cajas negras” opacas. Eso no es solo un problema técnico; es un problema legal bajo el Título VII (trato y efecto dispar) y la ADA (evaluaciones relacionadas con discapacidades y accesibilidad). Departamento de la EEOC de Justicia

Cómo se infiltra el sesgo de la IA en la contratación y el filtrado

La IA aprende patrones de datos históricos. Si las decisiones pasadas fueron sesgadas – o si factores como el código postal, la escuela a la que asistió o las brechas laborales sustituyen a rasgos protegidos – el modelo puede puntuar a los candidatos de formas que excluyen desproporcionadamente a ciertos grupos. Estos riesgos se intensifican cuando los sistemas no son transparentes y son difíciles de auditar. La orientación de firmas legales y de reguladores enfatiza que los algoritmos “objetivos” aún pueden codificar sesgos humanos a gran escala. OgletreeEEOC

La literatura técnica respalda esto: las tecnologías de análisis facial y emparejamiento de rostros han mostrado brechas de rendimiento demográfico, con tasas más altas de falsos positivos/falsos negativos para algunas razas y géneros (y para niños y adultos mayores), lo que subraya la necesidad de una validación cuidadosa antes de usar tales herramientas en flujos de verificación de identidad o antecedentes. NISTPublicaciones de NISTMIT News

Mientras tanto, la adopción sigue aumentando. El informe de SHRM de 2024 muestra que los equipos de RR. HH. confían cada vez más en la IA en tareas de reclutamiento – incluyendo aproximadamente un tercio que utiliza IA para revisar o filtrar currículums – lo que amplifica los riesgos de cumplimiento. SHRM

El marco legal: Título VII, ADA y la FCRA cuando se involucran verificaciones de antecedentes

  • Título VII se aplica plenamente a los “procedimientos de selección” algorítmicos. Si una herramienta (incluida la de un proveedor) causa un impacto dispar en un grupo protegido, el empleador puede ser responsable a menos que demuestre necesidad empresarial y ausencia de alternativas menos discriminatorias. La EEOC emitió asistencia técnica explicando cómo evaluar el impacto adverso en software y IA usados para la selección laboral. EEOC
  • ADA: Los empleadores deben garantizar que las herramientas de IA no excluyan a solicitantes calificados con discapacidades y deben ofrecer adaptaciones razonables (ej., formatos alternativos o evaluaciones). El DOJ y la EEOC advirtieron conjuntamente en 2022 que la contratación habilitada por IA puede violar la ADA si perjudica a personas con discapacidades. Departamento de Justicia, ADA.gov
  • FCRA: Cuando se usa IA en la verificación de antecedentes (puntuaciones de riesgo, índices de “idoneidad”, dosieres de intermediarios de datos), puede aplicarse la Fair Credit Reporting Act. Eso significa divulgación previa y consentimiento escrito, y antes de tomar una acción adversa, los empleadores deben proporcionar el informe y el Resumen de Derechos de la CFPB y dar al solicitante tiempo para responder. La CFPB también aclaró que los dosieres y puntuaciones algorítmicos usados en decisiones laborales son informes de consumidores sujetos a la FCRA. Consumer Financial Protection Bureau, Consumer Financial Protection Bureau
  • Leyes locales/estatales: La Ley Local 144 de la ciudad de Nueva York exige auditorías de sesgo anuales y avisos a candidatos para las Herramientas Automatizadas de Decisión de Empleo. Iniciativas y normativas similares están surgiendo en otros lugares, con California avanzando en regulaciones sobre el uso de IA y sistemas automatizados de decisión por parte de empleadores. NYC.gov, Ogletree

La aplicación es real

El decreto de consentimiento de la EEOC de 2023 con iTutorGroup resolvió acusaciones de que el software de reclutamiento de la empresa rechazaba automáticamente a solicitantes de mayor edad – una prueba temprana de cómo la selección automatizada puede desencadenar responsabilidad por discriminación por edad. El acuerdo incluyó compensación monetaria y cambios prospectivos. Incluso cuando un caso se presenta bajo otros estatutos (como la ADEA), ilustra el mismo riesgo central: si su herramienta filtra por rasgos protegidos o proxies, usted asume las consecuencias. EEOC

Estudio de caso: verificación facial automatizada y desactivaciones

En 2024, Uber Eats UK pagó un acuerdo para resolver una demanda que alegaba que sus controles de inicio de sesión con reconocimiento facial marcaron erróneamente a un conductor negro, lo que llevó a la pérdida de acceso al trabajo. Reguladores e investigadores han documentado disparidades demográficas en el rendimiento del reconocimiento facial – una razón por la cual estos sistemas requieren pruebas más rigurosas, divulgaciones y revisión humana cuando se usan en procesos de empleo o verificación de antecedentes. Personnel Today, Equality and Human Rights Commission, NIST

Salvaguardias prácticas para empleadores (manténgalo simple – y documentado)

  • Realizar auditorías periódicas de sesgo (previas al despliegue y en intervalos establecidos). Probar el impacto dispar en grupos legalmente protegidos; mantener los análisis y pasos de mitigación archivados. NYC exige auditorías independientes para muchas herramientas. NYC.gov
  • Preferir criterios explicables/transparentes. Elija proveedores que ofrezcan entradas claras, lógica del modelo y herramientas de auditoría; evite “cajas negras” incontrolables. Ogletree
  • Incluir revisión humana. No permita que una puntuación automatizada sea la última palabra. Capacite a los reclutadores sobre señales de alerta del Título VII/ADA y requiera revisiones humanas de segundo nivel antes de una acción adversa. EEOC
  • Diseñar para la accesibilidad. Ofrezca evaluaciones e interfaces alternativas; publique rutas de adaptación desde el principio. ADA.gov
  • Cumpla estrictamente la FCRA para cualquier resultado de IA relacionado con antecedentes: divulgación, consentimiento, notificación previa adversa, copia del informe y período de espera. Consumer Financial Protection Bureau
  • ¿Planea implementar o ya está usando IA en reclutamiento o filtrado? Lo ayudamos con diseño de políticas, diligencia debida de proveedores, pruebas de sesgo, flujos de trabajo compatibles con la FCRA y cumplimiento multijurisdiccional (incluida la norma AEDT de NYC).

Qué pueden hacer los solicitantes de empleo

Si un sistema automatizado lo excluye, pida la documentación. Para decisiones relacionadas con antecedentes, la FCRA le otorga derecho al informe y al aviso de derechos de la CFPB antes de que el empleador tome una decisión final. Consumer Financial Protection Bureau

Cuándo contactar a ConsumerAttorneys.com
Cuando un error en una verificación de antecedentes se interponga entre usted y un empleo. Haremos valer sus derechos bajo las leyes de igualdad de oportunidades y la FCRA.
Consulta Gratis
image
Abogado Asociado David Pinkhasov
Acerca del Autor
David Pinkhasov
Ver más post

David Pinkhasov es Abogado Asociado de Consumer Attorneys. David está admitido en las Cortes del Estado de Nueva York y Florida. Leer más

Contáctenos
Problemas con la verificación de antecedentes (Empleo)

View more subjects

He leído y estoy de acuerdo con Política de privacidad
Formatos de archivo compatibles:
Blog

Artículos relacionados

Errores en la Verificación de Antecedentes de Walmart: Descalificaciones, Retrasos y tus Derechos bajo la FCRA
27 Feb, 2026
Daniel Cohen
¿Rechazado tras una Verificación de Antecedentes de Walmart? Qué salió mal y qué exige la FCRA
Walmart realiza verificaciones de antecedentes a solicitantes en EE. UU. La mayoría salen limpias. Algunas salen mal. Cuando un informe te confunde con otra persona, muestra un caso expurgado o presenta un cargo desestimado como si siguiera abierto, puedes perder un trabajo que ya ganaste. La ley federal está diseñada para evitar exactamente eso. Aquí te explicamos cómo funciona el proceso, qué se marca con frecuencia, los errores más comunes y qué exige la Fair Credit Reporting Act (FCRA) antes de que Walmart pueda negarte empleo basándose en un informe.
1576
6 min
¿Cuenta de Lyft desactivada por verificación de antecedentes? Conoce tus derechos
27 Feb, 2026
Daniel Cohen
Cómo recuperar su cuenta de Lyft después de un error en la verificación de antecedentes
Una desactivación injusta en Lyft puede quitarte ingresos de la noche a la mañana. Así puedes impugnar errores en la verificación de antecedentes y proteger tus derechos.
4988
5 min
Empleo en USPS rechazado tras verificación de antecedentes de GIS o HireRight — conozca sus derechos bajo la FCRA ante errores en informes de empleo.
27 Feb, 2026
Daniel Cohen
Denegaron su empleo en el USPS después de una verificación de antecedentes de GIS o HireRight? Conozca sus derechos bajo la FCRA
Las verificaciones de antecedentes de USPS incluyen varias capas de evaluación, entre ellas GIS y HireRight. Este artículo explica cómo se producen los errores, por qué se rechaza a candidatos calificados y qué exige la ley federal cuando un reporte inexacto bloquea el empleo.
3514
3 min
Disputa y Demanda por Verificación de Antecedentes de Turn Technologies
27 Feb, 2026
Daniel Cohen
Turn Technologies Background Check Dispute: Cómo corregir errores y demandar si es necesario
Si tu verificación de Turn Technologies contiene errores y tu estado cambió sin explicación, puedes tener derechos bajo la ley federal. Esta guía explica cómo disputar y cuándo considerar acción legal.
0
9 min
JUSTICIA CORRIGE
ERRO

R

ES
Consulta Gratuita
Sin costos ni honorarios para usted.
Usted no asume ningún gasto. La ley exige que ellos paguen.
Contact Our Team
Contáctenos
Nuestras redes sociales
Nuestros servicios de calificación
TrustpilotBetter Business BureauGoogle Business