Sesgo de la IA en Verificaciones de Antecedentes: Evitar la Discriminación bajo el Título VII y la ADA

Contáctenos
1
2
3
12 Sep, 2025
7 min
78
Un busto de una persona bajo una lupa sostenida por un brazo robótico contra el fondo de un grupo de personas diferentes | Consumer Attorneys PLLC

Sesgo de la IA en las Verificaciones de Antecedentes: Cómo las Herramientas Algorítmicas de Contratación Pueden Violar el Título VII y la ADA

La inteligencia artificial promete velocidad y escala en el reclutamiento. Pero los mismos sistemas automatizados de decisión que clasifican currículums, puntúan verificaciones de antecedentes o verifican identidades también pueden replicar prejuicios antiguos – o introducir nuevos – si se entrenan con datos sesgados o funcionan como “cajas negras” opacas. Eso no es solo un problema técnico; es un problema legal bajo el Título VII (trato y efecto dispar) y la ADA (evaluaciones relacionadas con discapacidades y accesibilidad). Departamento de la EEOC de Justicia

Cómo se infiltra el sesgo de la IA en la contratación y el filtrado

La IA aprende patrones de datos históricos. Si las decisiones pasadas fueron sesgadas – o si factores como el código postal, la escuela a la que asistió o las brechas laborales sustituyen a rasgos protegidos – el modelo puede puntuar a los candidatos de formas que excluyen desproporcionadamente a ciertos grupos. Estos riesgos se intensifican cuando los sistemas no son transparentes y son difíciles de auditar. La orientación de firmas legales y de reguladores enfatiza que los algoritmos “objetivos” aún pueden codificar sesgos humanos a gran escala. OgletreeEEOC

La literatura técnica respalda esto: las tecnologías de análisis facial y emparejamiento de rostros han mostrado brechas de rendimiento demográfico, con tasas más altas de falsos positivos/falsos negativos para algunas razas y géneros (y para niños y adultos mayores), lo que subraya la necesidad de una validación cuidadosa antes de usar tales herramientas en flujos de verificación de identidad o antecedentes. NISTPublicaciones de NISTMIT News

Mientras tanto, la adopción sigue aumentando. El informe de SHRM de 2024 muestra que los equipos de RR. HH. confían cada vez más en la IA en tareas de reclutamiento – incluyendo aproximadamente un tercio que utiliza IA para revisar o filtrar currículums – lo que amplifica los riesgos de cumplimiento. SHRM

El marco legal: Título VII, ADA y la FCRA cuando se involucran verificaciones de antecedentes

  • Título VII se aplica plenamente a los “procedimientos de selección” algorítmicos. Si una herramienta (incluida la de un proveedor) causa un impacto dispar en un grupo protegido, el empleador puede ser responsable a menos que demuestre necesidad empresarial y ausencia de alternativas menos discriminatorias. La EEOC emitió asistencia técnica explicando cómo evaluar el impacto adverso en software y IA usados para la selección laboral. EEOC
  • ADA: Los empleadores deben garantizar que las herramientas de IA no excluyan a solicitantes calificados con discapacidades y deben ofrecer adaptaciones razonables (ej., formatos alternativos o evaluaciones). El DOJ y la EEOC advirtieron conjuntamente en 2022 que la contratación habilitada por IA puede violar la ADA si perjudica a personas con discapacidades. Departamento de Justicia, ADA.gov
  • FCRA: Cuando se usa IA en la verificación de antecedentes (puntuaciones de riesgo, índices de “idoneidad”, dosieres de intermediarios de datos), puede aplicarse la Fair Credit Reporting Act. Eso significa divulgación previa y consentimiento escrito, y antes de tomar una acción adversa, los empleadores deben proporcionar el informe y el Resumen de Derechos de la CFPB y dar al solicitante tiempo para responder. La CFPB también aclaró que los dosieres y puntuaciones algorítmicos usados en decisiones laborales son informes de consumidores sujetos a la FCRA. Consumer Financial Protection Bureau, Consumer Financial Protection Bureau
  • Leyes locales/estatales: La Ley Local 144 de la ciudad de Nueva York exige auditorías de sesgo anuales y avisos a candidatos para las Herramientas Automatizadas de Decisión de Empleo. Iniciativas y normativas similares están surgiendo en otros lugares, con California avanzando en regulaciones sobre el uso de IA y sistemas automatizados de decisión por parte de empleadores. NYC.gov, Ogletree

La aplicación es real

El decreto de consentimiento de la EEOC de 2023 con iTutorGroup resolvió acusaciones de que el software de reclutamiento de la empresa rechazaba automáticamente a solicitantes de mayor edad – una prueba temprana de cómo la selección automatizada puede desencadenar responsabilidad por discriminación por edad. El acuerdo incluyó compensación monetaria y cambios prospectivos. Incluso cuando un caso se presenta bajo otros estatutos (como la ADEA), ilustra el mismo riesgo central: si su herramienta filtra por rasgos protegidos o proxies, usted asume las consecuencias. EEOC

Estudio de caso: verificación facial automatizada y desactivaciones

En 2024, Uber Eats UK pagó un acuerdo para resolver una demanda que alegaba que sus controles de inicio de sesión con reconocimiento facial marcaron erróneamente a un conductor negro, lo que llevó a la pérdida de acceso al trabajo. Reguladores e investigadores han documentado disparidades demográficas en el rendimiento del reconocimiento facial – una razón por la cual estos sistemas requieren pruebas más rigurosas, divulgaciones y revisión humana cuando se usan en procesos de empleo o verificación de antecedentes. Personnel Today, Equality and Human Rights Commission, NIST

Salvaguardias prácticas para empleadores (manténgalo simple – y documentado)

  • Realizar auditorías periódicas de sesgo (previas al despliegue y en intervalos establecidos). Probar el impacto dispar en grupos legalmente protegidos; mantener los análisis y pasos de mitigación archivados. NYC exige auditorías independientes para muchas herramientas. NYC.gov
  • Preferir criterios explicables/transparentes. Elija proveedores que ofrezcan entradas claras, lógica del modelo y herramientas de auditoría; evite “cajas negras” incontrolables. Ogletree
  • Incluir revisión humana. No permita que una puntuación automatizada sea la última palabra. Capacite a los reclutadores sobre señales de alerta del Título VII/ADA y requiera revisiones humanas de segundo nivel antes de una acción adversa. EEOC
  • Diseñar para la accesibilidad. Ofrezca evaluaciones e interfaces alternativas; publique rutas de adaptación desde el principio. ADA.gov
  • Cumpla estrictamente la FCRA para cualquier resultado de IA relacionado con antecedentes: divulgación, consentimiento, notificación previa adversa, copia del informe y período de espera. Consumer Financial Protection Bureau
  • ¿Planea implementar o ya está usando IA en reclutamiento o filtrado? Lo ayudamos con diseño de políticas, diligencia debida de proveedores, pruebas de sesgo, flujos de trabajo compatibles con la FCRA y cumplimiento multijurisdiccional (incluida la norma AEDT de NYC).

Qué pueden hacer los solicitantes de empleo

Si un sistema automatizado lo excluye, pida la documentación. Para decisiones relacionadas con antecedentes, la FCRA le otorga derecho al informe y al aviso de derechos de la CFPB antes de que el empleador tome una decisión final. Consumer Financial Protection Bureau

Cuándo contactar a ConsumerAttorneys.com
Cuando un error en una verificación de antecedentes se interponga entre usted y un empleo. Haremos valer sus derechos bajo las leyes de igualdad de oportunidades y la FCRA.
Consulta Gratis
image
Abogado Asociado David Pinkhasov
Acerca del Autor
David Pinkhasov
Ver más post

David Pinkhasov es Abogado Asociado de Consumer Attorneys. David está admitido en las Cortes del Estado de Nueva York y Florida. Leer más

Contáctenos
Problemas con la verificación de antecedentes (Empleo)

View more subjects

He leído y estoy de acuerdo con Política de privacidad
Formatos de archivo compatibles:
Blog

Artículos relacionados

DoorDash repartidor revisando su teléfono móvil durante una verificación de antecedentes, con texto sobre cómo funciona el sistema, dónde falla y qué pueden hacer los conductores.
22 Ene, 2026
Daniel Cohen
Verificaciones de antecedentes de DoorDash: cómo funciona el sistema, dónde falla y qué puedes hacer al respecto
¿Te negaron, retrasaron o dejaron en “consider” tu verificación de antecedentes de DoorDash? Esta guía explica cómo funciona el proceso de evaluación, los errores que afectan a los conductores y los pasos exactos para corregir información incorrecta y volver a la carretera.
4
18 min
Verificación de antecedentes de Lyft explicada, mostrando a un conductor revisando su teléfono con información sobre elegibilidad, errores y próximos pasos.
22 Ene, 2026
Daniel Cohen
Verificaciones de antecedentes de Lyft explicadas: criterios de elegibilidad, errores y próximos pasos
¿Fue descalificado injustamente por Lyft? Descubra qué se considera realmente una descalificación en la verificación de antecedentes de Lyft, por qué ocurren errores y cómo impugnar una decisión incorrecta sin costos iniciales.
1036
3 min
Requisitos de verificación de antecedentes de Lyft explicados con conductor al volante y guía para corregir errores en el reporte.
16 Ene, 2026
Moshe Boroosan
Requisitos para la verificación de antecedentes de Lyft: qué se revisa y cómo corregir errores
Lyft revisa tu historial de manejo, antecedentes penales y datos de identidad, pero los errores en los procesos de verificación son comunes. Esta guía explica qué evalúa Lyft, por qué ocurren los errores y cómo corregir una verificación de antecedentes incorrecta sin costos de tu bolsillo.
1985
6 min
Herramienta de selección con inteligencia artificial analizando datos de una persona para fines de empleo.
15 Ene, 2026
David Pinkhasov
Cómo las herramientas de contratación con IA activan las obligaciones de la FCRA
¿Rechazado por una herramienta de contratación con IA? Es posible que tu currículum nunca haya sido visto por una persona. Descubre cómo el filtrado algorítmico activa las protecciones de la FCRA, qué significa la guía del CFPB de 2024 y cómo desafiar errores automatizados en verificaciones de antecedentes que cuestan empleos reales.
12
11 min
JUSTICIA CORRIGE
ERRO

R

ES
Consulta Gratuita
Sin costos ni honorarios para usted.
Usted no asume ningún gasto. La ley exige que ellos paguen.
Contact Our Team
Contáctenos
Nuestras redes sociales
Nuestros servicios de calificación
TrustpilotBetter Business BureauGoogle Business