Sesgo de la IA en Verificaciones de Antecedentes: Evitar la Discriminación bajo el Título VII y la ADA

  • Sesgo de la IA en Verificaciones de Antecedentes: Evitar la Discriminación bajo el Título VII y la ADA

Contáctenos
1
2
3
12 Sep, 2025
7 min
126
Un busto de una persona bajo una lupa sostenida por un brazo robótico contra el fondo de un grupo de personas diferentes | Consumer Attorneys PLLC

Sesgo de la IA en las Verificaciones de Antecedentes: Cómo las Herramientas Algorítmicas de Contratación Pueden Violar el Título VII y la ADA

La inteligencia artificial promete velocidad y escala en el reclutamiento. Pero los mismos sistemas automatizados de decisión que clasifican currículums, puntúan verificaciones de antecedentes o verifican identidades también pueden replicar prejuicios antiguos – o introducir nuevos – si se entrenan con datos sesgados o funcionan como “cajas negras” opacas. Eso no es solo un problema técnico; es un problema legal bajo el Título VII (trato y efecto dispar) y la ADA (evaluaciones relacionadas con discapacidades y accesibilidad). Departamento de la EEOC de Justicia

Cómo se infiltra el sesgo de la IA en la contratación y el filtrado

La IA aprende patrones de datos históricos. Si las decisiones pasadas fueron sesgadas – o si factores como el código postal, la escuela a la que asistió o las brechas laborales sustituyen a rasgos protegidos – el modelo puede puntuar a los candidatos de formas que excluyen desproporcionadamente a ciertos grupos. Estos riesgos se intensifican cuando los sistemas no son transparentes y son difíciles de auditar. La orientación de firmas legales y de reguladores enfatiza que los algoritmos “objetivos” aún pueden codificar sesgos humanos a gran escala. OgletreeEEOC

La literatura técnica respalda esto: las tecnologías de análisis facial y emparejamiento de rostros han mostrado brechas de rendimiento demográfico, con tasas más altas de falsos positivos/falsos negativos para algunas razas y géneros (y para niños y adultos mayores), lo que subraya la necesidad de una validación cuidadosa antes de usar tales herramientas en flujos de verificación de identidad o antecedentes. NISTPublicaciones de NISTMIT News

Mientras tanto, la adopción sigue aumentando. El informe de SHRM de 2024 muestra que los equipos de RR. HH. confían cada vez más en la IA en tareas de reclutamiento – incluyendo aproximadamente un tercio que utiliza IA para revisar o filtrar currículums – lo que amplifica los riesgos de cumplimiento. SHRM

El marco legal: Título VII, ADA y la FCRA cuando se involucran verificaciones de antecedentes

  • Título VII se aplica plenamente a los “procedimientos de selección” algorítmicos. Si una herramienta (incluida la de un proveedor) causa un impacto dispar en un grupo protegido, el empleador puede ser responsable a menos que demuestre necesidad empresarial y ausencia de alternativas menos discriminatorias. La EEOC emitió asistencia técnica explicando cómo evaluar el impacto adverso en software y IA usados para la selección laboral. EEOC
  • ADA: Los empleadores deben garantizar que las herramientas de IA no excluyan a solicitantes calificados con discapacidades y deben ofrecer adaptaciones razonables (ej., formatos alternativos o evaluaciones). El DOJ y la EEOC advirtieron conjuntamente en 2022 que la contratación habilitada por IA puede violar la ADA si perjudica a personas con discapacidades. Departamento de Justicia, ADA.gov
  • FCRA: Cuando se usa IA en la verificación de antecedentes (puntuaciones de riesgo, índices de “idoneidad”, dosieres de intermediarios de datos), puede aplicarse la Fair Credit Reporting Act. Eso significa divulgación previa y consentimiento escrito, y antes de tomar una acción adversa, los empleadores deben proporcionar el informe y el Resumen de Derechos de la CFPB y dar al solicitante tiempo para responder. La CFPB también aclaró que los dosieres y puntuaciones algorítmicos usados en decisiones laborales son informes de consumidores sujetos a la FCRA. Consumer Financial Protection Bureau, Consumer Financial Protection Bureau
  • Leyes locales/estatales: La Ley Local 144 de la ciudad de Nueva York exige auditorías de sesgo anuales y avisos a candidatos para las Herramientas Automatizadas de Decisión de Empleo. Iniciativas y normativas similares están surgiendo en otros lugares, con California avanzando en regulaciones sobre el uso de IA y sistemas automatizados de decisión por parte de empleadores. NYC.gov, Ogletree

La aplicación es real

El decreto de consentimiento de la EEOC de 2023 con iTutorGroup resolvió acusaciones de que el software de reclutamiento de la empresa rechazaba automáticamente a solicitantes de mayor edad – una prueba temprana de cómo la selección automatizada puede desencadenar responsabilidad por discriminación por edad. El acuerdo incluyó compensación monetaria y cambios prospectivos. Incluso cuando un caso se presenta bajo otros estatutos (como la ADEA), ilustra el mismo riesgo central: si su herramienta filtra por rasgos protegidos o proxies, usted asume las consecuencias. EEOC

Estudio de caso: verificación facial automatizada y desactivaciones

En 2024, Uber Eats UK pagó un acuerdo para resolver una demanda que alegaba que sus controles de inicio de sesión con reconocimiento facial marcaron erróneamente a un conductor negro, lo que llevó a la pérdida de acceso al trabajo. Reguladores e investigadores han documentado disparidades demográficas en el rendimiento del reconocimiento facial – una razón por la cual estos sistemas requieren pruebas más rigurosas, divulgaciones y revisión humana cuando se usan en procesos de empleo o verificación de antecedentes. Personnel Today, Equality and Human Rights Commission, NIST

Salvaguardias prácticas para empleadores (manténgalo simple – y documentado)

  • Realizar auditorías periódicas de sesgo (previas al despliegue y en intervalos establecidos). Probar el impacto dispar en grupos legalmente protegidos; mantener los análisis y pasos de mitigación archivados. NYC exige auditorías independientes para muchas herramientas. NYC.gov
  • Preferir criterios explicables/transparentes. Elija proveedores que ofrezcan entradas claras, lógica del modelo y herramientas de auditoría; evite “cajas negras” incontrolables. Ogletree
  • Incluir revisión humana. No permita que una puntuación automatizada sea la última palabra. Capacite a los reclutadores sobre señales de alerta del Título VII/ADA y requiera revisiones humanas de segundo nivel antes de una acción adversa. EEOC
  • Diseñar para la accesibilidad. Ofrezca evaluaciones e interfaces alternativas; publique rutas de adaptación desde el principio. ADA.gov
  • Cumpla estrictamente la FCRA para cualquier resultado de IA relacionado con antecedentes: divulgación, consentimiento, notificación previa adversa, copia del informe y período de espera. Consumer Financial Protection Bureau
  • ¿Planea implementar o ya está usando IA en reclutamiento o filtrado? Lo ayudamos con diseño de políticas, diligencia debida de proveedores, pruebas de sesgo, flujos de trabajo compatibles con la FCRA y cumplimiento multijurisdiccional (incluida la norma AEDT de NYC).

Qué pueden hacer los solicitantes de empleo

Si un sistema automatizado lo excluye, pida la documentación. Para decisiones relacionadas con antecedentes, la FCRA le otorga derecho al informe y al aviso de derechos de la CFPB antes de que el empleador tome una decisión final. Consumer Financial Protection Bureau

Cuándo contactar a ConsumerAttorneys.com
Cuando un error en una verificación de antecedentes se interponga entre usted y un empleo. Haremos valer sus derechos bajo las leyes de igualdad de oportunidades y la FCRA.
Consulta Gratis
image
Abogado Asociado David Pinkhasov
Acerca del Autor
David Pinkhasov
Ver más post

David Pinkhasov es Abogado Asociado de Consumer Attorneys. David está admitido en las Cortes del Estado de Nueva York y Florida. Leer más

Contáctenos
Problemas con la verificación de antecedentes (Empleo)

View more subjects

He leído y estoy de acuerdo con Política de privacidad
Formatos de archivo compatibles:
Blog

Artículos relacionados

Error en la verificación de antecedentes de Amazon
28 Abr, 2026
Daniel Cohen
Atrapado por los datos: cómo corregir un error en la verificación de antecedentes de Amazon y recuperar tu empleo
Si los errores en tu verificación de antecedentes de Amazon causaron una negación de empleo, descubre por qué y cómo obtener ayuda hoy mismo.
3200
12 min
mujer sentada en la computadora portátil en su oficina
27 Abr, 2026
Daniel Cohen
Cómo disputar errores de Accurate Background LLC y emprender acciones legales bajo la FCRA
Pasaste la entrevista. Recibiste la oferta. Recursos Humanos te envió los documentos para la verificación de antecedentes y los firmaste sin pensarlo dos veces, porque ¿por qué no lo harías? Luego algo cambió. Recursos Humanos se volvió silencioso. O retiraron la oferta. O alguien de RR. HH. te envió una nota educada diciendo que la empresa “decidió seguir en otra dirección”, y tú estás tratando de entender qué pasó.
1585
9 min
Un hombre triste se sienta a la mesa con la cabeza entre las manos
24 Abr, 2026
Daniel Cohen
Denegado por errores de SafeRent Solutions
Solicitaste un departamento. Hiciste todo correctamente. Y luego recibiste una carta de rechazo basada en un informe de evaluación de inquilinos de un tercero, sin una explicación real de qué salió mal. No es una situación rara. Pasa constantemente, y el sistema está diseñado de manera que dificulta que los solicitantes entiendan qué es lo que realmente están enfrentando. SafeRent Solutions es una de las compañías de evaluación de inquilinos más grandes del país. Cuando el informe de SafeRent contiene errores - y los errores son comunes - las consecuencias pueden seguirte de una solicitud a otra, hasta que sepas qué buscar y cómo responder.
1804
13 min
DoorDash repartidor revisando su teléfono móvil durante una verificación de antecedentes, con texto sobre cómo funciona el sistema, dónde falla y qué pueden hacer los conductores.
14 Abr, 2026
Daniel Cohen
Verificaciones de antecedentes de DoorDash: cómo funciona el sistema, dónde falla y qué puedes hacer al respecto
¿Te negaron, retrasaron o dejaron en “consider” tu verificación de antecedentes de DoorDash? Esta guía explica cómo funciona el proceso de evaluación, los errores que afectan a los conductores y los pasos exactos para corregir información incorrecta y volver a la carretera.
58
18 min
JUSTICIA CORRIGE
ERRO

R

ES
Consulta Gratuita
Sin costos ni honorarios para usted.
Usted no asume ningún gasto. La ley exige que ellos paguen.
Contacte con nosotros
Contáctenos
Oficina Principal NY
68-29 Main Street, Flushing, NY 11367
Oficina
706 East Bell Rd., Suite 114, Phoenix, AZ 85022
Oficina Bldg A, Ste D
2800 N. Druid Hills Rd, Bldg A, Ste D, Atlanta, GA 30329
Nuestras redes sociales
Nuestros servicios de calificación
TrustpilotBetter Business BureauGoogle Business