Sesgo de la IA en Verificaciones de Antecedentes: Evitar la Discriminación bajo el Título VII y la ADA

Contáctenos
1
2
3
12 Sep, 2025
7 min
1
Un busto de una persona bajo una lupa sostenida por un brazo robótico contra el fondo de un grupo de personas diferentes | Consumer Attorneys PLLC

Sesgo de la IA en las Verificaciones de Antecedentes: Cómo las Herramientas Algorítmicas de Contratación Pueden Violar el Título VII y la ADA

La inteligencia artificial promete velocidad y escala en el reclutamiento. Pero los mismos sistemas automatizados de decisión que clasifican currículums, puntúan verificaciones de antecedentes o verifican identidades también pueden replicar prejuicios antiguos – o introducir nuevos – si se entrenan con datos sesgados o funcionan como “cajas negras” opacas. Eso no es solo un problema técnico; es un problema legal bajo el Título VII (trato y efecto dispar) y la ADA (evaluaciones relacionadas con discapacidades y accesibilidad). Departamento de la EEOC de Justicia

Cómo se infiltra el sesgo de la IA en la contratación y el filtrado

La IA aprende patrones de datos históricos. Si las decisiones pasadas fueron sesgadas – o si factores como el código postal, la escuela a la que asistió o las brechas laborales sustituyen a rasgos protegidos – el modelo puede puntuar a los candidatos de formas que excluyen desproporcionadamente a ciertos grupos. Estos riesgos se intensifican cuando los sistemas no son transparentes y son difíciles de auditar. La orientación de firmas legales y de reguladores enfatiza que los algoritmos “objetivos” aún pueden codificar sesgos humanos a gran escala. OgletreeEEOC

La literatura técnica respalda esto: las tecnologías de análisis facial y emparejamiento de rostros han mostrado brechas de rendimiento demográfico, con tasas más altas de falsos positivos/falsos negativos para algunas razas y géneros (y para niños y adultos mayores), lo que subraya la necesidad de una validación cuidadosa antes de usar tales herramientas en flujos de verificación de identidad o antecedentes. NISTPublicaciones de NISTMIT News

Mientras tanto, la adopción sigue aumentando. El informe de SHRM de 2024 muestra que los equipos de RR. HH. confían cada vez más en la IA en tareas de reclutamiento – incluyendo aproximadamente un tercio que utiliza IA para revisar o filtrar currículums – lo que amplifica los riesgos de cumplimiento. SHRM

El marco legal: Título VII, ADA y la FCRA cuando se involucran verificaciones de antecedentes

  • Título VII se aplica plenamente a los “procedimientos de selección” algorítmicos. Si una herramienta (incluida la de un proveedor) causa un impacto dispar en un grupo protegido, el empleador puede ser responsable a menos que demuestre necesidad empresarial y ausencia de alternativas menos discriminatorias. La EEOC emitió asistencia técnica explicando cómo evaluar el impacto adverso en software y IA usados para la selección laboral. EEOC
  • ADA: Los empleadores deben garantizar que las herramientas de IA no excluyan a solicitantes calificados con discapacidades y deben ofrecer adaptaciones razonables (ej., formatos alternativos o evaluaciones). El DOJ y la EEOC advirtieron conjuntamente en 2022 que la contratación habilitada por IA puede violar la ADA si perjudica a personas con discapacidades. Departamento de Justicia, ADA.gov
  • FCRA: Cuando se usa IA en la verificación de antecedentes (puntuaciones de riesgo, índices de “idoneidad”, dosieres de intermediarios de datos), puede aplicarse la Fair Credit Reporting Act. Eso significa divulgación previa y consentimiento escrito, y antes de tomar una acción adversa, los empleadores deben proporcionar el informe y el Resumen de Derechos de la CFPB y dar al solicitante tiempo para responder. La CFPB también aclaró que los dosieres y puntuaciones algorítmicos usados en decisiones laborales son informes de consumidores sujetos a la FCRA. Consumer Financial Protection Bureau, Consumer Financial Protection Bureau
  • Leyes locales/estatales: La Ley Local 144 de la ciudad de Nueva York exige auditorías de sesgo anuales y avisos a candidatos para las Herramientas Automatizadas de Decisión de Empleo. Iniciativas y normativas similares están surgiendo en otros lugares, con California avanzando en regulaciones sobre el uso de IA y sistemas automatizados de decisión por parte de empleadores. NYC.gov, Ogletree

La aplicación es real

El decreto de consentimiento de la EEOC de 2023 con iTutorGroup resolvió acusaciones de que el software de reclutamiento de la empresa rechazaba automáticamente a solicitantes de mayor edad – una prueba temprana de cómo la selección automatizada puede desencadenar responsabilidad por discriminación por edad. El acuerdo incluyó compensación monetaria y cambios prospectivos. Incluso cuando un caso se presenta bajo otros estatutos (como la ADEA), ilustra el mismo riesgo central: si su herramienta filtra por rasgos protegidos o proxies, usted asume las consecuencias. EEOC

Estudio de caso: verificación facial automatizada y desactivaciones

En 2024, Uber Eats UK pagó un acuerdo para resolver una demanda que alegaba que sus controles de inicio de sesión con reconocimiento facial marcaron erróneamente a un conductor negro, lo que llevó a la pérdida de acceso al trabajo. Reguladores e investigadores han documentado disparidades demográficas en el rendimiento del reconocimiento facial – una razón por la cual estos sistemas requieren pruebas más rigurosas, divulgaciones y revisión humana cuando se usan en procesos de empleo o verificación de antecedentes. Personnel Today, Equality and Human Rights Commission, NIST

Salvaguardias prácticas para empleadores (manténgalo simple – y documentado)

  • Realizar auditorías periódicas de sesgo (previas al despliegue y en intervalos establecidos). Probar el impacto dispar en grupos legalmente protegidos; mantener los análisis y pasos de mitigación archivados. NYC exige auditorías independientes para muchas herramientas. NYC.gov
  • Preferir criterios explicables/transparentes. Elija proveedores que ofrezcan entradas claras, lógica del modelo y herramientas de auditoría; evite “cajas negras” incontrolables. Ogletree
  • Incluir revisión humana. No permita que una puntuación automatizada sea la última palabra. Capacite a los reclutadores sobre señales de alerta del Título VII/ADA y requiera revisiones humanas de segundo nivel antes de una acción adversa. EEOC
  • Diseñar para la accesibilidad. Ofrezca evaluaciones e interfaces alternativas; publique rutas de adaptación desde el principio. ADA.gov
  • Cumpla estrictamente la FCRA para cualquier resultado de IA relacionado con antecedentes: divulgación, consentimiento, notificación previa adversa, copia del informe y período de espera. Consumer Financial Protection Bureau
  • ¿Planea implementar o ya está usando IA en reclutamiento o filtrado? Lo ayudamos con diseño de políticas, diligencia debida de proveedores, pruebas de sesgo, flujos de trabajo compatibles con la FCRA y cumplimiento multijurisdiccional (incluida la norma AEDT de NYC).

Qué pueden hacer los solicitantes de empleo

Si un sistema automatizado lo excluye, pida la documentación. Para decisiones relacionadas con antecedentes, la FCRA le otorga derecho al informe y al aviso de derechos de la CFPB antes de que el empleador tome una decisión final. Consumer Financial Protection Bureau

Cuándo contactar a ConsumerAttorneys.com
Cuando un error en una verificación de antecedentes se interponga entre usted y un empleo. Haremos valer sus derechos bajo las leyes de igualdad de oportunidades y la FCRA.
Consulta Gratis
imageAbogado Asociado David Pinkhasov
Acerca del Autor
David Pinkhasov
Ver más post

David Pinkhasov es Abogado Asociado de Consumer Attorneys. David está admitido en las Cortes del Estado de Nueva York y Florida. Leer más

Contáctenos
Seleccione tema
He leído y estoy de acuerdo con Política de privacidad
Formatos de archivo compatibles:
JUSTICIA CORRIGE ERRORES
Consulta Gratuita
Sin costos ni honorarios para usted.
Usted no asume ningún gasto. La ley exige que ellos paguen.
Iniciar
Contáctenos
Oficina Principal NY
68-29 Main Street, Flushing, NY 11367
Oficina
706 East Bell Rd., Suite 114, Phoenix, AZ 85022
Nuestras redes sociales
Nuestros servicios de calificación
TrustpilotBetter Business BureauGoogle Business