Inteligencia Artificial para Contratar Trabajadores
Este artículo es una profundización de la información sobre derecho laboral o del trabajo, en esta revista de derecho empresarial. Aparte de ofrecer nuevas ideas y consejos clásicos, examina el concepto y los conocimientos necesarios, en el marco del derecho del trabajo, sobre este tema. Basado en la experiencia de varios autores, nuestras opiniones y recomendaciones se expresarán a continuación (o en otros artículos de esta revista, en cuanto al derecho laboral o del trabajo, y respecto a sus características y/o su futuro): Te explicamos, en relación a la seguridad social y el derecho laboral, qué es, sus características y contexto. Nota: puede ser de interés la información sobre los riesgos de la inteligencia artificial.
Nunca te pierdas una historia sobre derecho del trabajo y relaciones laborales, de esta revista de derecho empresarial:
Riesgos Legales del Uso de la Inteligencia Artificial para Contratar Trabajadores
Las innovaciones y los avances digitales en la IA han dado lugar a una serie de herramientas novedosas de identificación y evaluación de talentos. Muchas de estas tecnologías prometen ayudar a las organizaciones a mejorar su capacidad para encontrar a la persona adecuada para el trabajo correcto, y eliminar a las personas equivocadas para los trabajos equivocados, más rápido y más barato que nunca. Estas herramientas ponen un poder sin precedentes en manos de las organizaciones para tomar decisiones sobre el capital humano basadas en datos. También tienen el potencial de democratizar la retroalimentación, brindando a millones de candidatos a un puesto de trabajo información basada en datos sobre sus fortalezas, necesidades de desarrollo, y su potencial carrera y adaptación organizacional.
En particular, hemos visto el rápido crecimiento (y la correspondiente inversión de capital de riesgo) en evaluaciones basadas en juegos, bots para raspar publicaciones en medios sociales, análisis lingüístico de las muestras de escritura (su redacción) de los candidatos y entrevistas en video que utilizan algoritmos para analizar el contenido del discurso, el tono de voz, los estados emocionales, los comportamientos no verbales y las pistas temperamentales. Si bien estas nuevas herramientas están perturbando el espacio de reclutamiento y evaluación, dejan muchas preguntas sin respuesta sobre su exactitud y las implicaciones éticas, legales y de privacidad que introducen. Esto es especialmente cierto cuando se compara con evaluaciones psicométricas más antiguas como el NEO-PI-R, The Wonderlic Test, el Ravens Progressive Matrices test o el Hogan Personality Inventory, que han sido científicamente derivadas y cuidadosamente validadas en relación con los puestos de trabajo relevantes, identificando asociaciones fiables entre las puntuaciones de los candidatos y su posterior rendimiento (véase una definición en el diccionario y más detalles, en la plataforma general, sobre rendimientos) laboral (publicando las pruebas en revistas independientes, fiables y académicas). Recientemente, incluso ha habido interés y preocupación en el Senado de los Estados Unidos acerca de si las nuevas tecnologías (específicamente, las tecnologías de análisis facial) podrían tener implicaciones negativas para la igualdad de oportunidades entre los candidatos a un puesto de trabajo.
En este artículo, nos centramos en las repercusiones potenciales de las nuevas tecnologías en la privacidad de los candidatos a un puesto de trabajo, así como en las implicaciones para la protección de los candidatos en virtud de la Ley de Estadounidenses con Discapacidades y otras leyes laborales federales y estatales. Los empleadores reconocen que no pueden o no deben preguntar a los candidatos sobre su situación familiar u orientación política, o si están embarazadas, heterosexuales, homosexuales, tristes, solas, deprimidas, con enfermedades físicas o mentales, bebiendo demasiado, abusando de drogas o durmiendo muy poco.
Sin embargo, es posible que las nuevas tecnologías ya sean capaces de discernir muchos de estos factores indirectamente y sin el consentimiento adecuado (o incluso sin él). Antes de ahondar en las ambigüedades actuales del nuevo y valiente mundo de la valoración y evaluación de los candidatos a un puesto de trabajo, es útil echar un vistazo al pasado.
Las evaluaciones psicométricas se han utilizado durante más de 100 años y se han generalizado como resultado de la utilización del Alfa del Ejército de los Estados Unidos, que clasificó a los reclutas en categorías y determinó su probabilidad de tener éxito en diversas funciones. Basado en la experiencia de varios autores, nuestras opiniones y recomendaciones se expresarán a continuación (o en otros artículos de esta revista, en cuanto al derecho laboral o del trabajo, y respecto a sus características y/o su futuro): Tradicionalmente, la psicometría se dividía en tres grandes categorías: capacidad cognitiva o inteligencia, personalidad o temperamento, y salud mental o diagnóstico clínico. Desde la adopción de la Ley de Estadounidenses con Discapacidades (ADA, por sus siglas en inglés) en 1990, generalmente se prohíbe a los empleadores indagar y/o usar la discapacidad física, la salud mental o el diagnóstico clínico como un factor en las evaluaciones de los candidatos antes del empleo, y las compañías que lo han hecho han sido demandadas y censuradas.
En esencia, se ha determinado que las discapacidades -ya sean físicas o mentales- son información "privada" que los empleadores no pueden consultar en la etapa previa al empleo, del mismo modo que los empleadores no deben hacer preguntas intrusivas a los solicitantes sobre sus vidas privadas, y no pueden tener en cuenta la información demográfica privada al tomar decisiones de contratación. Desafortunadamente, hay mucha menos información sobre la nueva generación de herramientas de talento que se utilizan cada vez más en la evaluación previa a la contratación.
Muchas de estas herramientas han surgido como innovaciones tecnológicas, más que como métodos o programas de investigación científicamente derivados. Como resultado, no siempre está claro qué es lo que evalúan, si sus hipótesis subyacentes son válidas o por qué se espera que prediquen el desempeño de los candidatos a un puesto de trabajo.
Por ejemplo, las propiedades físicas del habla y la voz humana -que durante mucho tiempo se han asociado (véase qué es, su concepto jurídico; y también su definición como "associate" en derecho anglo-sajón, en inglés) a elementos de la personalidad- se han vinculado a diferencias individuales en el rendimiento (véase una definición en el diccionario y más detalles, en la plataforma general, sobre rendimientos) laboral.
Si una herramienta muestra una preferencia por patrones de habla tales como una cadencia o tono vocal consistente o un tono de voz "amistoso" que no tienen un impacto adverso sobre los candidatos a un empleo en un grupo legalmente protegido, entonces no hay ningún problema legal; pero estas herramientas pueden no haber sido validadas científicamente y, por lo tanto, no están controlando el potencial impacto adverso discriminatorio - lo que significa que el empleador puede incurrir en responsabilidad por cualquier dependencia ciega. Además, todavía no existen hipótesis convincentes o conclusiones defendibles sobre si sería ético descartar a las personas basándose en sus voces, que son atributos personales fisiológicamente determinados, en gran medida inalterables. Asimismo, se ha descubierto que la actividad de los medios sociales -por ejemplo, el uso de Facebook o Twitter- refleja la inteligencia y la personalidad de las personas, incluyendo sus rasgos del lado oscuro. Pero, ¿es ético extraer estos datos para fines de contratación cuando los usuarios generalmente han utilizado dichas aplicaciones para diferentes fines y es posible que no hayan dado su consentimiento para el análisis de datos a fin de extraer conclusiones privadas de sus publicaciones públicas? Cuando se utilizan en el contexto de la contratación, las nuevas tecnologías plantean una serie de nuevas cuestiones éticas y jurídicas en torno a la privacidad, que creemos que deberían ser debatidas y debatidas públicamente, a saber: 1) ¿A qué tentaciones se enfrentarán las empresas en cuanto a la privacidad de los candidatos en relación con sus atributos personales? A medida que la tecnología avance, los grandes datos y la IA seguirán siendo capaces de determinar variables "proxy" para atributos personales privados con mayor precisión.
Hoy, por ejemplo, los "gustos" de Facebook pueden ser utilizados para inferir la orientación sexual y la raza con considerable precisión.
La afiliación política y las creencias religiosas son igualmente fáciles de identificar. ¿Podrían las compañías estar tentadas a usar herramientas como éstas para seleccionar a los candidatos, creyendo que debido a que las decisiones no se toman directamente en base a características protegidas, no son legalmente procesables? Mientras que un empleador no puede violar ninguna ley al meramente discernir la información personal de un solicitante, la compañía puede volverse vulnerable a la exposición legal si toma decisiones laborales adversas basándose en cualquier categoría protegida, como el lugar de nacimiento, la raza o el idioma nativo, o basada en información privada que no tiene derecho a considerar, como una posible enfermedad física o una enfermedad mental. La forma en que los tribunales manejarán las situaciones en las que los empleadores han confiado en herramientas que utilizan estas variables indirectas no está clara, pero el hecho es que es ilegal tomar una acción adversa basada en ciertas características protegidas o privadas, sin importar cómo se aprendieron o se dedujeron. Esto también podría aplicarse al software de reconocimiento facial, ya que una investigación reciente predice que la IA de lectura facial pronto podrá discernir con un alto grado de precisión la orientación sexual y política de los candidatos, así como los "estados internos" como el estado de ánimo o la emoción.
¿Cómo podría cambiar la aplicación de la Ley de Estadounidenses con Discapacidades? Además, la Ley de Protección contra el Polígrafo de los Empleados generalmente prohíbe a los empleadores el uso de pruebas de detección de mentiras como herramienta de evaluación previa al empleo y la Ley de No Discriminación de Información Genética prohíbe a los empleadores el uso de información genética en las decisiones de empleo. Pero, ¿qué pasa si el mismo tipo de información sobre la verdad, las mentiras o los atributos genéticos pueden ser determinados por las herramientas tecnológicas antes mencionadas? 2) ¿A qué tentaciones se enfrentarán las empresas en cuanto a la privacidad de los candidatos en relación con el estilo de vida y las actividades? Los empleadores ahora pueden acceder a información como el "registro de entrada" en línea de una candidata a su iglesia todos los domingos por la mañana, la revisión por parte de otra candidata de la instalación de cuidado de la demencia en la que ha ingresado a su padre o madre anciano, y la presentación de la solicitud de divorcio de una tercera persona ante un tribunal civil. Todas estas cosas, y muchas más, son fáciles de descubrir en la era digital. Los grandes datos nos siguen a todas partes donde vamos en línea y recopilan y reúnen información que puede ser cortada y cortada por herramientas que aún no podemos imaginar, herramientas que posiblemente podrían informar a los futuros empleadores acerca de nuestra aptitud (o falta de ella) para ciertas funciones. Y los grandes datos solo van a crecer; según los expertos, el 90% de los datos en el mundo se generaron solo en los últimos dos años. Con la expansión de los datos viene la expansión potencial para el uso indebido y la discriminación resultante, ya sea deliberada o involuntaria. A diferencia de la UE, que ha armonizado su enfoque de la privacidad bajo el Reglamento General de Protección de Datos (GDPR), los EE.UU.
Se basan en un enfoque desigual de la privacidad impulsado en gran medida por la ley estatal. Con respecto a los medios de comunicación social, específicamente, los estados comenzaron a introducir legislación en 2012 para evitar que los empleadores soliciten contraseñas a cuentas personales de Internet como condición de empleo. Más de veinte estados han promulgado este tipo de leyes que se aplican a los empleadores. Sin embargo, en términos de privacidad general en el uso de las nuevas tecnologías en el lugar de trabajo, ha habido menos orientación o acción específica.
En particular, en California se ha aprobado una legislación que potencialmente limitará el uso de datos de candidatos o empleados por parte de los empleadores.
En general, los tribunales estatales y federales aún no han adoptado un marco unificado para analizar la privacidad de los empleados en relación con las nuevas tecnologías. La conclusión es que, al menos por ahora, la privacidad de los empleados en la era de los grandes datos sigue sin resolverse. Esto pone a los empleadores en una posición conflictiva que requiere cautela: Se dispone de tecnología de vanguardia que puede ser extremadamente útil.Si, Pero: Pero le está dando información que antes se consideraba privada. ¿Es legal su uso en un contexto de contratación? ¿Y es ético considerar si el candidato no dio su consentimiento? 3) ¿A qué tentaciones se enfrentarán las empresas en cuanto a la privacidad de los candidatos en relación con las discapacidades? La Ley de Estadounidenses con Discapacidades (Americans with Disabilities Act) pone las discapacidades mentales directamente en su ámbito, junto con las discapacidades físicas, y define a un individuo como discapacitado si el impedimento limita sustancialmente una actividad importante de la vida, si la persona tiene un historial de dicho impedimento, o si se percibe que la persona tiene dicho impedimento. Hace aproximadamente una década, la Comisión para la Igualdad de Oportunidades en el Empleo de los Estados Unidos (EEOC, por sus siglas en inglés) publicó una guía para decir que la lista en expansión de trastornos de la personalidad descritos en la literatura psiquiátrica podría calificar como impedimentos mentales, y la Ley de Enmiendas a la ADA facilitó que una persona estableciera que tiene una discapacidad dentro del significado de la ADA.
Como resultado, la categoría de personas protegidas bajo la ADA puede incluir ahora a personas que tienen problemas significativos para comunicarse en situaciones sociales, personas que tienen problemas para concentrarse o personas que tienen dificultades para interactuar con otros. Además de plantear nuevas preguntas sobre las discapacidades, la tecnología también presenta nuevos dilemas con respecto a las diferencias, ya sean demográficas o de otro tipo. Ya ha habido situaciones de la vida real de alto perfil en las que estos sistemas han revelado sesgos aprendidos, especialmente en relación con la raza y el género. Amazon, por ejemplo, desarrolló un programa automatizado de búsqueda de talento para revisar los currículos, que fue abandonado una vez que la empresa se dio cuenta de que el programa no calificaba a los candidatos de manera neutral en cuanto al género. Para reducir estos sesgos, los desarrolladores están equilibrando los datos utilizados para entrenar los modelos de IA, para representar adecuadamente a todos los grupos.
Cuanta más información tenga y de la que pueda dar cuenta/aprender la tecnología, mejor podrá controlar los posibles sesgos. En conclusión, las nuevas tecnologías ya pueden cruzar las líneas entre atributos, "rasgos" y "estados" públicos y privados de nuevas maneras, y hay motivos para creer que en el futuro serán cada vez más capaces de hacerlo. Mediante el uso de la inteligencia artificial, los grandes datos, los medios sociales y el aprendizaje automático, los empleadores tendrán un acceso cada vez mayor a la vida privada de los candidatos, a sus atributos privados y a los desafíos y estados de ánimo privados. No hay respuestas fáciles a muchas de las nuevas preguntas sobre la privacidad que hemos planteado aquí, pero creemos que todas ellas merecen ser discutidas y debatidas públicamente. Autor: Black