Crear políticas y directrices formales sobre el uso de la Inteligencia Artificial (IA) en Reclutamiento y Selección de personal es fundamental para garantizar su uso responsable, ético, seguro y eficiente. Soy Francisco Del Olmo Díaz Castillo, autor de la metodología HR Tech Cortex, te presento una propuesta completa, detallada y explicativa, organizada por secciones clave que puedes adaptar a cualquier tipo de organización:
CATÁLOGO DE CURSOS INTELIGENCIA ARTIFICIAL RECURSOS HUMANOS Y RECLUTAMIENTO.
POLÍTICAS Y DIRECTRICES PARA EL USO DE INTELIGENCIA ARTIFICIAL EN RECLUTAMIENTO.
Introducción.
La incorporación de tecnologías de Inteligencia Artificial (IA) en los procesos de reclutamiento ofrece beneficios significativos en términos de eficiencia, precisión y ahorro de tiempo. Sin embargo, el uso de estas herramientas debe regirse por principios éticos, legales y humanos para evitar sesgos, discriminación o pérdida de transparencia.
Estas políticas establecen los lineamientos obligatorios para el uso adecuado, seguro y responsable de la IA en el reclutamiento, asegurando que los procesos sigan siendo justos, equitativos, explicables y con intervención humana significativa.
Objetivo.
Establecer un marco normativo para la implementación y uso de herramientas de Inteligencia Artificial en los procesos de atracción, filtrado, evaluación y selección de candidatos/as, garantizando transparencia, equidad, legalidad y respeto a los derechos humanos.
Alcance.
Estas políticas aplican a:
Todas las áreas de Talento Humano que participen en procesos de reclutamiento.
Agencias externas de reclutamiento o headhunting.
Proveedores de software o plataformas con IA utilizadas en dichos procesos.
Consultores de RRHH.
Candidatos y candidatas involucrados en procesos gestionados con herramientas IA.
Principios Rectores.
Legalidad: El uso de IA debe cumplir con la normativa de protección de datos, legislación laboral y antidiscriminación.
Transparencia: Los candidatos deben ser informados cuando una herramienta de IA esté involucrada.
No discriminación: El sistema debe evitar sesgos por género, edad, origen étnico, discapacidad, religión, orientación sexual u otras condiciones personales.
Supervisión Humana Significativa: Ninguna herramienta de IA sustituye por completo el juicio humano. Toda decisión debe validarse por una persona.
Responsabilidad: Los profesionales de reclutamiento deben comprender el funcionamiento básico de las herramientas que utilizan.
Explicabilidad: Las decisiones o recomendaciones de la IA deben poder explicarse de forma comprensible para el equipo de RRHH y los candidatos.
Seguridad: Los datos deben protegerse mediante cifrado, acceso restringido y eliminación adecuada.
Etapas del Proceso de Reclutamiento con IA y Directrices.
A. Atracción de Talento.
Uso permitido:
IA generativa para redactar descripciones de puestos inclusivas y atractivas.
Herramientas que sugieran mejores canales de difusión de vacantes.
Generadores de contenido automatizado para campañas en redes sociales.
Condiciones:
El lenguaje generado debe ser revisado por humanos para evitar sesgos no detectados.
Se deben seguir políticas de diversidad e inclusión.
B. Difusión y Promoción de Vacantes.
Uso permitido:
Plataformas que optimicen la publicación automática en múltiples bolsas de trabajo.
Algoritmos que ajusten el lenguaje del anuncio según público objetivo.
IA para detectar tendencias de búsqueda laboral por sector o región.
Condiciones:
Se deben revisar los términos utilizados para asegurar neutralidad.
No está permitido segmentar de manera excluyente por edad, género u otra condición protegida.
C. Recepción y Análisis de Candidaturas.
Uso permitido:
Sistemas de IA que analicen currículums para clasificar o rankear candidatos según requisitos objetivos.
Algoritmos de “matching” para comparar CV vs descripción del puesto.
Condiciones:
El candidato debe saber si fue descartado por un sistema automatizado.
No se permite el descarte automático sin validación humana.
El análisis debe basarse en criterios relacionados al puesto (no características personales).
Prohibido:
Filtrar por apariencia física o redes sociales sin consentimiento.
Usar IA que analice emociones, raza, orientación sexual o religión.
D. Entrevistas Automatizadas y Videoentrevistas con IA.
Uso permitido:
Plataformas de videoentrevistas que incluyan transcripción, análisis de lenguaje y preguntas automáticas.
Herramientas que sugieran niveles de afinidad con la cultura organizacional.
Condiciones:
Debe haber claridad sobre qué aspectos se analizan (tono, palabras clave, etc.).
El sistema no puede calificar a la persona; sólo aportar insumos para la decisión humana.
No se permite analizar microexpresiones, gestos faciales o emociones sin consentimiento explícito e informado.
E. Evaluaciones y Pruebas.
Uso permitido:
Tests de habilidades, conocimientos técnicos o lógicos creados con IA.
Plataformas de IA que califiquen pruebas estandarizadas.
Condiciones:
Las pruebas deben ser adaptables y accesibles.
RH debe revisar los resultados antes de cualquier decisión.
No se deben aplicar pruebas psicológicas automatizadas sin revisión profesional.
F. Selección y Contratación.
Uso permitido:
Algoritmos que ayuden a comparar candidatos con base en múltiples criterios objetivos.
Sistemas de IA que apoyen en la creación de ofertas personalizadas o automatización de avisos de seguimiento.
Condiciones:
Toda selección final debe estar a cargo de un humano.
El historial de decisiones del sistema debe ser documentado.
Se debe informar a los candidatos si fueron descartados por una herramienta de IA y ofrecer derecho a revisión manual.
Consentimiento y Comunicación al Candidato.
Toda persona candidata tiene derecho a:
⦿ Saber si será evaluada por una herramienta con IA.
⦿ Conocer qué datos se recopilan y con qué propósito.
⦿ Solicitar una revisión humana en caso de desacuerdo.
⦿ Acceder a una explicación comprensible del proceso.
Evaluación de Herramientas de IA.
Antes de implementar cualquier tecnología con IA en reclutamiento se debe:
⦿ Realizar una Evaluación de Impacto Ético.
⦿ Validar la ausencia de sesgos de género, edad, raza, etc.
⦿ Probar el sistema con datos de prueba locales.
⦿ Garantizar la trazabilidad y auditabilidad de los resultados.
⦿ Confirmar el cumplimiento con leyes de protección de datos (ej. GDPR, LFPDPPP).
Capacitación Interna.
El personal de reclutamiento deberá recibir formación obligatoria sobre:
Ética de la IA.
Buenas prácticas para la recolección y uso de datos personales.
Evaluación crítica de resultados generados por IA.
Sesgos algorítmicos comunes y cómo detectarlos.
Auditoría, Control y Mejora Continua.
Las herramientas de IA deben ser auditadas al menos una vez al año.
RH deberá recopilar retroalimentación de usuarios internos y candidatos.
Toda queja o duda debe canalizarse a través de un Comité Ético o Responsable de Cumplimiento.
Sanciones por Uso Inadecuado.
El uso indebido, discriminatorio o poco ético de herramientas de IA será sancionado conforme a las políticas internas y normativas legales correspondientes. Esto incluye, pero no se limita a:
Ocultar decisiones tomadas por IA sin supervisión.
Discriminación por criterios no objetivos.
Recolección no autorizada de datos sensibles.
Revisión de la Política.
Esta política será revisada y actualizada anualmente o cuando haya una incorporación significativa de nuevas tecnologías en los procesos de reclutamiento.
Documentación de Apoyo (Anexos recomendados).
Lista de herramientas de IA aprobadas para reclutamiento.
Formatos de consentimiento informado para candidatos.
Guía de buenas prácticas para el uso ético de IA en reclutamiento.
Checklist de evaluación previa para nuevas plataformas de IA.