top of page

IA en RR. HH.: eficiencia sí, pero sin vulnerar derechos fundamentales

  • Foto del escritor: L CM
    L CM
  • hace 2 horas
  • 3 Min. de lectura

Esta semana, en el ámbito laboral, una de las alertas más relevantes no viene de una sentencia concreta, sino del riesgo creciente de usar inteligencia artificial en recursos humanos sin una gobernanza jurídica adecuada. Hoy ya se automatiza la criba de CV, la evaluación del desempeño, la predicción de rotación o incluso decisiones que afectan a promoción y continuidad del contrato. La pregunta ya no es si se puede: es cómo se hace sin comprometer derechos.


IA en RRHH
IA en RRHH

Por qué esto es Derecho Laboral (y no solo “tecnología”)


Cuando un algoritmo influye en:

  • acceso al empleo,

  • promoción,

  • evaluación,

  • y eventualmente despido,

ya no hablamos de “herramientas”: hablamos de derechos fundamentales, posibles discriminaciones y responsabilidad empresarial.


Un punto central es el mito de la objetividad: la IA aprende de datos históricos y puede replicar sesgos (por ejemplo, penalizar trayectorias no lineales, lagunas por maternidad, cambios de sector, etc.). Si el resultado es discriminatorio, el problema no es técnico: es jurídico.


RGPD: decisiones automatizadas y derecho a no ser “evaluado por una máquina”


El artículo destaca el art. 22 del RGPD, que reconoce el derecho a no ser objeto de decisiones basadas únicamente en tratamiento automatizado cuando produzcan efectos jurídicos o afecten significativamente. Esto, en RR. HH., es dinamita si no se gestiona bien:


“me descartó el sistema”, “no me promocionaron por una puntuación automática”, “mi bonus se calculó por un algoritmo”…

Además, en el entorno laboral español se refuerza la exigencia de transparencia cuando algoritmos inciden en condiciones de trabajo.


El marco europeo (AI Act) y el concepto “alto riesgo”


Otro eje clave: el Reglamento europeo de IA (AI Act) trata como alto riesgo los sistemas usados para selección, evaluación de desempeño, promoción o despidos. Eso implica obligaciones: evaluación previa de riesgos, documentación, trazabilidad y supervisión humana efectiva.


Y aquí viene el error típico en empresa: pensar que “si lo compra un proveedor, responde el proveedor”. No. La empresa usuaria debe poder demostrar diligencia: evaluar riesgos, supervisar, corregir sesgos. El software no va al juzgado.


Parte técnica: “compliance algorítmico” en 6 pasos


Si quieres un enfoque práctico para tu blog (muy útil para captar empresas como clientela), este es un esquema claro:

  1. InventarioQué herramientas se usan en RR. HH. (ATS, scoring, evaluación desempeño, productividad…).

  2. Mapa de decisionesEn qué decisiones influyen y con qué impacto (contratación, promoción, bonus, sanciones).

  3. Base legal + transparenciaQué se informa a las personas trabajadoras/candidatas y cómo.

  4. Evaluación de impacto (datos + derechos)¿Hay datos sensibles directos o indirectos? ¿Riesgo de discriminación?

  5. Supervisión humana realNo “validar por encima”, sino capacidad efectiva de revisar y corregir.

  6. EvidenciasProtocolos, auditorías, formación y registro de incidencias: lo que te salva en inspección o litigio.


Qué puedes “vender” como abogada laboralista


Este tema es oro para servicios profesionales porque combina prevención y reputación:

  • Auditoría jurídica de herramientas de RR. HH. con IA.

  • Protocolos de transparencia y comunicación a plantilla.

  • Defensa en caso de impugnación por discriminación.

  • Formación a dirección/RR. HH.


Mini CTA


Si quieres, te preparo un kit descargable para empresas: checklist + cláusulas informativas + protocolo interno de revisión humana para decisiones asistidas por IA.



Fuente: Cinco Días (27/02/2026), “IA en recursos humanos: eficiencia sí, pero no a costa de derechos fundamentales”


Aviso legal: Artículo divulgativo. No constituye asesoramiento jurídico. La adecuación legal depende del caso, sector, convenio, políticas internas y herramientas empleadas.

 
 
 

Comentarios


bottom of page