El Reglamento (UE) 2024/1689 (AI Act o RIA) establece un marco jurídico uniforme para el desarrollo, la introducción en el mercado, la puesta en servicio y el uso de sistemas de Inteligencia Artificial (IA) en la UE, con el objetivo de proteger la salud, la seguridad y los derechos fundamentales, y de promover una IA centrada en el ser humano y fiable.

El AI Act ya no trata la IA como “innovación”: la regula como infraestructura con impacto directo en derechos, seguridad y decisiones críticas.

En Recursos Humanos (RRHH) esto es especialmente relevante porque muchos usos de IA en empleo y gestión de personas encajan, por regla general, en la categoría de “alto riesgo” del Anexo III (p. ej., selección, evaluación, decisiones sobre condiciones laborales), con exigencias más estrictas.

La IA ya está integrada en suites de productividad, herramientas de proveedores y funcionalidades que se activan casi sin fricción. El riesgo surge cuando se usa sin criterios comunes: decisiones apoyadas en salidas no verificadas, sesgos operativos y responsabilidades difusas entre negocio, RRHH, IT y proveedores.

En ese contexto, el artículo 4 impone a proveedores y desplegadores la obligación de adoptar medidas (en la medida de lo posible) para garantizar un nivel suficiente de alfabetización en IA de su personal y de otras personas que traten con sistemas de IA en su nombre.

Ese “nivel suficiente” debe ajustarse a los conocimientos, la experiencia y la formación de esas personas, al contexto previsto de uso del sistema y a las personas o colectivos sobre los que se va a utilizar.

“El art. 4 del Reglamento (UE) 2024/1689 persigue garantizar un nivel suficiente de alfabetización en IA”

El Reglamento entró en vigor el 1 de agosto de 2024, pero su aplicación es escalonada. La obligación de alfabetización en IA del artículo 4 aplica desde el 2 de febrero de 2025. La aplicación general del Reglamento llega el 2 de agosto de 2026, con otros hitos y obligaciones que se activan en fechas anteriores.

Los sistemas incluidos en el Anexo III se consideran, por regla general, “alto riesgo” y quedan sujetos a requisitos específicos. Existe una excepción cuando, pese a estar en el Anexo III, el sistema no presenta un riesgo significativo bajo las condiciones del artículo 6.3.

En empleo y gestión de personas, el umbral práctico es claro: si la IA puede influir de forma relevante en oportunidades profesionales o condiciones laborales, el listón de control sube.

La Comisión Europea recopila prácticas y recursos sobre alfabetización en IA en un repositorio público que se puede utilizar como referencia, pero que no sustituye las obligaciones del Reglamento ni implica, por sí mismo, presunción de cumplimiento.

Qué exige el artículo 4, y a quién alcanza

El artículo 4 obliga a proveedores y a las organizaciones que despliegan o usan IA a garantizar un nivel suficiente de alfabetización en su personal.

Ese perímetro no se limita a la plantilla interna: incluye también a terceros que operen IA en nombre de la organización, como consultoras, BPO (externalización de procesos), contact centers y otros proveedores que participan en procesos corporativos.

El artículo 4 fija tres decisiones operativas que RRHH y L&D deben seguir:
Qué hay que hacer: adoptar medidas para garantizar, “en la mayor medida posible”, un nivel suficiente de alfabetización en IA.

A quién hay que cubrir: “su personal” y “demás personas” que, en su nombre, se encarguen del funcionamiento y la utilización de sistemas de IA.

Cómo se calibra el nivel “suficiente” . Teniendo en cuenta:

  • conocimientos técnicos, experiencia, educación y formación,
  • el contexto previsto de uso del sistema,
  • las personas o colectivos sobre los que se va a utilizar.

Alfabetización en IA obligatoria para empresas
La alfabetización en IA es ahora una competencia funcional obligatoria según el Reglamento Europeo.

Qué entiende la norma por “alfabetización en IA”

En el AI Act, la “alfabetización en materia de IA” se define como las capacidades, los conocimientos y la comprensión necesarios para desplegar sistemas de IA de manera informada y para tomar conciencia de las oportunidades, los riesgos y los posibles perjuicios de la IA.

  • Desplegar o utilizar sistemas de IA de manera informada.
  • Comprender oportunidades y riesgos asociados a su uso.
  • Identificar y anticipar posibles perjuicios derivados de su aplicación.

En sistemas de IA de alto riesgo, el Reglamento exige además medidas de supervisión humana para que las personas designadas puedan interpretar correctamente las salidas del sistema, tener en cuenta posibles sesgos derivados del sesgo de automatización y, cuando proceda, decidir no utilizar o descartar la salida.

El objetivo es convertir el uso cotidiano de la IA en una disciplina de criterio, evitando que se convierta en un atajo sin control.

Por qué RRHH entra en los sistemas de «alto riesgo»

Un sistema de IA se clasifica como «alto riesgo» por dos vías principales:

  • Producto/componente de seguridad: cuando la IA es un componente de seguridad (o el propio producto) dentro del ámbito de los actos legislativos de armonización de la Unión enumerados en el Anexo I y el producto debe someterse a evaluación de conformidad por terceros.
  • Casos del Anexo III: cuando la IA encaja en los casos de uso sensibles del Anexo III, salvo que cumpla la excepción de “no riesgo importante” y no influya sustancialmente en la decisión.

El área de talento entra en “alto riesgo” cuando usa la IA (o está destinada a usarse) en casos de empleo y gestión de trabajadores de forma que pueda afectar de manera relevante a derechos fundamentales, oportunidades profesionales o condiciones laborales.

Por eso el “mínimo” para RRHH no es un curso genérico, es alfabetización calibrada y control operativo, y en alto riesgo, supervisión humana efectiva.

Alfabetización en IA obligatoria para empresas
La Comisión Europea establece un marco jurídico para asegurar que la IA sea fiable, ética y centrada en el ser humano.

Cómo cumplir con la Alfabetización en IA en mi compañía

Para RRHH y Learning & Development (L&D), la alfabetización en IA funciona mejor como una secuencia operativa:

  • Delimitar el alcance: identificar qué sistemas de IA se usan (incluida IA “embebida” en suites y proveedores) y en qué procesos, porque el nivel se ajusta al contexto previsto de uso.
  • Mapa de personas obligadas: lista quiénes operan o usan IA y quiénes lo hacen en nombre de la organización (proveedores, BPO, consultoras), porque el art. 4 les incluye.
  • Segmentar por rol y capacidad: definir niveles por perfil (usuario, decisor, supervisor, administrador) según conocimientos/experiencia/educación/formación; y evitar “un único curso para todos”.
  • Priorizar por impacto en personas: donde la IA se use sobre candidatos o empleados, refuerza alfabetización (límites, sesgos, supervisión humana) porque el art. 4 obliga a considerar los colectivos sobre los que se utiliza.
  • Convertir la alfabetización en medidas operativas: guías de uso, reglas internas y criterios de revisión/escala, orientadas a un despliegue informado y a reducir riesgos y perjuicios.
  • Dejar evidencia: trazabilidad interna de las medidas, a quién aplican y con qué criterio de adecuación (rol, contexto y colectivos). El artículo 4 exige medidas y calibración; no impone un formato documental concreto, pero sin trazabilidad no hay gobernanza defendible.

En Grupo Hedima, ayudamos a las grandes empresas a construir este estándar de alfabetización, integrándolo en su infraestructura de formación de forma trazable y eficiente.

Escalamos tu formación.

Plan de formación y Alfabetización en IA para empresas. Escalamos tu formación

Links relacionados

Reglamento (UE) 2024/1689

Comisión Europea – Código de Prácticas de IA

 

    Si quieres saber más sobre alguno de los temas expuestos no dudes en consultarnos.

    Nombre*

    Correo electrónico*

    Empresa

    Apellidos*

    Teléfono

    País

    Mensaje

    Términos legales*

    Acepto los términos descritos en el Aviso Legal y la Política de Privacidad.

    Recibir información de nuestros servicios, productos y eventos.*

    NO