TWINLADDER
TwinLadder logoTwinLadder
Regulation (EU) 2024/1689

EU AI Act Explorer

The world's first comprehensive AI regulation. Navigate articles, track implementation deadlines, and understand what matters for legal practice.

11+

Articles

3

Annexes

7

Key for Lawyers

Official Reference

Full Title

Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence

CELEX

32024R1689

OJ Reference

OJ L, 2024/1689, 12.7.2024

Entry into Force

8/1/2024

Full Applicability

8/2/2027

Implementation Timeline

View full timeline
Aug 24
Entry
Feb 25
Prohibited
Aug 25
Governance
Aug 26
High-Risk
Aug 27
Full

Cuestiones practicas

Cuando el Articulo 4 del Reglamento Europeo de IA exige "alfabetizacion en IA" para los profesionales del derecho, no esta pidiendo que los abogados se conviertan en cientificos de datos ni en ingenieros de software. La norma reconoce una verdad fundamental: a medida que la inteligencia artificial se integra en los flujos de trabajo juridicos, los profesionales deben desarrollar una comprension suficiente para utilizar estas herramientas de forma competente, etica y conforme a sus deberes profesionales.

La alfabetizacion en IA en la profesion juridica implica adquirir las habilidades, conocimientos y la comprension necesarios para tomar decisiones informadas sobre el despliegue de sistemas de IA en la practica. Esto incluye ser consciente tanto de las oportunidades que la IA ofrece como de los riesgos que plantea, desde las mejoras de eficiencia hasta posibles infracciones eticas.

Para los abogados, esto se traduce en comprender que hacen las herramientas de IA en su contexto especifico, cuando es apropiado utilizarlas, como verificar sus resultados y que riesgos requieren mitigacion. No exige comprender los algoritmos matematicos ni las arquitecturas de redes neuronales que sustentan estos sistemas.

Como afectan las herramientas de IA a las distintas areas de practica

Litigacion y resolucion de conflictos

Las herramientas de IA en la litigacion ayudan actualmente en la investigacion jurisprudencial, la revision documental y la analitica predictiva. Los abogados necesitan comprender como la IA generativa puede producir citas jurisprudenciales inexistentes y la importancia de verificar cada cita y proposicion juridica generada por la IA.

Derecho mercantil y corporativo

La redaccion de contratos, la diligencia debida y el cumplimiento normativo implican cada vez mas la asistencia de la IA. La alfabetizacion en IA significa comprender como la IA de analisis contractual identifica clausulas y reconocer que el lenguaje contractual generado por IA requiere revision humana para su adecuacion.

Propiedad intelectual

Los profesionales de propiedad intelectual que utilizan IA para busquedas de marcas, analisis de patentes o evaluaciones de derechos de autor necesitan una alfabetizacion especializada, incluyendo la comprension de como las herramientas de busqueda por IA difieren de las busquedas booleanas tradicionales y el reconocimiento de las limitaciones de la IA al evaluar la novedad.

Asesoria y cumplimiento normativo

Los abogados que asesoran en materia regulatoria requieren una alfabetizacion que incluya la comprension de los sistemas de clasificacion de niveles de riesgo de la IA, el conocimiento de las regulaciones sectoriales especificas y la competencia para asesorar sobre disposiciones contractuales propias de la IA.

El precedente de Darmstadt de noviembre de 2025

La sentencia del Tribunal Regional de Darmstadt en Alemania sento un precedente contundente: cuando un perito judicial medico utilizo IA de forma extensiva sin comunicarlo, el tribunal fijo sus honorarios en cero euros y declaro inadmisible todo el informe. Este caso subraya que la alfabetizacion en IA incluye comprender cuando y como revelar el uso de la IA.

Comparativa de paises

Aunque el Reglamento Europeo de IA establece un marco normativo armonizado en todos los Estados miembros, su aplicacion revela variaciones significativas en la forma en que cada pais aborda la regulacion de la IA para los profesionales del derecho.

Italia: pionera con la Ley 132/2025

Requisito de divulgacion obligatoria

Italia se distinguio como el primer Estado miembro de la UE en adoptar una legislacion nacional integral sobre IA. La Ley 132/2025, vigente desde el 10 de octubre de 2025, exige a los abogados italianos informar a sus clientes cada vez que se utilicen sistemas de IA en el curso de la representacion, independientemente de la relevancia de dicho uso.

Alemania: enfoque jurisprudencial

El precedente del Tribunal de Darmstadt

La sentencia del 10 de noviembre de 2025 del Tribunal Regional de Darmstadt establecio que los honorarios de un perito judicial deben fijarse en cero euros cuando el perito se apoye de forma extensiva en IA sin comunicarlo. Todo el informe fue declarado inadmisible.

La divulgacion es ahora obligatoria para todas las presentaciones relacionadas con procedimientos judiciales

Estados balticos: implementacion coordinada

Letonia, Lituania y Estonia estan coordinando su enfoque para la implementacion de la regulacion de la IA, reconociendo la naturaleza transfronteriza de los servicios juridicos en la region baltica. Esta coordinacion garantiza coherencia para los profesionales del derecho que operan en estas jurisdicciones.

Ver el rastreador completo de adopcion de los Estados miembros de la UE

Seguir el estado de implementacion en los 27 Estados miembros

Nuestra posicion

La desconexion entre como se desarrollan las herramientas de IA y como deben utilizarlas los profesionales del derecho plantea un reto fundamental. Los sistemas de IA son creados por ingenieros que piensan en terminos de algoritmos, datos de entrenamiento y arquitecturas de modelos. Sin embargo, estas herramientas deben ser utilizadas por abogados que piensan en terminos de precedentes juridicos, intereses de los clientes y etica profesional.

Los abogados no necesitan comprender como funciona la IA. Necesitan comprender que hace la IA en sus contextos juridicos especificos y como utilizarla de forma responsable dentro de los marcos profesionales.

Por que la comodidad importa mas que el codigo

El enfoque de TwinLadder parte de un reconocimiento fundamental: los profesionales del derecho no son usuarios tecnicos y no deben formarse como si lo fueran. Los usuarios no tecnicos carecen de formacion en informatica, piensan en terminos propios de su ambito y aprenden mejor aplicando los conocimientos a problemas que les resultan familiares, en lugar de partir de fundamentos teoricos.

La formacion tecnica fracasa

  • ×Informacion irrelevante innecesaria para un uso competente
  • ×La complejidad intimidante genera barreras
  • ×Se olvida rapidamente sin aplicacion practica
  • ×Tiempo no dedicado al desarrollo de competencias practicas

El aprendizaje basado en flujos de trabajo funciona

  • Enfoque en como la IA afecta a los flujos de trabajo juridicos
  • Evaluacion de la fiabilidad de los resultados de la IA
  • Pasos de verificacion antes de confiar en la IA
  • Mantenimiento de las responsabilidades profesionales

Alineacion con la intencion legislativa del Articulo 4

El Articulo 4 se centra en el "despliegue informado" y la "conciencia de las oportunidades y los riesgos", no en la comprension tecnica. La norma tiene expresamente en cuenta los "conocimientos tecnicos, la experiencia, la educacion y la formacion" de los usuarios, reconociendo que los profesionales no tecnicos requieren una alfabetizacion diferente a la de los profesionales tecnicos. La formacion de TwinLadder esta disenada precisamente para este perfil de usuario: profesionales del derecho con amplia experiencia en su ambito pero con una formacion tecnica limitada.

Risk-Based Approach

Understanding AI Risk Categories

The EU AI Act classifies AI systems by risk level. Legal AI tools may fall into high-risk or limited-risk categories depending on their use.

Prohibited

AI practices banned outright

  • Social scoring
  • Subliminal manipulation
  • Real-time biometric ID*

* With law enforcement exceptions

High-Risk

Strict requirements apply

  • Justice & legal research AI
  • Employment decisions
  • Credit scoring
  • Critical infrastructure

See Annex III for full list

Limited Risk

Transparency obligations

  • Chatbots & AI assistants
  • Emotion recognition
  • AI-generated content

Must disclose AI use

Minimal Risk

Voluntary codes apply

  • Spam filters
  • Video game AI
  • Inventory management

No mandatory requirements

Essential Reading

Key Articles for Legal Professionals

These articles have direct implications for law firms, in-house counsel, and legal AI vendors.

5

Prohibited AI Practices

Chapter II: Prohibited AI Practices

Key for Lawyers
Prohibited
Moderate Relevance

Bans AI systems for: subliminal manipulation, exploitation of vulnerabilities, social scoring, predictive policing (individuals), untargeted facial recognition scraping, emotion recognition at work/education, and real-time biometric identification (with law enforcement exceptions).

Relevance to Legal Practice

Legal AI tools are unlikely to fall into prohibited categories, but lawyers should verify tools don't use banned techniques for influence or assessment.

See also:Annex I
Effective: Feb 2, 2025
6

Classification Rules for High-Risk AI Systems

Chapter III: High-Risk AI Systems

Key for Lawyers
High-Risk
Critical for Lawyers

Defines what makes an AI system 'high-risk': either (1) a safety component/product under EU harmonisation legislation in Annex I, or (2) falls under use cases in Annex III. Exceptions for narrow procedural tasks.

Relevance to Legal Practice

AI systems used for 'administration of justice and democratic processes' are HIGH-RISK under Annex III(8). Legal research and case outcome prediction tools may qualify.

Effective: Aug 2, 2026
9

Risk Management System

Chapter III: High-Risk AI Systems

Key for Lawyers
High-Risk
High Relevance

Mandates continuous risk management for high-risk AI: identify risks, implement mitigation, test systems, monitor post-deployment. Must consider reasonably foreseeable misuse.

Relevance to Legal Practice

Lawyers deploying high-risk AI must understand the vendor's risk management. Due diligence should verify compliance.

Effective: Aug 2, 2026
14

Human Oversight

Chapter III: High-Risk AI Systems

Key for Lawyers
High-Risk
Critical for Lawyers

High-risk AI systems must be designed for effective human oversight. Humans must be able to understand outputs, intervene, and override the system. 'Human-in-the-loop' or 'human-on-the-loop' required.

Relevance to Legal Practice

Lawyers MUST maintain oversight of AI outputs. Blind reliance on AI without review violates professional duty and likely this article.

See also:Art. 9Art. 26
Effective: Aug 2, 2026
Critical Dates

Implementation Timeline

The EU AI Act phases in over three years. Track key milestones and prepare your compliance strategy.

August 1, 2024

Entry into Force

The EU AI Act officially enters into force, starting the implementation timeline.

February 2, 2025

Prohibited AI Practices

Ban on AI systems with unacceptable risk: social scoring, manipulation, real-time biometric identification (with exceptions).

August 2, 2025

Governance & GPAI Rules

Current Phase

EU AI Office fully operational. Rules for general-purpose AI models apply. Penalties framework active.

August 2, 2026

High-Risk AI Obligations

117 days

Full compliance required for high-risk AI systems. Conformity assessments, technical documentation, human oversight mandatory.

August 2, 2027

Full Applicability

482 days

All provisions fully applicable. High-risk AI systems in Annex I must comply.

Full Text Reference

Browse by Chapter

Navigate the complete EU AI Act structure with legal practice annotations.

Chapter I

General Provisions

3 articles

Chapter II

Prohibited AI Practices

1 articles

Chapter V

General-Purpose AI Models

1 articles

Chapter XII

Penalties

1 articles
Critical Annexes

Key Annexes

Annexes define high-risk categories and technical requirements.

I

Union Harmonisation Legislation

Lists EU product safety legislation that, when combined with AI as a safety component, triggers high-risk classification under Article 6(1).

III

High-Risk AI Systems

Lists use cases that automatically classify AI as high-risk. Includes: biometrics, critical infrastructure, education, employment, essential services, law enforcement, migration, and JUSTICE/DEMOCRATIC PROCESSES.

XIII

Criteria for Classification of GPAI with Systemic Risk

Criteria for determining if a general-purpose AI model poses systemic risk: training compute >10^25 FLOPs, high-impact capabilities, number of users, cross-border reach.

Track EU Member State Adoption

Monitor which countries have implemented the EU AI Act, designated AI authorities, and published bar association guidance.

3

Implemented

12

In Progress

12

Not Started

¿Preparado para alcanzar el cumplimiento del Articulo 4?

TwinLadder ofrece programas de formacion acreditados disenados especificamente para profesionales del derecho que gestionan la regulacion de la IA.

Last updated: 2/6/2026

Official EUR-Lex Source