TwinLadder Weekly
Número #11 | Julio 2025
Nota del editor
El 29 de julio de 2024, el Comité Permanente de Ética y Responsabilidad Profesional de la ABA hizo algo que llevaba tiempo esperando: emitió la Opinión Formal 512, la primera orientación integral sobre las obligaciones éticas de los abogados al utilizar IA generativa.
Debo decir de entrada: se trata de una orientación estadounidense, y escribo desde una perspectiva europea. Las Reglas Modelo de la ABA no son vinculantes para nadie hasta que sean adoptadas por los colegios de abogados estatales. No se aplican en Londres, Fráncfort ni Riga. Pero nos importan a todos por dos razones. Primera, los marcos regulatorios estadounidenses tienden a irradiar hacia el exterior — las propias conversaciones sobre el Reglamento de IA de la UE hacen referencia a estándares éticos estadounidenses. Segunda, y más interesante para mí, la Opinión 512 plantea una pregunta que trasciende las jurisdicciones: ¿el cumplimiento de las normas éticas realmente desarrolla el juicio profesional, o simplemente crea una nueva categoría de comportamiento de casilla de verificación?
Esa pregunta ronda mi mente desde que un socio de un gran despacho en Berlín me dijo, con evidente satisfacción, que su firma estaba "plenamente en conformidad con la 512". Cuando le pregunté si sus asociados podían evaluar de forma independiente la calidad de los resultados de la IA, me miró como si hubiera cambiado de tema. No lo había hecho.
Le pregunté a Liga sobre esto durante un café — si ella ve convergencia entre la ABA y la UE o si hablan en paralelo sin escucharse. Lo resumió con precisión: "La Opinión 512 y el Reglamento de IA de la UE están resolviendo el mismo problema desde direcciones opuestas. Los estadounidenses parten de las normas éticas y preguntan cómo se aplican a la IA. Los europeos parten de la IA y preguntan qué normas necesita. El destino — un uso competente, transparente y responsable de la IA por parte de los profesionales — es el mismo. El camino dice algo sobre cada cultura jurídica".
Opinión Formal 512 de la ABA: los siete pilares y lo que realmente exigen
Un marco transatlántico
La Opinión 512 aborda seis Reglas Modelo en su aplicación al uso de IA generativa. La opinión no es derecho vinculante, pero ofrece una interpretación autorizada que los colegios de abogados estatales que adopten normas similares probablemente seguirán. Permítame recorrerlas con ojo de profesional y, para cada una, señalar dónde converge o diverge el marco europeo.
Competencia (Regla 1.1) es donde la Opinión 512 es más contundente. El Comité afirma que la competencia tecnológica se extiende a las herramientas de IA: los abogados deben comprender lo que la IA puede y no puede hacer, dónde existen riesgos de alucinación y cómo verificar los resultados. Esto no es una recomendación — se enmarca como una obligación profesional permanente. No se necesita un título en informática, pero sí comprender la diferencia entre la generación con recuperación aumentada y la salida pura de un modelo, saber cuándo el riesgo de cita es más alto y reconocer las limitaciones de sus herramientas específicas.
Paralelismo europeo: El Artículo 4 del Reglamento de IA de la UE va más allá — es una disposición legal, no consultiva, con mecanismos de ejecución. [ALTA CONFIANZA]
Confidencialidad (Regla 1.6) exige proteger la información del cliente introducida en sistemas de IA con el mismo cuidado que cualquier dato del cliente. Esto implica comprender si su proveedor entrena con los datos introducidos, dónde se almacenan los datos y la diferencia entre el tratamiento de datos empresarial y de consumo. La mayoría de las herramientas de IA jurídica empresarial (Harvey, CoCounsel, Lexis+ AI) ofrecen protecciones que las herramientas de consumo como ChatGPT gratuito no ofrecen.
Paralelismo europeo: El RGPD impone requisitos mucho más específicos — acuerdos de tratamiento de datos, restricciones de transferencia transfronteriza, principios de minimización de datos. Un despacho europeo que utilice cualquier herramienta de IA debe satisfacer tanto las normas de confidencialidad profesional como el RGPD. La intersección es compleja y está insuficientemente analizada.
Comunicación (Regla 1.4) exige informar a los clientes sobre el uso significativo de IA. La clave está en la palabra "significativo": no es necesario divulgar cada corrector ortográfico, pero las contribuciones sustantivas al análisis jurídico probablemente sí. Yo argumentaría que el enfoque más seguro es incluir un lenguaje estándar en la carta de encargo que cubra el uso de IA de forma general, con divulgación específica cuando la IA configure significativamente el producto de trabajo.
Candor ante el tribunal (Reglas 3.1/3.3) es la norma que hizo famoso el caso Mata v. Avianca. Toda cita debe verificarse. Todo caso debe existir. Toda cita textual debe ser precisa. La generación por IA no excusa los errores de presentación. Sin excepción.
Supervisión (Reglas 5.1/5.3) exige que las herramientas de IA reciban una supervisión similar a la de auxiliares jurídicos y personal no letrado. No se puede culpar a la IA de los errores, del mismo modo que no se puede culpar a un auxiliar. Los despachos deben establecer políticas sobre herramientas aprobadas, procedimientos de revisión obligatorios y formación.
Paralelismo europeo: Los requisitos de supervisión humana del Reglamento de IA de la UE conforme al Artículo 14 son estructuralmente similares pero más amplios. Se aplican no solo a los profesionales del derecho, sino a cualquier implantador de sistemas de IA en contextos profesionales.
Honorarios (Regla 1.5) es donde la práctica se encuentra con la economía. La posición del Comité: los abogados no pueden cobrar a los clientes por el tiempo dedicado a aprender herramientas de IA de uso general. Si la IA reduce el tiempo de investigación de diez horas a dos, facturar diez horas es irrazonable. Los acuerdos basados en valor que compensen de forma justa la experiencia al tiempo que reflejen las ganancias de eficiencia son el camino sugerido.
La tabla de convergencia
| Obligación | Opinión 512 de la ABA | Reglamento de IA de la UE + RGPD |
|---|---|---|
| Competencia / Alfabetización | Regla 1.1: obligación profesional permanente | Artículo 4: mandato legal, formación documentada requerida |
| Confidencialidad | Regla 1.6: mismo cuidado que cualquier dato del cliente | RGPD: acuerdos de tratamiento de datos, normas de transferencia transfronteriza, minimización de datos |
| Transparencia | Regla 1.4: divulgación del uso significativo de IA | Artículos 13-14: transparencia y supervisión humana |
| Verificación | Reglas 3.1/3.3: verificación de citas | Implícita en las obligaciones del implantador conforme al Artículo 26 |
| Supervisión | Reglas 5.1/5.3: supervisión como con auxiliares jurídicos | Artículo 14: supervisión humana para todos los implantadores de IA |
| Facturación | Regla 1.5: no inflar horas | No regulada directamente; se aplican principios del derecho de la competencia |
El panorama a nivel estatal se está desarrollando rápidamente. California, Florida y Nueva York han emitido orientaciones detalladas. Varios otros estados tienen grupos de trabajo activos. La dirección es coherente: el uso de IA está permitido con las salvaguardas adecuadas. Consulte su jurisdicción, porque los requisitos específicos varían.
Para quienes ejercemos en Europa, el marco es instructivo incluso donde no se aplica directamente. El Reglamento de IA de la UE, la posición de la SRA en Inglaterra y Gales, y las orientaciones emergentes de los colegios de abogados continentales convergen todos en principios similares: competencia, transparencia, supervisión humana. El vocabulario difiere; la sustancia, no.
La pregunta sobre competencia
He aquí lo que me preocupa del enfoque de cumplimiento en la ética de la IA. Considere un despacho que implementa cada elemento de la Opinión 512 diligentemente. Han inventariado sus herramientas de IA. Han documentado capacidades y limitaciones. Los asociados completan formación obligatoria. Las cartas de encargo incluyen lenguaje de divulgación. Los protocolos de verificación de citas están en funcionamiento. Las prácticas de facturación reflejan las ganancias de eficiencia.
Ese despacho cumple. ¿Pero es competente?
El cumplimiento es procedimental. Pregunta: ¿ha seguido las normas? La competencia es sustantiva. Pregunta: ¿puede evaluar de forma independiente si el resultado de la IA es suficientemente bueno para este asunto específico, este cliente específico, esta jurisdicción específica?
Imagine a una asociada de tercer año en Estocolmo revisando un memorando de investigación generado por IA sobre derecho sueco de protección del consumidor. Todas las citas se verifican: los casos existen, las citas textuales son correctas. La asociada marca las casillas del protocolo de verificación y lo envía al socio. Pero el memorando omite una línea de autoridad relevante de una decisión reciente del TJUE que habría cambiado el análisis conforme a la transposición sueca de la directiva. La asociada no supo buscarla porque se apoyó en la exhaustividad de la IA en lugar de aplicar su propio juicio investigador.
Ningún protocolo detecta esto. Solo el juicio profesional lo hace. Y el juicio profesional se desarrolla a través de la práctica, no del cumplimiento. Los despachos que realmente alcanzarán el estándar de competencia son aquellos que utilizan la IA como punto de partida del análisis, no como punto final — donde se espera que los asociados mejoren los resultados de la IA, no que simplemente los verifiquen.
La distinción entre "verificado" y "competente" es donde reside el verdadero desafío de la Opinión 512, y es un desafío que ninguna lista de verificación puede resolver.
Qué hacer
-
Actualice sus cartas de encargo ahora. Si sus cartas de encargo no abordan el uso de IA, añada un lenguaje estándar esta semana. Algo como: "Nuestro despacho puede utilizar herramientas asistidas por IA para investigación, redacción y revisión. Todo el trabajo asistido por IA es revisado por abogados cualificados. Mantenemos las protecciones de confidencialidad adecuadas". La divulgación proactiva previene disputas.
-
Distinga entre IA empresarial y de consumo. Audite qué abogados están utilizando qué herramientas. Usar ChatGPT de consumo para asuntos de clientes es una violación ética en potencia — y, para despachos europeos, una violación del RGPD también. Asegúrese de que su despacho tiene una lista clara de herramientas aprobadas y que las herramientas de consumo están excluidas para el trabajo relacionado con clientes.
-
Integre la verificación en el flujo de trabajo, no encima de él. La verificación que se siente como trabajo extra se salta bajo presión de tiempo. Integre la comprobación de citas en su proceso de investigación — utilice herramientas con enlaces a fuentes incorporados (Lexis+ AI, CoCounsel) en lugar de añadir un paso de verificación separado.
-
Exija a los asociados que identifiquen lo que la IA omitió. Para cada memorando de investigación asistido por IA, pida a los asociados que identifiquen al menos una autoridad o argumento adicional que la IA no haya detectado. Esto crea el hábito de tratar la IA como punto de partida, no como respuesta definitiva. Para los despachos europeos, exija la verificación cruzada con la jurisprudencia del TJUE y la legislación nacional de transposición — áreas donde las herramientas de IA siguen siendo más débiles.
-
Revise sus prácticas de facturación conforme al estándar de honorarios. Si sigue facturando diez horas por un trabajo que la IA completó en dos, está en riesgo. Documente su enfoque y discuta alternativas basadas en valor con los clientes antes de que ellos lo pregunten. Los despachos europeos deberían además considerar si su documentación de cumplimiento del Artículo 4 puede demostrar las ganancias de eficiencia que proporciona la IA — convirtiendo un desafío de facturación en una demostración de competencia.
Lecturas rápidas
-
Anuncio de la Opinión Formal 512 de la ABA — la fuente primaria, merece leerse en su totalidad.
-
Seguimiento de orientaciones éticas sobre IA por estado — referencia esencial para saber qué jurisdicciones estadounidenses han ido más allá del marco de la ABA.
-
Análisis de la Opinión 512 por la biblioteca jurídica de la UNC — el tratamiento académico más exhaustivo, útil para redactar políticas internas.
-
Opinión 2025-205 del Colegio de Abogados de Oregón — va más allá que la ABA en facturación con el lenguaje más claro hasta la fecha sobre facturación de tiempo con IA.
Una pregunta
Si su despacho cumple plenamente con todos los requisitos éticos de IA pero sus asociados no pueden evaluar de forma independiente la calidad de los resultados de la IA, ¿está cumpliendo con el estándar de competencia, o simplemente documentando su incumplimiento?
TwinLadder Weekly | Número #11 | Julio 2025
Ayudando a los profesionales europeos a desarrollar competencia en IA a través de una formación honesta.
