Cobran más de $2.000 la hora, pero tuvieron que pedir disculpas por no revisar lo que escribía la máquina. Así, a grandes rasgos, podría resumirse el tropiezo del prestigioso bufete neoyorquino Sullivan & Cromwell, cuya carta de disculpa a un juez de bancarrota en Estados Unidos se ha convertido en un pequeño caso de estudio sobre cómo no usar la inteligencia artificial en el mundo jurídico.
Sullivan & Cromwell es de esos despachos que suelen aparecer en las notas de fusiones millonarias, reestructuraciones complejas y clientes que jamás ven la palabra “rebaja” en su factura. Sus socios pueden cobrar más de $2.000 por hora y su nombre funciona, en buena medida, como garantía de rigor y exhaustividad. Por eso causó tanto ruido que tuvieran que admitir ante un tribunal que un escrito presentado en un caso de alto perfil contenía “alucinaciones” generadas por herramientas de inteligencia artificial.
Las “alucinaciones” no son metáfora poética: hablamos de citas de jurisprudencia que no existían, referencias distorsionadas a decisiones reales y números de caso que parecían convincentes, pero que en los expedientes oficiales simplemente no aparecen. Esas joyas no las redactó un pasante despistado, sino un modelo de IA generativa incorporado al flujo de trabajo del despacho, aparentemente sin el nivel de verificación que uno esperaría de un servicio legal a precio de lujo.
La firma envió una carta al juez reconociendo que un escrito anterior en un proceso de bancarrota contenía decenas de errores, entre ellos varias invenciones cortesía del software de IA. El documento de disculpa vino acompañado de un anexo con inexactitudes: citas inexistentes, referencias mal atribuidas, errores numéricos y otros deslices que, en un examen rutinario, debieron ser detectados antes de llegar al expediente judicial.

El detalle más incómodo para el bufete es que las imprecisiones no saltaron dentro de casa. Fueron los abogados de la contraparte quienes se tomaron el tiempo de revisar las fuentes, descubrieron que algo no cuadraba y alertaron al tribunal. En otras palabras: el control de calidad efectivo lo hizo el adversario procesal, no el despacho que factura a tarifa de Wall Street. Para una firma que ha construido su reputación sobre la idea de rigor casi quirúrgico, el episodio tiene un sabor especialmente amargo.
En su explicación, el despacho recurre a un argumento ya conocido: la herramienta de IA “alucinó”. El modelo generó texto jurídicamente plausible, con el tono y la apariencia de una cita sólida, pero sin respaldo en la realidad. Lo cierto, sin embargo, es que el problema no es que la IA “se equivoque” (es casi su estado natural), sino que profesionales altamente remunerados decidieran confiar en el resultado sin el escrutinio que sí aplican a un memo de un asociado junior.
Aquí aparece la ironía central del caso: la misma industria que lleva años advirtiendo que “nada sustituye el criterio del abogado” parece haber dejado, al menos por un momento, ese criterio en manos de un algoritmo. No es que la IA sea demasiado poderosa; es que se le permitió jugar a ser abogada senior sin pasar por el examen más básico: comparar lo que dice con las fuentes originales.
Detrás del suceso hay preguntas incómodas sobre los incentivos y la cultura interna. En un entorno donde el tiempo se factura en bloques de seis minutos, herramientas que prometen acelerar la redacción de escritos resultan irresistibles. Si una IA puede producir un primer borrador “listo para pulir”, la tentación de revisar menos y confiar más es considerable, sobre todo cuando el despacho tiene una estructura jerárquica en la que los nombres grandes pueden asumir que “alguien abajo” ya verificó todo.
El caso sugiere que, en la práctica, o bien los protocolos internos sobre el uso de IA eran débiles, o bien existían solo en el papel. No basta con una política corporativa que diga “la IA nunca sustituye la revisión humana” si, en la realidad, los documentos generados se manejan como si hubieran pasado automáticamente todos los filtros. El resultado: un juez recibiendo un escrito con jurisprudencia fantasiosa y un bufete de élite escribiendo una carta de arrepentimiento que, esa sí, tuvo que revisarse línea por línea.
Más allá del disfrute morboso que pueda producir ver a una firma de $2.000 la hora tropezar con un copy‑paste algorítmico, el episodio apunta a un debate serio para la profesión jurídica. La IA ya no es un accesorio experimental; está entrando de lleno en flujos de trabajo críticos. Eso significa que la negligencia en su uso puede traducirse en sanciones disciplinarias, reproches de tribunales y, eventualmente, reclamaciones de clientes que pagan precisamente para que “estas cosas no pasen”.
El mensaje subyacente es incómodo pero claro: la ventaja competitiva no estará en quién use más herramientas de IA, sino en quién logre diseñar mejores controles alrededor de ellas. Los despachos que vean la IA como una excusa para revisar menos corren el riesgo de acabar escribiendo cartas de disculpa muy pulidas y muy sinceras, pero igualmente costosas. Los que la integren con protocolos estrictos, trazabilidad y responsabilidad personal seguirán cobrando caro, quizá incluso más, pero con un argumento de valor que no dependa de la fe ciega en un algoritmo.
