Inteligencia artificial frente al secreto profesional abogado-cliente
Escuche el artículo

Autor: La Hora Esmeraldas
Una reciente decisión judicial en Nueva York dictamina que las conversaciones con herramientas de inteligencia artificial no están protegidas por el privilegio abogado-cliente. Este fallo no solo expone las vulnerabilidades de la tecnología en el litigio penal, sino que obliga a reescribir los protocolos de confidencialidad de los despachos legales a nivel global.
Durante el último año, la adopción de herramientas de Inteligencia Artificial (IA) generativa por parte de profesionales jurídicos experimentó un vertiginoso aumento del 40% en Estados Unidos, según datos de Statista. Los abogados y sus clientes han encontrado en plataformas como ChatGPT u Claude a asistentes incansables para la redacción, el análisis y la preparación de estrategias. Sin embargo, esta adopción masiva se ha edificado sobre un espejismo legal: la falsa expectativa de privacidad algorítmica.
El secreto profesional (o privilegio abogado-cliente) es uno de los pilares más sagrados del Derecho, diseñado para proteger la comunicación libre y honesta entre el defensor y su defendido. No obstante, ¿qué sucede cuando un algoritmo de terceros entra en esa ecuación? Un reciente fallo de un juez federal en Nueva York acaba de dar una respuesta contundente y alarmante: la inteligencia artificial no es un abogado, no guarda secretos y, por lo tanto, puede ser obligada a testificar en su contra.
Cuando el algoritmo se convierte en testigo
El epicentro de este terremoto jurídico es el caso de Bradley Heppner, expresidente de la firma financiera GWG Holdings (actualmente en bancarrota). En noviembre pasado, Heppner fue acusado por fiscales federales de fraude de valores y fraude electrónico. Para preparar su defensa y estructurar documentos legales que luego compartiría con su equipo de abogados, Heppner recurrió a Claude, el avanzado chatbot de la empresa Anthropic.
Ante la solicitud de la fiscalía de acceder a esos registros, la defensa de Heppner argumentó que dichas interacciones debían permanecer ocultas bajo el paraguas del secreto profesional, al tratarse de estrategias y materias jurídicas confidenciales.
La respuesta del sistema judicial llegó en febrero de 2026, cuando el juez federal Jed Rakoff ordenó a la defensa entregar treinta y un documentos generados con la IA. El razonamiento del magistrado fue lapidario: no existe una relación de confidencialidad equiparable a la de abogado-cliente cuando se interactúa con una plataforma comercial de inteligencia artificial.
La trampa de los términos de servicio
El núcleo del fallo de Rakoff radica en la naturaleza de los contratos de adhesión de las empresas tecnológicas. Durante la audiencia, el juez remarcó que las plataformas como OpenAI y Anthropic advierten explícitamente a sus usuarios sobre la ausencia de expectativa de privacidad. Sus términos de servicio establecen que la información proporcionada puede ser compartida con terceros y utilizada para entrenar a sus modelos.
En la doctrina del derecho probatorio, revelar voluntariamente información confidencial a un tercero no protegido destruye el privilegio legal. Al aceptar los términos y condiciones del chatbot, el usuario renuncia tácitamente a la confidencialidad, abriendo la puerta para que la contraparte o la fiscalía exijan el contenido de esos chats como evidencia en un litigio (conocido en la práctica procesal estadounidense como discovery).
La disparidad judicial
A pesar de la contundencia del fallo en Nueva York, la jurisprudencia en torno a la IA está lejos de ser unánime, lo que genera un terreno de enorme incertidumbre.
El mismo día de la audiencia de Rakoff, el juez magistrado Anthony Patti, en un tribunal de Míchigan, adoptó una postura radicalmente distinta. En un litigio laboral donde la demandante se representaba a sí misma (pro se), el juez Patti resolvió que no debía entregar sus chats con ChatGPT. Su argumento no se basó en el privilegio abogado-cliente, sino en la doctrina del “producto de trabajo” (work product), considerando que las consultas a la IA formaban parte de su preparación personal e intelectual para el juicio, asimilables a notas de investigación en una biblioteca.
Esta disparidad evidencia que el sistema judicial aún está buscando un marco teórico unificado para clasificar a la inteligencia artificial: ¿es un tercero informante (Nueva York) o es una simple herramienta de escritorio (Míchigan)?
La adaptación de los despachos jurídicos
Ante el riesgo inminente de que las estrategias de defensa caigan en manos de los fiscales, los principales bufetes de Estados Unidos han activado protocolos de emergencia. Firmas de la talla de Kobre & Kim, Sher Tremonte y O’Melveny & Myers han comenzado a reestructurar sus advertencias corporativas.
Por ejemplo, en marzo de 2026, Sher Tremonte incorporó una agresiva cláusula contractual en sus acuerdos de representación que advierte explícitamente a los clientes que compartir asesoría o intercambiar mensajes con una IA generativa puede invalidar la protección legal y constituir una “renuncia al privilegio de confidencialidad”.
Otros despachos ensayan soluciones más audaces. Debevoise & Plimpton aconseja a sus clientes que, si deben usar IA para investigaciones jurídicas, incluyan en la caja de texto (prompt) la frase: “consulta realizada bajo instrucción directa del abogado”. El objetivo es intentar forzar la cobertura del privilegio extendiendo la figura del abogado hacia la herramienta tecnológica, aunque la eficacia de esta táctica aún no ha sido probada en tribunales.
Recomendaciones estratégicas para abogados y clientes
Para corporaciones, gerentes legales y litigantes, este escenario exige medidas drásticas y proactivas para evitar vulnerabilidades probatorias:
Política de “Cero IA” en datos sensibles: Los clientes deben abstenerse de introducir hechos específicos del caso, nombres reales, cifras financieras o estrategias de litigio en plataformas de IA generativa públicas o comerciales.
Auditoría y control de cumplimiento interno: Los departamentos legales corporativos deben actualizar sus políticas de compliance, exigiendo a sus ejecutivos y empleados el registro previo de cualquier consulta jurídica realizada a plataformas externas.
Actualización de contratos de representación: Todo contrato de prestación de servicios legales debe incluir ahora cláusulas de limitación de responsabilidad sobre el uso no autorizado de IA por parte del cliente, advirtiendo sobre el riesgo de renuncia al secreto profesional.
Migración a IA en entornos cerrados: Para no perder la ventaja competitiva tecnológica, los grandes despachos deben invertir en soluciones de IA de “red cerrada” (on-premise o enterprise clouds), donde los términos de servicio garanticen contractualmente que los datos no serán revisados, compartidos ni utilizados para entrenar modelos.
El caso Heppner y la decisión del juez Rakoff marcan un antes y un después en la abogacía moderna. Nos recuerdan que, por más avanzada que sea una tecnología, esta no opera en el vacío jurídico. La inteligencia artificial es una herramienta extraordinaria de productividad, pero carece del deber fiduciario, el deber de lealtad y el imperativo ético de confidencialidad que definen a la profesión legal.
Mientras los tribunales terminan de armonizar sus criterios y delimitan las fronteras del privilegio en la era digital, la regla de oro tradicional vuelve a imponerse: los secretos, hasta nuevo aviso, solo están seguros a puerta cerrada entre un cliente y su abogado de carne y hueso.





