METODOLOGÍA

¿Mis datos van a ser privados? ¿La IA va a entrenarse con mi información?

La pregunta de cumplimiento que todo CFO, gerente legal o compliance hace antes de aprobar el proyecto. En los planes Claude Team o Enterprise, sus datos no entrenan al modelo y sus archivos quedan dentro de su workspace. Anthropic con certificación SOC 2 Type II.

En los planes Claude Team o Enterprise, Anthropic no usa sus datos para entrenar el modelo, sus archivos quedan dentro de su workspace, y Anthropic mantiene certificación SOC 2 Type II. Para SEC, IFRS, bancos centrales y secreto profesional, esta configuración es auditable. Yo documento el flujo de datos para que su equipo de cumplimiento lo apruebe.

Las tres preguntas de privacidad que toda firma regulada hace

Un socio de una firma de gestión patrimonial en LATAM me hizo tres preguntas de privacidad seguidas en nuestra primera llamada. "Cuando vos cargas la informacion, esa informacion es publica. Si yo pago un acceso a ChatGPT, no me podes sacar toda la informacion en 2 minutos. Que pasa si se filtra un reporte." En la traducción operativa: cuando carga información, ¿esa información se vuelve pública? Si paga acceso a ChatGPT, ¿alguien puede sacarle toda la información en dos minutos? ¿Qué pasa si se filtra un reporte?

Sus auditores del banco central preguntan lo mismo: qué sistemas, qué servidores, dónde vive el dato. Un socio de un estudio boutique de Brickell me hizo la versión legal: qué pasa con la privacidad del cliente, qué pasa con el secreto profesional, qué pasa si la IA memoriza mis notas de caso. Es la misma puerta que levantan estudios legales protegiendo el secreto profesional en la primera llamada.

Estas tres preguntas matan el deal cada vez que quedan sin respuesta. Acá está la respuesta que les doy.

GARANTÍAS DEL PLAN

Qué hace Anthropic con sus datos en realidad

En los planes Claude Team o Enterprise, Anthropic no usa sus inputs ni outputs para entrenar el modelo. Es contractual, no aspiracional. Está en el addendum de procesamiento de datos que viene con ambos planes, y su equipo de cumplimiento puede revisar el texto antes de firmar.

Sus archivos viven dentro de su workspace, accesibles solo para los asientos que usted asigna. Anthropic mantiene certificación SOC 2 Type II, lo que significa que un auditor independiente revisó los controles de Anthropic durante una ventana de observación de varios meses. El plan Enterprise agrega single sign-on, audit logs y controles de administrador que un CISO puede revisar y aprobar.

Para asesores de inversión registrados con la SEC, esta configuración es consistente con los requisitos de privacidad al cliente bajo Reg S-P. Para fondos LATAM que reportan bajo IFRS a reguladores de bancos centrales, la residencia de los datos y la superficie de audit-log son documentables. Para estudios legales en Estados Unidos, el secreto profesional no se debilita porque sus archivos no salen de su workspace y no se usan para entrenar el modelo.

CONFIGURACIÓN ADICIONAL

Qué hago yo encima de eso

Las garantías a nivel del plan son necesarias, no suficientes. Tres cosas pasan encima.

Primero, configuro el workspace de Claude antes de que entre ningún dato del cliente

Asientos, reglas de compartición, integraciones externas permitidas, ventanas de retención, y el archivo operativo CLAUDE.md que define qué puede y qué no puede hacer la IA con material sensible. Esta sesión suele tomar medio día con su líder de TI y un revisor de cumplimiento.

Segundo, escribo un documento de flujo de datos

Para una firma patrimonial, esto significa especificar dónde vive cada input, quién puede acceder, qué tiene permitido leer la IA, y qué queda registrado. Para un estudio legal, significa mapear qué carpetas de caso fluyen hacia Claude, cuáles quedan air-gapped, y cómo se preserva la confidencialidad de cada matter a través de los prompts. Su oficial de cumplimiento revisa y firma el mismo documento que verá su auditor.

Tercero, fijo la postura de confidencialidad dentro del archivo operativo

Nunca exponer cifras específicas externamente, nunca nombrar clientes específicos en contextos legibles por máquina, nunca publicar material marcado como confidencial. El CLAUDE.md se convierte en una barrera que Claude lee en cada interacción.

UN EJEMPLO REAL

La lista de confidencialidad de una empacadora

Una empacadora con operaciones en múltiples países me contrató el año pasado. El CEO mantiene una lista confidencial dentro del archivo operativo CLAUDE.md: ítems que nunca deben aparecer en ninguna propuesta, email u output público que la IA genere. Tablas de margen. Identidades sensibles de proveedores y clientes. La IA lee la lista antes de responder a cualquier pedido y la respeta en cada interacción. La barrera no es externa. Vive dentro del archivo operativo que el modelo lee primero.

POR QUÉ CLAUDE

Qué pasa con ChatGPT

Los compradores a menudo llegan habiendo probado ChatGPT y se pusieron nerviosos. Los tiers Free y Plus de ChatGPT retienen conversaciones por defecto y pueden usarlas para entrenamiento. Los tiers Team y Enterprise no, y el Enterprise de ChatGPT también mantiene SOC 2 Type II. La misma lógica aplica: la garantía a nivel del plan importa, la configuración del workspace importa más.

Trabajo con Claude por cómo interactúa el patrón de archivo operativo con el modelo, no porque Claude sea "más privado". Tanto Anthropic Enterprise como OpenAI Enterprise pueden configurarse para cumplir el mismo nivel de exigencia regulatoria. La diferencia es el sistema de Skills más CLAUDE.md, que compone con el tiempo en Claude de maneras que son más difíciles de replicar en otra parte.

PARA QUÉ SE INSCRIBE

Los entregables, ordenados

Los pilotos siempre incluyen el documento de flujo de datos como entregable en la semana uno, antes de que se toque ningún dato de producción. Si su equipo de cumplimiento rechaza la configuración, el piloto se detiene y usted no paga nada por lo que no se entregó.

Las garantías a nivel del plan y el documento de flujo de datos manejan el perímetro. El archivo operativo CLAUDE.md maneja lo que pasa adentro. Juntos le dan al oficial de cumplimiento algo que auditar en cada capa. La configuración va de la mano con el diagnóstico que mapea sus datos, así que la auditoría y la postura de cumplimiento se entregan como un solo proyecto.

Si su equipo de cumplimiento necesita ver el documento de flujo de datos antes de que comience ningún piloto, envíeme su entorno y lo redacto antes de la primera llamada. No se requiere NDA para el borrador mismo; el documento simplemente mapea cómo la IA tocaría sus datos, no qué son sus datos.

PREGUNTAS DE CUMPLIMIENTO

Las dudas que sus auditores y compliance ya tienen escritas

No. En los planes Claude Team o Enterprise, Anthropic no usa sus inputs ni outputs para entrenar el modelo de manera contractual. Lo mismo aplica a los tiers Team y Enterprise de ChatGPT. Los tiers Free y Plus sí pueden retener datos; los planes de negocio no.

El secreto profesional no se debilita en el plan correcto. Sus archivos quedan dentro de su workspace, no se usan para entrenamiento, y solo los asientos que usted asigna pueden acceder. La configuración es consistente con el privilegio mientras su firma controle la lista de asientos.

Sí, cuando se configura correctamente. Anthropic mantiene certificación SOC 2 Type II, el plan Enterprise provee audit logs y SSO, y el documento de flujo de datos que entrego mapea cómo fluye la información del cliente. Es consistente con los requisitos de privacidad bajo Reg S-P.

Las fugas ocurren en la capa humana o de integración, no en el modelo. El archivo operativo CLAUDE.md fija las reglas de confidencialidad, los permisos de workspace limitan quién accede a qué, y los audit logs muestran cada evento de acceso. Aplican los procedimientos estándar de respuesta a incidentes.

El tier gratuito puede usar conversaciones para entrenamiento. El plan Team no, tiene workspaces multi-asiento, y cumple SOC 2 Type II. Enterprise agrega SSO, audit logs, retención personalizada, controles de administrador y ventanas de contexto más largas. Las firmas reguladas necesitan al menos Team.

Sí. El documento de flujo de datos que escribo describe qué sistemas tienen los datos, hacia dónde fluye cada input, quién puede acceder y qué queda registrado. Es el mismo documento que su oficial de cumplimiento firma y su auditor revisa. Disponible en español e inglés para reguladores LATAM.

No. En los planes Team y Enterprise, las conversaciones quedan vinculadas al asiento que las inició. Otros asientos no las ven. Las conversaciones no se usan para entrenar el modelo compartido, así que la memorización entre clientes es estructuralmente imposible. El modelo no tiene memoria entre sesiones.

Los documentos cargados a un workspace de Claude Team o Enterprise quedan en ese workspace. No se envían a otros clientes de Anthropic, no se usan para entrenamiento, y son accesibles solo para los asientos con permisos explícitos. El archivo operativo CLAUDE.md agrega reglas de confidencialidad encima.

Típicamente de 5 a 15 días hábiles desde que entrego el documento de flujo de datos. Más rápido si su equipo de cumplimiento ya revisó la atestación SOC 2 de Anthropic. Más lento si es una industria regulada con una revisión inédita. Acompaño a su equipo a responder consultas del auditor durante esa ventana.

Esa es la situación de la mayoría de reguladores en 2026. La configuración que despliego mapea a las reglas existentes de protección de datos y tercerización que su equipo de cumplimiento ya conoce. El documento de flujo de datos explica cómo la IA toca cada control. La eventual guía de su regulador probablemente formalice lo que esta configuración ya cubre.

¿Su equipo de cumplimiento necesita ver el documento de flujo de datos antes de la primera llamada? Envíeme su entorno y lo redacto antes de hablar.

No se requiere NDA para el borrador. El documento mapea cómo la IA tocaría sus datos, no qué son sus datos.