Publicado: 2026-04-24 · Actualizado: 2026-04-24
No. NexoSmart deployea el LLM propio en la infraestructura del cliente o en cloud privado bajo contrato. Los datos del cliente nunca van a OpenAI, Anthropic ni Google. Tampoco se usan para entrenar modelos compartidos con otros clientes. El fine-tuning genera un modelo aislado. NDA mutuo se firma desde el primer call. Para clientes regulados (salud, fintech, legal) hay opción de deployment 100% on-premise con compliance GDPR/HIPAA documentado.
Tres niveles: (1) Cloud público gestionado por NexoSmart — más rápido, menos control. (2) Cloud privado donde el cliente paga compute en AWS/GCP/Azure de su cuenta — balance. (3) On-premise — máximo control, más caro.
No se comparten datos entre clientes. No se usan conversaciones del cliente para entrenar modelos genéricos. No se pasan prompts a APIs de OpenAI/Anthropic. No se venden datos.
Cada acción del agente está logueada con timestamp, input, output y decisión. El cliente accede a logs completos en cualquier momento. Disponible export a SIEM.
Sí. Y también con GDPR (UE), LGPD (Brasil) y HIPAA (USA salud) si el deployment lo requiere.
No. Cada cliente tiene su modelo aislado. Hay isolation a nivel de tenant más a nivel de modelo.
Escrito por Maximiliano Rodríguez, Fundador y Director de NexoSmart
Última actualización: abril de 2026
Completá estos 3 pasos y recibí una propuesta detallada en tu email.