Cada vez que envías un mensaje rápido a tu banco, compañía de seguros o minorista favorito en México, probablemente no piensas en la privacidad. Simplemente la asumes.
Esa suposición es errónea.
En un país donde los negocios se mueven a través de aplicaciones de mensajería, la conveniencia de los chatbots de IA instantáneos viene con una complejidad oculta. Si bien la ley de protección de datos de México exige transparencia y consentimiento informado, estos principios a menudo se desvanecen en el momento en que haces clic en “enviar” a un asistente de IA de terceros.
La conversación fluida que estás teniendo puede ser un aspirador de datos. Tus palabras privadas (quejas sobre el servicio, preocupaciones financieras, temas de salud) están siendo transferidas a plataformas de IA externas, almacenadas en servidores extranjeros y potencialmente utilizadas en formas a las que nunca accediste explícitamente. Esto sucede mientras las divulgaciones legales requeridas permanecen deliberadamente invisibles o son incomprensibles.
El Problema del Tercero: ¿Quién Está Leyendo Realmente tus Mensajes?
La dependencia de las empresas mexicanas en plataformas de mensajería como WhatsApp y Messenger para el servicio al cliente ha creado una alarmante brecha en la protección de datos personales. Pero hay una capa que la mayoría de los clientes no ve: muchos de estos chatbots de servicio al cliente no son construidos ni operados por las compañías con las que crees estar hablando.
En cambio, las empresas mexicanas están subcontratando cada vez más la IA conversacional a plataformas de terceros (compañías como Infobip, Twilio, Gupshup, o docenas de proveedores más pequeños) que, a su vez, construyen chatbots utilizando APIs de OpenAI (ChatGPT), Google (Gemini), Anthropic (Claude) u otros grandes proveedores de modelos de lenguaje.
Esto crea una cadena de custodia de datos a la que los consumidores nunca dieron su consentimiento y de la que las empresas que implementan estas herramientas son legalmente responsables, ya sea que entiendan completamente las implicaciones o no.
La Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP) exige transparencia y consentimiento informado. La práctica diaria en los canales de mensajería sugiere un cumplimiento mínimo, dejando a millones de usuarios en una zona de riesgo que ni siquiera saben que existe.
La Ilusión del “Aviso de Privacidad”
El principio de transparencia se derrumba frente a la inmediatez de la mensajería. Legalmente, toda empresa debe proporcionar un Aviso de Privacidad claro antes de recopilar datos. En las aplicaciones de mensajería, esto se reduce típicamente a un solo enlace o una línea de texto oculta en el primer mensaje automatizado: “Al continuar, aceptas nuestra política de privacidad [enlace]”.
Seamos claros sobre lo que esto significa en la práctica:
- Lo que la ley exige: Información clara sobre quién recopila tus datos, con qué propósitos, con quién se compartirán y tus derechos a rechazar el procesamiento no esencial.
- Lo que realmente obtienes: Una URL que conduce a una política de privacidad genérica que puede tener miles de palabras, rara vez menciona el procesamiento por IA específicamente, y casi nunca divulga que tu conversación será enviada a proveedores externos como OpenAI, Google o Anthropic.
Este formato anula el concepto de “consentimiento informado”. No puedes consentir de manera significativa algo que no sabes que está sucediendo. Y la mayoría de los clientes que interactúan con estos chatbots no tienen idea de que sus mensajes están saliendo del control de la empresa.
La Cadena de Custodia Oculta
Esto es lo que realmente sucede cuando envías un mensaje al chatbot de un minorista impulsado por una plataforma de terceros:
- Envías un mensaje pensando que estás hablando con el Banco X o la Minorista Y.
- Ese mensaje se dirige a través de un proveedor de plataforma de chatbot (la empresa middleware).
- Luego, el middleware envía tu texto a un proveedor de IA como OpenAI, Google o Anthropic.
- La IA procesa tus palabras en servidores probablemente fuera de México, genera una respuesta y la envía de vuelta a través de la misma cadena.
Tu conversación puede ser registrada en múltiples puntos a lo largo de este camino.
Cada paso representa una posible transferencia de datos que debería requerir una divulgación explícita bajo la LFPDPPP. En la práctica, a la mayoría de los clientes nunca se les informa que esta cadena existe.
El Propósito Oculto: ¿Qué Sucede con tus Datos?
Aquí es donde falla el principio de Finalidad. La LFPDPPP requiere que las empresas te digan por qué están recopilando tus datos y obtengan un permiso separado para usos secundarios. Cuando interactúas con estos chatbots de IA de terceros, suceden múltiples cosas con tu información.
El propósito primario es directo: responder a tu pregunta de servicio al cliente. Pero existen propósitos secundarios que deberían requerir tu permiso explícito:
- Usar tu conversación para mejorar el desempeño del chatbot para ese negocio específico.
- Permitir que la plataforma middleware estudie patrones de conversación en todos sus clientes.
- Permitir que el proveedor de IA utilice tus datos de acuerdo con sus términos de servicio.
La ley dice que deberías poder rechazar estos usos secundarios sin perder el acceso al servicio básico. En realidad, a los usuarios de chatbots casi nunca se les dan opciones claras para negarse a que sus datos sean compartidos con plataformas de IA de terceros, evitar que sus conversaciones se utilicen para entrenar modelos de IA o bloquear el análisis de sus patrones de interacción a través de diferentes compañías.
Al continuar la conversación, los usuarios dan un consentimiento ambiguo y tácito para que sus consultas, quejas e incluso información sensible fluyan a través de una cadena de terceros con prácticas de datos variables.
Lo Que Hacen Realmente los Proveedores de LLM con tus Datos
Aquí debemos separar lo que está documentado de lo que es posible. Los principales proveedores de IA tienen diferentes políticas para el uso de API comerciales en comparación con sus productos de consumo.
- Los términos de la API de OpenAI establecen que no utilizan datos de API comerciales para entrenar sus modelos a menos que los clientes opten explícitamente por hacerlo, aunque conservan los datos durante 30 días para monitorear el abuso.
- Google afirma que los mensajes enviados a través de la API de Gemini no se utilizan para entrenar sus modelos para clientes comerciales, aunque los datos pueden almacenarse temporalmente.
- La API de Claude de Anthropic tampoco utiliza datos para entrenar modelos y los conserva solo brevemente por motivos de seguridad.
Sin embargo, estas políticas tienen limitaciones importantes. Se aplican a los clientes comerciales directos (las plataformas middleware), no necesariamente a ti como usuario final. La información sobre cómo utilizas el servicio, los patrones en tu comportamiento y los datos de rendimiento aún pueden recopilarse incluso cuando tus palabras reales no se utilizan para el entrenamiento. Los términos de servicio pueden cambiar en cualquier momento. Las propias plataformas middleware pueden tener reglas completamente diferentes sobre cómo conservar y utilizar tus datos. Y no hay una forma práctica para que los consumidores o las empresas verifiquen que se esté siguiendo algo de esto.
El Riesgo Real: La Capa Middleware
El peligro a menudo pasado por alto no son necesariamente los proveedores de LLM, sino las empresas de plataformas de chatbots que se encuentran entre las empresas mexicanas y esos LLMs.
Estas plataformas tienen acceso directo al contenido completo de la conversación y a menudo agregan datos de múltiples clientes comerciales. Pueden usar tus interacciones para mejorar sus propios productos y operar bajo políticas de privacidad que nunca has visto. Muchas tienen su sede fuera de México con una responsabilidad legal poco clara.
Un cliente que se queja de una comisión bancaria no solo comparte esa información con su banco. La comparte con la plataforma de chatbot (que puede servir a docenas de instituciones financieras) y potencialmente con el proveedor de LLM. Las perspectivas derivadas de miles de conversaciones de este tipo se convierten en activos comerciales que pueden informar inteligencia competitiva, desarrollo de productos o incluso venderse como insights agregados.
La Asimetría Que Nadie Menciona
Las empresas mexicanas pueden creer que simplemente están agregando automatización para mejorar el servicio al cliente. Lo que quizás no aprecien completamente es que están abriendo canales para que las empresas tecnológicas globales y regionales mapeen discretamente patrones de comportamiento del consumidor a una escala y granularidad que ningún banco, minorista o aseguradora individual podría recopilar legalmente por sí mismo.
Los incentivos económicos están desalineados. Las empresas mexicanas quieren un servicio al cliente eficiente. Las plataformas middleware quieren construir mejores productos utilizando datos agregados. Los proveedores de IA quieren mantener modelos competitivos. Y tú, el usuario final, solo quieres que se resuelva tu problema, sin saber que tus datos están viajando a través de todo este ecosistema.
Para un país que ya tiene dificultades con la aplicación de la protección de datos, esto debería ser una seria preocupación. La confianza se está extendiendo a sistemas con responsabilidad y supervisión locales limitadas.
Lo Que Debería Suceder (Pero No Sucede)
Bajo la LFPDPPP, las empresas que utilizan chatbots de IA de terceros deberían informarte claramente antes de cualquier interacción que tus conversaciones serán procesadas por plataformas de IA externas.
Deberían:
- Nombrar a los terceros específicos que verán tus datos de conversación.
- Explicar qué hará cada parte con ellos.
- Debes tener opciones reales para optar por no participar que no te impidan acceder al servicio esencial.
Las empresas necesitan acuerdos con terceros que protejan tus derechos bajo la ley mexicana y deben usar medidas técnicas para mantener tus datos lo más contenidos posible, como procesar localmente cuando sea factible.
Lo que realmente sucede: Un enlace oculto a una política de privacidad genérica que menciona “proveedores de servicios” sin nombrarlos ni explicar su papel en el procesamiento de IA.
Pero hay una pregunta más profunda que las empresas deberían hacerse: ¿Es la automatización siempre la respuesta correcta? La prisa por implementar chatbots a menudo trata la eficiencia como la única medida de éxito, ignorando lo que se pierde en el proceso. Cuando un cliente está confundido, frustrado, enojado o lidiando con una situación sensible que involucra su dinero o información personal, una conversación con un humano real que pueda ejercer juicio, empatía y discreción puede no solo ser preferible, sino necesaria.
Los chatbots son herramientas, no soluciones. Funcionan bien para consultas simples y repetitivas: verificar saldos de cuentas, rastrear pedidos, restablecer contraseñas. Pero en el momento en que una situación requiere matices, las limitaciones se vuelven obvias. Y esas limitaciones conllevan costos que no aparecen en los paneles de eficiencia: frustración del cliente, confianza dañada y la exposición legal que proviene de prácticas de datos mal divulgadas.
Invertir en representantes de servicio al cliente humanos bien capacitados no es un paso atrás. Es un reconocimiento de que algunos problemas merecen ser resueltos correctamente, y que el servicio al cliente se trata, en última instancia, de relaciones entre personas, no de intercambios de datos entre sistemas. Para las empresas mexicanas que intentan construir lealtad de clientes a largo plazo en mercados competitivos, esa distinción importa más que unos pocos segundos de tiempo de respuesta.
Lo Que Puedes Hacer
Como Consumidor: Tienes derechos bajo la LFPDPPP que la mayoría de las empresas esperan que no ejerzas.
- Puedes solicitar acceso a tus datos bajo el Artículo 22 y presentar quejas ante el INAI cuando las divulgaciones sean inadecuadas.
- Para asuntos sensibles como problemas financieros o de salud, considera llamar o visitar en persona en lugar de usar chatbots.
- Cuando uses un chatbot, intenta comenzar con este simple mensaje:
“Disculpe, ¿estoy hablando con una IA? Si es así, ¿quién la proporciona y quién procesa mis datos?”
La mayoría de las empresas no tendrán una buena respuesta lista. Esa es la clave. Cuando suficientes clientes pregunten, las empresas se darán cuenta de que necesitan mejores respuestas y mejores prácticas.
Como Dueño de Negocio o Tomador de Decisiones: Eres legalmente responsable de cómo tus proveedores manejan los datos de los clientes, incluso si no comprendes completamente su infraestructura técnica.
- Audita la cadena de datos de tu proveedor de chatbot para que sepas exactamente a dónde va la información del cliente.
- Revisa tu aviso de privacidad para nombrar explícitamente las plataformas de IA y los proveedores middleware que utilizas.
- Ofrece a los clientes formas claras de aceptar o rechazar el procesamiento por IA.
Considera alternativas que preserven la privacidad y mantengan el procesamiento de datos bajo tu control. Soluciones autohospedadas como Ollama (que te permite ejecutar modelos de IA completamente en tus propios servidores) o plataformas como Rasa (un framework de chatbot de código abierto diseñado para la implementación on-premise) te brindan los beneficios de la automatización por IA mientras aseguran que los datos del cliente nunca salgan de tu infraestructura. Si bien estos requieren más configuración técnica que las soluciones plug-and-play en la nube, proporcionan el nivel de control y transparencia que la LFPDPPP realmente exige.
Asegúrate de que tus contratos con los proveedores de tecnología incluyan fuertes protecciones para los derechos de tus clientes bajo la ley mexicana. Recuerda: eres responsable de las prácticas de tus proveedores. “No lo sabía” no es una defensa legal bajo la LFPDPPP.
Como Regulador o Responsable de Políticas: Esta brecha entre la ley y la práctica exige atención.
- Emite orientación específica sobre los requisitos de transparencia de los chatbots de IA y exige un consentimiento explícito y separado para el procesamiento por IA de terceros.
- Exige a las empresas que etiqueten claramente cuándo los clientes están interactuando con sistemas de IA externos.
- Considera si las interacciones sensibles con los clientes (banca, seguros, atención médica) deberían tener requisitos de localización de datos o restricciones sobre el procesamiento extranjero.
El Resultado Final
La conveniencia del servicio al cliente impulsado por IA es real. Pero se está construyendo sobre una base de opacidad que viola tanto la letra como el espíritu de la ley de protección de datos de México. La brecha entre los requisitos legales y la práctica real no es un problema de cumplimiento menor, sino una falla sistemática de transparencia que afecta a millones de interacciones diarias.
No se trata de rechazar la IA o volver a un servicio más lento. Se trata de exigir que las empresas y sus socios tecnológicos respeten el principio básico de que las personas tienen derecho a saber qué sucede con su información personal. Hasta que eso cambie, cada conversación de chatbot en México conlleva riesgos ocultos que los clientes nunca aceptaron tomar.
Declaración de Transparencia de IA para “¿Servicio al Cliente o Extracción de Datos?”: El autor definió todos los conceptos centrales, la dirección y los parámetros para este trabajo. En la redacción de este artículo, “Servicio al Cliente o Extracción de Datos?”, la IA ayudó a redactar el texto, editar y refinar, y realizar investigaciones. Las herramientas de IA utilizadas incluyen ChatGPT, Claude y Gemini. Todo el contenido generado por IA fue revisado y verificado exhaustivamente para garantizar su precisión y adecuación. El trabajo final refleja principalmente el juicio y la experiencia humanos.


Deja un comentario