Los grandes modelos de lenguaje (LLM), como ChatGPT, Claude y Gemini, están transformando distintos sectores al posibilitar flujos de trabajo más ágiles, análisis más profundos y herramientas más inteligentes. Sus capacidades están cambiando radicalmente nuestra forma de trabajar, comunicarnos e impulsar la innovación.
Los LLM son una forma avanzada de inteligencia artificial (IA) que se entrena con enormes volúmenes de datos textuales para aprender patrones y conexiones entre palabras y frases. Esto les permite generar textos sorprendentemente próximos al uso humano y responder a un número creciente de casos de uso. Pero su creciente adopción conlleva responsabilidades. Hoy en día, los LLM se utilizan en muchos ámbitos, desde la atención al cliente hasta la ciberseguridad, lo que los convierte en blancos prioritarios de ataques y usos indebidos. En caso de incidente, las consecuencias pueden ser considerables. Un incidente podría, por ejemplo, exponer datos sensibles, generar contenido dañino o engañoso o provocar una pérdida de confianza en los sistemas de IA.
Para las empresas, los riesgos son aún mayores. Una sola fuga o filtración de datos o el uso indebido de un LLM puede dar lugar a filtraciones de datos, daños a la reputación de la marca o violaciones de las normas de privacidad y cumplimiento, con el consiguiente impacto económico.
También hay ángulos muertos. Los LLM pueden dar respuestas completamente erróneas con absoluta seguridad en sí mismos. Sus respuestas pueden reflejar prejuicios existentes, pasar por alto matices culturales o influir sutilmente en la forma de tomar decisiones. Cuanto más confiamos en ellos, más fácil nos resulta aceptar las respuestas sin cuestionarlas. Por eso es esencial no solo crear modelos más inteligentes, sino también tener las ideas claras sobre lo que pueden pasar por alto y lo que podemos perdernos por su culpa.
En este artículo analizamos los retos específicos que plantea el uso de los LLM. Evaluaremos los riesgos de seguridad que plantean, examinaremos algunos ejemplos concretos de uso inseguro y describiremos cómo puede proteger mejor su organización.
¿Qué convierte a los LLM en desafío de seguridad único?
Las prácticas tradicionales de ciberseguridad no se han diseñado pensando en los LLM. A diferencia de los sistemas de software estándar, los LLM no producen resultados predecibles basados en reglas. Generan un lenguaje dinámico, a menudo sorprendente y a veces arriesgado. Esto abre una nueva categoría de vulnerabilidades a las que ahora tienen que hacer frente las empresas.
Los LLM pueden revelar inadvertidamente datos sensibles, comportarse de forma impredecible en función de los datos de entrenamiento o ser objeto de nuevas formas de manipulación, como la inyección de prompts. Como no "piensan" en términos humanos, no pueden corregirse ni auditarse del mismo modo que otros sistemas. ¿El resultado? Una tecnología poderosa que evoluciona rápidamente, pero que también es más difícil de gobernar.
A continuación describimos los principales retos que hacen que la seguridad de los LLM sea diferente y más compleja que la de las aplicaciones de software tradicionales.
- Respuestas dinámicas. Los LLM generan respuestas impredecibles. Pueden exponer información sensible o confidencial durante las interacciones de los usuarios, lo que dificulta el control de la información compartida.
- Ingestión de grandes volúmenes de datos. Los LLM se entrenan con grandes conjuntos de datos que pueden contener información sensible o propietaria. Cuando los modelos se personalizan para organizaciones concretas, existe el riesgo de que se incorporen datos sensibles a los modelos y se divulguen cuando se utilicen.
- Proceso de toma de decisiones opaco. Los LLM funcionan como "cajas negras", por lo que es difícil entender cómo generan determinados resultados. Esta falta de transparencia puede complicar la gestión de riesgos y dificultar la detección de posibles problemas.
- Nuevas superficies de ataque. Los LLM crean nuevas vulnerabilidades más allá de las capas de seguridad tradicionales de las aplicaciones web o en la nube. Estos pueden incluir ataques de inyección de prompts y envenenamiento de datos. Los modelos pueden filtrar información sensible si no se configuran correctamente.
Estos factores hacen de los LLM un reto único. Las organizaciones deben aplicar medidas de seguridad sólidas para garantizar la protección de datos y el cumplimiento de normativas.
Riesgos de seguridad más comunes en los LLM
Los LLM son herramientas poderosas. Facilitan el servicio al cliente, agilizan el trabajo y ayudan a tomar decisiones. Pero también generan nuevos riesgos para la seguridad. Considere los siguientes aspectos:
- Ataques de inyección de prompts. Los avisos ingeniosamente diseñados pueden manipular a los modelos para que revelen información sensible, eludiendo las medidas de seguridad tradicionales.
- Fugas de datos. Los modelos mal configurados pueden exponer datos privados durante las interacciones de los usuarios.
- Ataques de inversión de modelos. Los hackers podrían ser capaces de adivinar los datos con los que se ha entrenado un modelo. Esto puede exponer datos de clientes, planes de negocio u otros contenidos confidenciales.
- Integraciones de terceros inseguras. Muchos LLM se conectan a herramientas externas como API o plugins. Si no son seguras, pueden filtrar datos o utilizarse para ataques.
- Exceso de confianza y resultados erróneos o engañosos. Los LLM a veces inventan cosas. Si los usuarios confían implícitamente en los resultados de los modelos sin comprobarlos, pueden producirse errores o incumplimientos de normativas.
- Ataques de denegación de servicio mediante el uso indebido de tokens. Los ciberdelincuentes pueden sobrecargar las plantillas utilizando prompts largos o repetidos. Esto puede ralentizar o bloquear los servicios de IA.
- Phishing e ingeniería social gran escala. Los LLM pueden generar mensajes muy convincentes que imitan comunicaciones legítimas. Esto facilita a los ciberdelincuentes el diseño y la distribución de campañas de phishing dirigidas o ataques de ingeniería social. Esto aumenta el riesgo de robo de datos de acceso y de que los datos se vean comprometidos.
- Uso de las shadow AI (aplicaciones de IA no autorizadas o en la sombra). Los empleados podrían utilizar herramientas públicas de IA sin el debido permiso, introduciendo información privada y exponiendo a sus organizaciones a riesgos de seguridad.
Para utilizar los LLM con seguridad, las empresas necesitan normas estrictas y herramientas inteligentes. Deben controlar cómo se utilizan los modelos, formar al personal en su uso seguro y detener los comportamientos de riesgo antes de que causen daños.
Ejemplos reales de incidentes de seguridad relacionados con el LLM
Los problemas de seguridad asociados a los LLM no son un escenario hipotético, sino un reto actual. Veamos algunos ejemplos:
Samsung: Filtraciones de datos a través de ChatGPT
En 2023, los ingenieros de Samsung utilizaron ChatGPT para ayudarles en tareas como depurar código y resumir notas. Al hacerlo, se apoderaron de datos confidenciales de la empresa, incluido el código fuente e información interna.
Dado que ChatGPT registra las solicitudes de los usuarios para mejorar su rendimiento (salvo que estos opten por no hacerlo), es posible que los datos confidenciales de Samsung se incorporaran al modelo. Esto planteaba serias dudas sobre la divulgación de secretos comerciales o propiedad intelectual de la empresa. Tras el incidente, Samsung restringió el uso de ChatGPT y empezó a desarrollar sus propias herramientas de IA para uso interno.
Por qué es importante
En el ejemplo de Samsung, no hubo mala intención; simplemente se trataba de simples intentos de agilizar tareas. Sin embargo, si no se establecen límites claros ni hay un conocimiento adecuado sobre cómo gestionan los datos los LLM, incluso las interacciones habituales pueden exponer información extremadamente sensible
IA DeepSeek: cuestiones de privacidad
DeepSeek es una startup china de IA que ha desarrollado DeepSeek-R1, un modelo lingüístico potente y asequible comparable a ChatGPT. DeepSeek-R1 se utiliza para tareas como la escritura, la codificación y el análisis de datos, lo que hace que la IA avanzada sea más accesible para empresas y desarrolladores. Gracias a su eficiente diseño, utiliza menos recursos informáticos, lo que se traduce en menores costes.
Sin embargo, su rápido crecimiento ha suscitado preocupación por la privacidad y seguridad de los datos. Según su política de privacidad, DeepSeek almacena los datos de los usuarios en servidores ubicados en China, donde el gobierno podría tener acceso a ellos. Este riesgo ha llevado a las empresas preocupadas por su información sensible y el cumplimiento de normativas a actuar con cautela.
Concesionario Chevrolet: un chatbot de inteligencia artificial ofrece un coche de 76 000 dólares por un dólar
El chatbot de inteligencia artificial de un concesionario de Chevrolet saltó a los titulares tras ofrecer por error un todoterreno de 76 000 dólares por solo 1 dólar. Un usuario que chateaba con el bot pidió un gran descuento y la IA accedió. Llegó a decir: "Trato hecho". El chatbot no disponía de salvaguardias para detectar el error y, por tanto, reaccionó como si la oferta fuera real.

Captura de pantalla de una conversación con el chatbot de Chevrolet
Aunque el concesionario no hizo efectivo el descuento, el incidente se difundió rápidamente por Internet y suscitó serias dudas sobre el uso de la IA en la atención al cliente. Mostró lo fácil que es manipular a los LLM y por qué las empresas deben establecer límites claros sobre lo que estos bots pueden y no pueden decir.
Buenas prácticas en la protección de LLM
Para integrar los LLM de forma segura en sus flujos de trabajo, le recomendamos que adopte las siguientes prácticas de seguridad:
- Aplicación de controles de acceso. Utilice autorizaciones basadas en roles. Limite el acceso a los conjuntos de datos sensibles a quienes realmente los necesiten.
- Filtrado de preguntas y respuestas. Supervise los contenidos sensibles o nocivos para evitar fugas de datos y usos indebidos. Analice las respuestas de los modelos para garantizar que no se revelen datos sensibles. Esto es especialmente importante tras actualizaciones o ciclos de reentrenamiento.
- Minimización de datos. Limite los datos facilitados a los LLM a lo estrictamente necesario para su tarea específica.
- Optimización de las medidas de control. Adapte los LLM a las necesidades de su empresa mediante restricciones de seguridad personalizadas.
- Auditorías de seguridad y pruebas de penetración periódicas. Implemente un programa de auditorías y pruebas de penetración periódicas que tenga en cuenta explícitamente el comportamiento del LLM y los riesgos asociados.
- Concienciación de los usuarios sobre el uso seguro y responsable de los LLM mediante directrices claras y formación continua.
- Supervisión de la IA en la sombra. Implemente controles para identificar y bloquear el uso de LLM no aprobados dentro de la organización.
Soluciones y herramientas para mejorar la seguridad de los LLM
El uso seguro de los LLM es esencial. Las organizaciones deben considerar un enfoque de protección multicapa basado en herramientas especializadas para proteger tanto los modelos como los datos que procesan. A continuación incluimos algunos ejemplos de soluciones:
- Plataformas de supervisión de prompts. Estas herramientas pueden utilizarse para detectar y notificar comportamientos inusuales o malintencionados de los prompts que puedan indicar ataques de inyección de prompts o un uso indebido. Mediante el análisis continuo de las indicaciones y respuestas, identifican señales de alerta temprana de posibles amenazas. Las organizaciones pueden definir reglas para detectar o bloquear diferentes prompts en función de esta categorización. Así se garantiza que los contenidos generados por la IA coincidan con los objetivos de la empresa, reduciendo el riesgo de que la seguridad se vea comprometida.
- Seguridad de los datos para los LLM. Las estrategias tradicionales de prevención de la pérdida de datos deben evolucionar para hacer frente a los retos únicos de los entornos de IA. Las herramientas modernas de seguridad de datos deben incorporar funcionalidades adaptables y mecanismos de respuesta inteligentes adaptados a los LLM.
- Gateways de seguridad de la IA. Como punto de control entre los usuarios y los LLM, estos gateways gestionan y filtran el tráfico; aplican normas de seguridad, autentican a los usuarios y bloquean los accesos peligrosos o no autorizados a los servicios de IA.
- Arquitectura de confianza cero (Zero Trust) para sistemas de IA. Aplicar los principios de confianza cero a los LLM significa rechazar cualquier confianza implícita. Cada solicitud de acceso o interacción con el modelo debe comprobarse y evaluarse continuamente. Este enfoque es esencial cuando los LLM se ocupan de tareas o datos sensibles.
- API LLM seguras. Al integrar los LLM en las aplicaciones, es esencial adoptar prácticas de desarrollo seguras. En particular, deben aplicarse medidas adecuadas de autenticación, validación de entradas, limitación de velocidad y gestión de gateways API para reducir las superficies de ataque y evitar la explotación.
Combinando estas prácticas y herramientas de seguridad LLM, las organizaciones pueden crear un entorno de IA más resiliente y seguro que cumpla las normativas modernas de gestión de riesgos.
Previsiones de futuro: Integración de la seguridad LLM en su estrategia de IA
Los LLM desempeñan un papel cada vez más importante en el funcionamiento de las empresas, y esta tendencia no muestra signos de desaceleración. Con la proliferación de los LLM, la seguridad tiene que estar a la altura. Las organizaciones que empiecen ahora a desarrollar programas sólidos de uso seguro de la IA estarán mejor preparadas para gestionar las normativas de cumplimiento que inevitablemente se impondrán. De este modo, se ganarán la confianza de los clientes sin cerrarse a nuevas ideas e innovaciones.
También observamos que los LLM son cada vez más especializados y están diseñados para sectores específicos, como la sanidad, las finanzas y el derecho. Es más, a medida que los LLM se integren en herramientas cotidianas como Google Workspace y Microsoft 365, se convertirán en una parte natural de nuestra forma de trabajar. Sin embargo, la comodidad conlleva nuevos riesgos, por lo que es esencial dar prioridad a la seguridad.
Al fin y al cabo, garantizar la seguridad de sus LLM es simplemente una cuestión de sentido común. Porque no es solo su tecnología la que podría estar en peligro, sino toda su empresa.
Cómo puede ayudarle Proofpoint
Proofpoint se encuentra en una posición ideal para ayudar a las organizaciones a afrontar la evolución del panorama de ciberamenazas. Al utilizar las funciones avanzadas de LLM, Proofpoint Data Security Posture Management y las soluciones de prevención de la pérdida de datos de Proofpoint, protegen la información sensible impidiendo que se descargue, pegue o introduzca en herramientas como ChatGPT. Gracias a los controles automáticos de permisos, nuestras soluciones también limitan el acceso a los archivos compartidos por las instancias de Copilot dentro de la empresa.
Además, Proofpoint supervisa y gestiona los flujos de datos de IA en los distintos entornos de nube. Aplica normas de acceso a los datos y garantiza la coherencia de la clasificación y la gestión de riesgos de los LLM.
Con la seguridad optimizada por IA de Proofpoint, su organización puede aumentar con confianza la adopción de LLM al tiempo que mantiene unas defensas sólidas. Para obtener más información, visítenos en Proofpoint.com o póngase en contacto con nosotros hoy mismo.