Del éxtasis a los riesgos de seguridad: las “drogas” que alteran las respuestas de ChatGPT
En los últimos meses han empezado a circular módulos externos que alteran el comportamiento de modelos de lenguaje como ChatGPT o Gemini, comercializados bajo nombres que evocan sustancias psicoactivas como “cocaína”, “MDMA” o “ayahuasca”. Estas herramientas prometen modificar el tono y el estilo de las respuestas, pero también pueden abrir la puerta a vulnerabilidades técnicas, filtraciones de información y usos indebidos de datos personales.
En la tribuna publicada en Cinco Días, nuestra especialista en Corporate Compliance y privacidad Mariana Sucre, analiza los principales riesgos asociados a este tipo de prácticas, especialmente cuando se utilizan en entornos corporativos sin la debida supervisión legal y técnica. Entre ellos, la posibilidad de exfiltración de datos mediante inyección de prompts, el uso no autorizado de información para entrenamiento de modelos, la generación de un falso clima de confianza que induce a los usuarios a revelar datos sensibles y la dificultad para garantizar el cumplimiento de la normativa de protección de datos.
Más allá de su aparente dimensión creativa, la manipulación deliberada del comportamiento de sistemas de IA plantea cuestiones clave en materia de responsabilidad, cumplimiento normativo y protección de la privacidad. En este artículo se aborda por qué estas “drogas” para la IA no son solo una curiosidad tecnológica, sino un potencial vector de riesgo que empresas y usuarios no deberían subestimar.

