

Tenable Research ha descubierto múltiples vulnerabilidades nuevas y persistentes en OpenAI ChatGPT que puede permitir que un atacante extraiga información
la memoria privada del usuario y el historial de chat.
Según el estudio, estos fallos incluyen inyecciones rápidas indirectas, exfiltración de datos personales, evasión de filtros de seguridad. y la capacidad de un atacante de modificar «recuerdos» usuario para extraer datos persistentemente. En pocas palabras, simplemente hacer una pregunta inocente puede exponerlo a la manipulación del sistema si una IA accede a un sitio web comprometido o se topa con instrucciones ocultas.
LEER TAMBIÉN
Para los usuarios comunes, el impacto no se limita a la privacidad digital: comprometer la seguridad de la cuenta puede provocar robo de credenciales bancarias, robo de identidad, fraude electrónico y pérdidas financieras.. Cientos de millones de personas utilizan modelos de lenguaje como ChatGPT todos los días para buscar, ver documentos o planificar gastos. Si en estas conversaciones se incluyen datos financieros, el riesgo se multiplica.
Tenable explica que la «inyección rápida», la técnica más peligrosa, permite al modelo cambiar las instrucciones que sigue al procesar información, lo que provoca que realice acciones no deseadas. En el caso de las llamadas inyecciones indirectas, el ataque se produce desde fuentes externas, como blogs o comentarios en sitios aparentemente confiables. La vulnerabilidad identificada en el mecanismo de seguridad url_safe permitiría incluso eludir los filtros que bloquean enlaces sospechosos, creando rutas encubiertas a sitios maliciosos.
Deberías saber esto. foto:iStock
Los investigadores Moshe Bernstein y Liv Matan demostraron que el ataque podría funcionar simplemente pidiendo a la IA que resumiera la página, ya que el sistema de navegación secundario (SearchGPT) podría escuchar las instrucciones ocultas. A través de esta ruta, un hacker puede insertar comandos que modificar el comportamiento del modelo principal (ChatGPT) o recopilar información sensible de la memoria del usuario.
En el ámbito de las finanzas personales, esto significa que todos los datos ingresados en la conversación, ccomo números de cuenta, contraseñas, documentos de identificación o estados financieros, Pueden ser interceptados si se ejecuta una vulnerabilidad activa. Los expertos en seguridad recomiendan mantener una política estricta de «exposición digital mínima».«, evitando compartir información que no se haría pública.
Además, los usuarios deben verificar las conexiones sugeridas por la IA, evitar ingresar información personal en conversaciones con modelos en línea y activar la autenticación de usuario. dos factores con cuentas bancarias, billeteras digitales y correo electrónico. También es recomendable revisar y eliminar memorias en las plataformas que las utilicen, ya que pueden conservar datos privados sin que el usuario se dé cuenta.
Con la ayuda de la inteligencia artificial, las empresas quieren evitar este tipo de fraude. foto:iStock
La investigación sostenible enfatiza que, Aunque OpenAI solucionó algunos fallos después de que se informaran, varias vulnerabilidades siguen activas en GPT-5. La propia naturaleza de los modelos de lenguaje dificulta eliminar por completo el riesgo de inyección rápida, por lo que los proveedores de IA deberán reforzar sus filtros y protocolos de aislamiento para proteger la información del usuario.
Los expertos señalan que en un mundo donde la vida financiera se gestiona a través de un teléfono móvil y las decisiones sobre gastos o ahorros pueden ser respaldadas por asistentes de inteligencia artificial, la ciberseguridad ya no es una cuestión técnica. sino una forma de educación financiera moderna. Saber cómo proteger los datos es tan importante como aprender a administrar una cuenta de ahorro o un préstamo.
La recomendación general es clara: los usuarios no pueden confiar ciegamente en la IA. Cada conversación puede ser una ventana abierta a la ingeniería social. No se trata de abandonar la tecnología, se trata de usarla sabiamente: no compartir datos financieros, no seguir enlaces desconocidos y practicar hábitos digitales seguros.
Así como el presupuesto familiar se divide entre gastos, ahorros y deudas, la nueva economía digital requiere un cuarto componente: gestionar el riesgo cibernético personal.
Más noticias
LEER TAMBIÉN
LEER TAMBIÉN





