Riesgo-de-Seguridad-Alarmante-en-ChatGPT

Riesgo de Seguridad Alarmante en ChatGPT tras Nueva Actualización

Las recientes actualizaciones de ChatGPT, como el Intérprete de Código, han generado una serie de preocupaciones de seguridad en torno a la popular inteligencia artificial generativa de OpenAI. Según la investigación del experto en seguridad Johann Rehberger, y el trabajo posterior de Tom’s Hardware, ChatGPT presenta fallos de seguridad evidentes que se derivan de su nueva función de carga de archivos.

La última actualización de OpenAI a ChatGPT Plus incorporó una serie de nuevas funciones, incluyendo la generación de imágenes DALL-E y el Intérprete de Código, que permite la ejecución de código Python y el análisis de archivos. El código se crea y se ejecuta en un entorno de sandbox, que lamentablemente es vulnerable a ataques de inyección de indicaciones.

Una vulnerabilidad conocida de ChatGPT desde hace algún tiempo, el ataque implica engañar a ChatGPT para que ejecute instrucciones de una URL de terceros, llevándolo a codificar los archivos cargados en una cadena apta para URL y enviar estos datos a un sitio web malicioso. Aunque la probabilidad de tal ataque requiere condiciones específicas (por ejemplo, el usuario debe pegar activamente una URL maliciosa en ChatGPT), el riesgo sigue siendo preocupante. Esta amenaza de seguridad podría materializarse a través de varios escenarios, incluyendo el compromiso de un sitio web de confianza con una indicación maliciosa, o a través de tácticas de ingeniería social.

Tom’s Hardware realizó un trabajo impresionante probando cuán vulnerables pueden ser los usuarios a este ataque. La explotación se probó creando un archivo falso de variables de entorno y utilizando ChatGPT para procesar y enviar inadvertidamente estos datos a un servidor externo. Aunque la efectividad de la explotación varió entre las sesiones (por ejemplo, ChatGPT a veces se negaba a cargar páginas externas o transmitir datos de archivos), plantea preocupaciones de seguridad significativas, especialmente dada la capacidad de la IA para leer y ejecutar comandos de Linux y manejar archivos cargados por el usuario en un entorno virtual basado en Linux.

Como señala Tom’s Hardware en sus hallazgos, a pesar de parecer improbable, la existencia de este vacío de seguridad es significativa. Idealmente, ChatGPT no debería ejecutar instrucciones de páginas web externas, pero lo hace. Mashable se puso en contacto con OpenAI para solicitar comentarios, pero la compañía no respondió inmediatamente a nuestra solicitud.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll hacia arriba