Empresa Open AI lanza parche para ChatGPT | El problema no está solucionado completamente
Como TIC Defense te ha repetido reiteradamente el año pasado, lo volvemos a escribir: no escribas nada en ChatGPT que no desees que lean personas no autorizadas.
Desde que la empresa OpenAI lanzó ChatGPT, se han presentado múltiples ocasiones en el que los actores maliciosos podrían haber utilizado o manipulado fallas de este chatbot de inteligencia artificial. Esto con el objetivo de acceder a datos confidenciales o privados. De igual forma, se ha confirmado que, a pesar de que se haya lanzado un parche de seguridad, los problemas pueden estar persistiendo.
Según informes de medios digitales especializados en tecnología, OpenAI ha lanzado recientemente una solución para un fallo, el cual, ChatGPT podía filtrar datos de usuarios a terceros no autorizados. Los datos podrían incluir conversaciones de usuarios con el chatbot y sus metadatos correspondientes, como la identificación de los usuarios y la información de sus sesiones.
No obstante, investigadores de seguridad, quienes descubrieron la vulnerabilidad originalmente y describieron cómo funcionaba, manifiestan que, a día de hoy, existen grandes brechas de seguridad en el parche que lanzó OpenAI. Esto significa que la brecha de seguridad todavía existe.
La seguridad de la información es crítica para tu empresa, debido a que los procesos pueden detenerse como consecuencia de una intrusión de hackers maliciosos. Por ello, TIC Defense pone a tu disposición un conjunto de herramientas de última tecnología, las cuales pueden ayudarte a proteger los sistemas de tu organización.
Los investigadores pudieron aprovechar la función de ChatGPT personalizada, la cual se lanzó a finales del 2023. Además, dicha función ha sido muy elogiada por la organización detrás del chatbot, creando su propio GPT que exfiltró datos de ChatGPT.
Este ha sido un descubrimiento importante, debido a que los GPT personalizados están comercializándose como aplicaciones basadas en inteligencia artificial, de forma similar a como el iPhone pudo revolucionar las aplicaciones móviles con su App Store.
Si los investigadores pudieron crear un GPT personalizado que exfiltrara datos, los actores maliciosos pueden descubrir esta falla pronto y crear GPTs personalizados con la intención de robar datos de sus usuarios objetivo.
Los expertos señalan que se pusieron en contacto con OpenAI en un primer momento para hacerles saber acerca de la técnica de exfiltración de datos, en el mes de abril del año pasado. Igualmente, retomaron el contacto con la organización en el mes de noviembre, para informar con exactitud cómo pudieron crear un GPT personalizado y llevar a cabo el proceso.
Hace unos días, los responsables de descubrir la falla publicaron una actualización en su portal web y OpenAI había parcheado la vulnerabilidad. Si bien la solución no es perfecta, es un gran paso a la dirección correcta, según los investigadores.
La solución no es perfecta porque ChatGPT todavía está filtrando datos mediante la misma vulnerabilidad descubierta el año pasado. Por lo tanto, todavía se puede engañar a ChatGPT para que siga exfiltrando datos.
Algunas pruebas rápidas han mostrado que algunos fragmentos de información pueden robarse, escribieron los expertos. Además, explican que solo se filtran pequeñas cantidades, en un proceso lento y es más perceptible para el usuario. Sin embargo, la falla todavía permanece sin parchear en las apps de ChatGPT para iOS y Android, debido a que la solución no se ha actualizado.