TIC Defense te aconseja cómo usar ChatGPT, Gemini y otras herramientas de IA con seguridad
Las aplicaciones, servicios y complementos de inteligencia artificial no ha parado de crecer exponencialmente desde el año pasado y tal parece que no va a desacelerarse. Puedes ver desde aplicaciones de oficina y editores de imágenes, hasta entornos de desarrollo integrados, mejor conocidos como IDE, un ejemplo es Visual Studio.
Como puedes observar, la IA se está añadiendo a herramientas comunes y familiares que, probablemente, empleas desde hace tiempo. Es por esta razón que múltiples desarrolladores han estado creando miles de aplicaciones nuevas que aprovechan los modelos actuales de IA generativa.
No obstante, nadie en esta frenética carrera ha sido capaz de resolver los problemas de ciberseguridad que vienen con el desarrollo y puesta en marcha de estos sistemas. La minimización de fugas de datos confidenciales es la primera de ellas.
Así como también, el nivel de hackeo de cuentas y dispositivos mediante algunas herramientas de inteligencia artificial. Aunque parezca ilógico, tampoco se ha establecido criterio alguno de protección adecuada contra una futura, lejana, pero plausible, “inteligencia artificial malvada”.
Hasta que no se genere una solución estándar para proteger a los usuarios de sus asistentes de IA, TIC Defense te aconseja y te enseña algunas habilidades para que puedas ayudarte y manejar las herramientas de inteligencia artificial con seguridad.
Por ejemplo, la política de seguridad del desarrollador del ya famoso ChatGPT, OpenAI, establece que cualquier diálogo con el chatbot se guarda y se puede usar para diversos propósitos. Establecen que pueden usar estas conversaciones para resolver problemas técnicos y para prevenir infracciones de los términos de servicios.
Esto con base en la sospecha de que alguien puede usar ChatGPT para generar contenido no apropiado. Es en este caso que el propio chat puede ser revisado por humanos. Por otro lado, los datos generados se pueden emplear para entrenar nuevas iteraciones y versiones de ChatGPT y generar mejoras en este producto.
Pero ChatGPT no es el único que guarda esta política de seguridad. La mayoría de los otros modelos de IA populares, tales como Gemini de Google, Bing y Copilot de Microsoft, también disponen de directivas parecidas. Todos ellos pueden almacenar diálogos completos de los propios chats.
Por esta razón, te recomendamos que no envíes tus datos personales a un chatbot de estas características. Contraseñas, número de pasaporte o de la tarjeta de tu banco, direcciones, números telefónicos y demás, quedan absolutamente prohibidos en tus conversaciones con estos sistemas de IA.
Otro consejo es que no cargues tus documentos en estas plataformas. Entendemos que puedes sentir la tentación de cargar un documento de trabajo para obtener un resumen ejecutivo, por ejemplo. No obstante, cuando cargas de manera descuidada tu documento de varias páginas, puedes filtrar datos confidenciales, propiedad intelectual o un secreto comercial sin que puedas darte cuenta.
Algo peor; puede suceder que, cuando procesas los documentos recibidos de fuentes externas, seas el objetivo de un ciberataque que dependa del escaneo de dicho documento, por parte del modelo de lenguaje.
Debes limitar la utilización de aplicaciones y complementos de terceros. Sigue estos consejos en todo momento, no importa qué sistema basado en IA estés usando. Por desgracia, esto puede que no sea suficiente para garantizar tu privacidad de datos. El uso de complementos, extensiones o apps complementarias independientes, abren las puertas a nuevos tipos de ciberamenazas.