La mayoría de las organizaciones están planteando prohibir la IA generativa por seguridad
En lo que va de año, las organizaciones han pasado de experimentar una luna de miel a todas luces con los nuevos modelos de Inteligencia Artificial Generativa, tales como Google Bard o ChatGPT, al más absoluto divorcio con esta tecnología.
Esto se debe a que, desde el principio, todo el mundo reconoce sus casi ilimitadas posibilidades y funcionalidades, en cuanto a ayudar a los trabajadores a ser más productivos y a ganar mayor competitividad. Sin embargo, en el camino también ha aparecido un gran número de riesgos.
En el mejor de los casos, la Inteligencia Artificial ha hecho posible que los usuarios puedan completar sus actividades diariascon mayor facilidad. Además, pueden haber reinventado la forma de trabajar, en algunos casos.
No obstante, por el lado negativo, la Inteligencia Artificial puede convertirse en una verdadera fuente de desinformación, ayudar a generar contenido realmente dañino y discriminatorio, así como también, presentar riesgos de seguridad y privacidad.
Esto ha provocado que, según estudios especializados recientes, que más del 70% de las compañías y organizaciones estén implementando en estos momentos, o considerando implementar diversas medidas para limitar o prohibir completamente el uso de sistemas de IA generativa, tales como ChatGPT y otros algoritmos basados en esta tecnología en sus espacios de trabajo.
Para poder llegar a esta conclusión y para exponer los resultados, los especialistas que participaron en los estudios, entrevistaron a más de 2 mil administradores y trabajadores en Tecnologías de la Información, con incidencia en varios países del mundo.
La ciberseguridad no es un tema para tomárselo a la ligera, es un amplio campo de trabajo e investigación que involucra a verdaderos especialistas en seguridad de sistemas. Por esta razón, si tu empresa necesita protección contra amenazas, TIC Defense te ofrece diversos productos y herramientas de alta tecnología para mantener a raya a los hackers maliciosos.
Para todos los usuarios y ejecutivos encuestados, prácticamente todos los riesgos asociados con la privacidad y seguridad de los datos de sus empresas, ha sido el motivo más importante cuando se trata de limitar el uso de las plataformas basadas en IA Generativa.
Del mismo modo, más del 80% de los especialistas han expresado sus preocupaciones acerca de cómo la falta de seguridad de los algoritmos de estos entornos, pueden afectar gravemente la ciberseguridad de otras aplicaciones, dentro del mismo sistema de TI.
Mientras que más del 80% ha manifestado que estaba dentro de los derechos de una compañía controlar las aplicaciones que sus trabajadores puedan emplear para hacer su trabajo, más del 70% considera también que estas medidas pueden hacer ver un control excesivo acerca de lo que los trabajadores pueden hacer con sus propios dispositivos. Esto aplica a los escenarios del teletrabajo.
Si dejamos a un lado las preocupaciones legítimas en cuanto a ciberseguridad se refiere, también es cierto que más del 50% de los encuestados reconoce el enorme potencial y las posibilidades que la Inteligencia Artificial Generativa puede ofrecer.
Mayor eficiencia, creatividad e innovación, son algunas de las ventajas que puede ofrecer a las organizaciones. Además, más del 80% de los participantes también estuvieron de acuerdo en que, bien utilizada, las tecnologías basadas en IA pueden mejorar los sistemas defensivos empresariales.