Las Big Tech nos advierten de problemas de privacidad de IA
Varios gigantes tecnológicos han restringido el uso de inteligencias artificiales generativas, como ChatGPT de OpenAI y Copilot de Microsoft. Así lo han informado varios medios de comunicación.
Estas restricciones vienen dadas por el temor de que escapen datos confidenciales, tanto de usuarios, como corporativos. Verizon, Apple, Samsung y múltiples instituciones financieras, como JP Morgan, Wells Fargo y Deutsche Bank, también han confirmado las restricciones a este tipo de tecnología.
No obstante, la política de privacidad de ChatGPT, por ejemplo, manifiesta de forma explícita que sus indicaciones pueden emplearse para entrenar a sus modelos. Todo ello a menos que los usuarios opten por no hacerlo.
Pero, en este caso, el miedo no es infundado o se debe a una histeria en contra de la IA Generativa; en el pasado mes de marzo, un fallo en el bot de OpenAI reveló datos de múltiples usuarios.
Por esta razón, las advertencias que hacen las Big Tech acerca de los peligros de estos tipos de IA, dan mucho qué pensar. Esto se debe a que, uno de los principales usos de esta tecnología, es para sistemas de servicio al cliente.
TIC Defense es una empresa que se enfoca en prestar servicios de ciberseguridad a las empresas. Contamos con especialistas en este ámbito que pueden asesorarte acerca de las medidas que debes tomar para proteger tus activos digitales.
Los expertos concuerdan en que, una de las cosas en las que acierta la industria de la tecnología, es que, las compañías en su etapa inicial no prestan mucha atención a su política de privacidad y protección de los datos.
Pensemos en las versiones más antiguas de Facebook, en donde casi todo se podía saber de los usuarios activos de la considerada como primera red social del mundo. En este sentido, vale la pena destacar que OpenAI sugiere que no compartas información sensible en tus conversaciones con ChatGPT, dando por sentado que no es un problema específico de las inteligencias artificiales.
Las compañías tecnológicas y las de cualquier ramo del mercado tienen curiosidad acerca de los posibles inconvenientes que tienen los chatbots de inteligencia artificial, de modo intrínseco. Todos sabemos que construir un centro de datos propio es muy caro, pero, el uso de computación en la nube (cloud computing) ya tiene otro nivel de preocupación.
Esto se debe a que, si se emplea la computación en la nube, significa que las consultas que hagas se van a procesar en un servidor remoto, en donde tienes que confiar en otra persona para la protección de tus datos. Ahora, podrás ver el porqué los bancos antes mencionados tienen miedo de las IA; se debe a que los datos bancarios son muy sensibles.
A esto se le suma el gran problema del espionaje corporativo que, a grandes rasgos, puede parecer un problema más de la industria de la tecnología. Esto se debe a que el robo de secretos es el mayor riesgo en este caso.
Si estas Big Tech tienen razón en alertarnos acerca de los problemas de privacidad que traen las inteligencias artificiales, puede que esta ola de IA que han salido a la luz resulten ser como el aclamado metaverso: un fracaso.
Por ello, hasta que no se profundice más en el tema, si las grandes compañías tecnológicas y las instituciones financieras más sólidas del mundo están bloqueando el uso de la IA, tal vez tendríamos que considerar hacerlo nosotros también.