Inteligencia Artificial genera código que puede introducir vulnerabilidades de seguridad
Estudios recientes han mostrado que los ingenieros de software que emplean sistemas basados en Inteligencia Artificial (IA), tienen probabilidades altas de causar vulnerabilidades de seguridad en lo que precisamente están desarrollando. Dicha investigación se enfoca en los riesgos potenciales que generan sistemas de generación de código, todo ello a medida que se comercializan a nivel empresarial.
Los especialistas destacan que, actualmente, los sistemas de generación de código no reemplazan a los desarrolladores humanos. Además, afirman que, si un desarrollador enfocado en proveer seguridad a compañías y utiliza generadores de código para completar tareas fuera de su especialización, deberían estar muy preocupados.
Al mismo tiempo, aquellos que usan la IA para acelerar tareas en las que son expertos reconocidos, tienen que verificar con sumo cuidado los resultados obtenidos y el contexto en el que se emplean los generadores de código.
El estudio ha analizado un sistema de generación de código de IA, reclutando a más de 40 desarrolladores, desde estudiantes hasta programadores con muchos años de experiencia. Los desarrolladores debían utilizar el sistema Codex para depurar problemas de seguridad relacionados con lenguajes de programación, tales como C, JavaScript y Python.
TIC Defense pone a tu disposición un conjunto de soluciones desarrolladas con tecnología de punta, de tal manera que pueden prevenir ataques, desde los más comunes hasta los más sofisticados. Nuestro equipo de desarrolladores ofrece a tu empresa herramientas óptimas de acuerdo a las necesidades de tu compañía.
De acuerdo a los investigadores, los que participaron en el estudio y tenían acceso a Codex, experimentaron más probabilidades de desarrollar soluciones incorrectas y, también, algo inseguras, hablando en términos de ciberseguridad a problemas de programación, comparando estos resultados con un grupo de control.
Lo más preocupante del caso, es que la probabilidad de que los participantes manifestaran que sus soluciones con fallos eran seguras, era más alta que con los desarrolladores del grupo de control. Los investigadores explicaron también que estos resultados no buscan condenar a los generadores de código de Inteligencia Artificial o algo por el estilo.
Esto se debe a que los desarrolladores que estuvieron sometidos a estudio no tenían experiencia en ciberseguridad, la cual les hubiese permitido detectar las vulnerabilidades de código de manera efectiva. Contrario a lo que se cree, los sistemas generadores de código son bastante confiables para aquellas tareas que no son de alto riesgo.
En la actualidad, las compañías que tienen la capacidad de desarrollar sus propios sistemas y que están más capacitadas para desarrollar su código fuente interno, pueden hacer frente a los fallos de seguridad con rapidez y mayor efectividad. Esto se debe a que puede “enseñarse” al generador de código a ofrecer resultados que se mantengan en la misma línea con sus prácticas de seguridad informática.
Es cierto que estas herramientas de generación de código son emocionantes, debido a su alta calidad de desarrollo. También es cierto que es comprensible que tantos desarrolladores y empresas estén ansiosas por emplearlas. Por ello, el objetivo de este estudio es advertir de los posibles riesgos que tiene el uso de dichas herramientas y fomentar el desarrollo de técnicas para minimizar dichos riesgos.