Son escasos los antivirus que pueden detectar código malicioso generado por IA
Diversas unidades de ciberseguridad han llevado a cabo un estudio que revela una tendencia preocupante en dicho panorama, la cual se espera que perdure en los próximos años. Por ello, es evidente la necesidad de que los antivirus combinen la potencia de la IA con el factor humano, como un método eficaz de protección contra los ciberataques.
Aunque algunos fabricantes de servicios de ciberseguridad ya están aplicando la inteligencia artificial en sus productos, como firewalls, secure web gateways y protección de endpoints, es innegable que la intervención humana sigue siendo fundamental para establecer respuestas contundentes.
La actuación de un profesional que analice detalladamente cada caso y supervise las medidas implementadas, permite encontrar soluciones eficientes y reducir los tiempos de respuesta frente a los ataques perpetrados por hackers maliciosos.
TIC Defense desarrolla diversos productos con la finalidad de proteger los sistemas de defensa de tu empresa. Además, nuestros especialistas desarrollan soluciones y herramientas que son adaptables a las necesidades de seguridad, corrigen fallos y vulnerabilidades, además de brindar protección de primer orden.
Al igual que las defensas se perfeccionan, el estudio llevado a cabo por los expertos demuestra que los ataques también están evolucionando, gracias a la aplicación de la inteligencia artificial. Mediante esta tecnología, se generan códigos maliciosos, se automatizan los ataques y se mejora su efectividad, de forma casi indetectable y con total impunidad.
Los actores maliciosos que recurren a los ataques basados en IA no poseen, necesariamente, amplios conocimientos en el campo de la seguridad informática. Sin embargo, estas vulnerabilidades se vuelven accesibles y lucrativas, permitiendo una menor inversión de tiempo, personal y trabajo en su desarrollo.
Gracias a la aplicación de la IA, los expertos pueden analizar cantidades masivas de datos en tiempo real y detectar patrones sospechosos de forma eficiente. Esto les permite ahorrar tiempo y enfocarse en la toma de decisiones basadas en su experiencia y en la información que recopilan.
A pesar de que un plan basado en IA puede establecer una estrategia de protección eficaz, las compañías deben estar monitoreando constantemente sus sistemas, en busca de posibles vulnerabilidades para solucionarlas a tiempo y evitar, en lo posible, las intrusiones de cibercriminales.
Recientemente, investigadores emplearon la herramienta de ChatGPT para crear un exploit de día cero, capaz de robar datos de dispositivos sin ser detectado por los programas de seguridad más eficientes.
El malware fue desarrollado en pocas horas, usando el lenguaje de programación Go y evadiendo las protecciones de seguridad del chatbot con respecto a la producción de software malicioso. Los especialistas solicitaron a ChatGPT el código por fragmentos, de manera tal que la IA no fue capaz de percibir que la combinación de todas las partes conformaba un exploit.
Posteriormente, perfeccionaron el mencionado exploit hasta hacerlo indetectable por el software de seguridad de diversas plataformas. De hecho, solo 5 de los 69 antivirus fueron capaces de detectarlo, a través de un identificador único global o GUUID.
De igual manera, ChatGPT creó la llamada LSB Steganography, una técnica de esteganografía capaz de ocultar mensajes cifrados dentro de una imagen, volviéndose indetectable para los sistemas de ciberseguridad más sofisticados hasta la fecha.