Inteligencia artificial y ciberseguridad
https://seguridad.prestigia.es/wp-content/uploads/2020/12/Inteligencia-artificial-ciberseguridad-prestigia-seguridad.png 1020 680 Prestigia Prestigia https://seguridad.prestigia.es/wp-content/uploads/2020/12/Inteligencia-artificial-ciberseguridad-prestigia-seguridad.pngLa IA (Inteligencia Artificial) está cambiando el mundo de la ciberseguridad, analizando cantidades masivas de datos de riesgo para acelerar los tiempos de respuesta y aumentar las operaciones de seguridad con escasos recursos.
A medida que los ciberataques aumentan en volumen y complejidad, la inteligencia artificial está ayudando a los analistas de operaciones de seguridad con escasos recursos a adelantarse a las amenazas. La IA proporciona información instantánea para ayudarte a combatir el ruido de miles de alertas diarias, lo que reduce drásticamente los tiempos de respuesta.
Como puede ayudar la IA en el ámbito de la ciberseguridad
La IA está mejorando significativamente la duración necesaria para identificar deficiencias y ataques sospechosos en sitios web. Por ejemplo, en 2016, Google incluyó en la lista negra unos 20.000 sitios por tener malware y otros 50.000 por estafas de phishing cada semana. Teniendo en cuenta estas cifras, puede determinar fácilmente que esto significa que unos 280.000 sitios se ven afectados cada mes. Ahora, si bien los humanos son rápidos, no son lo suficientemente rápidos como para escudriñar millones de sitios cada mes e identificar 280.000 sitios web sospechosos.
La IA se entrena consumiendo miles de millones de datos de fuentes estructuradas y no estructuradas, como blogs y noticias. A través de técnicas de aprendizaje automático y aprendizaje profundo, la IA mejora su conocimiento para «comprender» las amenazas de ciberseguridad y el riesgo. Recopila conocimientos y utiliza el razonamiento para identificar las relaciones entre las amenazas, como archivos maliciosos, direcciones IP sospechosas o personas con información privilegiada. Este análisis toma segundos o minutos, lo que permite a los analistas de seguridad responder a las amenazas de una forma rápida.
Gracias a la IA, elimina las tareas de investigación que consumen mucho tiempo y proporciona un análisis de riesgos curado, lo que reduce la cantidad de tiempo que los analistas de seguridad tardan en tomar decisiones críticas y lanzar una respuesta orquestada para remediar la amenaza.
Toma de decisiones mediante IA
Uno de los principales riesgos de seguridad para los sistemas de IA es la posibilidad de que los adversarios comprometan la integridad de sus procesos de toma de decisiones para que no tomen decisiones de la manera que sus diseñadores esperarían o desearían. Una forma de lograr esto sería que los adversarios tomen el control directamente de un sistema de IA para que puedan decidir qué resultados genera el sistema y qué decisiones toma. Alternativamente, un atacante podría intentar influir en esas decisiones de manera más sutil e indirecta mediante la entrega de entradas maliciosas o datos de entrenamiento a un modelo de IA.
Por ejemplo, dentro de los posibles sectores que podrían recibir un ciberataque, un adversario que quiera comprometer un vehículo autónomo para que sea más probable que sufra un accidente podría aprovechar las vulnerabilidades del software del automóvil para tomar decisiones de conducción por sí mismo. Sin embargo, acceder de forma remota y explotar el software que opera un vehículo podría resultar difícil, por lo que un adversario podría intentar hacer que el automóvil ignore las señales de alto desfigurando el área con pintadas. Por lo tanto, el algoritmo de visión por computadora no podría reconocerlos como señales de alto. Este proceso mediante el cual los adversarios pueden hacer que los sistemas de IA cometan errores al manipular las entradas se llama aprendizaje automático adversario. Los investigadores han descubierto que pequeños cambios en las imágenes digitales que son indetectables para el ojo humano pueden ser suficientes para hacer que los algoritmos de IA clasifiquen erróneamente esas imágenes por completo.
Definitivamente, cada vez podemos observar más conceptos como Inteligencia Artificial en el ámbito de la ciberseguridad, algo que hasta hace poco para nosotros era digno del cine de ciencia ficción, pero a día de hoy lo tenemos ya en nuestras redes sociales, vehículos de conducción autónoma, e incluso sistemas de ciberdefensa para la toma de decisiones ¿creéis que es el futuro? O el humano debería seguir en primera línea en la toma de decisiones.
Por último, desde Prestigia Seguridad no queremos dejar de aconsejar como lectura recomendada la entrada sobre errores comunes en la gestión de la seguridad en empresa y recomendar la contratación de profesionales para ejecutar test de seguridad que eviten poner en riesgo los datos de la compañía frente a cibercriminales.
- Etiquetas de Post:
- ataques
- ciberseguridad
- ingenieria social
- Publicado En:
- Ataques
- General
- Hacking ético
También te puede gustar
Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.
Dejar una Respuesta