Cómo impactará la IA al futuro de la seguridad

Por: Charlie Bell, vicepresidente ejecutivo de seguridad, cumplimiento, identidad y gestión en Microsoft.

La velocidad de la innovación se ha acelerado con rapidez desde que nos convertimos en una sociedad digitalizada, y algunas innovaciones han cambiado de manera fundamental la forma en que vivimos: Internet, el teléfono inteligente, las redes sociales, la computación en la nube.

Como hemos visto en los últimos meses, estamos al borde de otro cambio radical en el panorama tecnológico que cambiará todo: la IA. Como Brad Smith señaló de manera reciente, la inteligencia artificial y el aprendizaje automático han llegado a la corriente principal de la tecnología con una década de anticipación, para brindar una capacidad revolucionaria que permite escudriñar en profundidad conjuntos de datos masivos y encontrar respuestas donde antes solo teníamos preguntas. Vimos este desarrollo hace unas semanas con la notable integración de IA que llegó a Bing y Edge. Esa innovación demuestra no solo la capacidad de razonar con rapidez sobre inmensos conjuntos de datos, sino también empoderar a las personas para que tomen decisiones de maneras nuevas y diferentes que podrían tener un efecto dramático en sus vidas. Imaginen el impacto que podría tener ese tipo de escala y poder en la protección de los clientes contra las ciberamenazas.

A medida que observamos que el progreso habilitado por la IA se acelera con rapidez, Microsoft se compromete a invertir en herramientas, investigación y cooperación de la industria mientras trabajamos para construir una IA segura, sostenible y responsable para todos. Nuestro enfoque prioriza escuchar, aprender y mejorar.

Y para parafrasear al creador de Spider-Man, Stan Lee, con este enorme potencial informático surge una responsabilidad con igual importancia por parte de quienes desarrollan y aseguran nuevas soluciones de inteligencia artificial y aprendizaje automático. La seguridad es un espacio que sentirá a profundidad los impactos de la IA.

La AI cambiará la ecuación para los defensores.

Durante mucho tiempo ha existido la percepción de que los atacantes tienen una ventaja de agilidad insuperable. Los adversarios con técnicas de ataque novedosas suelen disfrutar de una cómoda ventaja inicial antes de ser detectados de manera concluyente. Incluso aquellos que utilizan ataques antiguos, como credenciales de armas o servicios de terceros, han disfrutado de una ventaja de agilidad en un mundo donde siempre surgen nuevas plataformas.

Pero las mesas asimétricas se pueden cambiar: la IA tiene el potencial de hacer retroceder el péndulo de la agilidad a favor de los defensores. La Al permite a los defensores ver, clasificar y contextualizar mucha más información, mucho más rápido de lo que incluso grandes equipos de profesionales de seguridad pueden clasificar de manera colectiva. Las capacidades radicales y la velocidad de Al dan a los defensores la capacidad de negar a los atacantes su ventaja de agilidad.

Si informamos a nuestra IA de manera correcta, el software que se ejecuta a escala de la nube nos ayudará a encontrar nuestras verdaderas flotas de dispositivos, detectar las extrañas suplantaciones y descubrir al instante qué incidentes de seguridad son ruido y cuáles son pasos intrincados a lo largo de un camino más malévolo, y lo hará más rápido de lo que de manera tradicional los socorristas humanos pueden girar sus sillas entre las pantallas.

La Al reducirá la barrera de entrada a las carreras de Ciberseguridad.

Según un estudio de la fuerza laboral realizado por (ISC)2, la asociación sin fines de lucro más grande del mundo de profesionales certificados en ciberseguridad, la fuerza laboral mundial en ciberseguridad se encuentra en su punto más alto, con un estimado de 4.7 millones de profesionales, incluidos 464 mil agregados en 2022. Sin embargo, el mismo estudio informa que se necesitan 3.4 millones más de trabajadores de ciberseguridad para proteger los activos de manera efectiva.

La seguridad siempre necesitará el poder de los humanos y las máquinas, y una automatización de IA más poderosa nos ayudará a optimizar dónde usamos el ingenio humano. Cuanto más podamos aprovechar la IA para generar vistas procesables e interoperables de los riesgos y amenazas cibernéticos, más espacio crearemos para los defensores menos experimentados que pueden estar en el comienzo de sus carreras. De esta manera, la IA abre la puerta al talento de nivel de entrada y al mismo tiempo libera a los defensores con altas cualificaciones para que se concentren en desafíos más grandes.

Cuanto más sirva la IA en la línea del frente, más impacto podrán tener los profesionales de seguridad experimentados y su invaluable conocimiento institucional. Y esto también crea una gran oportunidad y un llamado a la acción para involucrar al fin a científicos de datos, codificadores y una gran cantidad de personas de otras profesiones y antecedentes en la lucha contra el riesgo cibernético.

La IA responsable debe ser dirigida primero por humanos.

Hay muchas visiones distópicas que nos advierten de lo que podría llegar a ser la IA mal utilizada o descontrolada. ¿Cómo nos aseguramos, como comunidad global, de que el poder de la IA se use para el bien y no para el mal, y que las personas puedan confiar en que la IA hace lo que se supone que debe hacer?

Parte de esa responsabilidad recae en los formuladores de políticas, los gobiernos y las potencias mundiales. Parte de esto recae en la industria de la seguridad para ayudar a construir protecciones que impidan que los malos actores aprovechen la IA como una herramienta para el ataque.

Ningún sistema de IA puede ser efectivo a menos que esté basado en los conjuntos de datos correctos, ajustado de manera continua y sujeto a comentarios y mejoras por parte de los operadores humanos. Por mucho que la IA pueda contribuir a la lucha, los humanos deben ser responsables de su desempeño, ética y crecimiento. Las disciplinas de la ciencia de datos y la ciberseguridad tendrán mucho más que aprender unas de otras, y de hecho de todos los campos del esfuerzo y la experiencia humanos, a medida que exploramos la IA responsable.

Microsoft construye una base segura para trabajar con IA.

Al principio de la industria del software, la seguridad no era una parte fundamental del ciclo de vida del desarrollo, y vimos el aumento de gusanos y virus que interrumpieron el creciente ecosistema de software. Al aprender de esos problemas, hoy construimos seguridad en todo lo que hacemos.

En los primeros días de AI, vemos una situación similar. Sabemos que el momento de proteger estos sistemas es ahora, a medida que se crean. Con ese fin, Microsoft invierte para asegurar esta próxima frontera. Tenemos un grupo dedicado de expertos multidisciplinarios que investigan de manera activa cómo se pueden atacar los sistemas de IA y cómo los atacantes pueden aprovechar los sistemas de IA para llevar a cabo ataques.

El equipo de inteligencia de amenazas de seguridad de Microsoft ha realizado algunos anuncios emocionantes que marcan nuevos hitos en este trabajo, incluida la evolución de herramientas innovadoras como Microsoft Counterfit, que se han creado para ayudar a nuestros equipos de seguridad a pensar en tales ataques.

La Al no será «la herramienta» que resuelva la seguridad en 2023, pero será cada vez más importante que los clientes elijan proveedores de seguridad que puedan ofrecer tanto inteligencia de amenazas a hiperescala como inteligencia artificial a hiperescala. Combinados, estos son los que darán a los clientes una ventaja sobre los atacantes cuando se trata de defender sus entornos.

Debemos trabajar juntos para vencer a los malos.

Hacer del mundo un lugar más seguro no es algo que un grupo o empresa pueda hacer solo. Es un objetivo que debemos unirnos para lograr en todas las industrias y gobiernos.

Cada vez que compartimos nuestras experiencias, conocimientos e innovaciones, debilitamos a los malos actores. Por eso es tan importante que trabajemos hacia un futuro más transparente en ciberseguridad. Es fundamental construir una comunidad de seguridad que crea en la apertura, la transparencia y el aprendizaje mutuo.

En gran medida, creo que la tecnología está de nuestro lado. Si bien siempre habrá malos actores que persigan intenciones maliciosas, la mayor parte de los datos y la actividad que entrenan los modelos de IA son positivos y, por lo tanto, la IA será entrenada como tal.

Microsoft cree en un enfoque proactivo de la seguridad, incluidas las inversiones, la innovación y las asociaciones. Al trabajar juntos, podemos ayudar a construir un mundo digital más seguro y desbloquear el potencial de la IA.

 

Pueden consultar aquí la publicación original.

Tags: ,

Publicaciones Relacionadas