Así se usa la inteligencia artificial para combatir a los hackers

0

Varias empresas se están alejando del uso exclusivo de la antigua tecnología «basada en reglas» para cambiarlo por algoritmos de aprendizaje automático para descubrir y detener a los hackers.

El año pasado, el equipo de seguridad de Azure de Microsoft detectó una actividad sospechosa en el uso de computación en la nube de un gran minorista: uno de los administradores de la compañía, que generalmente inicia sesión desde Nueva York, estaba tratando de ingresar desde Rumania. Y no, el administrador no estaba de vacaciones. Un hacker había entrado al sistema.

Microsoft alertó rápidamente a su cliente y se pudo frustrar el ataque antes de que el intruso llegara demasiado lejos.

Microsoft, Google de Alphabet, Amazon.com y varias empresas nuevas se están alejando del uso exclusivo de la antigua tecnología «basada en reglas» diseñada para responder a tipos específicos de intrusión e implementando algoritmos de aprendizaje automático que procesan grandes cantidades de datos sobre inicios de sesión, comportamiento y ataques anteriores para descubrir y detener a los hackers.

«El aprendizaje automático es una técnica muy poderosa para la seguridad; es dinámico y se puede entrenar con facilidad, mientras que los sistemas basados en reglas son muy rígidos», señaló Dawn Song, profesora del Laboratorio de Investigación de Inteligencia Artificial de la Universidad de California en Berkeley.

Los piratas informáticos también son famosos y adaptables, por lo que también podrían aprovechar el aprendizaje automático para crear nuevas artimañas y abrumar a las nuevas defensas. Por ejemplo, podrían descubrir cómo las compañías entrenan sus sistemas y usar los datos para evadir o corromper los algoritmos. Las grandes empresas de servicios en la nube están demasiado conscientes de que el enemigo es un objetivo móvil, pero argumentan que la nueva tecnología ayudará a inclinar la balanza a favor de los buenos.

«Veremos una capacidad mejorada para identificar amenazas antes en el ciclo de ataque y, por lo tanto, reduciremos la cantidad total de daños y restauraremos los sistemas a un estado deseable con mayor rapidez», señala el director de Seguridad de la Información de Amazon, Stephen Schmidt.

Un sistema de Microsoft diseñado para proteger a los clientes de inicios de sesión falsos tuvo una tasa de falsos positivos del 2,8 por ciento, según el director de Tecnología de Azure, Mark Russinovich. Puede que no parezca mucho, pero se consideró inaceptable, ya que los clientes más grandes de Microsoft pueden generar miles de millones de inicios de sesión.

Para hacer un mejor trabajo de averiguar quién es legítimo y quién no, la tecnología de Microsoft aprende de los datos de cada compañía que la usa, personalizando la seguridad al comportamiento y el historial típico en línea de ese cliente. Desde el lanzamiento del servicio, la compañía ha logrado reducir la tasa de falsos positivos al 000,1 por ciento.

El entrenamiento de estos algoritmos de seguridad recae en personas como Ram Shankar Siva Kumar, gerente de Microsoft que administra un equipo de ingenieros que desarrollan los algoritmos de aprendizaje automático y luego se aseguran de que sean lo suficientemente inteligentes y rápidos para frustrar a los piratas informáticos y que trabajen a la perfección con los sistemas de software de las compañías que pagan grandes sumas por los servicios en la nube de Microsoft.

La cantidad de datos que debemos analizar para saber si se trata de un usuario o de un impostor sigue creciendo a una velocidad que es demasiado grande para que los humanos escriban las reglas una por una», señala Mark Risher, director de administración de productos que ayuda a prevenir ataques a los clientes de Google.

Ver más en: El Espectador

Leave A Reply