En pleno auge de la inteligencia artificial, la seguridad de los usuarios digitales enfrenta el riesgo potencial de ser vulnerada por nuevas amenazas cibernéticas también basadas en IA. Era cuestión de tiempo para que esta tecnología tan popular y masiva ampliara su abanico de posibilidades dentro de la delincuencia cibernética, utilizando sofisticados algoritmos para acceder fácilmente a las contraseñas de cualquier cuenta digital, y apropiarse así de los datos personales de los usuarios.
<<<Caída en los usuarios de Chat GPT: ¿Cuáles son las acciones previstas?>>>
Si bien existe una inteligencia artificial para la protección de datos, su aplicación ilícita también fue creada, y es tan sencillo robar información para estos hackers como enviar un correo electrónico. Esta capacidad para descifrar las contraseñas se basa en el procesamiento de grandes volúmenes de datos y la aplicación del aprendizaje automático para analizar patrones, identificar correlaciones y realizar múltiples intentos de combinaciones de contraseñas.
A raíz de estos delitos a la seguridad de los usuarios, ya fueron identificadas algunas amenazas de la inteligencia artificial, bajo la forma de aplicaciones que circulan libremente por internet. En este artículo, analizamos el caso de estas aplicaciones para comprender los alcances del daño que generan cuando vulneran los datos de las personas.
¿De qué manera la IA se roba nuestros datos?
Un informe reciente de Home Security Heroes reveló que existen aplicaciones capaces de descifrar cualquier contraseña de 7 dígitos en menos de 6 minutos, aunque incluyan símbolos, números, letras mayúsculas y minúsculas. Una de las aplicaciones de inteligencia artificial acusadas de descifrar claves complejas en tiempo reducido es PassGAN. Esta herramienta no solo aprende sino que crea conocimiento nuevo, ya que tiene una alta capacidad de adivinar contraseñas.
Existen diversos métodos con los que la IA puede vulnerar los datos sensibles de las personas. A continuación, mencionamos los más peligrosos.
1. Ataques de fuerza bruta mejorados.
Esta aplicación utiliza redes neuronales y algoritmos de aprendizaje automático para probar diversas combinaciones de contraseñas en corto tiempo, aumentando las posibilidades de acierto.
2. Ataques de diccionario optimizados.
La inteligencia artificial puede analizar patrones y recurrencias en los datos de las contraseñas filtradas previamente para crear listas de palabras clave más precisas y cercanas al objetivo. Si es necesario, la IA recorrerá el diccionario completo en busca de la contraseña.
3. Ingeniería social automatizada.
Esta herramienta puede analizar perfiles de redes sociales y otros datos públicos para conseguir información específica sobre personas y utilizarla con el fin de adivinar sus posibles contraseñas.
4. Generación de contraseñas falsas.
Si la IA puede adivinar rápidamente distintas contraseñas utilizando un par de algoritmos, lógicamente puede crear contraseñas falsas y simular inicios de sesión, lo que puede provocar confusión en los sistemas de detección de intrusos, al permitir el acceso a los atacantes.
5. Análisis de pulsaciones de teclado.
A través de técnicas de aprendizaje automático es posible analizar patrones de pulsaciones de teclado para rastrear contraseñas con notable precisión. Esto pone de manifiesto el alcance casi ilimitado de la inteligencia artificial para acceder a cualquier información, ya sea adivinando contraseñas o creando claves de acceso falsas para despistar a los sistemas incautos.
<<<El desafío de la inteligencia artificial para la ciberseguridad>>>
¿Cómo proteger los datos de las amenazas de la inteligencia artificial?
Si bien las amenazas a la seguridad de los datos evolucionan a la misma velocidad que las soluciones para evitarlas, conviene tener presente que hay algunas medidas tanto para usuarios particulares como para empresas que pueden reforzar la seguridad y hacer que a la IA le cueste más trabajo robar los datos.
1. Utilizar contraseñas largas.
Una primera medida para evitar el robo de datos es introducir contraseñas largas y complejas. Puedes combinar letras y números, mayúsculas y minúsculas, otros signos y que la longitud llegue aproximadamente a los 12 caracteres, mínimamente, para aumentar la dificultad a la inteligencia artificial.
2. Incluir autenticación de múltiples factores.
Esta forma de autenticación permite agregar mayor seguridad añadiendo una segunda clave de acceso mediante un código enviado al dispositivo móvil del usuario. Esto reduce las posibilidades de que se filtren ingresos no deseados, al haber dos autenticaciones y no solo una.
3. Evitar repetir la misma contraseña para distintas cuentas.
Aunque sea una acción rápida y ayude a ingresar fácilmente a todas nuestras cuentas sin esfuerzos de memoria, no es recomendable utilizar la misma contraseña en varias cuentas, porque un hacker podría acceder fácilmente a las cuentas vinculadas. El uso de administradores de contraseñas puede contribuir a gestionar numerosas contraseñas de forma segura.
4. Actualizar contraseñas.
Sí es recomendable actualizar las contraseñas periódicamente para reducir los riesgos de robo de datos.
5. Ofrecer educación sobre prácticas de ciberseguridad.
Tanto los usuarios particulares como las empresas deben recibir capacitación sobre prácticas efectivas para evitar posibles ataques de phishing y otras técnicas de ingeniería social.
6. Implementar medidas de seguridad avanzadas.
Por último, las empresas deben invertir en sistemas de ciberseguridad que detecten comportamientos sospechosos para eliminarlos no bien se presente algún riesgo que pueda afectar a la organización.
<<<¿Qué va a pasar con la regulación de la IA? Perspectivas de futuro>>>
En síntesis, así como la IA puede crear aplicaciones y funciones para agilizar y mejorar la calidad de vida de las personas, también puede emplear el mismo esfuerzo generando nuevas amenazas de la inteligencia artificial para alzarse con información valiosa de usuarios y organizaciones con fines delictivos. Sin duda, es un arma de doble filo y dependerá de nuestra elección el uso que le demos.
¿Nos dejas un comentario?