Expertos en seguridad: Los motores de inteligencia artificial gratuitos podrían ser pirateados para ayudar a terroristas
Gracias por elegir Automatic Translation. Actualmente ofrecemos traducciones del inglés al francés y al alemán, y próximamente añadiremos más idiomas de traducción. Tenga en cuenta que estas traducciones son generadas por un servicio de software de IA de terceros. Aunque hemos comprobado que las traducciones son correctas en su mayoría, puede que no sean perfectas en todos los casos. Para asegurarse de que la información que lee es correcta, consulte el artículo original en inglés. Si encuentra un error en una traducción que desea comunicarnos, nos sería de gran ayuda que nos lo hiciera saber. Podemos corregir cualquier texto o sección, una vez que tengamos conocimiento de ello. No dude en ponerse en contacto con nuestro webmaster para comunicarnos cualquier error de traducción.
Los modelos de Inteligencia Artificial gratuitos en Internet han demostrado ser fáciles de piratear y ahora los expertos en seguridad temen que la Inteligencia Artificial pueda utilizarse para aumentar las capacidades de los terroristas.
En un artículo publicado en SVT.se, la policía secreta sueca expresa su preocupación por que la IA pueda utilizarse para multiplicar la capacidad de los terroristas para hacer daño en atentados.
Recientemente, la televisión sueca emitió un breve reporta je en el que se reunía con el joven emprendedor de IA Oliver Edholm, que pirateó un modelo de IA, descargable de internet, y le quitó los candados de seguridad para poder hacerle preguntas que normalmente tendría prohibido responder.
Normalmente, los modelos de IA tienen instrucciones de no responder a preguntas sobre destrucción masiva o cómo hacer daño a las personas. En el ejemplo, los modelos de IA desbloqueados dan ejemplos de cómo podría llevarse a cabo un ataque de destrucción masiva contra Estocolmo envenenando el suministro de agua.
"Creo que es bueno que la gente esté informada de que esto es posible", dice Edholm a SVT.se.
"Si hay terroristas, o actores estatales, que antes no podían ejecutar una amenaza compleja, quizá ahora, gracias a la IA, puedan aumentar su capacidad", dice Anders Arpteg, responsable de IA y datos de la Policía Secreta Sueca, Säpo.
La IA podría utilizarse para hacer daño de diversas formas
En un post de 2024 en el sitio web del Centro de Lucha contra el Terror ismo, Generating Terror: Los riesgos de la explotación generativa de la IAse expresa la preocupación de que la IA pueda utilizarse para generar y distribuir contenidos propagandísticos con más rapidez y eficacia que nunca. Esto puede utilizarse con fines de reclutamiento o para difundir discursos de odio e ideologías radicales. Los bots con IA también pueden amplificar estos contenidos, dificultando su detección y respuesta:
Ataques automatizados: Los terroristas pueden utilizar la IA para llevar a cabo ataques de manera más eficiente y eficaz, por ejemplo, mediante el uso de drones u otros vehículos autónomos.
Explotación de las redes sociales: La IA también puede utilizarse para manipular las redes sociales y otras plataformas digitales para difundir propaganda y reclutar seguidores.
Ciberataques: La IA puede ser utilizada por grupos extremistas para mejorar su capacidad de lanzar ciberataques contra objetivos, causando potencialmente daños significativos.
En la publicación de 2021 Algoritmos y terrorismo: El uso malicioso de la inteligencia artificial con fines terroristas, las Naciones Unidas expresaron su preocupación por el hecho de que, a medida que la IA se generalice, las barreras de entrada se reducir án reduciendo las habilidades y la experiencia técnica necesarias para emplearla.
"... el riesgo de que tecnologías sofisticadas ya desarrolladas acaben en las manos equivocadas está siempre presente. Con el creciente interés en los drones y su uso en zonas de conflicto, así como en el desarrollo y despliegue de sistemas de armas cada vez más autónomos en entornos de combate, existe la preocupación de que dicho armamento pueda ser incautado o comprado o adquirido ilegalmente por agentes no estatales, como grupos terroristas. La posibilidad de que esto ocurra es, de hecho, uno de los argumentos que suelen esgrimir los expertos que abogan por prohibir el desarrollo de sistemas de armas autónomas", concluye el informe.