La inteligencia artificial (IA) y los algoritmos tienen la capacidad y se utilizan para alimentar la radicalización, aumentar la polarización, difundir el racismo y la inestabilidad política, según un académico de la Universidad de Lancaster. El profesor de seguridad internacional Joe Burton cree que la inteligencia artificial y los algoritmos no son sólo herramientas utilizadas por las agencias de seguridad nacionales para frustrar actividades cibernéticas maliciosas. Cree que la inteligencia artificial y los algoritmos también pueden alimentar la polarización, la radicalización y la violencia política, planteando así una amenaza a la propia seguridad nacional.
Además, dijo, el proceso de titulización (ver la tecnología como una amenaza existencial) juega un papel importante en el diseño, uso y consecuencias dañinas de la inteligencia artificial.
El artículo del profesor Burton se publicó recientemente en la influyente revista "Technology in Society" de Elsevier.
"A menudo se piensa que la inteligencia artificial es una herramienta para contrarrestar el extremismo violento, y esta es la otra cara del debate", afirmó.
Este artículo explora cómo la IA ha sido securitizada históricamente y en sus representaciones en los medios y la cultura popular, explorando ejemplos modernos de IA que tienen efectos polarizadores y radicalizadores que contribuyen a la violencia política.
El artículo cita la serie de películas clásicas "The Terminator", que describe una matanza llevada a cabo por una inteligencia artificial "sofisticada y viciosa". Más que cualquier otra película, generó conciencia pública sobre la inteligencia artificial y el temor de que la conciencia de las máquinas pudiera tener consecuencias devastadoras para la humanidad, en este caso, una guerra nuclear y el intento deliberado de exterminar una especie.
El profesor Burton escribe: "La desconfianza hacia las máquinas, los temores asociados a ellas y su conexión con amenazas biológicas, nucleares y genéticas a la humanidad han llevado a los gobiernos y agencias de seguridad nacionales a querer influir en el desarrollo de la tecnología para reducir los riesgos y (en algunos casos) explotar su potencial positivo".
El profesor Burton dijo que los drones avanzados, como los utilizados en la guerra de Ucrania, ahora eran capaces de tener total autonomía, incluidas capacidades como el reconocimiento e identificación de objetivos. Mientras los países, incluidas las Naciones Unidas, participan en un amplio e influyente debate pidiendo la prohibición de los "robots asesinos" y la inclusión de humanos en las decisiones de vida o muerte, la aceleración e integración de los drones armados continúa.
En el ámbito de la ciberseguridad, la seguridad de los ordenadores y de las redes informáticas, se utiliza ampliamente la inteligencia artificial, siendo las áreas más comunes la guerra psicológica de la información y de las redes.
Las acciones del gobierno de Putin contra el proceso electoral estadounidense en 2016 y el consiguiente escándalo de Cambridge Analytica demostraron el potencial de la IA al combinarse con big data, incluidas las redes sociales, para producir efectos políticos centrados en la polarización, el fomento de creencias radicales y la manipulación de grupos identitarios. Demostró el poder y el potencial de la IA para dividir a la sociedad.
La inteligencia artificial ha sido vista como un medio positivo para rastrear el virus durante la pandemia, pero también ha generado preocupaciones sobre la privacidad y los derechos humanos.
El artículo estudia la tecnología de inteligencia artificial en sí y cree que existen problemas con el diseño de la inteligencia artificial, los datos en los que se basa, cómo se utiliza y sus resultados e impactos. Al final del artículo, envía un mensaje contundente a quienes se dedican a la investigación sobre ciberseguridad y relaciones internacionales.
El profesor Burton, experto en conflictos cibernéticos y tecnologías emergentes y miembro del programa de Ciencias de Seguridad y Protección de la universidad, escribió: "La inteligencia artificial tiene sin duda la capacidad de transformar la sociedad de manera positiva, pero también plantea riesgos que debemos comprender y gestionar mejor. Comprender la naturaleza divisiva de esta tecnología en todas las etapas de su desarrollo y uso. Las implicaciones son claramente críticas. Los académicos que trabajan en ciberseguridad y relaciones internacionales tienen la oportunidad de incorporar estos factores en la agenda emergente de investigación de la IA y evitar ver la IA como una política políticamente neutral". "En otras palabras, la seguridad de los sistemas de IA y cómo pueden usarse en las luchas geopolíticas internacionales no debe anular las preocupaciones sobre sus impactos sociales".
Fuente compilada: ScitechDaily