
Las redes sociales no son seguras para la manipulación y polarización relativamente simple de IA
hace 4 días

Crédito: Dominio público de Pixabay/CC0
Parece que el tema de la conversación no importa, a su alrededor, la opinión en línea parece estar dividida en campamentos irreparables.
Este es en gran medida el resultado del diseño de la plataforma de redes sociales, ya que el algoritmo les inspira a los usuarios directos a igualas pares ideológicas. Crea una comunidad en línea que se hace eco muy fácilmente, aumenta la polarización.
Sus debilidades de plataformas para la manipulación externa atraen objetivos para los actores maliciosos que esperan que la discordia y las sociedades antinaturales sembren.
Un artículo recientemente de los investigadores de Concorda Publicado En el diario IEEE XPLORE Describe un nuevo método para facilitarlo. El enfoque utiliza el refuerzo de aprendizaje para determinar qué cuenta de redes sociales del usuario pirateadas se ubica mejor para maximizar la polarización en línea con una orientación mínima.
"Hemos utilizado una teoría de sistemas para modelar la dinámica de la dinámica de la psicología", dice Rustco Selmic, profesor Rustco Selmic, en el coguionista de la Escuela de Ingeniería y Ciencias de la Computación de Gina Kodi, que se ha desarrollado en los últimos 20 años ", dice Rustco Selmic.
"La novedad llega a usar estos modelos para grandes grupos de personas e implementar la inteligencia artificial (IA), para decidir dónde poner bots, desarrollar más agentes adversos y desarrollar estos agentes adversos automatizados".
El escritor principal del periódico, Ph.D. El candidato Mohammad Zarr dice que el objetivo de esta investigación es mejorar el mecanismo para descubrir y resaltar las debilidades en las redes sociales.
Pequeños datos pueden causar mucho daño
Los investigadores utilizaron datos de aproximadamente cuatro millones de cuentas en las redes sociales Twitter (ahora X), que se identificaron como opiniones sobre vacunas y vacunas.
Creó agentes adversos que utilizaron una técnica llamada Double Deep Q-Learning. Este enfoque de educación de refuerzo permite a los bots realizar tareas complejas basadas en premios en un entorno complejo, como redes sociales con una inspección relativamente baja por parte del programador humano.
"Estamos diseñados para simplificar nuestra investigación y tener el mayor impacto posible", dice Zarer.
En su modelo, los agentes adversos tendrán solo dos piezas: la opinión actual y el número de seguidores del propietario de la cuenta. Los investigadores aplicaron su algoritmo a tres modelos potenciales que los ejecutaban a través de una red sintética de 20 agentes, lo que dicen que el resultado hace que el representante y normal.
Estos y otros experimentos imitan las amenazas reales, como Bot o campañas de disolución coordinadas. Confirman la efectividad para acelerar la polarización y crear desacuerdo en las redes sociales.
Los investigadores esperan que su trabajo afecte a los responsables políticos y a los propietarios de foro para desarrollar nuevas medidas de seguridad contra la manipulación maliciosa por parte de agentes maliciosos y promover la transparencia y el uso moral de IA.
Más información:
Mohammad n. Zarer et al, maximizando el desacuerdo y la polarización en las redes sociales que usan doble profundo Q-learning, Conferencia Internacional IEEE sobre 2024 Sistemas, Hombre y Cibernética (SMC) (2025). Doi: 10.1109/smc54092.2024.10831299
Citación: Las redes sociales son inseguras para la manipulación y polarización de IA relativamente simple (2025, 15 de abril).
Este documento está sujeto a derechos de autor. Además de cualquier comportamiento imparcial para el propósito de estudios o investigaciones privadas, no se puede volver a interrogarlo sin permiso por escrito. El contenido se proporciona solo para fines de información.
Deja una respuesta