
A algunos usuarios de Reddit les encanta estar en desacuerdo, encontrando nuevos algoritmos de manchas de troll operadas por AI
hace 3 semanas

Crédito: dominio público Unsplash/CC0
En el escenario en línea fragmentado actual, es más difícil identificar actores dañinos como trolls y información errónea.
A menudo, los esfuerzos para presentar cuentas maliciosas se centran en analizar lo que dicen. Sin embargo, nuestra última investigación muestra que debemos prestarle más atención hacer-Y cómo lo hacen.
Hemos desarrollado una forma de identificar actores en línea potencialmente dañinos, que se basa completamente en su patrón de comportamiento, la forma en que interactúan con los demás, en lugar del contenido que compartieron por ellos. Nosotros Presentó nuestros resultados recientemente Conferencia web de ACMY fue galardonado con el mejor artículo.
Lo que la gente llama, más allá de verlo
Los enfoques tradicionales para detectar el comportamiento problemático en línea generalmente dependen de dos métodos. Para verificar un material (lo que la gente dice). Para analizar a otros Conexión de red (Quien sigue a quién).
Estos métodos tienen limitaciones.
Los usuarios pueden descifrar Análisis de contenido. Pueden codificar su lenguaje con cuidado o compartir información engañosa sin usar palabras de activación claras.
El análisis de red es bajo en plataformas como redditAquí, la relación entre los usuarios no está clara. Los compromisos se llevan a cabo en torno a los sujetos en lugar de las relaciones sociales.
Queríamos encontrar una manera de identificar actores dañinos, que no podían prepararse fácilmente. Sentimos que podemos centrarnos en el comportamiento: cómo interactúan las personas, en lugar de lo que dicen.
Enseñar a la IA a comprender el comportamiento humano en línea
Nuestro enfoque utiliza una técnica llamada Aprendizaje de refuerzo invertidoEste es un método que se usa comúnmente para comprender la toma de decisiones humanas en áreas como la conducción autónoma o la teoría de juegos.
Nos adaptamos para analizar la técnica de cómo se comportan los usuarios en las plataformas de redes sociales.
El sistema funciona observando las funciones del usuario, como hacer nuevos hilos, publicar comentarios y responder a otros. Con las tareas infecta la estrategia o "política" subyacente que impulsa su comportamiento.
En nuestro estudio de caso Reddit, analizamos 5,9 millones de interacciones en seis años. Identificamos cinco personas de comportamiento diferente, incluido un grupo particularmente notable: "desacuerdos".
Cumplir con 'desacuerdos'
Quizás nuestro resultado más llamativo fue buscar una clase completa de usuarios de Reddit, cuyo propósito principal parece estar en desacuerdo con los demás. Estos usuarios buscan oportunidades para publicar comentarios particularmente contradictorios, especialmente en respuesta al desacuerdo, y luego procedieron sin esperar la respuesta.
El "desacuerdo" fue el más común en los subredits centrados políticamente R/Noticias, R/WorldNewsY R/PolíticaCuriosamente, ahora estaban muy pocos en el foro pro-Trump prohibido r/the_donald A pesar de su atención política.
Este patrón muestra cómo el análisis de comportamiento puede resaltar la dinámica que puede perderse el análisis de material. En R/The_Donald, los usuarios intentaron estar de acuerdo entre sí, dirigiendo la enemistad hacia objetivos externos. Puede explicar dinámico por qué el material tradicional es moderación Luchando Para resolver problemas en tales comunidades.
Fan de fútbol y jugadores
Nuestra investigación también reveló relaciones inesperadas. Los usuarios que discuten temas completamente diferentes a veces muestran patrones de comportamiento igualmente similares.

Encontramos similitudes sorprendentes entre los usuarios que discuten el fútbol (AT) R/fútbol) Y E-Sport (AT) R/Legoflegands,
Esta igualdad surge de la naturaleza fundamental de ambas comunidades. Los conocedores y los fanáticos de los deportes electrónicos se adhieren a una manera paralela: apoyan equipos apasionadamente específicos, siguen a los partidos con un interés intensivo, participan en discusiones cálidas sobre estrategias y el rendimiento de los jugadores, celebran la victoria y desembolsan el collar.
Ambas comunidades promueven una fuerte identidad tribal. Los usuarios protegen a sus equipos favoritos criticando a los rivales.
Ya sea la estrategia de la Premier League o el campeón de la League of Legends, el patrón de interacción subyacente, el tiempo de reacciones, la secuencia y el tono emocional, consistente en estas comunidades específicas.
Esto desafía el conocimiento tradicional sobre la polarización en línea. Si bien a menudo se culpa a las cámaras ecológicas por aumentar la división, nuestra investigación sugiere que los patrones de comportamiento pueden cruzar los límites tópicos. Los usuarios se pueden dividir más por cómo discuten.
Más allá de la detección de troll
Las implicaciones de esta investigación se expanden mucho más allá del interés educativo. Los moderadores de la plataforma pueden usar patrones de comportamiento para identificar usuarios potencialmente problemáticos, antes de publicar grandes versiones de materiales dañinos.
A diferencia de la moderación del material, el análisis de comportamiento no depende de comprender el lenguaje. Esto es difícil, porque cambiar el patrón de comportamiento de uno requiere más esfuerzo que ajustar el lenguaje.
El enfoque también puede ayudar a diseñar estrategias más efectivas para combatir la información errónea. En lugar de centrarnos completamente en el material, podemos diseñar sistemas que fomenten más patrones de compromiso creativos.
Para los usuarios de las redes sociales, esta investigación proporciona un recordatorio de cómo adjuntamos en línea, no solo lo que decimos, mira nuestra identidad digital y afectan a los demás.
Dado que los espacios en línea continúan luchando con la manipulación, el acoso y la polarización, los enfoques que consideran los patrones de comportamiento con el análisis de materiales pueden proporcionar una solución más efectiva para promover comunidades en línea saludables.
Más información:
Lankin Yuan et al, Aprendizaje de refuerzo del comportamiento en las redes sociales Homofili práctico: un estudio de caso redit, Actas de ACM en la conferencia web 2025 (2025). Doi: 10.1145/3696410.3714618
Este artículo ha sido reinstalado Conversación Bajo una licencia Creative Commons. leer el Artículo original,
Citación: Some reddit users only like to disagree, find the new AI-operated troll-spotting algorithm (2025, May 11) 11 May 2025 on 11 May 2025 was repaired from https://pHys.org/news/20-05-2025-05- REDDIT-irs-i- Poward- Poward- Troll.HTML
Este documento está sujeto a derechos de autor. Además de cualquier comportamiento imparcial para el propósito de estudios o investigaciones privadas, no se puede volver a interrogarlo sin permiso por escrito. El contenido se proporciona solo para fines de información.

Deja una respuesta