Oferta y demanda de odio

10 min read

Eva aquí… Rajiv Sethi describe un interesante estudio del comportamiento de las redes sociales a gran escala. considerando que «Contenido tóxico» que se espera que realmente ocurra o que se parezca mucho a lo que a menudo se llama discurso de odio. Se descubrió que cuando la plataforma logró reducir la cantidad de contenido, Los usuarios que amplifican más el contenido reducen la participación general. Pero también ha aumentado el nivel de promoción de contenidos que incitan al odio. Ahora, todavía me pregunto cómo utilizó este estudio el algoritmo de Google para determinar qué contenido es objetable. En este caso, el discurso hostil estaba dirigido a la población musulmana de la India. Los algoritmos de Google crearon una mezcolanza de mensajes que eran inapropiados en un sistema capitalista básico. Al nivel que cuando es desafiado Desestimaron todas las quejas. Quizás este algo sea mejor. Pero hay razones para dudarlo sin pruebas. Lo que me parece un poco más preocupante es que Sethi promociona BlueSky como una plataforma de redes sociales menos dañina por tener reglas para limitar la visualización y el intercambio de contenido que son consistentes con el nivel de equidad de la investigación. Sethi afirma que BlueSky representa un mejor compromiso entre. los conceptos de libertad de expresión y limitación del discurso de odio que los que se encuentran hoy en las grandes plataformas. Tengo un problema con la idea de que BlueSky sea menos odioso a la luz del terrible trato de Jesse Singal. Singal atrajo la ira de los activistas trans en BlueSky simplemente por ser comprensivo. Eso incluye acusaciones falsas. Quillette defendió que publicó los registros médicos privados de niños transgénero en La campaña de mentiras contra el periodista Jesse Singal, y por qué es importante. Esto es lo que pasó con Singal en BlueSky: Esta segunda ronda fue motivada por mi unión a Bluesky, un Twitter alternativo con una base de usuarios de extrema izquierda y de voluntad fuerte que se enoja mucho cuando las personas que «no lo hacen» son las únicas. a quien le gusta. Le gusta aparecer. Rápidamente me convertí en la cuenta más bloqueada del sitio. y con miedo a una contaminación de segundo orden Luego, estos usuarios desarrollaron una herramienta para poder bloquear a cualquiera que me siguiera en gran número. De esta manera no enfrentarán la amenaza de ver ningún contenido mío o de cualquiera que me siga. Por fin un espacio verdaderamente seguro. Pero eso no es suficiente. También presionan agresivamente a Aaron Rodericks, el jefe de confianza y seguridad del sitio, para que me despida. (Aquí hay un ejemplo: “Bastardo, bastardo, bastardo. Me quieres muerto. Me quieres muerto. Apuesto a que me bloquearás. Y me iré tan pronto como llegue aquí. Me enterrarán y no te importará. Amas tanto a tus amigos solteros que están enfermos”). Muchas de estas quejas provienen de personas que parecen tan disciplinadas que no pueden patrocinar con éxito un Waffle House. Así que pudo tener un impacto en el mundo real, por lo que no estaban muy contentos con bloquearme. y bloquear a cualquiera que me siga Y gritarle a la gente que se niega a bloquearme. También comenzaron a circular todos los rumores negativos sobre mí que se habían publicado en línea desde aproximadamente 2017, y muchos de ellos regresaron. Catálogo para estar seguro También publicaron algo nuevo: Soy un pedófilo (sí, ¡realmente dijeron eso!). Tenga en cuenta que esta es solo la primera parte de una larga lista de uso indebido de vitriolo en BlueSky IM Doc. Proporcione muchos detalles. Pero un grupo de médicos que podrían describirse como herejes de Covid fueron a BlueSky y rápidamente regresaron a Twitter, donde claramente fueron recibidos con mucho odio. Espero que explique esto con más detalle en los comentarios. Otra razón por la que no me atrevo a limitar mis opiniones. Incluso aquellos que afirman estar diseñados principalmente para controlar el habla. Así es como los sionistas han logrado que muchos gobiernos traten las críticas al genocidio de Israel o el apoyo al BDS en un intento de validarlo. antisemita La tensa idea del odio se está utilizando para censurar las críticas a la política estadounidense, por lo que Sethi podría considerar que la razón por la que BlueSky parece más aceptable es que algunos usuarios se involucran en normas de aplicación extremadamente agresivas. que a menudo expresa odio Aplastar la expresión de opiniones e información que entren en conflicto con su ideología. No creo que mejore los estándares en otros lugares Por Rajiv Sethi Profesor de Economía Barnard College, Universidad de Columbia &; profesor externo Instituto Santa Fe Publicado por primera vez en su sitio web. Las publicaciones en las redes sociales sobre nuevas investigaciones económicas han seguido cobrando fuerza últimamente. Porque existe un cronograma de entrevistas para el puesto de docente. Y los solicitantes intentan llamar la atención sobre su trabajo. Hace un par de años Me encontré con un artículo interesante. Inmediatamente me pareció que esto tenía un gran impacto en la forma en que pensamos sobre la meritocracia. Este artículo se encuentra actualmente en edición en una revista importante. Y el autor principal pertenece a la facultad de Tufts. Este año recibí una notificación de un trabajo sobre polarización. Este es el tema del seminario que impartiré el próximo semestre. Un nuevo artículo particularmente interesante proviene de Aarushi Kalra, candidato a doctorado en Brown, quien realizó un experimento en línea a gran escala en colaboración con una plataforma de redes sociales en India. Prohibido en 2020, actualmente hay varias aplicaciones que compiten en este espacio. Desde multinacionales como Instagram Reels hasta aplicaciones locales alternativas como Moj, las plataformas de este experimento tienen alrededor de 200 millones de usuarios mensuales, y Kalra ha podido retener alrededor de un millón de ellos. y otros cuatro millones de personas fueron seguidas como grupo de control1. El tratamiento implica reemplazar la atención algorítmica con alimentación aleatoria. con el objetivo de identificar impactos en Exposición e interacción con contenido tóxico especialmente El autor está interesado en ver y compartir contenido clasificado como infractor según la API Perspective de Google y dirigido específicamente a minorías musulmanas en la India. Los resultados son aleccionadores. Aquellos en el grupo de tratamiento que habían estado expuestos previamente al contenido más tóxico. (basado en la respuesta del algoritmo al compromiso previo) responde a la reducción de la exposición de la siguiente manera Reducen la participación general. Pasa menos tiempo en la plataforma (y aún más en sitios de la competencia según la siguiente encuesta), pero también aumentaron la tasa de compartir contenido tóxico de forma condicional cuando se enfrentan. Es decir, compartir contenido tóxico disminuye menos que la exposición a ese contenido. También están aumentando las búsquedas de dicho contenido en la plataforma. Esto resultó en una mayor exposición que los usuarios tratados que estaban menos expuestos al inicio. Ahora bien, se podría argumentar que cambiar a transmisiones aleatorias es una herramienta muy sencilla y no una que las plataformas adopten o apoyen los reguladores. Incluso aquellos que reciben el contenido más tóxico están sujetos a curación algorítmica. También hay alimentos que en su mayoría no son tóxicos. Por ejemplo, la proporción de contenido clasificado como tóxico fue de aproximadamente el 5 por ciento en los alimentos de los grupos más expuestos durante la evaluación inicial. El resto del post se centrará en otro tipo de intereses. Por lo tanto, no sorprende que dicha intervención condujera a una disminución significativa de la participación. Puede ver esto claramente si observa el grupo de usuarios tratados que estuvieron menos expuestos a contenido tóxico durante la evaluación inicial. Para este grupo de usuarios El cambio a un feed aleatorio resultó en un aumento significativo en la exposición a publicaciones tóxicas: Fuente: Figura 1 en Kalra (2024) A estos usuarios se les negó la interacción con el contenido tóxico durante el período de referencia. y evitar algoritmos en consecuencia. Bríndeles dichos materiales. Pero las transmisiones aleatorias no hacen esto. Como resultado, incluso estos usuarios experimentan una participación significativamente reducida: Fuente: Figura 3 (panel derecho) en Kalra (2024) En principio, uno puede imaginar una intervención que deteriore la experiencia del usuario en menor medida. Los autores utilizan simulaciones contrafactuales basadas en modelos para explorar el impacto de aleatorizar solo la proporción de feeds para usuarios seleccionados. (Usuarios expuestos al contenido más tóxico al inicio) Esto es interesante. Pero las políticas de moderación existentes a menudo apuntan al contenido más que a los usuarios. Y podría valer la pena explorar el impacto de retener o reducir la exposición únicamente a contenidos que se consideren tóxicos. manteniendo al mismo tiempo la curación algorítmica general. Creo que los modelos y los datos deberían permitir que esto suceda; sin embargo, ahí está el elefante en la habitación: el demonio de la censura. Desde una perspectiva legal, política y ética, esto tiene más que ver con decisiones políticas que con la rentabilidad de la plataforma. La idea de que las personas tienen derecho a acceder a contenidos que otros puedan considerar antisociales u ofensivos está profundamente arraigada en muchas culturas. Aunque esto no siempre está especificado en la ley. en este entorno Represión del discurso político por parte de las plataformas Es comprensible ser escéptico. Al mismo tiempo, no hay duda de que las teorías que circulan en línea podrían tener consecuencias verdaderamente nefastas. Una forma de escapar de este dilema es filtrando el contenido que se puede escribir. Esto brinda a los usuarios una gran flexibilidad para etiquetar contenido y decidir qué etiquetas desean habilitar. Este parece ser el enfoque que está adoptando Bluesky, como se indica en publicación anterior La plataforma permite a las personas ocultar respuestas inapropiadas a todos los usuarios. Esto lo convierte en una estrategia para difundir contenido inapropiado respondiendo a publicaciones muy visibles. La plataforma también permite a los usuarios excluir sus publicaciones al citarlas. Por tanto, resulta tentador para quienes quieran ridiculizarlos o ridiculizarlos a utilizar capturas de pantalla. A largo plazo, esto se debe a que la posibilidad de que los usuarios personalicen la moderación de contenidos debería proporcionar una experiencia más diversa y protección contra ataques sin necesidad de censura o expulsión mecánica. Es interesante ver también a comunidades enteras (como las de economistas académicos) migrar a diferentes plataformas. El contenido y la conectividad permanecen en gran medida intactos. Cambios tan grandes son relativamente raros porque los efectos de la red empeoran el uso de la plataforma. Pero cuando sucedió Difícil de revertir Esto deja a Bluesky con un poco de margen de maniobra mientras la empresa intenta descubrir cómo manejar las quejas de manera consistente. Creo que la plataforma tendrá éxito si evita prohibiciones y bloqueos en favor de un etiquetado y moderación descentralizados. Esto debería ayudar a las personas centradas en la seguridad a separarse del peligro. sin silenciar las voces más controvertidas entre nosotros. Mirando atrás de vez en cuando La voz resultó ser la más profética.

You May Also Like

More From Author

+ There are no comments

Add yours