Seis cosas que ADL está observando tras el lanzamiento de Meta's Threads
HogarHogar > Noticias > Seis cosas que ADL está observando tras el lanzamiento de Meta's Threads

Seis cosas que ADL está observando tras el lanzamiento de Meta's Threads

Jun 23, 2023

Threads, el 'asesino de Twitter' de Meta, se lanzó el 6 de julio con fanfarria mediática. Gracias a la integración con la enorme base de usuarios de Instagram, Threads se convirtió en la aplicación de consumo más rápida en alcanzar los 100 millones de descargas, en sólo cinco días. El ejecutivo de Meta Adam Mosseri, que ahora dirige Instagram y Threads, dice que la nueva aplicación social basada en texto no es para noticias o política. El objetivo de la aplicación, afirma, es crear una plaza pública para otro tipo de comunidades.

Aunque Meta promete algunas características de seguridad con visión de futuro, como bloquear usuarios con un toque y filtrar respuestas con ciertas palabras, la compañía tiene un historial de no cumplir sus promesas de proteger a los objetivos del odio y el acoso en línea.

Con otras elecciones estadounidenses ya cargadas políticamente en el horizonte, el odio y el acoso en línea en niveles récord y un aumento del antisemitismo y los incidentes extremistas tanto en línea como fuera de línea, un nuevo producto de redes sociales de esta escala presentará serios desafíos. Meta no puede simplemente desear que desaparezcan afirmando que su objetivo es crear "un espacio positivo y creativo para expresar sus ideas".

Aquí hay seis cosas que ADL observará a medida que Threads continúe creciendo y algunas observaciones iniciales preocupantes:

La creación de una nueva aplicación fue una oportunidad para que Meta abordara los Términos de uso y las Pautas de la comunidad desde una nueva perspectiva y considerara los tipos de interacciones que fomenta el producto. En cambio, Meta añadió algunos cambios a la política existente de Instagram sin abordar las diferencias fundamentales entre Instagram y Threads.

Por ejemplo, la explicación de Instagram sobre cómo mitiga la difusión de información falsa no es relevante para Threads. Se centra en funciones específicas de Instagram como "explorar", hashtags e historias, todas funciones que no están disponibles en Threads. Meta debería explicar si filtrarán información falsa de Threads y cómo, además de ser claro sobre su enfoque hacia otros medios dañinos, como los medios sintéticos como los deepfakes.

El conjunto de aplicaciones de Meta ha creado un laberinto de políticas sobre el odio, el acoso y el extremismo. Desafortunadamente, no son particularmente fáciles de usar. En algunos casos, Facebook, Instagram y Threads tienen políticas distintas, pero en otros, se refieren a una metapolítica general. Una política es tan buena como su claridad y aplicación, y la política de odio de Threads es preocupantemente difícil de encontrar.

La política de Threads sobre el odio parece referirse a la política de Instagram, que a su vez se refiere a la política de Meta. Si la política de Meta es, de hecho, totalmente aplicable tanto a Instagram como a Threads, la política al final del laberinto es sólida. La política Meta “define el discurso de odio como un ataque directo contra personas –en lugar de conceptos o instituciones– sobre la base de... características protegidas: raza, etnia, origen nacional, discapacidad, afiliación religiosa, casta, orientación sexual, sexo, género. identidad y enfermedad grave”.

Los usuarios de todas las plataformas de Meta, incluido Threads, merecen políticas claras y accesibles adaptadas al diseño de la aplicación que utilizan y que prioricen la seguridad de las personas. ADL ha instado repetidamente a las plataformas no sólo a tener políticas claras y completas, sino también a comunicarse con sus usuarios sobre sus decisiones de gestión de contenidos. Los usuarios merecen saber que las plataformas revisarán cuidadosamente sus informes de contenido de odio. En la actualidad, la política de odio aplicable a Threads es difícil de encontrar sin una búsqueda concertada, y no está claro si se aplicará en Threads y cómo.

En el informe de 2023 del ADL Center for Tech and Society (CTS) sobre el odio y el acoso en línea, Facebook fue el sitio donde la mayoría de los adultos encuestados habían experimentado acoso, incluso teniendo en cuenta el tiempo pasado en la plataforma. Instagram fue el siguiente más alto, empatado con Twitter. De los que fueron acosados ​​en línea, el 54% informó que el acoso ocurrió en Facebook.

Hasta ahora, Threads tiene algunas protecciones basadas en productos prometedoras para los objetivos de acoso, como herramientas de fácil acceso para dejar de seguir, bloquear, restringir o denunciar un perfil. Además, Threads bloquea automáticamente cualquier cuenta que un usuario haya bloqueado en Instagram, evitando a los objetivos una exposición nueva o adicional a acosadores previamente bloqueados. CTS ha abogado por diseños de seguridad más intuitivos, fáciles de usar y eficaces, como estos, y ha creado una biblioteca de patrones sociales que los diseñadores pueden utilizar. Threads parece haber dado algunos pasos positivos en este sentido, especialmente teniendo en cuenta el historial de Meta de no proporcionar a los usuarios las protecciones adecuadas.

Sin embargo, lo problemático es que a los pocos días de su lanzamiento, Threads ya ha expuesto objetivos vulnerables al odio y el acoso. Un incidente preocupante involucró a un usuario que descubrió que el sistema automatizado de Meta había eliminado su nombre legal y alterado su nombre para mostrar en Threads en consecuencia sin su previo aviso o consentimiento. Esa usuaria, una trabajadora sexual, utiliza un seudónimo en línea para proteger su identidad.

Esta característica viola la privacidad de los usuarios, potencialmente pone en peligro su seguridad y puede desencadenar acoso basado en la identidad. Por ejemplo, cambiar los nombres de perfil de los usuarios por sus nombres legales sin avisar con antelación y sin tener la oportunidad de impugnar la decisión antes de que entre en vigor podría dar lugar a que se elimine el nombre de los usuarios queer y transgénero. Las personas transgénero, que ya sufren de manera desproporcionada acoso en línea, según datos de ADL, podrían enfrentarse a la revelación y a un acoso severo como resultado. Si bien no está claro si se trató de un descuido apresurado del diseño o de una elección política deliberada, esta práctica es peligrosa para cualquier usuario que dependa del anonimato para su seguridad.

Para quienes son objeto del odio en línea, los mecanismos de denuncia actuales también parecen inadecuados. El formulario de denuncia de Threads utiliza un lenguaje vago en su flujo de denuncia de discursos de odio que no centra la experiencia de los grupos marginados, sino que define el odio como atacar a "cualquiera en función de quiénes son".

Proteger los objetivos también requiere tener una operación sólida de Confianza y Seguridad. Agregar una aplicación nueva y altamente descargada a su suite aumenta aún más la necesidad urgente de un equipo de Confianza y Seguridad con todos los recursos. En particular, en los últimos meses, Meta destripó su fuerza laboral de Confianza y Seguridad. Continuaremos observando las prácticas de Meta y lo alentaremos a invertir en el soporte backend que los objetivos necesitan.

Además de las preocupaciones estructurales con Threads, los malos actores ya están recurriendo a la aplicación para difundir sus mensajes. El supremacista blanco y antisemita Nick Fuentes, excluido de Instagram después de la insurrección del 6 de enero, dijo que creó una cuenta falsa en Threads e instó a sus seguidores a hacer lo mismo. Hay pruebas de que muchos de los llamados Groypers lo han hecho. Aunque las capacidades de búsqueda de Threads son rudimentarias, ya es posible encontrar antisemitismo en la plataforma con un poco de esfuerzo. El Tech Transparency Project descubrió que cuentas llenas de imágenes y lenguaje nazis ya estaban poblando Threads dentro de las 24 horas posteriores al lanzamiento de la aplicación. Libs de TikTok, un proveedor despiadado de acoso estocástico y narrativas extremistas anti-LGBTQ+, ya acusó a Threads de censura por eliminar una publicación bajo sus pautas de incitación al odio. La rápida acción de Meta, en este caso, es alentadora, pero otros usuarios de Threads han comentado que los informes contra Libs de TikTok son rápidamente rechazados. Esto sugiere que una cuenta conocida por difundir odio y acoso puede en realidad estar recibiendo un trato especial, conocido como lista blanca, en Threads. Meta debe mantener una postura firme contra usuarios como Libs de TikTok, quienes felizmente alimentarán seguidores llenos de odio en Threads y acosarán directamente a objetivos vulnerables.

Los extremistas suelen aprovechar las plataformas durante los períodos de rotación. Por ejemplo, observamos “pruebas de estrés” de usuarios que impulsaron la moderación de contenido cuando Elon Musk adquirió Twitter en octubre de 2022. Fuentes y otros parecen estar haciendo algo similar con Threads. Usuarios menos extremos con antecedentes de difusión de información errónea y fomento del acoso ya han publicado contenido que podría violar las Normas de la comunidad de Meta, como teorías de conspiración electoral e insultos contra personas transgénero. Seguiremos de cerca los esfuerzos de Meta para moderar el odio, el acoso y la desinformación en Threads, así como también cómo los extremistas y otros usan la plataforma.

A pesar de la afirmación de Mosseri de que Threads no está destinado a “noticias y política” y que los riesgos de integridad asociados no justifican el “compromiso o los ingresos incrementales”, la plataforma sin duda será utilizada tanto por activistas políticos como por otros actores que busquen influir en la política. temas. En nuestro análisis anterior de las políticas de integridad electoral de Meta en el período previo a las elecciones intermedias de EE. UU. de 2022, encontramos que las políticas tanto para Facebook como para Instagram carecían de las medidas necesarias. Ambos proporcionaron políticas y herramientas de desinformación para toda la plataforma, como la señalización, pero estas políticas no cubrieron todas las formas de información errónea y desinformación. Además, no se han actualizado desde 2019. Cuando auditamos la aplicación de las políticas de desinformación electoral por parte de las plataformas de redes sociales durante las elecciones intermedias de 2022, encontramos una aplicación inconsistente tanto en Facebook como en Instagram. Facebook, en particular, era vulnerable a la difusión de información errónea a través de capturas de pantalla, mientras que Instagram permitía búsquedas sin restricciones de términos problemáticos de teorías de conspiración electoral.

Los hilos deben enfrentar la realidad de que con una base de usuarios tan grande, las figuras públicas acudirán a la plataforma para difundir mensajes relacionados con las elecciones y ganar seguidores. Si bien Threads puede y debe albergar discursos importantes, algunos malos actores ya han importado sus tácticas de desinformación a Threads. Los hilos rápidamente añadieron etiquetas a varias cuentas, incluida Donald Trump Jr. advirtiendo a los usuarios que la cuenta "publica repetidamente información falsa". Después de que estas cuentas reclamaran censura en Twitter, el competidor de Threads, Threads eliminó rápidamente las etiquetas.

Además, excepto en casos como compartir imágenes de explotación infantil, las acciones de moderación de Meta contra los usuarios en Threads no afectarán su cuenta de Instagram asociada, lo que permitirá a los usuarios más oportunidades de difundir afirmaciones falsas. Meta también ha recortado personal en equipos esenciales para la integridad electoral que se centran en la desinformación y las campañas coordinadas de acoso. Si bien esperamos que Threads y las otras plataformas de Meta aborden las deficiencias antes de las elecciones de 2024, la historia de la compañía no inspira mucha confianza.

Al igual que Instagram, los Términos de uso de Threads prohíben la extracción de datos. Después de restringir el acceso API a los datos de sus servicios a raíz del escándalo de Cambridge Analytica, Meta lanzó su API FORT a investigadores académicos calificados en 2021, que es solo para acceder a datos de Facebook. La API Graph de Instagram de Meta permite a los socios creadores y comerciales de Instagram acceder a algunos datos de la plataforma, pero esto es principalmente para administrar las interacciones de la cuenta, no para investigaciones de confianza y seguridad. Meta aún no ha anunciado ningún plan de acceso a API para Threads. El acceso a los datos de la plataforma es una herramienta crucial para los investigadores académicos y de la sociedad civil que permite monitorear amenazas y auditar los mecanismos de confianza y seguridad. Continuaremos abogando por el acceso de los investigadores a Threads como lo hacemos con otros productos y servicios de Meta.

Meta, al igual que otras empresas de redes sociales, publica informes voluntarios de transparencia cada trimestre. Esperamos que Threads se incluya en informes futuros, específicamente en relación con la aplicación de estándares comunitarios. Si bien nos alegra que Meta publique periódicamente informes de transparencia, la confianza se fortalecería significativamente si los auditores independientes tuvieran la capacidad de realizar auditorías periódicas.

Threads está destinado a integrarse en un sistema descentralizado de redes sociales, ActivityPub, y queda por ver cómo operarán la confianza y la seguridad una vez que eso ocurra. Un sistema descentralizado, a veces llamado "fediverse", podría brindar a los usuarios opciones para adaptar sus experiencias de moderación de contenido y brindar refugios seguros a los usuarios vulnerables. Aún así, a algunos les preocupa que la entrada de Threads aplaste el floreciente fediverso, dejándolo en manos dominantes de Meta. CTS monitoreará la integración de Threads en los próximos meses para garantizar que se prioricen las necesidades de los objetivos.