La policía del habla viene para las redes sociales.

0

IN DÍAS RECIENTES Ron DeSantis, gobernador de Florida y principal rival de Donald Trump por la nominación republicana, optó por anunciar su candidatura a la Casa Blanca a través de Twitter. El evento de audio en vivo, organizado por el propietario de la red social, Elon Musk, se convirtió en una farsa mientras los servidores de Twitter luchaban por hacer frente a los cientos de miles de oyentes que habían sintonizado. Cuando pudo ser escuchado, DeSantis dijo que había decidido anunciar en la plataforma porque, a diferencia de los “medios heredados”, Twitter es un “faro de la libertad de expresión”.

Escucha esta historia.
Disfruta de más audio y podcasts en iOS o Androide.

Su navegador no admite el elemento

El debate sobre quién puede decir qué en línea se está calentando nuevamente a nivel mundial. Twitter, la red favorita de los políticos y la prensa, está bajo la nueva administración mercurial de Musk, un autoproclamado absolutista de la libertad de expresión que ha restaurado las cuentas de usuarios previamente prohibidos, como Trump. Según los informes, Meta, un rival más grande, está preparando una red propia basada en texto, que se lanzará este verano. Las plataformas de redes sociales se enfrentan a una prueba durante los próximos 18 meses a medida que se acercan las elecciones presidenciales de Estados Unidos, uno de los mayores festivales del mundo de la bilis y la desinformación en línea.

A esta refriega entran políticos y jueces con propuestas normativas. Con el Congreso estancado, las legislaturas estatales de Estados Unidos y sus tribunales están trazando nuevas líneas en torno a los límites del discurso. En Europa las legislaturas han ido más allá. Estos movimientos están inspirando a los gobiernos en las partes menos democráticas del mundo a redactar sus propias reglas. Lo que se puede decir y escuchar en línea está bajo escrutinio.

Vigilar la plaza pública en línea es una tarea desalentadora. Las cosas se han calmado un poco desde que Trump dejó el cargo y covid-19, y la ola de desinformación asociada, se calmaron, pero en 2022 las tres plataformas de redes sociales más grandes del mundo: Facebook e Instagram, propiedad de Meta, y YouTube, propiedad de por Google: eliminó o bloqueó 11.400 millones de publicaciones, videos y comentarios de usuarios. La mayoría son eliminados por filtros automáticos, pero Meta y Google también emplean a más de 40,000 revisores de contenido entre ellos.

La mayor parte de esta limpieza no genera controversia: el 90% de las publicaciones que Facebook, la red más grande, eliminó el año pasado eran simplemente spam. Pero muchas decisiones de moderación son difíciles (ver gráfico). En el último trimestre, Facebook eliminó o bloqueó 10,7 millones de publicaciones que consideró discurso de odio y 6,9 millones que consideró intimidación, ambos conceptos en los que hay espacio para el desacuerdo. Para tomar un dilema reciente, Meta ordenó recientemente una revisión de si ha sido demasiado entusiasta en su vigilancia de la palabra árabe shaheed, que generalmente se traduce como “mártir” pero cuyo significado puede cambiar en diferentes contextos. En su mayoría, se ha dejado que las plataformas resuelvan tales dilemas por sí mismas.

Ahora, sin embargo, los políticos están interviniendo. En Estados Unidos, los demócratas y los republicanos están de acuerdo en que las redes sociales están haciendo un pésimo trabajo de moderación y que es hora de cambiar la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las plataformas en línea de la responsabilidad por el contenido publicado. por los usuarios (con excepciones como el contenido vinculado al tráfico sexual). Pero están completamente en desacuerdo sobre qué hacer al respecto.

Los demócratas, que acusan a los multimillonarios tecnológicos de avivar la ira y la desinformación a cambio de clics, quieren que las plataformas eliminen más contenido. Los republicanos, que creen que los entrometidos de California están amordazando a los conservadores, quieren que eliminen menos. (En una proporción de tres a uno, los votantes sospechan que las empresas de tecnología favorecen los puntos de vista liberales sobre los conservadores, según el Centro de Investigación Pew, un grupo de expertos estadounidense). El resultado es un punto muerto en el Congreso.

La Corte Suprema ha tenido la oportunidad de jugar con la Sección 230. Pero el 18 de mayo, en fallos sobre dos casos similares que involucran a YouTube y Twitter, que albergaron contenido subido por terroristas, se negó a alterar el statu quo, rechazando la idea de que en línea Las plataformas tienen responsabilidad por los delitos que cometen sus usuarios. NetChoice, un grupo de cabildeo tecnológico, describió la decisión como una “gran victoria para la libertad de expresión en Internet”. La Sección 230 parece segura por ahora.

Sin suerte a nivel federal, los reformadores de izquierda y derecha se están enfocando en los estados. El año pasado, California aprobó una ley que obliga a las empresas de tecnología a recopilar menos información de usuarios sobre niños, entre otras cosas. Varios estados han aprobado o propuesto leyes que requieren que los menores de 18 años obtengan el permiso de los padres antes de usar las redes sociales. El 17 de mayo, Montana prohibió TikTok por completo debido a su propiedad china (TikTok está demandando y se espera que gane).

Estados de negación

Lo más controvertido fue que en 2021 Florida y Texas, ambos controlados por republicanos, aprobaron leyes que restringen la capacidad de las redes sociales para moderar el discurso político. Los tribunales confirmaron la ley de Texas y anularon la de Florida, allanando el camino para el regreso a la Corte Suprema, que se espera que se haga cargo de los casos más adelante este año. “Si la corte abre la puerta a la regulación en este espacio, muchos [states] aprovechará la oportunidad”, dice Evelyn Douek de la Universidad de Stanford.

Tendrán dos modelos transatlánticos a seguir. Aprobada en julio de 2022, la UELey de Servicios Digitales de (DSA) entrará en vigor el próximo año. Se espera que el proyecto de ley de seguridad en línea de Gran Bretaña, que lleva cuatro años en proceso, se promulgue a finales de este año. Ambos adoptan un enfoque diferente al de Estados Unidos. En lugar de alterar quién tiene la responsabilidad por el contenido en línea (el tema central del debate de la Sección 230), obligan a las plataformas a hacer una especie de diligencia debida, para mantener el contenido de mala calidad al mínimo.

de Europa DSA requiere que las plataformas en línea establezcan procesos de manejo de quejas y exige que le digan a los usuarios cómo funcionan sus algoritmos, permitiéndoles cambiar las recomendaciones que reciben. Plataformas más pequeñas, definidas como aquellas con menos de 45 millones de usuarios en el UE, se liberará de algunas de estas obligaciones para evitar que se ahoguen en la burocracia (algunos rivales más grandes advierten que esto podría convertirlos en un refugio para material dañino). Para aquellos lo suficientemente grandes como para calificar para una supervisión completa, el DSA representa “una carga financiera significativa”, dice Florian Reiling de Clifford Chance, una firma de abogados. Hay quejas en Washington de que de las 19 plataformas asignadas hasta ahora por el UE para el escrutinio más intensivo, solo uno, Zalando, un sitio de comercio electrónico alemán, es europeo.

Twitter, que ha recortado su personal en aproximadamente un 80% desde que Musk asumió el cargo en octubre, puede ser uno de los que luchan por cumplir con los requisitos. DSArequisitos de . Musk parece haber tomado el relevo de Mark Zuckerberg, el jefe de Meta, como el mayor villano de las redes sociales a los ojos de algunos. El 26 de mayo, Thierry Breton, comisario europeo, tuiteó que Twitter había dejado el UEEl código de práctica voluntario contra la desinformación de ‘s, agregando lo que sonaba como una amenaza: “Puedes correr pero no puedes esconderte”.

El esfuerzo legislativo paralelo de Gran Bretaña se perfila como de mayor alcance. El proyecto de ley de seguridad en línea se concibió en 2019 después del suicidio de un niño de 14 años que se había emborrachado con material depresivo recomendado algorítmicamente. Cuatro primeros ministros más tarde, el texto del proyecto de ley casi se ha duplicado. Una firma de tecnología estadounidense lo llama “uno de los proyectos de ley más complejos que enfrentamos en cualquier parte del mundo”.

Va más allá de la UE en su requisito vagamente redactado para que las plataformas filtren material de manera proactiva. Las redes sociales más grandes ya verifican los videos en busca de coincidencias con contenido conocido de abuso infantil. Pero los delitos más sutiles, como la incitación a la violencia, son más difíciles de detectar automáticamente. La escala de algunas plataformas (YouTube sube 500 horas de video por minuto) significa que un requisito estricto para evaluar previamente el contenido podría reducir la cantidad de material nuevo que se carga.

Al igual que en Estados Unidos, los conservadores británicos se preocupan por la moderación excesiva de los puntos de vista de derecha. Por lo tanto, el proyecto de ley impone el deber de garantizar que la moderación “[applies] del mismo modo a una amplia diversidad de opiniones políticas”. Del mismo modo, el UE ha prometido que brindará “protección a los medios contra la eliminación injustificada de contenido en línea” como parte de su próxima Ley Europea de Libertad de Medios, una respuesta a la represión de la prensa en estados miembros como Hungría y Polonia.

La parte más controvertida del proyecto de ley de Gran Bretaña, que requería que las plataformas identificaran el contenido que es “legal pero dañino” (por ejemplo, material que fomente los trastornos alimentarios), se eliminó en lo que respecta a los adultos. Pero sigue existiendo el deber de limitar su disponibilidad a los niños, lo que a su vez implica la necesidad de controles de edad generalizados. Las firmas tecnológicas dicen que pueden adivinar las edades de los usuarios a partir de su historial de búsqueda y los movimientos del mouse, pero que un deber estricto de verificar las edades de los usuarios amenazaría el anonimato.

Algunos sospechan que su verdadera objeción es el precio. “No creo que ‘Cuesta dinero y es difícil’ sea una excusa”, dice Keily Blair, directora de operaciones de OnlyFans, una plataforma centrada en la pornografía que verifica la edad de sus usuarios y no ve por qué otros deberían hacerlo. haz lo mismo Sin embargo, algunas plataformas son inflexibles: la Fundación Wikimedia, que administra Wikipedia, dice que no tiene intención de verificar las edades de los usuarios.

Cuanto más estrictas sean las normas en jurisdicciones como Gran Bretaña o la UE, lo más probable es que las empresas de tecnología opten por ofrecer diferentes servicios allí, en lugar de aplicar las mismas reglas en todo el mundo. Algunos incluso pueden renunciar. WhatsApp, una aplicación de mensajería propiedad de Meta, dice que no está dispuesta a romper su cifrado de extremo a extremo para cumplir con un requisito en el proyecto de ley de Gran Bretaña de que las empresas deben escanear mensajes privados en busca de abuso infantil. Puede que no llegue a eso: el proyecto de ley permitiría a Ofcom exigir los datos solo en los casos en que determinara que tal medida era proporcionada. Aún así, las amenazas de levantar palos son cada vez más comunes. El 24 de mayo, Sam Altman, director de OpenAIdijo que consideraría dejar el UE si su regulación de la inteligencia artificial fuera demasiado lejos. (Más tarde remó sus comentarios).

efectos de red

Ya sea que Gran Bretaña o los UE usan todo el alcance de sus nuevos poderes, sientan un precedente útil para los países que podrían usarlos de manera opresiva. El proyecto de ley de Gran Bretaña, que propone la prisión para los ejecutivos de las empresas que infrinjan las reglas, es “un modelo para la represión en todo el mundo”, según Electronic Frontier Foundation, un grupo de libertades civiles. Un ejecutivo estadounidense critica que la afirmación de Gran Bretaña de ser “líder mundial” en tecnología es cierta solo en el sentido de que está abriendo el camino para que los no democráticos aprueben sus propias leyes represivas.

Necesitan poco estímulo. Turquía ordenó a Twitter que censurara la información durante su reciente elección; ese entusiasta de la libertad de expresión, el Sr. Musk, cumplió. Brasil ha propuesto una “ley de noticias falsas” que penalizaría a las redes sociales por no identificar información errónea. Siguiendo el modelo de la legislación europea, ha sido apodado el “DSA del trópico”. India publicará un proyecto de ley de regulación de Internet en junio que, según se informa, hará que las plataformas sean responsables del contenido de los usuarios si no aceptan identificar y rastrear a esos usuarios cuando se les indique.

El impacto internacional de los británicos y UE propuestas está influyendo en el debate en Estados Unidos. “No importa cuánto pienses que las redes sociales han corrompido la política estadounidense”, dice Matthew Prince, jefe de Cloudflare, una firma estadounidense de redes, “han sido increíblemente desestabilizadoras para otros regímenes que están en contra de los intereses de Estados Unidos. ”

Leave A Reply