Eliminar el Artículo 19 del Marco Civil de Internet Amenazaría a las Pequeñas Comunidades Digitales y Reforzaría el Monopolio de las Big Techs

imagen: James Wainscoat / Unsplash

El Tribunal Supremo Federal (STF) de Brasil juzgará en los próximos días la constitucionalidad del artículo 19 del Marco Civil de Internet, un tema que ha generado intensos debates en la sociedad. Se trata de 4 procesos que cuestionan la validez de la norma, entre ellos una Acción Directa de Inconstitucionalidad (ADI) y una Alegación de Incumplimiento de Precepto Fundamental (ADPF).

¿Qué dice la ley?

El artículo 19 del Marco Civil de Internet establece que:

Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

Traducción: Art. 19. Con el fin de garantizar la libertad de expresión e impedir la censura, el proveedor de aplicaciones de internet solo podrá ser responsabilizado civilmente por daños derivados de contenido generado por terceros si, después de una orden judicial específica, no toma las medidas para, en el ámbito y dentro de los límites técnicos de su servicio y dentro del plazo señalado, hacer que el contenido señalado como infractor esté indisponible, sin perjuicio de las disposiciones legales en contrario.

Fuente: Ley 12.965, de 23 de abril de 2014

El problema de la moderación de contenido

El artículo 19 ha sido cuestionado últimamente en la sociedad ante la insuficiencia de moderación de contenido de las grandes “plataformas” (aunque considero que este término es inadecuado, es el que “se ha impuesto” en el uso común). Es evidente que fallan bastante en eliminar el contenido delictivo publicado en sus redes y la desinformación. Una de las razones es que las áreas de estas empresas responsables de la moderación de contenido fueron intensos alvos de los despidos masivos realizados desde el año pasado, reduciendo fuertemente, con ello, su capacidad de actuación.

Así, es perfectamente válido el argumento de que es necesario regular estas plataformas, dados los perjuicios que la amplia difusión de desinformación y contenido delictivo ha causado a la sociedad y a la democracia.

No obstante, se equivoca quien piensa que la moderación de contenido es una tarea simple o que puede realizarse con poco esfuerzo. Invito al lector a conocer el juego Moderator Mayhem, que se puede jugar en el propio navegador, sin necesidad de instalación. Al jugador se le presentan situaciones de dificultad sucesiva, donde debe decidir qué contenido debe mantenerse y qué contenido debe suprimirse. No siempre la elección es clara y fácil. Quien piense que lo es, le sugiero que juegue y luego me diga si sigue teniendo la misma opinión.

La concepción del Marco Civil

El Marco Civil de Internet em Brasil fue concebido como resultado de un proceso ampliamente participativo, escuchando las voces y los argumentos de la sociedad de manera amplia, desde la fase de Anteproyecto de Ley. Se utilizó una plataforma abierta a la participación de cualquier persona

El anteproyecto de ley del Marco Civil de Internet fue elaborado de manera innovadora, utilizando la plataforma CulturaDigital.Br del Ministerio de Cultura. El uso de una plataforma ya existente facilitó los trabajos de la SAL y fue esencial para la creación del anteproyecto de la forma en que se hizo.

Fuente: Wikipedia

de una manera tan innovadora y participativa que fue estudiada en una tesis de maestría.

El artículo 19 del MCI fue elaborado a partir de un intenso debate multisectorial, que contó con espacios de amplia participación de la sociedad civil organizada, del gobierno y del sector privado. (…)

En otras palabras, el artículo 19 determinó que la palabra final sobre lo que es o no lícito en las plataformas siempre es del poder judicial, ya que estas empresas no pueden ser responsabilizadas por el contenido de terceros si no incumplen una decisión judicial de eliminación. Son libres de adoptar sus propias reglas y sus operaciones de moderación de contenido, pero no estarán obligadas a indemnizar por no atender la demanda extrajudicial de un usuario.

Fuente: João Pedro Favaretto Salvador y Tatiane Guimarães en un artículo para la Fundación Getúlio Vargas

Los intensos debates también continuaron durante la tramitación del Proyecto de Ley en las cámaras que componen el Congreso Nacional.

Después de ser sancionada, la Ley del Marco Civil de Internet se convirtió en un modelo para el mundo de regulación de Internet, en el que otros países comenzaron a inspirarse como ejemplo al discutir cómo elaborar su propia legislación.

¿Qué pasaría sin el art. 19?

En caso de que el STF decida anular el art. 19 del Marco Civil de Internet, cualquiera que mantenga un servicio en Internet donde terceros puedan publicar contenido podría, en teoría, ser responsabilizado civilmente por los daños causados por el contenido de terceros. Esto se aplica tanto a las grandes plataformas de las Big Tech (o, como se les llama en el podcast “Tech Won’t Save Us”, los vampiros de datos), como a los pequeños foros y sitios web.

En el caso de las Big Tech, podrían soportar los mayores costos recontratando y ampliando sus equipos de moderación (llamados “Trust and Safety”). Probablemente configurarían sus algoritmos automatizados de moderación para ser más restrictivos, lo que podría amplificar algo que ya ocurre, que es la eliminación injustificada de contenido perfectamente legal, el llamado “falso positivo”. Esto es algo que últimamente no ha recibido mucha atención, dada la repercusión en la sociedad de los “falsos negativos” (cuando se mantiene contenido ilegal en la plataforma incluso después de ser denunciado). Además, estas empresas tienen grandes equipos de abogados bien pagados para manejar cualquier litigio por contenido de terceros.

Sin embargo, al final, las Big Tech salen ganando, porque a pesar de los mayores costos, la falta de protección legal contra la responsabilidad por el contenido de terceros es un entorno legal que impediría que cualquier competidor más pequeño e innovador, pero con menos recursos financieros, aparezca para ocupar su lugar. Eso consolidaría aún más el oligopolio de los pocos gigantes existentes y concentraría aún más el mercado. No es casualidad que no se haya visto innovación por parte de las Big Tech desde hace mucho tiempo. En su lugar, parecen estar más enfocadas en hacer lobby por un tipo muy específico de regulación estatal que consolidará aún más su posición y evitará el surgimiento de nuevos competidores.

Esto también ha sido una preocupación recurrente en las discusiones en otros países. En la Unión Europea, la Ley de Servicios Digitales, establecida en 2022, fija reglas claramente diferenciadas para las grandes plataformas en línea. En Estados Unidos, Mike Masnick argumentó en una discusión similar sobre la posible derogación de la Sección 230 de la Ley de Decencia de las Comunicaciones que ha sido planteada por el Congreso:

“Big Tech” está absolutamente dispuesta a hacer concesiones sobre la Sección 230, porque saben que todo lo que hace es jugar a su favor. Son todos los otros sitios los que se ven perjudicados por los litigios y la responsabilidad. Meta y Google y las otras grandes empresas tecnológicas tienen edificios llenos de abogados. Eliminar la Sección 230 puede perjudicarlos en los márgenes, pero lo compensarán haciendo que toda la competencia más pequeña desaparezca.

Fuente: Techdirt, mayo de 2024

Por otro lado, en el caso de los pequeños sitios y foros, es muy diferente. Muchas veces, no tienen ninguna fuente de ingresos y son solo una fuente de gastos, esfuerzo y trabajo para la persona que los mantiene. La mera posibilidad de correr el riesgo de tener que hacerse cargo de un proceso judicial por culpa de una publicación de un tercero puede llevar a muchos a considerar el cierre de sus actividades, teniendo en cuenta la insuficiencia de recursos para vigilar rápidamente todo lo que se escribe por terceros y para defenderse en procesos judiciales, así como la naturaleza no comercial de estos espacios.

Con ello, es fundamental que no se haga una derogación completa del artículo 19 del Marco Civil de Internet, sino que se añadan disposiciones específicas para situaciones concretas aplicables solo a las grandes plataformas. Además de la regulación europea ya en vigor, algo similar a esto también ha sido defendido aquí en Brasil por expertos como Ronaldo Lemos, quien argumentó durante una audiencia pública en el STF en 2023:

Sobre el Artículo 19, mi opinión personal es que en lugar de derogarlo por inconstitucionalidad, el mejor camino es en realidad modular su aplicación, previendo situaciones específicas diferentes de su regla general, de nuevo, a través del Congreso Nacional.

Fuente: Voces de la Regulación - Audiencia Pública el 28/3/2023

El futuro de las pequeñas comunidades digitales

Caso el artículo 19 pierda integralmente su validez, los riesgos para cualquier persona de mantener una pequeña comunidad digital o foro sin fines de lucro en internet con la posibilidad de albergar contenido de terceros pasarán a ser enormes. Sería lamentable perder todo el contenido y base de conocimiento acumulados en estos espacios. Por eso, en caso de responsabilización por contenido de terceros, la alternativa sensata y que preserva esta base de contenidos podría ser congelar la comunidad o foro y no permitir ninguna nueva publicación, dejándolos solo como fuente de consulta, con la esperanza de ayudar a quienes buscan información. Sin embargo, lamentablemente, perdiendo su característica interactiva y la posibilidad de que una persona ayude directamente a otra, por ejemplo, resolviendo dudas o respondiendo preguntas.

A pesar de los desafíos, es fundamental encontrar una solución equilibrada, que preserve la libertad de expresión y la innovación en internet, al mismo tiempo que establezca reglas claras y específicas para las grandes plataformas, con el fin de mitigar los daños causados por la difusión de contenido perjudicial, pero sin perjudicar a los pequeños sitios. La regulación que se pretende alcanzar necesariamente debe aplicarse exclusivamente a las grandes plataformas, al ejemplo de lo que hizo la Unión Europea.