REGULAR LOS DAÑOS DIGITALES

Jueves, 31 de diciembre de 2020

 

Autor: David Kaye y Jason Pielemeier

 

Como demuestra la reciente Ley de Servicios Digitales de la Comisión Europea, los legisladores en todo el mundo están haciendo esfuerzos, por buenas razones, para combatir el extremismo, la desinformación y la manipulación que han consumido el ecosistema digital, distorsionado el discurso público y profundizado la polarización en los últimos años.

 

Pero sus esfuerzos conllevan riesgos. De la misma manera que las reglas que gobiernan los dominios online pueden fomentar la democracia promoviendo un debate inclusivo e informado, también se puede abusar de ellas para coartar la libertad de expresión. 

 

Principios de Derechos  Humanos.

 

Afortunadamente, el derecho internacional de los derechos humanos ofrece un conjunto de principios que pueden orientar la regulación de manera tal que se ocupe del contenido tóxico promoviendo a la vez la libertad de expresión. Para ayudar a iluminar este proceso, nuestra organización, la Iniciativa de Red Global       (GNI por su sigla en inglés), recientemente reunió a expertos de toda la industria y de la comunidad de derechos humanos para examinar decenas de iniciativas de regulación de contenido en más de una docena de países y ofrecer recomendaciones relevantes.

 

Legalidad

 

El primer principio de derechos humanos que se debe aplicar es la “legalidad”, que destaca la necesidad de definiciones claras adoptadas mediante procesos democráticos. Esas definiciones no existen en Tanzania, por ejemplo, que por el contrario tiene reglas que prohíben el contenido online que “provoca molestia”, entre otros daños ambiguos. Si no está claro qué contenido se permite y cuál no, los gobiernos intentan maximizar su poder de restricción de la libre expresión; los usuarios no pueden saber qué constituye una conducta lícita; y las cortes y las empresas se esfuerzan por aplicar las reglas de manera justa. 

 

Legitimidad

 

Otro principio vital es lalegitimidad”, que dictamina que los gobiernos pueden limitar la expresión sólo por razones imperiosas específicas, como los derechos de los demás, la salud pública y el orden público. 

 

Necesidad

 

El principio de “necesidad” luego exige que las restricciones estén hechas para cumplir con esos objetivos legítimos y que sean proporcionadas al interés que se está protegiendo. No debería adoptarse ninguna regulación si una regla menos restrictiva de la libertad de expresión puede cumplir la tarea.

 

Una estrategia centrada en los derechos humanos ayuda a impedir consecuencias desproporcionadas. En este sentido, la regulación propuesta por la Unión Europea para prevenir la diseminación online de contenido terrorista o extremista le erra al blanco. La regulación exigiría que las empresas de todo tipo y tamaño eliminen contenido terrorista en el lapso de una hora e introduzcan medidas proactivas para filtrar ese tipo de material. Las empresas dominantes pueden costear esas reglas, pero incrementaría las barreras para que actores nuevos e innovadores ingresen al mercado, y resultaría en la eliminación desproporcionada de todo tipo de contenido aceptable. 

 

Pero las propias empresas pueden y deben aplicar reglas que fomenten los derechos humanos, más allá de la regulación gubernamental. Aquí, la transparencia, el debido proceso y la rendición de cuentas son esenciales.

 

Por empezar, las empresas de redes sociales deben ser mucho más comunicativas respecto de cómo regulan el contenido. Esto implica compartir públicamente la mayor cantidad de información posible, y ofrecer información legítimamente sensible a reguladores y expertos independientes a través de regímenes de acceso controlados o acuerdos de múltiples interesados, similares al que GNI ha creado para compartir información, desde respuestas de las empresas hasta demandas del gobierno.

 

Control de contenido

 

Con esta información, los gobiernos pueden garantizar que los intermediarios moderen el contenido de manera consistente y justa. Con este objetivo, a los reguladores, con los recursos y la experiencia apropiados (e, idealmente, involucrando a expertos y defensores de los derechos de los usuarios), se les debería encomendar la tarea de proporcionar orientación y supervisión de los sistemas de moderación de contenidos. Al mismo tiempo, se les debería exigir a las empresas que introduzcan mecanismos que les den a los usuarios un mayor control sobre lo que pueden ver y compartir. 

 

Sin embargo, la responsabilidad por moderar el contenido sensible en última instancia no debería quedar en manos exclusivamente de empresas privadas. Por el contrario, los gobiernos deberían poner a cargo a órganos democráticamente responsables, como los tribunales. La Ley Contra la Manipulación de la Información de Francia, si bien es imperfecta, busca hacer precisamente eso: ofrece un proceso expeditivo para que los jueces revisen la supuesta desinformación relacionada con las elecciones. De esa manera, las empresas no son las que toman estas decisiones difíciles y políticamente sensibles. Por contraste, el Consejo Constitucional del país recientemente revocó unas cláusulas de un proyecto de ley francés sobre discurso de odio, en parte porque eludía el sistema judicial del país. 

 

No importa cuán claras sean las reglas y cuán eficientes sean los sistemas de moderación, los reguladores y las empresas cometerán errores. Esta es la razón por la cual la pieza final del rompecabezas es la resolución y la reparación de las disputas. Las empresas deberían permitirles a los usuarios apelar decisiones de moderación de contenido ante organismos independientes, con una especial consideración por los grupos vulnerables, como los niños, y por aquellos que sirven al interés público, como los periodistas. Los gobiernos y los reguladores también deberían ser objeto de mecanismos de transparencia y rendición de cuentas.

 

El contenido tóxico no comenzó con Internet. Pero las plataformas online han hecho que su mayor difusión, y más rápida, resultara mucho más fácil que nunca. Si vamos a limitar su propagación, sin perjudicar la libertad de expresión, necesitamos estrategias regulatorias claras e integrales, basadas en principios de derechos humanos. De lo contrario, hasta las reglas diseñadas con las mejores intenciones podrían terminar silenciando a los vulnerables y fortaleciendo a los poderosos. Ésa es una lección que los autoritarios del mundo conocen demasiado bien. 

 

David Kaye, ex relator especial de las Naciones Unidas para la Libertad de Opinión y Expresión, es presidente independiente de la junta de la Iniciativa de Red Global. Jason Pielemeier es director de Políticas de la Iniciativa de Red Global.

 

Copyright: Project Syndicate, 2020.
www.project-syndicate.org

 

Change password



Loading..