Las batallas por la estandarización técnica de la internet

A la memoria de Maria Elena Meneses

Wikipedia recientemente amaneció cerrada en protesta a la directiva sobre derechos de autor que se votó el 20 de junio de este año en el Parlamento Europeo. Durante 26 horas al tratar de acceder al contenido habitual de la enciclopedia se podía leer el mensaje de oposición a dicha propuesta, ya que “de aprobarse, debilitará los valores, la cultura, y el ecosistema en los que se basa Wikipedia”.

Lo que hace peculiar y polémica esta directiva es su búsqueda de impactar directamente en las configuraciones tecnológicas de los servicios de la internet. El artículo 13, uno de los más criticados, propone obligar a los proveedores de servicios a que implementen filtros automáticos que detecten el contenido de los archivos que los usuarios carguen a través de su servicio.

De implementarse dicha resolución habría un impacto en la libertad de expresión y la privacidad de los usuarios de internet. En la privacidad debido a que los servicios desplegarían mecanismos de vigilancia para poder determinar qué contenidos pueden ser subidos a los servidores y cuáles no; y para la libertad de expresión ya que la implementación automática de criterios mayormente definidos por un sector industrial podría devenir en casos de censura previa que contravienen los principios de libertad de expresión.

Para Joe McNamee de European Digital Rights dicha legislación “apoya un «algoritmo de verdad» para filtrar el material protegido por derechos de autor. ¿Por qué? El copyright desde siempre se usa como punta de lanza de políticas muy invasivas”.

A lo cual desde la Fundación Wikimedia responsable legal de la Wikipedia Allison Daveport y Anna Mazgal respondieron con el mensaje: “No obliguen a las plataformas a reemplazar las comunidades con algoritmos” para advertir que quienes escriben las leyes poco a poco introducen soluciones tecnológicas para hacer frente a contenido que puede ser infractor de derechos de autor. En otras palabras les pedían a los legisladores “que consideren los derechos de los usuarios de internet y que dejen margen para el lado humano de la moderación de contenido”.

Cuando delegamos tareas a los algoritmos computacionales, por ejemplo, ordenar y clasificar a las personas en bases de datos, en ese proceso hay dos insumos centrales que los algoritmos necesitan para hacer esta tarea: datos y definiciones. En esa dimensión los algoritmos parten de sistemas de creencias que comienzan desde su diseño. Hay quienes por estos motivos suelen decir que los algoritmos son opiniones que se embeben en código.

En la línea del análisis de McNamee la propuesta representa una ventaja competitiva para Google o Facebook debido a que, para la imposición de un “algoritmo de verdad” con base en los criterios definidos por el sector industrial editorial o musical y dada la naturaleza de diseño de esta legislación de amplio espectro en los estándares tecnológicos, dichas compañías “ya tienen sus filtros en marcha —porque no quieren estar sujetos a licencias—, [si fuera el caso] sólo ellos tendrán el poder financiero para lidiar con el desarrollo de los mecanismos de filtrado en constante cambio, algo que será exigido por los tribunales”.

Una de las primeras discusiones alrededor de la autonomía en la toma de decisiones sobre el diseño de las tecnologías que conforman la internet, sucedió en 1992 en torno a los protocolos. En ese momento, el grupo de Ingeniería y estandarización de internet (IETF), con la meta de “mejorar” y “expandir” el servicio entre las primeras redes disponibles, empujó la problemática sobre quién decide sobre el futuro de internet desde los aspectos técnicos: su propia comunidad o la Junta de Arquitectura de internet (IAB), creada por la Agencia de Proyectos de Investigación Avanzada de Defensa del Departamento de Defensa (DARPA) de los Estados Unidos. La discusión antes mencionada arribó en una reestructuración del grupo de trabajo encargado de la estandarización técnica de internet con la que IAB ya no estaría involucrada en la aprobación de los estándares. Lo cual significó una victoria para la comunidad en su posibilidad de tomar sus propias decisiones.

La definición de los estándares tecnológicos que conforman la internet siempre ha llevado tensiones entre las comunidades de usuarios, legisladores, proveedores de servicio y compañías de internet. Un ejemplo es la incorporación de candados digitales conocidos como Digital Restrictions Management en el protocolo HTTP para la web, introducidos por Microsoft, Netflix y Google como recomendación de estándar bajo el nombre de Encrypted Media Extensions World Wide Web Consortium (W3C).

Frente a la inminente incorporación del controvertido estándar EME en 2016, un grupo de investigadores y tecnólogos enviamos una misiva al W3C donde expresamos lo siguiente:

“[…] los navegadores del futuro serán la interfaz universal para todos nuestros sistemas automatizados, desde los implantes médicos hasta los vehículos. Los investigadores de seguridad del mundo deben saber que las empresas no tendrán la capacidad de amordazarlos con amenazas legales cuando avergüencen a las empresas al revelar sus errores”.

La preocupación principal es que cuando se establecen sistemas de candados digitales para el estudio de la seguridad, estas herramientas pueden devenir en medidas de carácter punitivo o en la criminalización de quienes estudian o aprenden tecnología, investigadores o a cualquier usuario del internet.

Esto nos permite comprender el papel que tienen los estándares en la definición del uso de las tecnologías. El hecho de restringir el uso de las arquitecturas de internet desde su diseño coloca al usuario en una situación de desventaja para explorar en ellas.

Regresando a la emblemática Wikipedia, un proyecto que en su ADN tiene principios fundacionales del software libre. Se trata de una enciclopedia en donde las personas han jugado un papel en la escritura de sus herramientas, mecanismos de confianza y acoplamientos comunes para la moderación de sus contenidos, con sus batallas culturales. Finalmente la propuesta de reforma a la ley de copyright fue rechazada por el Parlamento Europeo y con ello se contuvo el impulso de dar a la industria musical y editorial el control de regular la actividad de los usuarios de internet, por ahora. Pero habrá que estar atentos debido a que el el texto regresará nuevamente a discusión en septiembre.

Para Danny O’Brien y Dia Kayyali, el internet ha abierto posibilidades para la comunicación pero también refleja problemas sociales como el acoso. De cara a ello mantienen un escepticismo sobre las “soluciones” centralizadas y en manos de las empresas. Se inclinan más por pensar que un camino posible es “la descentralización, la creatividad, la comunidad y la capacitación del usuario”.

Si bien es cierto que podemos pensar que estas directivas proponen algo que, incluso técnicamente es ineficiente, no podemos subestimar la intencionalidad de las ideas detrás de una propuesta de ley como esta. La fuerza que se esconden detrás de esta propuesta de directiva sobre los derechos de autor de la Unión Europea, hace visible lo que entienden, tantos los prestadores de servicio, los monopolios y los legisladores, de las tecnologías que conforman internet o lo que quieren entender por ellas.

La autodeterminación de la red refuerza la naturaleza distribuida de internet, dice Luca Belli cuando habla de la internet como derecho humano al tomar como ejemplo los ejercicios de comunidades que desarrollan sus propias redes y las gestionan bajo modelos alternativos para conectarse a la Internet. En un escenario donde parecería que el paradigma de los servicios escalables y masivos es inevitable no dependa de infraestructuras, servicios y plataformas chinas y norteamericanas.

 

Fotografía “cell tower near railway” por Acid Pix bajo licencia CC BY 2.0