Categoría: ensayos

Internet en bicicleta

Publicado originalmente en Sursiendo

Si hago un recorrido por uno de mis primeros contactos con la artesanía, este sería, sin duda, andar en bicicleta. Porque para mí significa aquella experiencia para explorar sobre la confianza y la libertad, en donde el cuerpo conforma la memoria de tus trayectos realizados.

Con regularidad, de niño, unas veces con itinerario otras sin él, realicé recorridos sobre terrenos distintos, cada exploración una oportunidad para aprender de mí mismo. Sin embargo, había algo que con el tiempo sucedió: me volví mucho más consciente de lo que implicaba cada movimiento en tensión con la física, en donde las capas de conciencia no eran del todo verbalizables, pero sí habitables en cada recorrido, como sucede con la artesanía.

En uno de mis recorridos conocí a experimentadores de la radiofrecuencia. Supe que una fuente de poder es la encargada de suministrar y mantener con energía un circuito eléctrico, pero sobre todo que los circuitos eléctricos pueden ser conectados por transmisiones de ondas entre longitudes y distancias, y para ello existe técnica y pericia, además del conocimiento para calcular las características que requieres para transmitir en los 27 Mhz, que hay una Ley de Ohm, y que la potencia se mide en Watts.

Recuerdo la emoción de recibir, por primera vez, una tarjeta de papel desde el otro lado del Atlántico llamada QSL o tarjeta de confirmación de llamado, con la que termina el contacto entre dos corresponsales, enviada por correo postal después del contacto por medio de la radio. En la que se escribe un informe de recepción de sus emisiones.

Uno de los primeros retos fue la elaboración de un puente rectificador para transformar la corriente eléctrica del sistema de suministro eléctrico municipal a una corriente directa para alimentar el circuito del aparato transmisor de la radio. En suma, la posibilidad de aprender de ti mismo por medio de las cosas que construyes, prueba, ensayo y error, con el contacto con otros.

Más tarde realicé mi primera conexión a Internet vía dial-up, la que no llamó mi atención tanto como los trayectos con los dispositivos de telecomunicaciones analógicas.

Cuando de verdad generé una conexión con Internet fue hasta los 14 años que encontré comunidades que desarrollaban software (libre) bajo principios parecidos a las comunidades de radio experimentadores, eso me emocionó. Fue la posibilidad de entender los diferentes conceptos que hacen funcionar Internet experimentando al instalar software y lograr algún servicio para probarlo, como un sitio web o la resolución de nombres de dominio

La bióloga y hacktivista Mayeli Sánchez suele proyectar en presentaciones una imagen con las empresas actuales más conocidas de Internet y se refiere a ella como la nueva historia del internet, para posteriormente preguntarse que si esa nueva historia será la historia del Internet y de esta manera introducir y poner en discusión las disputas de los entramados de las historias y su no linealidad, y quién las cuenta.

Para Jamie McClelland, tecnólogo que ha participado dentro de los movimientos sociales como administrador y desarrollador de sistemas, señala que tanto Facebook y Twitter están basados en los diseños de la red social Indymedia o Centro de Medios Independientes de los movimientos sociales de los noventa, que tenía las capacidades democráticas para posibilitar la publicación de noticias y después comentarlas.

Pensar en Internet nos puede conducir al desarrollo de una arquitectura que toma como punto de partida la idea de que cada nodo de la red tendría igual capacidad para crear, transmitir y recibir mensajes, los cuales se dividirían en paquetes (Sterling, B.), lo que se materializa en protocolos como el del correo electrónico o el que permite funcionar a un sitio web, entre otros.

En ello es quehacer reconocer tres momentos de su génesis: la relacionada a los años setenta en donde se dieron las primeras investigaciones sobre el desarrollo de una red capaz de comunicarse ciudad a ciudad, en los laboratorios de la RAND, DARPA, MIT y NPL. Un segundo momento altamente colaborativo y comunitario donde toman forma muchos de los protocolos que actualmente usamos para comunicarnos. Un tercer momento que comienza tras la crisis de los punto com, en donde las compañías adoptan a los datos de las personas como uno de sus modelos de negocio Sparrow (2014).

Retomando las ideas del artesano Jamie, los protocolos adquirieron un claro sentido social en los años noventa a través de proyectos como Riseup Networks en Estados Unidos, SinDominio y Nodo50 en España, ASCII (the now silent Amsterdam Subversive Center for Information Interchange) en Holanda, Aktivix y Plentyfact en UK Reino Unido, SO36 y Nadir en Alemania y Autistici/Inventati en Italia, quienes reivindicaron la pertenencia de los protocolos Milan (2013) fuera del Estado y las corporaciones.

Actualmente observamos varias discusiones intensas y tensiones sobre el futuro de Internet en aspectos de regulación, uso-desarrollo, en un modelo centrado en los datos guiados por el valor de mercado.

Mientras, los operadores de telecomunicaciones dicen que todo mundo hace dinero sobre su infraestructura y que no reciben lo suficiente por el aprovisionamiento de la conectividad o los que dicen que necesitan incentivar el uso de sus redes y por eso hay que tener servicios “gratuitos” en donde ellos reciban algún tipo de intercambio por acuerdo con estos servicios.

Esto ocurre en un contexto donde los órganos reguladores estatales cada vez tienen menos información sobre los costos reales que implica el aprovisionamiento de infraestructura, así como datos de las formas de despliegue. Por otra parte, las corporaciones más importantes dependen cada vez menos de la infraestructura ‘pública’ de Internet y tiran sus propios cables para interconectar sus centros de datos.

Los pueblos que han decidido desarrollar tecnología autónoma de telecomunicaciones bajo los modelos económicos y sociales de su vida comunitaria se enfrentan no solo a que las fibras ópticas para interconectar sus propias redes lleguen a pocas ciudades y con altos precios, consecuencia de una sobreventa intencional, sino también a las implicaciones de conectarse a modelos guiados por la explotación de los datos lo que obliga en el mediano plazo a que estas comunidades tengan su propia infraestructura en las diferentes capas de aprovisionamiento, para que puedan tener la capacidad de autodeterminación (Gómez, T, 2017).

Los ataques informáticos y los colapsos por fallas que implican problemas de seguridad son constantes. Síntoma de ello es que también estos ataques de escala han adoptado modelos de monetizarse. No solamente por los secuestros remotos de computadoras, que posteriormente piden un rescate para regresar su acceso, sino por el mercado de vulnerabilidades que son parte de productos con diferentes finalidades y costos.

La computadora bajo el concepto de propósito general tiende a desaparecer por mecanismos de obsolescencia programada y licenciamiento, al no poder ser más dueños de las máquinas que compramos, solo son de alquiler mientras dura el período de los términos de la licencia del software.

Uno de los elementos que conforman el conjunto de tecnologías de Internet, es la confianza. Visualizar sus conexiones y mecanismos resulta ejercicio para saber sobre el futuro de estas tecnologías.

Imaginemos que alguien tiene el control de millones de computadoras en todo el mundo (incluyendo la tuya y mía) y que puede tener privilegios completos sobre nuestros dispositivos y actualizar software remotamente. Esto puede parecer problemático, pero depende desde la perspectiva que se vea. Porque siempre colocamos un nivel de confianza al usar un programa u otro.

En los grupos de artesanos de tecnología que conozco, la confianza mantiene una relación profunda entre las limitaciones de la tecnología que desarrollan y sus errores. Sobre todo el reconocimiento de lo que el código no puede lograr en términos de sus características intrínsecas.

Uno de los valores culturales de la artesanía tecnológica conocida son los mecanismos tecnosociales para desarrollar la confianza. Estos no resuelven la complejidad de tensiones que se desprenden de toda tecnología, pero provoca condiciones para pensar-hacer como una tarea activa de reconocimiento de sus fallas y posibilidades.

Cuando entré en contacto con comunidades de software libre conocí que hay errores o fallas en el software que pueden implicar problemas de seguridad y que pueden ser explotadas como vulnerabilidades para lograr intrusiones, sin embargo dentro de las comunidades de software libre la relación entre error y posibilidad es una situación que se enmarca dentro de su propia cultura como suele indicarlo Richard Sennett: “…lo más frecuente es que cuando la gente resuelve un «error», vea abrirse nuevas posibilidades para el empleo del software. El código evoluciona constantemente, no es un objeto acabado y fijo”.

En las prácticas de desarrollo de tecnología un error dentro de, por ejemplo, un código de software es conocido en inglés como bug y una de sus localizaciones al español es la de «bicho». Hay discusiones sobre el momento en el que se hizo esta asociación conceptual por primera vez, pero dentro de los diferentes relatos se habla de polillas que generaban problemas en ordenadores electromecánicos o en otros términos algún tipo de interferencia o mal funcionamiento.

Conocí varios sistemas operativos de software libre y el que decidí que me acompañaría fue Debian GNU/Linux. A lo largo de su historia en el proyecto Debian han participado aproximadamente 5400 personas voluntarias en las diferentes tareas para su desarrollo. Se calcula que más de 50% de instalaciones GNU/Linux están basadas o corren sobre este sistema operativo (W3Techs,2016).

Quienes desarrollan Debian tienen la confianza de millones de personas. Cuando instalamos este sistema operativo, incluso desde su descarga, nos conectamos y nos ponemos en un entramado de cadenas de confianza. Desde esa dimensión su comunidad de desarrollo tienen el control de millones de computadoras en varias locaciones distintas en el mundo.

Debian es distribuido por medio de servidores, llamados espejos, en donde se descarga un sistema base, para su instalación. Estos servidores están en varias partes del mundo y se sincronizan para tener el mismo software, en cada uno de estos. Por lo general los servidores son mantenidos por voluntarios. También estos espejos cuentan con un repositorio de software, para instalar programas y recibir actualizaciones de seguridad vía red, en las instalaciones de este sistema operativo.

Los mecanismos para el desarrollo de la confianza y los entramados entre los colaboradores, desarrolladores y quienes instalan este sistema operativo es complejo. Pero desde la perspectiva de la artesanía destaca un punto en su contrato social, explícitamente el número 3, indica:

No ocultaremos los problemas. Mantendremos nuestra base de datos de informes de error accesible al público en todo momento. Los informes de error que los usuarios envíen serán visibles por el resto de usuarios de forma inmediata.” Contrato social Debian

Y por otro lado un sistema que hace uso de la criptografía y rituales de cooperación para el intercambio de llaves, realizada por medio de una reunión anual en la que intercambian identidades digitales por medio de la verificación in situ. Por medio de estas llaves se consigue la verificación del software que descargas, para saber que en efecto es preparado por esta comunidad y no por otras personas.

Esta comunidad se enfrenta todo el tiempo a aprendizajes que implican patentes, leyes, jurisdicciones, códigos de ética, métodos de licenciamiento, marcas, fuerzas económicas y políticas.

Si abordamos en los aspectos legales, no solamente han construido licencias que permiten que un código de software pueda ser usado, estudiado, modificado y redistribuido. También en el tránsito de lo legal y el código de software estas comunidades han aprendido que sortear una patente tiene tres posibilidades: evitar la patente, conseguir una licencia de uso o invalidar una patente en la corte Stallman (2002) o el uso de patentes para la defensa de proyectos de código abierto y software libre.

La dinámica que se da en este tipo de comunidades frente a sus fallos es que cuando se encuentra una vulnerabilidad, se corrige en el código y está disponible para quienes usan el sistema operativo. Sin embargo tenemos de frente el mercado de vulnerabilidades de reciente popularidad en los medios. Las llamadas vulnerabilidades del día cero, aquellas que su modelo de gestión está relacionado al desarrollo de tecnologías y servicios de vigilancia, al ser vulnerabilidades que solo conoce un grupo reducido de personas, no existe arreglo, son materia prima de productos de intrusión que buscan eficacia. Dentro de estos como lo son el malware.

Recientemente otro aprendizaje de espacios afines a estas prácticas de desarrollo, se ve reflejada en la declaración realizada por el proyecto Tor en la que dicen que “No podemos construir herramientas libres y de código abierto que protejan a periodistas, activistas de derechos humanos y gente común en todo el mundo si también controlamos quién utiliza esas herramientas”.

En estos últimos años los proyectos como Debian, F-Droid, FreeBSD, Fedora, Tails, Tor Browser, entre otros, han estado trabajando en algo llamado Reproducible Builds que tiene como objetivo el desarrollo de herramientas para la verificación de código binario para con esto verificar que el código binario que ejecutas en tu máquina, es en efecto el código preparado por estos proyectos. En sus propias palabras:

“Las Reproducible Builds son un conjunto de prácticas de desarrollo de software que crean una ruta verificable desde el código fuente legible por humanos al código binario utilizado por las computadoras”.

La tecnología siempre va a ser vulnerable, ya sea por su diseño intrínseco, su contexto o una mezcla de factores. La diferencia son los mecanismos que tenemos para confiar en ella. La artesanía tecnológica es un camino posible para aprender de nosotros al tiempo que construimos nuevas tecnologías.

El colectivo de comunicación y cultura digital Sursiendo (2017) refiere a que dentro de la biodiversidad tecnológica hay “grupos que siguen construyendo cotidianamente un entorno de internet que valora a las personas y los procesos colectivos, la privacidad y el anonimato, la circulación del conocimiento y los aprendizajes mutuos”.

Una de las principales tensiones para la artesanía tecnológica futura y presente es que los bugs conforman parte de la economía de los ataques informáticos, los mismos que han adoptado los mecanismos del capitalismo financiero.

La gestión de los errores y fallas es uno de los puntos de confianza entre los artesanos y la gente en el seno de sus comunidades. En el mediano plazo los mecanismos de reconocimiento del trabajo de las personas involucradas en la investigación de vulnerabilidades jugará un papel importante, ya que serán parte de los andamiajes que den la batalla a los ataques informáticos y sus economías.

Vale la pena reflexionar en estos procesos que han permitido construir tecnologías de gran calidad artesanal. Pero sobre todo en tecnologías que nos permitan aprender de nosotras y nosotros mismos.

Referencias
Milan, S, (2013). Social Movements and Their Technologies, Palgrave Macmillan
Sennett, R, (2009). El artesano, España, Anagrama
Sterling, B.(1993, febrero). A Short History of the Internet
Sursiendo. (2017). Biodiversidad tecnológica para saltar los jardines vallados de internet. Recuperado de https://sursiendo.com/blog/2017/05/biodiversidad-tecnologica-para-saltar-los-jardines-vallados-de-internet
Sparrow, E. (2014, 9 de octubre). How Silicon Valley Learned to Love Surveillance. Recuperado de https://modelviewculture.com/pieces/how-silicon-valley-learned-to-love-surveillance
Sánchez, M. (2016). Por Amor a La Libertad. Seminario de ética hacker. Universidad del Claustro de Sor Juana. México
Löding, T, Rosas, E., (productores). (2017). Telecomunicaciones Independientes en Resistencia. México: Producciones Marca Diablo
Contrato social de Debian. Recuperado de https://www.debian.org/social_contract.es.html
Murdock, I. (1993). El manifiesto de Debian. Recuperado de https://www.debian.org/doc/manuals/project-history/ap-manifesto.es.html
Hacking Team: a zero-day market case study. Recuperado de https://tsyrklevich.net/2015/07/22/hacking-team-0day-market/
Tor Project. (2017). The Tor Project Defends the Human Rights Racists Oppose. Recuperado de https://blog.torproject.org/blog/tor-project-defends-human-rights-racists-oppose
W, Gunnar. Fortalecimiento del llavero de confianza en un proyecto geográficamente distribuido. Recuperado de https://gwolf.org/node/4055
W3Techs. (2016). Historical trends in the usage of Linux versions for websites. Recuperado de https://w3techs.com/technologies/history_details/os-linux
Reproducible Builds. Recuperado de https://reproducible-builds.org/
Stallman, Richard. Software patents — Obstacles to software development. Recuperado de >https://www.gnu.org/philosophy/software-patents.html
Gómez, T. (2017). Los hackers que conectan a pueblos olvidados. Recuperado de http://nwnoticias.com/#!/noticias/los-hackers-que-conectan-a-pueblos-olvidados

Cuando Facebook quería hacerse pasar por Internet, y perdió | Round 1

Mark Zuckerberg decidió en 2015 dejar de usar su conocida camiseta gris que siempre viste para usar corbata, traje y saco. El objetivo del fundador de Facebook fue reunirse con jefes de Estado para promover la iniciativa llamada Internet.org.

La premisa con la que hizo público este proyecto fue:

“Iniciativa liderada por Facebook con el objetivo de llevar el acceso a internet y los beneficios de la conectividad a las dos terceras partes del mundo que no tienen”.

Palabras que se encontraban en su propio sitio web y propagandas.

Internet.org se materializó por primera vez en nuestro continente en Colombia. Para ello, Facebook sostuvo un convenio entre proveedores de telecomunicaciones, bajo el aval del presidente gobierno de Juan Manuel Santos.

Los detalles sobre las características técnicas de Internet.org fueron opacas, en tanto, los medios de comunicación replicaron la premisa que Facebook anunció, sin contrastarla. Las palabras centrales de la cobertura de medios fueron: Internet gratuito.

Sin embargo la bandera discursiva de brindar conectividad a la Internet calló rápidamente cuando se supo que no era un acceso a la Internet, sino se trataba de una decena de sitios web en los que se encontraba por supuesto Facebook.com.

El acceso a Internet se define como la capacidad de que las y los conectados logremos todo contenido, todo puerto, todo protocolo, todo origen, todo destino; en otras palabras todas las redes que conforman Internet. No solamente una decena de sitios como internet.org,  el cual resultó contrario a sus propias palabras y su  premisa estelar anunciada: “llevar conexión a Internet”.

Otra de las banderas que Facebook enarboló es la gratuidad, la cual también se desvaneció rápidamente, sobre todo en los análisis de la sociedad civil.

Una de las monedas de cambio de Facebook es el comercio con los datos en diferentes dimensiones, una de éstas y quizá la más visible es el análisis comercial de las preferencias de las personas para colocar publicidad. Además, hubo señalamientos acompañados de exigencias a los gobiernos que se ampararon institucionalmente en la iniciativa, como si se tratase de una política pública, pero con el motor del modelo de negocios bajo el control de Facebook.

Así, continuó la extensión de Internet.org en otros países a través de la dinámica de los convenios entre operadores. A la par, se documentaron las características de la iniciativa en la práctica. Por ejemplo, en Colombia se hizo patente que solamente se trataba de una prueba durante dos meses a la decena y media de sitios web. Por otra parte, se encontró que la conexión a los sitios era sin conexiones cifradas o seguras, decisión de la propia iniciativa.

Para este momento Internet.org ya se había ganado el nombre de la Facebooknet, como una forma de crítica o lo que se evidenció con el paso de los meses.

Continuó globalmente la discusión. A ello se sumó una carta abierta  firmada por 68 organizaciones, enfocada en los derechos humanos y en la lesión del principio de Neutralidad de la Red, y la privacidad por parte de Facebook.

Frente a este panorama, de un momento a otro,  Facebook anunció que de aquí en adelante la iniciativa será “Free Basics”.

En la India, el órgano regulador de las telecomunicaciones ordenó que temporalmente se suspendiera Free Basics, debido a que dicha entidad no tiene ‘clara’ la posición con respecto a la neutralidad de la red en dicho país.

Tras intensas acciones y organización social a favor de la neutralidad de la red y en contra de Free Basics, la Autoridad Reguladora de las Telecomunicaciones en la India dictaminó que prácticas como las propuestas por la iniciativa de Facebook quedaban oficialmente prohibidas, además de acompañar su dictamen con lo siguiente:

“En India, dado que la mayoría de la población aún no está conectada a internet, autorizar que los proveedores de servicios de telecomunicaciones definan la naturaleza del acceso equivaldría a permitirles determinar la experiencia de usuario de internet”.

La evidencia indica que nos encontramos en una batalla sobre los imaginarios que implican hacer-pensar Internet. En esta ocasión, la decisión de las autoridades en la India significa un punto a favor de un Internet abierto y la actitud del cambio de nombre de la iniciativa de Internet.org a Free Basics es una respuesta a la exposición del engaño y pretensión de Facebook.

Paradojas sobre la neutralidad de la red

El principio de la neutralidad de la red ha cobrado relevancia entre las organizaciones, colectivos e individuos de la sociedad civil para discutir sobre las capacidades de uso y desarrollo de Internet frente a los intereses de los grandes productores de contenidos, proveedores de acceso a Internet y el desarrollo dominante y centralizado.

La discusión reciente sobre la neutralidad y su relación con los derechos humanos se ve reflejada en el Informe Anual de de la Comisión Interamericana de Derechos Humanos 2013, en el que se refiere que la protección de la neutralidad de la red es fundamental para garantizar la pluralidad y diversidad del flujo informativo (p.501).

Con esto podemos decir sin confusión que cuando la sociedad civil habla de neutralidad de la red se piensa no solamente en la relación clientes-consumidores, sino en la preservación de las capacidades de uso-desarrollo de Internet.

Los protocolos de Internet

Durante los años sesenta se bosquejaron las primeras investigaciones sobre el desarrollo de una red capaz de comunicarse ciudad a ciudad, alrededor de los laboratorios de la RAND, DARPA, MIT y NPL. Investigaciones que se tradujeron en diseños que evolucionaron hasta llegar a la de una red en la que todos sus nodos serían iguales entre sí, además de poder recuperarse si una parte de la misma dejara de funcionar.

Esto llevó en concreto al diseño de una arquitectura en la que cada nodo de la red tendría igual capacidad para crear, transmitir y recibir mensajes, los cuales se dividirían en paquetes. Lo anterior devino en lo que hoy conocemos como los protocolos de Internet y tuvo su génesis con múltiples actores, incluyendo a la sociedad civil.

Dichos protocolos tomaron significado social claramente en los años noventa por colectivos como Riseup Networks en Estados Unidos, SinDominio y Nodo50 en España, ASCII (the now silent Amsterdam Subversive Center for Information Interchange) en Holanda, Aktivix y Plentyfact en UK Reino Unido, SO36 y Nadir en Alemania y Autistici/Inventati en Italia, quienes reivindicaron la pertenencia de los protocolos fuera del Estado y las corporaciones.

La neutralidad de la red como política

El principio de la neutralidad de la red fue introducido y acuñado por el profesor Tim Wu como una forma de evitar la discriminación de las diferentes redes que conforman Internet. Él mismo ha dicho que se trata más de un modelo de creencias acerca de la política de la innovación. Una de las definiciones conocidas sobre la neutralidad de la red es la que propone el principio bajo el cual la totalidad del tráfico en Internet es tratado de forma equitativa, sin discriminación, limitación ni interferencia, independientemente del remitente, el destinatario, el tipo, el contenido, el dispositivo, el servicio o la aplicación.

Más allá del límite que puede tener cualquier definición, uno de los consensos que el matemático Enrique Chaparro rescata en su investigación es evitar la introducción de distorsiones artificiales en el tránsito de información por la Internet , a lo que él agrega que se encuentran otras distorsiones ‘naturales’, como las impuestas por las leyes de la física que, al menos por ahora, ninguna legislatura del mundo puede modificar con éxito .

Es por ello que el principio sobre la neutralidad de la red no alcanza a reflejar la defensa de la Internet y su arquitectura como fin en sí mismo. Pero sí aporta puntos comunes como marco de procesos para evaluar y revisar condiciones para su desarrollo. Principalmente desprende y recuerda la natulareza de Internet como tecnología.

La situación local en México

La pregunta obligada es ¿cómo llevar a la práctica un principio de esa naturaleza ante el contexto mexicano y en su relación con una discusión que trasciende a sus fronteras? Tomando en cuenta las reglas que el órgano regulador de telecomunicaciones, el Instituto Federal de Telecomunicaciones (IFT), está próximo a diseñar con base a en los artículos 145° y 146° de la Ley Federal de Telecomunicaciones, en los que se estimula lo siguiente:

Artículo 145°. Los concesionarios y autorizados que presten el servicio de acceso a Internet deberán sujetarse a los lineamientos de carácter general que al efecto expida el Instituto conforme a lo siguiente:

  1. Libre elección.
  2. No discriminación.
  3. Privacidad.
  4. Gestión de tráfico.
  5. Calidad.
  6. Desarrollo sostenido de la infraestructura.

Artículo 146°. Los concesionarios y los autorizados deberán prestar el servicio de acceso a Internet respetando la capacidad, velocidad y calidad contratada por el usuario, con independencia del contenido, origen, destino, terminal o aplicación, así como de los servicios que se provean a través de Internet, en cumplimiento de lo señalado en el artículo anterior.

En la elaboración de dichos lineamientos se puede interpretar las condiciones para respetar la neutralidad de la red como proceso y una Internet abierta o menoscabar conceptos en detrimento de las capacidades en su uso y desarrollo. Para ello no solamente debe el Instituto Federal de Telecomunicaciones respetar el concepto de neutralidad de la red, sino también respetar lo que significa un acceso a Internet, que concierne a:

  1. Todo puerto
  2. Todo protocolo
  3. Todo origen
  4. Todo destino
  5. Toda aplicación

Claramente el informe de la CIDH indica: No debe haber discriminación, restricción, bloqueo o interferencia en la transmisión del tráfico de Internet, a menos que sea estrictamente necesario y proporcional para preservar la integridad y seguridad de la red , en la que las reglas deben aplicar indistintamente para todas las modalidades de acceso a Internet, sin importar la tecnología o plataforma empleada para transmitir los datos .

Además, el IFT en su facultad de órgano regulador debe integrar en los mecanismos de transparencia existentes un apartado relativo a la información que los proveedores de acceso a Internet ofrecen a quienes los contratan, en la que los proveedores estén obligados a transparentar las características generales y particulares de sus servicios como las políticas relacionadas a la gestión del tráfico, tanto en contratos como en publicidad, y no solamente los nombres de productos o paquetes para fines de estrategias de marketing, esto con el fin de tener información certificada y para fines de auditoría del propio instituto en sus facultades conferidas.

Fotografía: Tim Pierce,  CC-BY 2.0

Publicado en El Economista

Hackers: ni criminales ni piratas informáticos

El hecho de que las matemáticas sean un juego hace que los matemáticos juguemos toda la vida y eso nos garantiza permanecer siempre juntos.  Enrique Chaparro

La narrativa mediática nos presenta la idea de un “hacker” que es capaz sobre todo de entrar a sistemas informáticos y de burlar sistemas con intenciones de lucro o delictivos. Devenir de este imaginario ha llegado hasta la definición de la Real Academia Española que es “pirata informático” .

Podemos tener múltiples definiciones de lo que implica ser un hacker y reconocerlo es fundamental, pero definir a través de dos palabras que en suma relacionan sus actividades e identidad como delito o falta a ley, que se refiere a actos que suceden en la mar, es más que un error. Porque no representa la historia de su comunidad y su cultura, por el contrario, la niega.

Un hacker no es un delincuente, es un actor social que a través de su imaginación en comunidad desarrolla, por ejemplo, programas informáticos capaces de estudiarse, usarse, modificarse y distribuirse para construir entornos digitales como espacios sociales basados en la libertad. Un hacker hace política, se expresa a través de su código, y trabaja en cooperación con muchas otras luchas por la conquista del espacio público global.

Ejemplo de la génesis de la comunidad hacker es el sistema operativo GNU/Linux, usado por millones a nivel mundial, que tiene como base el respeto a las libertades de las personas. Otra muestra de su cultura son los mismos protocolos que permiten el funcionamiento de internet, o el sistema de cifrado GNUGPG: pieza clave para el software que encabeza la defensa de la privacidad en línea.

Bajo este contexto la cultura hacker transforma el desarrollo de tecnología en desarrollo de comunidades ya que la tecnología no es la que crea comunidades por sí sola, sino que la tecnología –de acuerdo a su aceptación social– se vuelve un espacio propio para entretejer comunidades que buscan dar una interpretación al uso de la tecnología que hacen desde dentro; entendiendo a la imaginación no sólo como un asunto de innovación, sino como un asunto de dignidad. Es decir, la forma en la que se hace política, decide, intima y construye comunidad.

Es así como las comunidades hacker han transitado a lo largo de las ultimas 4 décadas para conservar libertades en los entornos digitales; prueba de ello es el movimiento del software libre, que recae en fundamento en el manifiesto GNU, que lanzó el físico Richard Stallman, en donde explícitamente se rehúsa a la privatización de los procesos de construcción de saber social en torno a la informática. Con dicho manifiesto él concibió el inicio del desarrollo del sistema operativo GNU como una forma de devolver el espíritu cooperativo que prevalecía en la comunidad computacional en sus primeros días. Ese camino también se ha visto involucrada con la lucha política enmarcada con el control del flujo de las ideas en internet, como el caso de la lucha contra SOPA y ACTA, que dentro de los impulsores de la campaña que debilitó a la iniciativa se encontraba Aaron Swartz, quien también fuera desarrollador del RSS, agregador de noticias y otras iniciativas motivadas por el acceso al conocimiento, al él desarrollar los principios técnicos de las licencias Creative Commons, que han impregnado a otros proyectos en su ADN como Wikipedia, el quinto sitio más visitado en la red.

Desde el punto de vista de Jorge Alberto Lizama, pionero en estudios de las comunidades de software libre, la idea de que un hacker es sinónimo de delincuente informático en los medios masivos de comunicación se explica porque esta definición es ampliamente usada por empresas como Apple, Intel, Microsoft, Yahoo, Google, eBay, Recording Industry Association of America, entre otras, como estrategia pública para hacer frente al adelgazamiento de la economía de la información.

Bajo la confusión y las condiciones de violencia en las que viven países como México pretender asemejar a las comunidades hackers y a sus habitantes como sicarios, como se ha hecho en televisión, o relacionarlo con actos de difamación, es un error e innecesario. Lo que sí se vuelve  necesario es dar un paso adelante y cuando se trate de una intrusión, llamarla como intrusión.

Por otra parte aceptar la definición de la RAE no sólo implica procurar un intento por borrar y desconocer más de 40 años de lucha, sino también un acto abierto de criminalización; por lo que la definición propuesta debe ser modificada.

En un mundo cada vez más rodeado de tecnología, pero con tecnología no dominada en lo social, como lo es el internet centralizado que tenemos, las comunidades hackers son condición para no convertir a la tecnología en instrumento de control.

Publicado en Pijama Surf,  19 de noviembre de 2014

 

Las enseñanzas de Snowden contra la #LeyTelecom

Hace un año, un rostro delgado con anteojos y de apariencia serena, aunque temerosa, irrumpió en los medios de comunicación. Ese rostro que de fondo tenía un espejo y un ventanal con persianas blancas sorprendió a propios y extraños en redes sociales, en los noticieros, en periódicos y, desde luego, sorprendió al gobierno estadounidense.

Edward Snowden, exempleado y consultor de la CIA y la NSA, junto a Glenn Greenwald, periodista que trabajó para The Guardian, cambió la historia del mundo al hacer públicos una serie de documentos clasificados con un contenido sensible para las operaciones del gobierno de EE.UU.; documentos que evidencian la magnitud de los alcances de la vigilancia que el gobierno de Barack Obama, y sus antecesores, ejercen sobre el mundo.

Tras este acontecimiento, las especulaciones y mitos sobre el espionaje de Estados Unidos se hicieron una realidad. Los servidores de los principales medios utilizados por la sociedad han sido constantemente vigilados, recabando información de los usuarios para disponerlos al gobierno de Barack Obama. Facebook, Google, Yahoo, Skype, Microsoft, Apple, etc., son el canal de acceso del gobierno estadounidense para sustraer la información de millones de personas.

Junto a estas revelaciones, se dio a conocer el programa de vigilancia masiva PRISM, que justifica su vigilancia bajo el supuesto de seguridad nacional y combate del terrorismo. El programa PRISM opera al menos desde 2007 y es capaz de almacenar documentos, chats, videollamadas, correos electrónicos, etc. Snowden también dio a conocer que EE.UU. tiene diferentes aliados como Reino Unido, Italia, Países Bajos, Francia y Suecia, quienes consienten la vigilancia de sus ciudadanos.

Las revelaciones de Snowden tuvieron diversas consecuencias: por un lado la confirmación de un escenario distópico digno de una película de ciencia ficción: el de la vigilancia, cuya realidad se confirma alejándose de las especulaciones y las teorías de conspiración más torcidas e inimaginables. Tal parece que al gobierno de Estados Unidos le importa poco el hecho de que el mundo sepa sus prácticas. El discurso pretextual de la seguridad nacional ha alcanzado los límites de lo obsceno; el descaro, bajo esta narrativa, reafirmó la posición de panóptico (el ojo que todo lo ve) que el gobierno estadounidense ejerce sobre el mundo.

La situación parece empeorar, pues lejos de dar una respuesta que vele por la seguridad y la privacidad de los ciudadanos, las empresas aliadas a la política de vigilancia estadounidense han creado gadgets que desde fábrica facilitan el acceso del gobierno para monitorear los datos. Hablamos de empresas como HP, AT&T, Verizon y Motorola, convertidas en una policía al servicio del gobierno de Obama.

Por otro lado tenemos la resistencia y la conciencia sembradas por Snowden en la sociedad. Diversas comunidades y organizaciones, además de movimientos, entre los que destacan el software libre, Tor Project, Electronic Frontier Foundation, Quadrature du Net, etc., lograron tomar los elementos expuestos por el exconsultor de la NSA para fortalecer sus prácticas de seguridad informática.

Estas organizaciones también buscan generar elementos legislativos que permitan desarrollar un marco legal para salir de la opresión que representa la vigilancia a niveles globales. La sociedad pudo visibilizar el tamaño de la amenaza que representan Estados Unidos y su estrategia de control.

Las comunidades de software libre ha aprovechado la información filtrada para hacer movilizaciones en las calle, crear campañas y programas para la protección de datos y privacidad, defendiendo internet tanto en entornos digitales como en las calles.

La aportación de Snowden a Latinoamérica también es grande e importante. Snowden reveló que el gobierno de Dilma Rousseff, actual presidente de Brasil, fue espiado por la NSA. A raíz de este hecho, las relaciones entre Brasil y EE.UU. se desarrollan en tensa convivencia, pues el gobierno brasileño también comenzó a espiar a los gobiernos que tengan esta práctica contra ciudadanos y políticos brasileños. En el mismo caso se encuentra el actual presidente de México, Enrique Peña Nieto, quien fue espiado durante la contienda electoral cuando éste fue candidato por la gubernatura de México en 2012, aunque él no ha pronunciado ninguna palabra al respecto ni ha dicho su postura sobre este tema.

Durante el mes pasado, el mismo Snowden sacó a la luz una de las herramientas utilizadas para la vigilancia en países específicos, dentro de los que encontramos a México. El programa Mystic ha operado al menos desde 2009 en países como Kenia, Bahamas, Filipinas y México. Mystic consiste en la recopilación de datos al realizar llamadas por celular. Al día de hoy, el gobierno federal no ha rendido declaración alguna sobre este hecho.

De acuerdo con La Jornada, Mystic requiere de un intermediario para operar. Necesita de empresas y contratistas para poner en marcha el objetivo de espionaje, lo que nos lleva a una pregunta lógica ¿qué empresas están detrás de Mystic? No olvidemos que México ha tenido ya un historial de espionaje con el uso de Fin Fisher, malware que contamina computadoras y teléfonos celulares para ejercer vigilancia, y que es usado por varias secretarías nacionales.

La actual discusión sobre la #LeyTelecom es de vital importancia en este momento decisivo, puesto que de aprobarse una ley como la presentada por el Gobierno Federal, el estado consentiría la legalidad de estas prácticas de control y vigilancia.

A un año de distancia, tenemos una certeza: todas aquellas entidades que ejercen un poder sobre la humanidad desean cambiar internet, desean controlarlo y desaparecer la red tal como hoy la conocemos. El discurso de la seguridad, del antiterrorismo, de la libertad, contrasta fuertemente con la represión y violencia hacia las personas que exigen sus derechos.

Ciudadanos, activistas, periodistas, defensores de derechos humanos en todo el mundo se han manifestado en contra de quienes buscan controlar internet con violencia y abuso de poder.

Edward Snowden enfrentó una situación donde puso en riesgo su vida por hacer lo correcto: confirmarle al mundo las políticas y alcances de la vigilancia masiva del gobierno estadounidense. Pero además, Snowden nos da una pista para hacer frente a este paisaje distópico: nos invita a crear lazos humanos de cooperación global y local para hacer frente a quienes buscan oprimir nuestra privacidad y libertad de expresión. Nos invita a luchar por este espacio social donde podemos aún tener una voz propia.

Existen esfuerzos y bases para hacer frente a la vigilancia, como TOR Project, OTR, GNUPG, que permiten crear una capa de anonimato, estar fuera del registro y cifrar nuestros correos, así como estrategias defensa jurídica global como los 13 principios.

Más información:

https://www.nsa-observer.net/

http://www.eldiario.es/turing/vigilancia_y_privacidad/NSA-programas-vigilancia-desvelados-Snowden_0_240426730.html

http://www.washingtonpost.com/world/national-security/nsa-surveillance-program-reaches-into-the-past-to-retrieve-replay-phone-calls/2014/03/18/226d2646-ade9-11e3-a49e-76adc9210f19_story.html

http://www.24-horas.mx/snowden-filtra-programa-mystic-con-el-que-nsa-graba-llamadas-hasta-un-mes/

www.washingtontimes.com/news/2014/mar/18/snowden-nsa-program-mystic-culls-100-percent-phone/

http://www.eluniversal.com.mx/el-mundo/2013/eu-espio-a-epn-segun-documentos-de-edward-snowden-947146.html

http://www.sexenio.com.mx/articulo.php?id=47184

http://conexiontotal.mx/2014/05/21/los-secretos-de-mystic/

https://es.wikipedia.org/wiki/Off_the_record_messaging

https://www.torproject.org/

https://www.gnu.org/philosophy/free-sw.es.html

https://es.necessaryandproportionate.org/text

https://emailselfdefense.fsf.org/

Texto de Alberto R. León (@_antipop) y Jacobo Nájera (@jacobonajera),

Aaron y su Web programable

Hace un año mientras el fundador de Wikileaks padecía los estragos de permanecer en la embajada ecuatoriana en Londres y tras su larga persecución encabezada por el gobierno de los Estados Unidos de América, el cuerpo de un científico fue encontrado sin vida, en Nueva York, se trataba del activista Aaron Swartz, quien estaba próximo a luchar contra una condena de 35 años por la descarga de investigaciones del afamado JSTOR.

Divulgador de la ciencia, otras artesano; Aaron es una persona clave para aproximarse y observar generaciones en vías de manifestación a través de las ideas y la ciencia como eje rector. No solamente por su trabajo impecable como científico, sino por usar a la labor científica como un proceso de socialización en sí misma.

Como arquitecto siempre mantuvo una relación con las máquinas, puesta en cuestión, decía que le gelatinizaban el cerebro; por lo que buscaba momentos para estar con él y no tomaba a mal la idea de regresar al mundo del papel y los libros, aunque también reconocía las capacidades del entorno digital para interactuar y colaborar con la gente y así construir cosas.

Ingeniero que estableció varios marcos para la forma en que nos relacionamos con el saber en la web, colaboró en el desarrollo de la capa de código de las licencias Creative Commons, al tiempo que asumía la defensa a la reinvención y no aceptaba simplemente una critica por tener prácticas técnicamente diferentes, filosofía y aproximación motor del código de Open Library.

Promotor, divulgador y desarrollador de la llamada Web semántica, aquella que definió Tim-Berners Lee como una “extensión de la actual web en la que a la información se le da significado bien definido, que permite que las computadoras y la gente trabajen en cooperación”. Sin embargo Swartz prefería pensarse como un practicante de la sociología aplicada y la nombraba junto con otras ideas “La Web programable”.

La curiosidad de Aaron lo llevó a explorar un camino que siempre compartía, tanto, que se manifestó por el acceso al conocimiento para toda la humanidad y su libre flujo en las redes,  al ser impulsor de la campaña que debilitó la iniciativa Stop Online Piracy Act (Acta de cese a la piratería en línea), esta fue su lucha, misma que desarrolló con su código y su palabra.

Su mente migrante ha dejado la vida celular, pero sus ideas, trabajo y cariño han impregnado las redes neuronales de Internet y muy posiblemente, las de sus habitantes, vida que solamente podremos palpar en la medida en que computólogos, tecnólogos y arquitectos vean que es necesario levantar entornos de creación digital con capacidad para ser habitados socialmente, iniciando por su desarrollo.

Esto nos indica que la web programable socialmente inconclusa, diseñada por el caminante Aaron, pueda ser completada en la medida que seamos críticos para reflexionar y asir las herramientas que entretejen redes de conocimiento, para así dirigir la atención a los procesos, la diversidad y la curiosidad.

Publicado en Sursiendo, 4 de enero de 2014