El Wikileaks ecuatoriano: Ecuador Transparente

¿Puede funcionar en el país una plataforma independiente para filtrar información confidencial y procesar denuncias?

 

En Ecuador existe un portal similar a Wikileaks. Es una institución independiente, sin afiliación política, creada por la Associated Whistleblowing Press, una organización internacional dedicada a la defensa de los derechos humanos a través de la promoción de la transparencia, la libertad de información y de expresión, la filtración de documentos y el periodismo investigativo. Se llama Ecuador Transparente. La semana pasada su nombre se popularizó luego de que publicaron cables filtrados que revelaron conversaciones de miembros de la diplomacia ecuatoriana entre el 2011 y el 2012, en los que la Unión Europea amenazaba a Ecuador con eliminarlo de la lista de países que reciben ayudas arancelarias, si no firmaba el Tratado de Libre Comercio. Un miembro de Ecuador Transparente, contactado a través de su página web, contestó una serie de preguntas sobre el funcionamiento de esta plataforma.

Lee la entrevista en GkillCity.
Captura de pantalla de 2014-10-20 08:55:47

Breve historia de Internet

No es la mejor, ni la más completa, pero a continuación podrán encontrar una historia de Internet simplificada para aquellas personas que siguen siendo curiosos. Como advertencia, a veces aparecen unas siglas. Son muy importantes para Internet pero no tanto para ti, esto lo escribo para que no se desanimen a media lectura. No es un documento técnico, es más bien uno histórico que te permitirá comprender qué es verdaderamente Internet y por qué está en riesgo actualmente.

Antes de 1957, las computadoras necesitaban grandes cuartos de refrigeración para mantener su funcionamiento. Debido a esto, los programadores no podían estar ubicados en el mismo cuarto que las máquinas y debían realizar procesos incómodos e ineficientes de conexión indirecta que causaban muchos fallos y representaban una pérdida de tiempo significativa.

Para que los desarrolladores pudieran trabajan directamente con las computadoras, se empezó con la instalación de conexiones a terminales remotas, una vez que se desarrolló este concepto se transitó de un sistema de procesamiento por lotes, donde sólo se puede realizar una tarea a la vez a un sistema de tiempo compartido, donde una computadora era por primera vez utilizada por múltiples usuarios.

En 1958, el Departamento de Defensa de Estados Unidos funda la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA), principalmente como reacción al lanzamiento del primer satélite artificial de la historia por parte de la Unión Soviética, el año previo. En 1962, Estados Unidos descubre la presencia de de bases de misiles nucleares soviéticos en territorio cubano, este evento tuvo una enorme trascendencia en el desarrollo de Internet. En esa época, las comunicaciones de Estados Unidos dependían de ondas de larga distancia y de una estructura centralizada, la presencia de misiles en Cuba significaba que estos podían alcanzar tierra estadounidense y, en una crisis, interrumpir las comunicaciones del país (dado que las explosiones nucleares afectan la ionósfera). Las ondas de corto alcance no eran suficientes y se vio la necesidad de crear una infraestructura robusta, descentralizada y distribuida, lo que más tarde se conocería como ARPANET empezó su desarrollo en 1966.

In 1965, Donald Davies del Laboratorio Nacional de Física en Londres, propuso una red nacional basada en la permutación de paquetes, esto con el fin de crear una mejor utilización del ancho de banda y reducir los tiempos de respuesta de la conmutación de circuitos tradicionales utilizados en telefonía. Esto es la división de los paquetes de información en partes más pequeñas que serían reagrupadas en el equipo del destinatario. La permutación de paquetes fue un elemento esencial de todas las redes desarrolladas posteriormente.

El primer enlace de ARPANET se estableció entre la Universidad de California, Los Angeles (UCLA) y el Instituto de Investigación de Stanford a las 22:30 horas el 29 de octubre de 1969. ARPANET se convirtió en el núcleo técnico de lo que sería el Internet. En sus inicios, utilizó el protocolo de control de redes (NCP), posteriormente este protocolo fue reemplazado por el protocolo de control de transmisiones (TCP), lo que caracteriza al TCP es la verificación de la transferencia de archivos.

A inicios de la década de los 70, Francia exploraba alternativas a la red estadounidense, pero debido a que se trataba de una red científica y no de una red militar, se contaba con un presupuesto significativamente más bajo y con un número de nodos mucho menor. Cyclades, como se denominó al proyecto, no se enfocó en la interconexión de equipos, sino en la de redes existentes, este es el origen del término Inter-net (entre redes). Otro elemento central de CYCLADES consistía en la adición de una pieza de hardware en los equipos que permitía prescindir del análisis de la información para su transmisión, lo cual tuvo dos efectos: un ahorro en el tiempo de transmisión y la comunicación ‘punto a punto’, esto quiere decir que los paquetes de información llegaban directamente al destinatario sin tener que ser forzosamente analizados por un intermediario, adicionalmente estableción la separación del canal de comunicación en capas. Estos conceptos fueron utilizados posteriormente en el Protocolo de Internet (IP).

Las compañías telefónicas desarrollaron el protocolo x.25, que permitía la comunicación a través de sus servidores a cambio de un discreto costo mensual. El TCP de ARPANET, permitía la comunicación entre equipos mediante gateways (hardware o software que permite la interconexión entre redes con arquitecturas distintas). Fue entonces cuando la Organización Internacional para la Estandarización “diseñó” el modelo de Interconexión de Sistemas Abiertos (OSI), tomando los conceptos centrales de la red CYCLADES: la estandarización de la red en cada punto y la separación del canal de comunicación en capas separadas.

Finalmente el TCP asimiló las recomendaciones de la OSI y dio pasó al TCP/IP, un estándar que garantizó la compatibilidad entre redes y permitió su unificación, creando lo que hoy es Internet.

IP v. 4

Aquí es donde la gente usualmente termina de contar la historia de Internet, pero hoy quiero ir un poco más allá, no en el tiempo sino en conceptos. El verdadero valor de Internet es que permite la existencia de una red única que conecta a todos sus equipos, es decir, se trata de una red simétrica. Si estás conectado a Internet puedes montar un servicio de correos, alojar archivos y compartirlos, montar una página web y ponerla a disposición de todo el mundo con acceso a Internet, que tenga un nombre bonito es otra cosa. Esa es la magia de las direcciones IP públicas.

La mala noticia, como se habrán dado cuenta, es que tuve que ponerle un adjetivo a la dirección IP: «pública», esto se debe a que cuando se planificó la cuarta versión del protocolo de Internet (IPv4), el primero en ser implementado a gran escala, no se consideró que habría tantos dispositivos conectados a Internet. 4300 millones parecía suficientes. Muchos de nosotros nos conectamos a Internet dentro de subredes administradas por nuestro proveedor de servicio. Eso quiere decir nuestro equipo tiene acceso a Internet pero Internet no tiene acceso a nuestro equipo (al menos no directamente).

Para volver a una red simétrica necesitamos un nuevo protocolo.

IP v. Qué?

El segundo problema sobre la simetría de la red es que no todos somos programadores, por lo tanto no entendemos cómo funciona la red. Esto quiere decir que muchos estarán felices de leer lo que he puesto arriba en negritas. Hay muchos equipos que sí están conectados a Internet manejados por gente incompetente. De hecho, en un inicio TODOS los equipos sí estaban en Internet, así que ya se imaginarán. A eso debemos los emocionantes relatos y películas sobre los hackers.

De hecho, este es uno de los temores de volver a tener una red simétrica, pero en un mundo cada vez más interconectado, con todas las agencias de inteligencia bien financiadas cazando nuestra información y nosotros regalándola por servicios centralizados a megacorporaciones que hacen de intermediarios. Me parece que lo más lógico es que «aprendamos a vivir en Internet». Debemos saber qué es un gateway de la misma manera en que sabemos cómo cruzar la calle. Poder escribir programas con la misma facilidad con la que hacemos oficios y proteger nuestros equipos con la misma determinación que protegemos a nuestra familia.

Para tener una red simétrica necesitamos educación, porque una red simétrica no se hace sólo porque nos conectemos bajo el mismo protocolo, sino por las capacidades compartidas que tienen todos sus usuarios.

Cuidado nos quiten la revolución de Internet.

Estar preparado para el ENES

El día de mañana miles de estudiantes de todo el Ecuador rendirán el Examen Nacional de Educación Superior, resulta que soy uno de los coordinadores de apoyo para el proceso y estaré en uno de los recintos designados para el proceso. Tuve la oportunidad de compartir con algunos de los docentes que han participado de esto en años anteriores y me comentaban que los estudiantes se ponen realmente nerviosos en el examen y no es para menos, hablamos de poder o no acceder a un estilo de vida distinto, recursos de aprendizaje, destrezas, una carrera, oportunidades profesionales. En las capacitaciones nos decían «cerramos las puertas a las diez y hay que darles un tiempo a los chicos para ir al baño, algunos están tan nerviosos que se les afloja el estómago».

Lastimosamente nuestro sistema educativo es asimétrico y decir que todos tienen la misma oportunidad es una mentira. De hecho, esta fue un reclamo de una de las madres que asistieron a los talleres sobre Economía Social del Conocimiento, llevador a cabo por la Red Infodesarrollo: «¿cómo ponen a competir a un muchachito de aquí con un niño de Quito?»

También hay quienes tomaban el examen deportivamente, me contaban, y puedes repetirlo después de seis meses si no lo apruebas, en caso de fallar una segunda vez, debes esperar un año. ¿Qué hacer en ese tiempo? Pues seguramente habrá una variedad de opciones dependiendo del estrato social en el que te encuentres, podrás estar un año de mochilero o tendrás que dedicarte a trabajar y ahorrar para tus estudios. En cualquiera de los dos casos, parece buena idea separar un tiempo para prepararse, hay muchos recursos disponibles en línea y, sin importar de donde vengas, todos podemos aprender.

Lo más importante, si no eres el estudiante pero eres un padre de familia preocupado o un maestro que quiere preparar a sus estudiantes para el ENES, también puedes involucrarte en el proceso como tutor, recursos como estos no son tan abundantes pero Khan Academy sí ofrece este recurso. He traducido una presentación que está diseñada para que administradores de escuelas, profesores o padres entiendan cómo funciona este proceso. Puedes echarle un vistazo aquí.

Qué hacer y qué no cuando se filtra información

El pasado viernes 5 de septiembre se develó un video en YouTube mediante una cuenta anónima en twitter, en el mismo se puede apreciar la interfaz administrativa de dos páginas de Facebook, el Patriota y Prohibido Olvidar, ambas reconocidas por proferir mensajes contra cierta clase política y la primera por hacerlo en un lenguaje algo agresivo. Resulta que una proporción importante de los administradores es parte de la agencia publicitaria Ximah Digital, involucrada en la campaña All you need is Ecuador y que ha mantenido contratos con varias instituciones del Estado, como se puede apreciar en su página web.

Ivanna Zauzich, uno de los rostros públicos y community manager de la agencia, fue quizá la primera en responder a varios comentarios, preguntas y acusaciones sobre lo que sucedía al respecto, sin tener muy claro qué hacer apenas alcanzó a afrontar la situación. “Pido comedidamente al hacker que muestre que jamás publiqué nada en la cuenta Prohibido Olvidar. Régreseme mi reputación”, decía uno de sus tuits, no la conozco y no es el objetivo de este texto emitir un juicio de valor sobre su papel en este escándalo, pero entiendo que estaba en una posición incómoda bajo una relación de poder y con compromisos previamente adquiridos.

Tomo el ejemplo de Ivanna, como una demostración de lo que sucedió mal con esa filtración. En este caso asociar a la página de Facebook con el dueño de la agencia era inevitable, ya que es él quien consta en los registros públicos como responsable de la firma por cualquier eventualidad. Dado que en esta circunstancia la probable implicación del video no es quién escribe o da clic para publicar un anuncio, sino si el financiamiento para estas cuentas proviene de manos privadas o del sector público, la exposición con nombre y apellido de los empleados era innecesaria.

Un caso similar ocurrió cuando periodistas de The Guardian publicaron irresponsablemente la clave de un archivo que les fue provisto por Wikileaks en uno de sus libros, al momento de la publicación el archivo era públicamente accesible y contenía raw data (identidades personales), gracias a esto se ha tratado de desprestigiar a Wikileaks de poner en riesgo la vida de agentes estadounidenses en territorio extranjero, pero lo que es más grave, esto ha ido en desmedro de las denuncias presentadas, desviando la atención de ciertos crímentes de guerra hacia ataques personales contra quienes filtran información o contra quienes están circunstancialmente en la escena “obedeciendo órdenes”. Poner en riesgo la vida (física o laboral) de la gente no es un juego.

¿Qué nos llevó al punto de publicar irresponsablemente nombres, apellidos y fotos de los empleados de Ximah Digital? Puede haber más de una respuesta a esto, pero creo que María Paula Romo lo resumió muy bien en una de sus declaraciones cuando, tras la eliminación del movimiento Ruptura 25 del padrón electoral, dijo que lo único que se va a lograr eliminando oportunidades de participación ciudadana en la toma de decisiones sería el surgimiento de actos violentos. Éste es uno de ellos.

Son culpables quienes hackearon la cuenta pero también quienes han hecho que el clima hacia la denuncia sea hostil, quienes han cooptado la libertad de expresión de los grandes medios —incluso si tienen dueños corruptos o hay claros conflictos de interés, los medios masivos son una oportunidad para la denuncia— quienes han hecho ilegal el anonimato y han dejado sin defensas a los posibles denunciantes.

¿Cómo podemos entonces hacer una denuncia responsablemente? Evidentemente no es el hacker el llamado a irrumpir en sistemas ajenos, al menos esta no debe ser la primera opción, lo mejor sería que quienes son testigos de actos ilegales o de abuso de poder, transmitan este mensaje al público sin poner en riesgo su identidad. Ecuador Transparente es una página web similar a Wikileaks, parte de la Associated Whistleblowing Press. Mediante el uso del sistema operativo Tails (ejecutable desde una memoria USB), cualquier persona puede ejecutar denuncias de manera segura y anónima. Algo importante es que si se llegara a comprometer la identidad personal de un involucrado sin responsabilidad directa, Ecuador Transparente no lo publicará, es la responsabilidad del denunciante, y sino del grupo editorial, limpiar estos rastros.

Como sociedad civil hemos fallado en comunicar la existencia de estas herramientas. Los medios de comunicación masiva, a su vez, no han integrado herramientas apropiadas como SecureDrop dentro de sus sistemas de publicación. El gobierno no ha establecido mecanismos legales apropiados que protejan a los denunciantes. Todos podemos hacer algo para que no vuelvan a pagar “justos por pecadores” y, en este punto, cuando la inacción ya ha empezado a cobrar sus primeras víctimas, sería irresponsable no hacerlo.

El costo del «open science»

Revisando uno de los documentos pos-cumbre de la FLOK Society, el de Ciencia colaborativa, abierta, libre y común, me siento algo incómodo con algunos de sus argumentos. Una traducción del texto original en inglés quedaría algo así:

A diferencia de otros factores de producción, sin embargo, el conocimiento no es un recurso escaso porque no se agota con su uso. De hecho, el reto de tratar al conocimiento como un recurso capital es que el conocimiento es altamente fungible. Es decir, el conocimiento puede ser fácilmente digitalizado, incrementado, y transmitido como información a casi cero costo. Como un bien público, cualquier número de personas puede construir, consumir y utilizar el conocimiento sin necesidad de agotar su valor (Stiglitz, 1999).
La escasez puede ser una condición previa para la economía de la oferta y la demanda, pero el conocimiento en sí mismo no es un recurso escaso.[1]

La negrilla es mía y está ahí para señalar los puntos que encuentro como conflictivos, uno por no contar con un respaldo adecuado de evidencia y otro por requerir un amplio debate sobre realidades y expectativas sobre gestión del conocimiento. Previamente en el artículo se mencionan el acceso abierto a publicaciones y los datos abiertos como nuevas oportunidades de generación de conocimiento, pasamos también por concebir al conocimiento como una materia prima de donde se extrae nuevo valor agregado, y desde este punto de vista es comprensible pensar que habiendo más y más datos disponibles se los podría «minar» y fácilmente ampliar el pool de conocimiento actual.

Mi cuestionamiento parte de que no en todas las áreas de la investigación científica se puede elaborar nuevos datos a partir de los existentes en la misma proporción y donde se hace esto a veces conduce a nuevas necesidades que implican un alto costo de investigación. En mi campo, por ejemplo, se puede argumentar que las revisiones sistemáticas aportan ciertamente nuevas luces sobre el valor real de la información que está publicada y se pueden establecer nuevas guías de tratamiento que reduzcan gastos públicos o privados, mejoren la tasa de supervivencia de los pacientes o eviten efectos adversos por prescripción indebida, por citar unos pocos ejemplos. Quienes hemos leído revisiones sistemáticas, sin embargo, sabemos que una de las conclusiones más frecuentes es «se necesitan más estudios». ¿Qué significa esto y cuál es la implicación real de esto si hablamos en términos de creación de conocimiento?

Hace casi un año ya, Forbes publicó un artículo donde examinaba cuál es el costo promedio de una innovación famacéutica (en base a un estudio realizado en 98 empresas). Uno de los factores a tener en cuenta es que el 95% de las investigaciones farmacéuticas no arrojan un producto funcional. Así, el costo de generar un medicamente varía entre 385 millones de dólares — para pequeñas compañías que lograron convencer  a un gran inversionista una vez eludido cierto riesgo de inversión — hasta 4 ó 5 mil millones por cada nueva medicina producida. Esto puede sonar excesivo, muy seguramente una parte sustancial de esta inversión va a engordar bolsillos, pero si uno entra a un laboratorio farmacéutico entenderá que muchos de los costos sí tienen que ver con los montos necesarios para infraestructura, personal, y sobretodo las 4 fases que comprenden un ensayo clínico experimental, tres de las cuales suceden previas a la comercialización del medicamento.

Uno podría argumentar entonces que la revisión sistemática de un sólo medicamento puede producir nuevos resultados a un costo cercano a $0, y que podemos difundir eso a la velocidad de la luz poniéndolo a disposición de toda la gente con acceso a Internet y llamar a la liberación de toda la información científica, pero el asunto es que para que eso haya sido posible primero se gastaron millones de dólares en el mundo material. Si queremos asegurar el desarrollo científico y el incremento del pool de conocimientos, debemos garantizar un ingreso mínimo y flexible a la investigación. Los otros elementos de la apertura científica nos ayudarán a no poner un sobreprecio a esta cifra mediante la implementación de procesos más eficientes producto de la transparencia. Si ese ingreso se debe obtener a través del acceso a la información, mediante impuestos a los centros de investigación o la población en general, es otra discusión.

El ejemplo anterior no es, lo admito, una muestra significativa de todos los campos de la ciencia. En cada uno de los campos corresponderá hacer un ajuste según sus necesidades. Incluso el de la medicina farmacológica podría variar enormemente el momento en que seamos capaces de simular mediante computación todos los efectos de una droga en la totalidad de la población con un índice de confianza alto, reduciendo drásticamente el costo, pero las preguntas a responder son las mismas:

  1. ¿qué cantidad de dinero necesito garantizar para investigación si requiero mantener su sostenibilidad?
  2. En base a la situación económica de mi economía de escala (país, región, continente) ¿de dónde puedo obtener ese ingreso? ¿es más eficiente cargarlo al artículo mediante instrumentos como el derecho de autor o financiarlo con impuestos directos? ¿Obtendré más renta posterior con innovaciones subsecuentes al «liberar» mi patente o debo proteger mi invención al tener poca capacidad de evolucionar en futuros productos?

Si me preguntan, no hay consenso, además de haber muchos intereses, existen muchos prejuicios e ignorancia sobre el tema. Lo más apropiado sería realizar un amplio debate público, al menos con los actores clave y posteriormente definir una metodología para hacer este cálculo. Si me preguntan, se debería establecer un modelo matemático que permita su aplicabilidad en varios campos. Creo que entonces podríamos heredar a la siguiente generación (metafóricamente hablando) una cantidad significativa de conocimiento liberado, una deuda específica en pos de liberar conocimiento y de asegurar la sostenibilidad de futuras investigaciones y una metodología que permite lidiar con la débil frontera entre lo tangible y lo intangible.
Referencias:
[1] Barandiaran, X.E. & Araya, D. (2014) Free/Libre, Open and Collabor­ative Science (v.1.0). Buen Conocer ­ FLOK Society Policy Document 1.2. Quito: IAEN (Instituto de Altos Estudios Nacionales).

Open Science