Quantcast
Channel: Magazine - internet
Viewing all 355 articles
Browse latest View live

La computación parásita ha vuelto: antes era para resolver retos científicos, pero ahora es para minar criptomonedas

$
0
0

Compparasitaap

Divide y vencerás. Esta estrategia de resolución de problemas ha demostrado su eficacia durante décadas. Siglos, incluso. Aseguran los libros de historia que la clave del éxito que alcanzaron Julio César y Napoleón fue, en gran medida, la vehemencia con la que aplicaron las máximas latinas «divide et impera» (divide y domina) y «divide et vinces» (divide y vencerás), que, en realidad, son dos formas de describir la misma idea: rompe en trozos más pequeños la estructura de poder existente y mantendrás bajo tu control a los grupos resultantes.

Más allá de su aplicación en materia bélica, política y sociología, lo que nos propone esta táctica en el ámbito de la informática y las matemáticas no es otra cosa que descomponer un problema grande y complejo en otros más pequeños, y, por tanto, a priori más fáciles de resolver. A su vez, si la complejidad de estos últimos sigue siendo elevada, podemos volver a aplicar a cada uno de ellos la misma estrategia hasta dar con la solución. Esta idea tan simple tiene unas raíces muy profundas que contribuyen al sostenimiento de la informática tal y como la conocemos hoy en día. Y, al mismo tiempo, representa el pilar sobre el que se construye la computación parásita, que es la auténtica protagonista de este artículo.

Todo empezó con los sistemas distribuidos

En realidad, la computación parásita no es una técnica nueva. La dieron a conocer en 2001 cuatro investigadores de la Universidad de Notre Dame, en Indiana (Estados Unidos), mediante la publicación de su trabajo en la revista Nature. El propósito de Albert-László Barabási, Vincent W. Freeh, Hawoong Jeong y Jay B. Brockman era demostrar que es posible transformar la infraestructura de comunicaciones que conforma Internet en un sistema distribuido de computación en el que un conjunto de servidores lleva a cabo operaciones de cálculo de forma involuntaria y en beneficio de una tercera máquina, con la que se comunican utilizando los protocolos estándar de Internet.

Un sistema distribuido está constituido por un conjunto de ordenadores físicamente independientes pero conectados por una red de comunicaciones que les permite colaborar para resolver cálculos complejos

Sé que esta descripción es algo compleja y poco intuitiva, así que la iremos desgranando poco a poco para entenderla bien porque, en realidad, la idea que subyace bajo ella es bastante sencilla. Empezaremos averiguando qué es un sistema distribuido. Podemos imaginarlo como un sistema informático que no está constituido por una sola máquina, sino por varios equipos físicamente separados y con capacidad computacional, pero conectados entre sí mediante una red de comunicaciones. Su objetivo más importante es cooperar para resolver un problema, y la forma de hacerlo requiere recurrir, precisamente, a la estrategia de la que hablamos en las primeras líneas de este artículo: divide y vencerás.

Ethernet

Si somos capaces de descomponer un problema grande y complicado en otros más pequeños y simples posiblemente podremos repartir la carga de trabajo entre varias máquinas capaces de cooperar entre ellas con un objetivo final común. De esta forma cabe la posibilidad de que obtengamos el resultado que buscamos en menos tiempo. Como veis, es una idea sencilla, pero ilustra bastante bien y de una manera intuitiva en qué consiste un sistema distribuido. Curiosamente, esta tecnología existe desde hace décadas, prácticamente desde la invención de Internet, y está mucho más presente en nuestro día a día de lo que podemos imaginar.

Una forma eficaz de resolver un problema consiste en dividirlo en otros más pequeños y fáciles de solucionar

De hecho, muchas de las aplicaciones y servicios que hemos utilizado, y aún continuamos usando, durante las últimas dos décadas, en realidad, funcionan gracias a la computación distribuida. Este es el caso, entre otros muchos ejemplos posibles, de las aplicaciones P2P (Peer to Peer), como BitTorrent o eMule, que no son otra cosa que sistemas distribuidos diseñados para permitirnos compartir recursos (en este caso ficheros). No obstante, antes de seguir adelante, y para afianzar los conceptos, nos viene bien definir con claridad en qué se diferencian los sistemas distribuidos y la computación distribuida.

Los primeros en el contexto que nos ocupa hacen referencia a los elementos físicos: las máquinas o equipos informáticos que ejecutan los programas y la infraestructura que hace posible que esos nodos, que es como realmente se llama cada una de las máquinas en la terminología utilizada en redes de comunicaciones, «hablen» entre ellos. Sin embargo, la computación distribuida es un concepto un poco más amplio porque se preocupa del diseño y la programación de los sistemas distribuidos de manera que sean escalables (permitan incrementar el número de nodos sin dificultad), transparentes para los usuarios, abiertos y tolerantes a fallos. Esta última característica implica que si un nodo, por la razón que sea, deja de funcionar correctamente, el sistema distribuido pueda continuar trabajando sin él.

P2p Las redes P2P (Peer to Peer) son sistemas distribuidos diseñados para permitirnos intercambiar recursos sin utilizar servidores dedicados.

Lo que hemos visto hasta este momento nos permite intuir sin esfuerzo por qué los sistemas distribuidos son importantes: gracias a ellos podemos acceder a una capacidad de cálculo muy superior a la que tiene cada una de las máquinas que los conforman por separado. Esta aproximación resulta crucial a la hora de resolver problemas muy complejos que representan un reto inabarcable para un solo ordenador, por potente que sea, como son muchos de los que están llevando a cabo actualmente numerosos grupos de investigación en medicina, energía, genética, farmacia o astrofísica, entre otras disciplinas.

Esto explica, además, que la computación distribuida sea un pilar fundamental de una rama de la informática que cada vez está adquiriendo una mayor relevancia: la computación de altas prestaciones. Su objetivo es, sencillamente, sacar el máximo partido a la capacidad de cálculo de los sistemas informáticos que tenemos actualmente para que nos permitan resolver los problemas de mayor envergadura a los que nos enfrentamos hoy en día.

Esta es la ingeniosa táctica utilizada por la computación parásita

Volvamos a la historia de los cuatro investigadores de los que os hablé unos párrafos más arriba. Barabási, Freeh, Jeong y Brockman se dieron cuenta de que los protocolos estándar que utilizan nuestros ordenadores para comunicarse a través de Internet podían ser utilizados para transformar un conjunto de esas máquinas en un sistema distribuido, pero con una característica peculiar: las máquinas que llevan a cabo gran parte del esfuerzo computacional, las que resuelven una parte del trabajo duro, lo afrontan de manera involuntaria. No saben qué están haciendo en realidad porque lo único que perciben es que están participando en una comunicación convencional a través de Internet.

Lo más interesante de la computación parásita es que utiliza los protocolos estándar de Internet para conseguir que un conjunto de máquinas resuelva un problema de forma involuntaria

Esta estrategia es muy ingeniosa porque permite que una sola máquina, la que inicia la comunicación y la que, en última instancia, se beneficia de los cálculos que llevan a cabo las demás de forma involuntaria, se salga con la suya sin que las otras se den cuenta. Esa es, lógicamente, la máquina «parásita». De ahí procede el nombre de este paradigma de programación, al que también se conoce como «computación sigilosa» por su capacidad de llevar a cabo su cometido sin hacer ruido, sin que las máquinas «parasitadas» y sus propietarios sean realmente conscientes de lo que está sucediendo por debajo.

Para entender cómo funciona este método con precisión nos viene de maravilla recurrir a la misma explicación defendida por los investigadores que lo desarrollaron en el artículo que publicaron en Nature, y cuya lectura os recomiendo si os defendéis con el inglés y queréis profundizar aún más en la computación parásita. Vamos allá. El conjunto de protocolos que hace posible que nuestros ordenadores se comuniquen a través de Internet está organizado en varias capas de abstracción superpuestas, de manera que cada uno de ellos realiza una parte del trabajo necesario para llevar a cabo la comunicación sin preocuparse de lo que hacen los demás.

Computacionparasita En la computación parásita la comunicación entre la máquina que se beneficia de esta práctica y los equipos «parasitados» se lleva a cabo a través de un diálogo TCP/IP convencional.

De esta forma, cuando tecleamos una dirección web en la barra de direcciones de nuestro navegador este inicia una conexión TCP (Protocolo de Control de Transmisión) con un servidor web. Para no complicar demasiado la explicación no vamos a profundizar en las características de cada protocolo de Internet, pero no dejéis que las siglas os intimiden; nos basta recordar que TCP es un protocolo muy importante utilizado en las comunicaciones en Internet. A continuación, expide una petición utilizando otro protocolo esencial conocido como HTTP (Protocolo de Transferencia de Hipertexto) que se afianza sobre la conexión TCP de la que hemos hablado antes.

Como estamos viendo, unos protocolos trabajan «por encima» de otros, dando forma a esas capas de abstracción de las que os hablé antes y conformando una estructura que podemos imaginar como una «pila de protocolos» en la que cada uno de ellos se beneficia de los servicios que le ofrece el que tiene debajo, y, al mismo tiempo, ofrece sus servicios al protocolo que tiene por encima. Sigamos adelante. Ya tenemos establecida una conexión TCP entre nuestro navegador y un servidor web, e iniciada una petición HTTP, así que llega el momento de que entre en acción un protocolo más que también tiene una importancia enorme: IP (Protocolo de Internet).

Este último se responsabiliza de que el mensaje TCP llegue a su destino, que puede ser una máquina situada físicamente a miles de kilómetros de distancia. Para lograrlo, el protocolo IP fragmenta el mensaje en varios paquetes más pequeños que no tienen por qué viajar entre el origen y el destino siguiendo el mismo camino. Lo realmente importante es que lleguen a su destino correctamente, sorteando la congestión y cualquier otro problema con el que van a encontrarse a medida que van viajando de un router a otro a través de Internet. Por fin, cuando la petición HTTP llega al servidor web con el que se ha establecido la comunicación inicialmente, este último envía una respuesta al navegador del usuario utilizando la misma conexión TCP.

Codigo

No es necesario que repasemos con más profundidad cómo se administra el tráfico de los paquetes a través de Internet y qué papel desempeña cada uno de los protocolos involucrados en la comunicación, pero lo que acabamos de ver nos permite intuir con bastante precisión el considerable esfuerzo de cálculo que deben realizar tanto las máquinas que delimitan los puntos inicial y final del enlace como los nodos intermedios. Incluso aunque el objetivo sea, sencillamente, consultar una página web. Lo más interesante de la arquitectura que hace posible el funcionamiento de Internet es que se sostiene sobre la cooperación y la confianza de los equipos involucrados en el proceso de comunicación.

Precisamente, son esas dos características, la cooperación y la confianza entre las máquinas conectadas a través de Internet, las que aprovecha la computación parásita para conseguir utilizar los recursos de algunas de esas máquinas sin su consentimiento con el objetivo de resolver un problema determinado. Pero este propósito solo es factible recurriendo a la estrategia de la que hablamos al principio del artículo: divide y vencerás. Y es que para que un problema complejo pueda ser resuelto utilizando esta técnica es necesario descomponerlo en tareas más pequeñas y simples que puedan ser evaluadas y solventadas por las máquinas conectadas a Internet.

Se aprovecha, sí, pero no compromete la seguridad

Una característica muy importante de la computación parásita es que, a diferencia de los virus, los troyanos o cualquier otra forma de malware, no compromete la seguridad de las máquinas involucradas. De hecho, solo utiliza aquellas partes de los servidores directamente implicadas en la comunicación a través de Internet. Esta peculiaridad es la que hace posible que las máquinas que resuelven esos pequeños problemas de los que hablábamos antes no se percaten de lo que están haciendo en realidad. Sencillamente, creen que solo están comprobando que los paquetes que reciben llegan en perfecto estado.

El alcance de la computación parásita dentro de las máquinas «parasitadas» está limitado a aquellos componentes implicados en la comunicación a través de Internet

Unos párrafos más arriba mencioné que la computación parásita es un paradigma de programación. Esto tan solo significa que propone un enfoque concreto que resulta útil para resolver un determinado tipo de problemas que pueden ser más difíciles de solucionar utilizando otras estrategias. Los cuatro investigadores que desarrollaron inicialmente esta técnica la ilustraron en el artículo que publicaron en Nature con un ejemplo al que nos viene de maravilla recurrir para que entendamos un poco mejor cómo es posible que las máquinas «parasitadas» no se den cuenta de que están trabajando para una aplicación que se está ejecutando en una tercera máquina que actúa como «parásito».

El objetivo de su ejemplo era resolver un reto matemático muy complejo conocido como «problema de satisfacibilidad booleana». Su complejidad es demasiado elevada para que profundicemos en ella en este artículo (si queréis conocerlo un poco mejor podéis echar un vistazo a este artículo de nuestros compañeros de Xataka Ciencia), pero nos basta saber que es muy complicado y que puede descomponerse en operaciones más pequeñas y sencillas. Para afrontarlo los investigadores propusieron utilizar dos máquinas conectadas a través de Internet. Una de ellas es la que pretende resolver el problema y la que, por tanto, actúa como «parásito», y la otra es la que le ayuda a solucionarlo de forma involuntaria. Esta última es la «parasitada».

Cluster Conceptualmente la computación parásita es similar a los clústeres. El de esta fotografía es el superordenador Cray Titan del Oak Ridge National Laboratory, que actualmente tiene una capacidad de cálculo de algo más de 17,5 petaFLOPS.

El parásito debe ser capaz no solo de descomponer el problema grande en otros más pequeños, sino también de codificar estos últimos bajo la forma de una relación entre un paquete de datos de red y una suma de verificación. Esta última es una operación matemática relativamente sencilla utilizada habitualmente en informática y telecomunicaciones para comprobar que los datos que se transfieren en una comunicación llegan a su destino sin sufrir ninguna alteración. Es, sencillamente, un sistema de detección de errores.

El equipo «parasitado» cree que está procesando los paquetes que recibe como parte de una comunicación TCP/IP estándar sin mayor alcance

En este contexto lo único que tiene que hacer la máquina parasitada es recoger los paquetes que le envía la máquina que actúa como parásito y comprobar si la suma de verificación es correcta. Una propiedad muy interesante de esta última consiste en que tiene una base lógica lo suficientemente sólida para implementar una función lógica, y, por extensión, también una operación aritmética. Pero lo realmente revelador es que el resultado de la comprobación de la suma de verificación que lleva a cabo la máquina parasitada es también la solución a uno de los pequeños problemas en los que ha sido fragmentado el problema grande que representó nuestro punto de partida.

De esta forma, la máquina que recibe los mensajes, la parasitada, simplemente cree que está comprobando la integridad de los paquetes de datos que llegan como parte de una comunicación TCP/IP convencional, pero en realidad está llevando a cabo los cálculos que le va encomendando la máquina que emite los paquetes y que actúa como parásito. Eso sí, para que esta estrategia funcione esta última debe ser capaz, como vimos antes, de descomponer el problema que pretende resolver en otros más pequeños, y también de codificar cada uno de ellos para que sea posteriormente procesado por el equipo que recibe los paquetes.

Este es realmente el reto que plantea la computación parásita debido a que con frecuencia los recursos computacionales que exige la generación de los paquetes son superiores a los aportados por la máquina que procesa la suma de verificación, lo que puede echar por tierra la eficiencia de esta estrategia.

Del proyecto SETI a las criptomonedas

Desde un punto de vista conceptual la computación parásita es similar a los clústeres, que son conjuntos de ordenadores físicamente independientes que están unidos a través de una red de comunicaciones que les permite comunicarse y trabajar al unísono, como si fuesen un solo ordenador con una enorme capacidad de cálculo. Se utilizan para resolver problemas muy complejos que requieren una gran capacidad de procesado. Sin embargo, entre estas infraestructuras hay una diferencia muy importante que va más allá de la manera en que están implementadas: como hemos visto, en la computación parásita las máquinas parasitadas no participan de forma voluntaria en la resolución del problema inicial, pero en un clúster cada máquina «conoce» el propósito de los cálculos que está llevando a cabo.

La computación parásita es similar a los clústeres desde un punto de vista conceptual, pero se diferencian en una característica esencial: la voluntariedad o involuntariedad de los equipos implicados

El proyecto SETI@home es un buen ejemplo de clúster en el que cada nodo participa voluntariamente con el objetivo de contribuir a la resolución de un problema. De hecho, es una iniciativa de computación distribuida desarrollada por el Laboratorio de Ciencias del Espacio de la Universidad de California en Berkeley (Estados Unidos) con el propósito de analizar señales de radio que puedan proceder de una inteligencia extraterrestre. Otro proyecto de investigación interesantísimo que también recurre a la misma tecnología es Einstein@home, diseñado para identificar ondas gravitacionales en los datos recogidos por los laboratorios GEO 600, de Alemania, y LIGO, en Estados Unidos, así como para analizar la información generada por el radiotelescopio de Arecibo, en Puerto Rico, y por el telescopio espacial de rayos gamma Fermi.

Todas las máquinas que intervienen en SETI@home y Einstein@home, así como en otros proyectos de computación distribuida similares a estos dos, participan de forma voluntaria. Esto quiere decir que sus propietarios han accedido a colaborar instalando en sus ordenadores una aplicación y cediendo recursos para que esta pueda ejecutarse. Sin embargo, como hemos visto, aunque la computación parásita puede perseguir un objetivo similar y conceptualmente tiene mucho en común con estas iniciativas de computación distribuida, alcanza su objetivo sin que los propietarios de las máquinas que llevan a cabo buena parte del esfuerzo de cálculo sean conscientes de lo que sus ordenadores están haciendo realmente.

Osi El Modelo de Interconexión de Sistemas Abiertos (OSI) describe mediante capas cómo se estructuran y qué necesidades resuelven los protocolos de una red de comunicaciones.

Afortunadamente, la seguridad de estas últimas máquinas no tiene por qué verse comprometida por la acción de la computación parásita porque su alcance queda limitado a las partes de los servidores web directamente involucradas en la comunicación TCP/IP. Pero esto no significa que sea absolutamente inocua para las máquinas parasitadas. No lo es porque acapara recursos de estas últimas que no están a disposición de los procesos que se ejecutan de forma legítima en ellas. Además, como su acción queda camuflada dentro de los protocolos utilizados por las comunicaciones en Internet resulta muy difícil desde un punto de vista técnico tanto detectarla como impedir que lleve a cabo su objetivo.

Las implicaciones éticas y legales de la computación parásita son evidentes. Incluso aunque sea utilizada para un propósito de carácter científico, el hecho de que se apropie de recursos de algunas máquinas conectadas a Internet sin que sus propietarios lo sepan es cuando menos criticable. Pero el problema más grave es que puede ser utilizada para fines perniciosos, como, por ejemplo, para minar criptomonedas. En septiembre del año pasado el motor de búsqueda y rastreo de ficheros BitTorrent conocido como The Pirate Bay realizó un experimento entre sus usuarios para poner sobre la mesa la viabilidad de esta práctica. Y sí, no solo es posible hacerlo, sino que se está haciendo.

Desafortunadamente, no hay mucho que los usuarios podamos hacer para protegernos de estas prácticas más allá de conocer su existencia, cómo funcionan y tener cierta precaución con los servidores web que visitamos en Internet, limitando el uso de la CPU de nuestro ordenador si sospechamos que podemos ser víctimas de estos manejos. Sin duda, es un primer paso para mantenernos al margen de la computación parásita. O, al menos, intentarlo.

Imágenes | Pexels | Oak Ridge National Laboratory | Offnfopt | Scott Martin
Más información | ResearchGate
En Xataka | Algunos sitios web siguen minando criptomonedas sin que lo sepas incluso si cierras el navegador


¡661 Tbps en un sólo hilo de fibra óptica! Tenemos nuevo récord de velocidad para transmisión de datos

$
0
0

Fibra Optica

Apenas nos estamos acostumbrando a ver los avances en cuanto a conexiones gigabit y ahora nos llegan las primeras pruebas que logran velocidades de infarto en terabits. Eso sí, todo esto se trata apenas de una investigación creada bajo condiciones especiales, por lo que tendrán que pasar algunos años antes de la tengamos disponible para nuestra casa.

Un grupo de investigadores se puso a jugar con las posibilidades que ofrecen los haces de luz a través de un pulso láser, con lo que han logrado imponer un nuevo récord de velocidad de fibra óptica sobre un solo hilo, una asombrosa velocidad de 661 Tbps.

La clave está en los colores

La transmisión de datos vía fibra óptica se basa en láseres, y la amplitud que se le da a la banda ancha depende de la potencia y eficiencia de estos láseres. Debido a que los datos viajan a través de diferentes colores de luz, se necesitan más colores en una sola fibra para ampliar la banda ancha, algo que es conocido como 'multiplexación por división de longitud de onda'.

La mala noticia es que cada color necesita su propio láser, por lo que los responsables de este proyecto se dieron a la tarea de meter más colores en un sólo haz de luz. Para esto, los investigadores desarrollaron un nuevo tipo de cable extremadamente fino, de aproximadamente 300 nanómetros de diámetro, lo que hizo que la luz se comprimiera y fuera más brillante.

Según explican, gracias a la intensidad del láser y los materiales del cable, la luz respondió generando nuevos colores, donde lo sorprendente fue que cada color se mostró en forma pura y se transmitía bajo los mismos intervalos de frecuencia a través del pulso del láser. Con esto, aseguran que lograron que el láser generará los 80 colores requeridos por el sistema, los cuales son necesarios para la transmisión de datos.

Velocidad Terabit

Debido a que el láser emitido se divide en dos polarizaciones, cada color aporta dos canales. Con esto, la luz pulsada puede crear cuatro intervalos de tiempo diferentes para colocar información, algo denominado 'multiplexación por división de tiempo'. Por lo tanto, mencionan que con cada color obtuvieron una velocidad de datos en bruto de aproximadamente 320 Gbps, pero, como estamos hablando de 80 colores, esto significa 25 Tbps.

El experimento continúa explicándonos que la fibra óptica que transporta la información cuenta con 30 núcleos, que sirven para llevar el haz de luz de un sitio a otro, todo dentro de un mismo cable. Ante esto, y usando los 30 núcleos, aseguran que la velocidad total teórica sería de 768 Tbps.

Con esto, aseguran que ya en el experimento práctico, tomando en cuenta los errores en la transmisión, interferencias, la redundancia de datos y las correcciones, lograron obtener una tasa neta de transferencia de datos es de 661 Tbps. Todo un hito en velocidades a través de fibra óptica, y un logro que esperemos no tarde en llegar a los desarrollos comerciales.

En Xataka | Cómo son por dentro los cables submarinos que llevan Internet de un continente a otro

Qué es TLS 1.3 y por qué Firefox y Chrome se han dado tanta prisa en integrarlo

$
0
0

Network 1572617 1280

Uno de los protocolos de seguridad fundamentales para la red, el que hace posibles comunicaciones seguras entre un servidor y un internauta, ha completado una profunda revisión presentando TLS 1.3 como nuevo estándar oficial. Y navegadores como Firefox o Chrome ya lo usan.

Para que puedas estar leyendo este texto en tu navegador, tanto este protocolo fundamental como tantos otros imprescindibles han entrado en acción. Hablamos de TCP, IP, UDP, DNS o HTTP/HTTPS. Sistemas de reglas que permiten una correcta comunicación entre varias partes y evolucionan, necesariamente, adaptándose a nuevas realidades.

TLS 1.3 promete ser más seguro, veloz y privado que su antecesor

Lo hizo en 2015 el protocolo HTTP, dando lugar a su sucesor natural, HTTP/2. Y lo hace ahora TLS 1.2, heredero del más popular SSL, resultando en TLS 1.3 (RFC 8446) e incorporando grandes mejoras en seguridad, velocidad y privacidad según explican sus responsables.

Por qué es tan importante TLS 1.3

Computer 1591018 1280

Google Chrome anunció hace unos meses que dejará de indicar que un sitio web HTTPS "es seguro" porque eso debe ser lo normal. Los usuarios deben esperar que una web, por defecto, sea segura según entienden en Mountain View, por lo que cualquier portal debería emplear HTTPS.

Y la maquinaria bajo el capó responsable de que el mítico protocolo HTTP pueda llevar esa letra ese final que significa seguro y garantiza que el contenido que ve un visitante proviene del responsable legítimo de la página y está a salvo de monitoreos, es el protocolo TLS.

Bajó el capo de la seguridad de HTTPS está el protocolo TLS, aunque va mucho más allá

Por eso es tan importante que prácticamente una década después de la aparición de TLS 1.2, un protocolo fundamentado en gran medida en la base diseñada a mediados de los años noventa, Internet Engineering Task Force haya terminado oficialmente TLS 1.3 tras cerca de una treintena de versiones de pruebas publicando, hace unos días, la versión final. Esta promete más seguridad, rendimiento y privacidad.

  • Seguridad: TLS 1.3, según han explicado sus responsables, elimina gran parte de la criptografía obsoleta de su predecesor. Vulnerabilidades de alto perfil presentes en partes opcionales y anticuadas que fueron la causa de ataques reales como FREAK, Logjam y Sweet32. Este revisión se centra únicamente en algoritmos sin vulnerabilidades conocidas, habiendo estado diseñado en cooperación con la comunidad de seguridad académica. El nivel de revisión y análisis del protocolo se considera extraordinario e incluye verificaciones de la seguridad.

  • Privacidad: Respecto a TLS 1.2, esta revisión que muchos opinan que debería haber sido la versión 2.0 por el avance que supone, mejora enormemente el establecimiento de comunicación​​ —handshake en inglés— encriptándolo en gran parte. Esta mejora ayuda a proteger las identidades de los participantes en las comunicaciones e impide el análisis del tráfico, según sus responsables. Además, gracias al secreto perfecto por defecto que incorpora, aseguran que las comunicaciones actuales permanecerán seguras incluso si las comunicaciones futuras resultan comprometidas.

  • Rendimiento: En cuanto al rendimiento, las nuevas conexiones de TLS 1.3 están diseñadas para completarse en un viaje de ida y vuelta entre el cliente y el servidor, sin necesitar de más. Incluso alguna aplicaciones pueden emplear un modo de viaje de ida y vuelta de datos cero, que permite un envío previo de información al servidor. Esta mejora y el resto "hacen que TLS 1.3 sea más rápido que nunca", dicen desde el IETF. Y es importante, porque aunque tengamos un ordenador muy potente, TLS resulta decisivo a la hora de acceder a una web.

En despliegue: Google Chrome y Mozilla Firefox ya lo incorporan

Seo 2426046 1280

TLS 1.3, que terminó su definición en marzo y a finales de la semana pasada se publicó como el estándar que es, ya está ampliamente desplegado. Tanto Chrome como Firefox lo incorporan en una versión borrador del estándar y se encuentran trabajando en la implementación de TLS 1.3 en su forma definitiva.

Desde Mozilla esperan enviar la versión final con Firefox 63, previsto para octubre, y señalan que Cloudflare, Google y Facebook están ejecutando TLS 1.3 a día de hoy en sus servidores. Una muy buena noticia.

La telemetría de Firefox, de hecho, revela que alrededor del 5 % de las conexiones son TLS 1.3, Cloudflare reporta números similares y Facebook asegura que más de la mitad de su tráfico ya es TLS 1.3. Internet será, esperemos, más seguro, privado y rápido para todos.

Google es el dominador absoluto, pero había vida antes de él: estos son los buscadores a los que derrotó y cómo consiguió hacerlo

$
0
0

Google es el dominador absoluto, pero había vida antes de él: estos son los buscadores a los que derrotó y cómo consiguió hacerlo

El periodista y escritor estadounidense Richard L. Brandt asegura en ‘Las dos caras de Google’, el ensayo que dedicó en 2009 a los fundadores de esta compañía, que solo alguien con la determinación de Larry Page y Serguéi Brin podía colocar a Google en la posición que tiene hoy en día. Y, además, en un tiempo récord. Muchos de nosotros utilizamos algunos de sus servicios cada día, lo que ha provocado que parezca que lleva toda la vida entre nosotros. Pero no es así. En realidad, apenas ha superado la adolescencia.

En su libro Brandt cuenta una anécdota interesante que puede ayudarnos a entender la resolución con la que Page y Brin defienden sus ideas. En enero de 1999 la sede de Google era un pequeño apartamento de Menlo Park, una localidad del norte de California situada a caballo entre San Francisco y San José, en el que solo trabajaban siete personas, incluidos los dos fundadores. Pero las aspiraciones de Brin y Page ya eran inusualmente atrevidas: querían que su empresa llegase a ser tan importante como lo era Yahoo! en ese momento.

Mucho antes de que Google tuviese la envergadura actual Larry Page y Serguéi Brin estaban convencidos de que su compañía sería tan importante como lo fue Yahoo! en su momento

Karsten Lemm, un reportero de la revista alemana Stern, llamó aquella mañana a la puerta de aquel apartamento con el propósito de entrevistar a dos emprendedores más de los muchos que entonces proliferaban como setas en el área de Silicon Valley. Al fin y al cabo, aquella pequeña empresa tan solo tenía un buscador para Internet, uno nuevo que difícilmente podría competir con gigantes como AltaVista o Yahoo!, que eran dos de los motores de búsqueda más exitosos a finales de la década de los 90.

Pero Lemm se equivocaba, y probablemente cualquiera de nosotros hubiese pensado lo mismo en su lugar. Estas palabras pronunciadas por Serguéi Brin aquella mañana después de explicar al reportero por qué creían que su buscador no llegaba tarde reflejan con claridad la convicción que ya entonces tenían los fundadores de Google: «Hay algo más importante todavía, y es ofrecer al mundo lo que hemos hecho. Esto es apasionante, por supuesto. Y creemos que tiene potencial para cambiar las cosas de verdad y para siempre».

Así era Internet antes de Google

Cuando el motor de búsqueda de Page y Brin vio la luz en 1997 más allá de los muros de la Universidad de Stanford los usuarios que frecuentábamos Internet teníamos decenas de buscadores a nuestra disposición. JumpStation, WebCrawler, Lycos, Daum, Excite, Yahoo! o AltaVista son solo unos pocos, pero había muchos más. De hecho, en cierta medida Google inevitablemente bebió de muchos de estos motores, a pesar de que, como veremos más adelante, tenía características diferenciales que le permitieron desmarcarse de todos ellos y superarlos.

Lineadetiempo

Los motores de búsqueda son una consecuencia directa e ineludible de la concepción de la World Wide Web tal y como Tim Berners-Lee la implementó en 1989. Internet existía antes de Berners-Lee, pero fue este investigador durante la época en la que trabajó en el CERN (Organización Europea para la Investigación Nuclear) el que se dio cuenta de que los enlaces entre los documentos podían resultar útiles para distribuir y compartir la información de una manera mucho más eficiente.

Él y sus colaboradores no solo implementaron el lenguaje HTML, que utiliza etiquetas para crear enlaces entre los documentos, sino también el protocolo HTTP, que facilita el acceso a los documentos, y las direcciones URL, que permiten ubicar cada uno de esos documentos en Internet. Había nacido la Red tal y como la conocemos hoy en día, pero aún había un problema importante que era necesario resolver: necesitábamos una herramienta que nos ayudase a localizar la información que estábamos buscando en ese océano creciente de documentos vinculados mediante enlaces de hipertexto.

La primera respuesta a esa necesidad realmente bien documentada fue Archie, que vio la luz a finales de 1990. La mayor parte de las fuentes recoge que este fue el primer motor de búsqueda que nos permitía bucear en una parte de la World Wide Web con el objetivo de localizar un documento determinado. Aun así, hasta 1993 el contenido de la Web se indexaba a mano y era supervisado por el propio Tim Berners-Lee, que alojó una lista con el repositorio de servidores web que tenían localizados en uno de los servidores del CERN.

Poco después de Archie (que se construye a partir del vocablo en inglés ‘archive’ eliminando la ‘v’) llegaron Veronica y Jughead, en 1991. Veronica, un acrónimo que procede de la designación anglosajona ‘Very Easy Rodent-Oriented Net-wide Index to Computerized Archives’, era un motor de búsqueda diseñado para localizar los nombres de los ficheros y los títulos de los documentos registrados en Gopher, un protocolo TCP/IP utilizado para distribuir y recuperar documentos de Internet que pretendía alzarse como una alternativa a la World Wide Web propuesta por Berners-Lee.

Jughead, otro acrónimo que en esta ocasión procede de ‘Jonzy’s Universal Gopher Hierarchy Excavation And Display’, también trabajaba sobre Gopher, pero había sido ideado para recuperar información que permitiese elaborar menús a partir de servidores específicos de este protocolo. El problema es que hasta 1993 no había ningún motor de búsqueda capaz de indexar contenidos de forma automática. Archie trabajaba sobre catálogos de documentos indexados a mano, y Veronica y Jughead hacían algo similar, pero sobre Gopher. Afortunadamente, durante la segunda mitad de ese año el panorama cambió radicalmente.

Lycos

En junio de 1993 Matthew Gray, un investigador del MIT (Instituto Tecnológico de Massachusetts), escribió en lenguaje Perl el código de Wanderer, el primer robot, o, simplemente, bot, capaz de indexar de forma automática los contenidos de la World Wide Web. Y durante el verano de ese mismo «milagroso» año Oscar Marius Nierstrasz, un profesor de informática de la Universidad de Berna, escribió, también en Perl, un conjunto de scripts diseñado para copiar periódicamente los índices de la Web que hasta ese momento se mantenían a mano y almacenarlos en un formato normalizado. La automatización de la World Wide Web acababa de empezar.

Nierstrasz desarrolló más sus algoritmos y en septiembre de 1993 escribió el código de W3Catalog, que es el motor de búsqueda en el que de alguna manera se inspiran todos los demás. La veda quedaba levantada para siempre. Pocos meses después, en diciembre, llegó JumpStation, que también utilizaba un robot web para indexar los contenidos de la Web. Y a continuación, en 1994, surgió WebCrawler, uno de los primeros motores de búsqueda en modo texto diseñados para ofrecer a los usuarios la posibilidad de localizar una página web a partir de una palabra o un conjunto de ellas.

Yahoo

La flexibilidad de WebCrawler lo hizo muy popular en poco tiempo, pero enseguida se vio superado por Lycos, un nuevo motor de búsqueda que vio la luz poco después y al que podemos considerar el primero que consiguió ser realmente popular. A continuación, en 1995, llegó Yahoo!, y no tardó en consolidarse como uno de los motores de búsqueda más exitosos del mundo, si no el que más, hasta que unos años más tarde surgió Google. Pero entre uno y otro aún llegaron al mercado muchos otros buscadores. AltaVista, Dogpile, HotBot, Ask o Yandex son solo algunos de ellos.

Muchos de los motores de búsqueda que vieron la luz antes de la llegada de Google siguen existiendo hoy en día, aunque es evidente que su presencia se ha visto eclipsada por el buscador ideado por Serguéi Brin y Larry Page. Aun así, es interesante comprobar que en menos de tres décadas hemos pasado de una aproximación a Internet en la que era necesario «apuntar a mano» qué contenidos estaban disponibles y dónde residían, a un modelo completamente automatizado en el que los usuarios no tenemos que preocuparnos en absoluto por la dirección en la que se encuentra aquello que estamos buscando.

Bing

Pero esta comodidad tiene un precio. Y es que la mayor parte de nosotros únicamente tiene la visión de Internet que nos proporciona el motor de búsqueda que utilizamos. Sea Google o cualquier otro. E Internet es mucho más que eso. Llegados a este punto procedería que hablásemos de esa red profunda, oculta e ingente a la que los anglosajones llaman Deep Web, pero nos adentraríamos en unos derroteros que escapan al propósito de este artículo. Aun así, si estáis interesados en averiguar algo más acerca de ella os sugiero que echéis un vistazo al artículo que estoy enlazando aquí mismo.

PageRank, el arma no tan secreta de Google, y algo más

Limitar el éxito que ha tenido una compañía con la envergadura de Google a un único algoritmo es una simplificación excesiva. Aun así, no cabe duda de que la sofisticación de PageRank, el algoritmo que aún hoy parece tener más peso en su motor de búsqueda, es en cierta medida responsable de la cuota de mercado que ha alcanzando este buscador.

Google no es el motor de búsqueda preferido por los rusos. Lo es Yandex. Ni por los chinos. La mayor parte de ellos elige Baidu. Los japoneses y los taiwaneses prefieren Yahoo! Y los surcoreanos, Naver. Tampoco es la elección de todos los europeos. Los ciudadanos de República Checa han adoptado mayoritariamente Seznam. Sin embargo, aquí acaban las excepciones. En el resto del planeta, casi de forma unánime, Google arrasa. ¿Por qué? Porque, objetivamente, funciona. Lo hace rápido, y, normalmente, lo hace bien. Y buena parte del mérito lo tiene PageRank, el algoritmo del que os he hablado en el párrafo anterior.

Statcounter Esta estadística elaborada por StatCounter refleja que Google ha tenido durante el último año una cuota de mercado mundial del 91,39%. Esta cifra aglutina los ordenadores, los dispositivos móviles, las tabletas y las consolas de videojuegos.

Antes de que indaguemos un poco en su interior nos viene bien repasar brevemente el currículo académico de Larry Page y Serguéi Brin. El primero se graduó en Ingeniería en Informática por la Universidad de Michigan, y después hizo el doctorado en informática en la Universidad de Stanford. Brin, que es de origen ruso y emigró a Estados Unidos de niño junto a sus padres cuando aún existía la Unión Soviética, se graduó en informática y matemáticas por la Universidad de Maryland, y posteriormente también cursó estudios de doctorado en informática en Stanford. Fue precisamente en esta última universidad en la que se conocieron.

Es evidente que el bagaje en informática de los dos era muy sólido. Además, Brin tenía una habilidad innata para las matemáticas, una cualidad en la que posiblemente influyeron sus padres, Michael y Eugenia, que eran matemáticos. Poco después de comenzar su doctorado en Stanford, Page asistió a una conferencia que le dio la idea de explorar las propiedades matemáticas de la World Wide Web asemejando su estructura de hiperenlaces a un enorme grafo, que es una estructura que se utiliza con frecuencia en matemáticas e informática para representar relaciones binarias entre los elementos de un conjunto.

Netmarketshare Estos datos recogidos por NetMarketShare reflejan la cuota de mercado mundial del motor de búsqueda de Google en los dispositivos móviles durante el último año.

Larry Page se dio cuenta de que, en realidad, los hiperenlaces eran a los documentos de Internet esencialmente lo mismo que las citas en las publicaciones científicas: una forma de medir la relevancia. Así que decidió escribir un rastreador web, al que llamó BackRub, que le permitiese explorar e indexar las páginas web de aquella estructura que parecía dar soporte a la World Wide Web. Su amigo Serguéi Brin no tardó en unirse a su plan, y juntos terminaron el código de BackRub.

PageRank recoge los datos recabados por BackRub y asigna un peso a cada página en función de su relevancia

Pero aún necesitaban algo más: un algoritmo que fuese capaz de recoger los datos devueltos por su indexador web para transformarlos en una medida de la relevancia de cada página. Este fue el germen de PageRank. Pero, ¿cómo funciona? Su estrategia esencialmente consiste en contar el número de hiperenlaces que recibe una página determinada y asignarle como resultado un peso proporcional al número de enlaces. Ese valor refleja su relevancia. Una página en particular será más relevante que otra si el número de referencias que recibe, y, por tanto, el peso calculado por PageRank, es mayor.

La idea que subyace bajo el algoritmo de Page y Brin es esta, pero, en realidad, su base matemática es más compleja. De hecho, lo que devuelve PageRank es una distribución probabilística que se utiliza para representar la probabilidad de que una persona llegue a una página web concreta haciendo clic al azar sobre un conjunto de hiperenlaces de la Web. No es necesario que profundicemos más en la base matemática de este algoritmo para intuir con cierta claridad cuál fue la estrategia de Brin y Page, pero, si no os dejáis intimidar por las matemáticas, puede resultaros interesante saber que esta es la ecuación que describe el comportamiento de PageRank:

Ecuacionpr

El motor de búsqueda que desencadenó el nacimiento de Google fue la consecuencia inevitable del correcto funcionamiento de BackRub y PageRank. Page y Brin escribieron el código de su motor en 1996 y decidieron ponerlo a prueba en la red de Stanford. Una vez que comprobaron la alta eficiencia de su algoritmo se dieron cuenta de que tenía mucho potencial como una herramienta comercial, así que un año más tarde lo lanzaron más allá de la red de la universidad en la que lo habían desarrollado. El resto, es historia.

PageRank ha demostrado ser una idea brillante que, sin duda, ha contribuido al éxito de Google. Pero el asombroso crecimiento del motor de búsqueda diseñado por Serguéi Brin y Larry Page no puede explicarse únicamente ciñéndonos a un algoritmo. Hay otros factores igualmente importantes que resultan mucho más difíciles de desvelar. De hecho, Page se inspiró en AltaVista, que también contaba enlaces, cuando se le ocurrió la idea de escribir PageRank.

Pagerank Este diagrama refleja la forma en que PageRank asigna una relevancia a cada página en función del número de enlaces que recibe. En el cálculo del peso de cada página también intervienen otros criterios, pero no son públicos.

La situación en la que se encontraba el mercado de los buscadores en ese momento también pudo condicionar su éxito. Y, cómo no, la desmesurada fuerza de voluntad de Page y Brin influyó, no cabe duda. Incluso la suerte juega una baza importante en el nacimiento de una nueva empresa.

Algunos de los competidores de Google a principios de la década pasada, como Louis Monier, cofundador de AltaVista; Robert Davis, antiguo director general de Lycos; o Eric Brewer, profesor en Berkeley y uno de los artífices del motor de búsqueda Inktomi, estaban de acuerdo en que el abrumador éxito de Google no podía explicarse solo a través de PageRank. Pero esta es una ecuación que probablemente ni siquiera Brin y Page han sido capaces de resolver. Al menos en su totalidad…

Imagen de la línea de tiempo | Wikipedia
En Xataka | Dos de tres casos perdidos por Google ante la UE: falta el veredicto del caso AdSense

El gobierno dejó caducar el dominio de la Comisión Nacional de la Competencia, ahora habla de bragas y management "trucho"

$
0
0

El gobierno dejó caducar el dominio de la Comisión Nacional de la Competencia, ahora habla de bragas y management

Te levantas con la idea de ir a unas oficinas de la administración pública. Conoces la dirección porque has estado allí con anterioridad, así que la cosa parece fácil. Sin embargo, al llegar a tu destino, tus ojos no pueden creer lo que ven: en las antiguas oficinas se encuentra ahora un gran escaparate repleto de lencería femenina

Y, en los paneles laterales, se alzan discretamente libros con títulos tan llamativos como "¿Cuál es el secreto para ser tenido en cuenta en Linkedin?", "Negocios legítimos de productos poco éticos" o "Te enseñamos las claves para encontrar un trabajo". Suena extraño, ¿verdad? Pero esto que parecería tan raro en la calle, ha ocurrido en el mundo online.

De la Comisión Nacional de la Competencia al marketing de lencería

Para entender cómo una administración pública llega a esta situación, es necesario echar la vista atrás. En el año 2007, la Comisión Nacional de la Competencia (CNC) comienza a funcionar como una institución encargada de garantizar y promover la existencia de una competencia efectiva en el en el ámbito nacional, y, para difundir su actividad, crean su página web.

En el año 2013, en plena crisis económica, la CNC se disuelve como ente autónomo para integrarse en la Comisión Nacional de los Mercados y la Competencia (CNMC), donde también están la Comisión Nacional de Energía, la Comisión del Mercado de las Telecomunicaciones, la Comisión Nacional del Sector Postal, el Consejo Estatal de Medios Audiovisuales y el Comité de Regulación Ferroviaria y Aeroportuaria.

Este nuevo ente público nace con la idea de garantizar, preservar y promover el correcto funcionamiento, la transparencia y la existencia de una competencia efectiva en todos los mercados y sectores productivos en beneficio de los consumidores y usuarios.

Y es justo esta desaparición como ente autónomo la clave para entender cómo es posible que el dominio quede libre y a expensas de que cualquiera coloque el contenido que quiera en él. En plena crisis económica y, tras varias medidas conflictivas como bajadas salariales a funcionarios o la congelación de las pensiones, la política de austeridad del Gobierno (liderado primero por el PSOE y después por el PP) está muy presente en las administraciones públicas.

Fuentes consultadas en la CNMC confirman que es éste el principal motivo por el que se decide no renovar el dominio: "en un país golpeado por la crisis económica y los recortes, no es justificable mantener una página web de una institución que ha dejado de existir como ente independiente". Esta decisión no fue, sin embargo, fácil, ya que había que elegir entre la posibilidad de dañar la imagen de la nueva institución o ser consecuentes con las medidas tomadas en beneficio de todos los ciudadanos.

Tras un periodo transitorio, en el que la antigua URL redirige a la nueva entidad, el dominio queda liberado y, en mayo de 2017 es adquirido por un nuevo titular, que cambió por completo el rumbo de la página y su contenido. En www.cncompetencia.es destaca ahora una portada repleta de tangas de encaje que ilustran un artículo sobre el negocio de la compraventa de bragas usadas.

Redirección de la web antigua a la nueva

Pero, ¿cuál es la motivación para utilizar un antiguo dominio para lanzar contenidos no relacionados? Según Javier Gosende, consultor SEO, "a nivel de posicionamiento natural en buscadores, un dominio antiguo puede tener cierta ventaja sobre un dominio registrado por primera vez, ya que uno de los factores que toma en cuenta Google es la autoridad del dominio: es decir, la cantidad de páginas que enlazan a una web. Cuantos más enlaces externos apunten a un dominio, mejores resultados tendrá en los buscadores.

El truco está en buscar y encontrar dominios con buena autoridad y que estén libres. Eso ocurre cuando el dueño del dominio decide no renovar el registro de dominio y lo abandona. Para encontrar estos dominios de valor expirados existen diferentes tácticas y herramientas que nos facilitan el trabajo. Algunos SEO nos dedicamos a buscar dominios expirados con buena autoridad para montar algún proyecto propio y monetizarlo con publicidad o afiliación."

Desde la CNMC apuntan también a que esta situación se ha podido dar por el poco respeto que siente la ciudadanía española por las instituciones. Es decir, sugieren que independientemente de que el dominio hubiera quedado libre, en otros países no habría sido comprado y utilizado para estos fines ya que la ciudadanía tiende a tener un mayor respeto por las administraciones públicas.

Este desprestigio al que aluden desde la CNMC viene apoyado por las cifras del Centro de Investigaciones Sociológicas que, desde hace 8 años, viene registrando niveles bajos de confianza en las instituciones públicas , lo que ha minado la credibilidad hacia ellas.

El negocio de la compraventa y renovación de dominios

Según la ICANN, Internet Corporation for Assigned Names and Numbers antes del vencimiento los registradores deben notificar, por lo menos dos veces, al titular del dominio esta fecha de vencimiento. Uno de estos avisos debe enviarse aproximadamente un mes antes del vencimiento y el otro debe ser enviado aproximadamente una semana antes del vencimiento. Cuando un dominio no ha sido renovado, pasa por diferentes etapas antes de que pueda ser comprado de nuevo libremente.

Y es que la compraventa de dominios de internet es todo un negocio. Whisky.com se vendió en 2014 por 3,1 millones de dólares, toys.com fue comprado por ToysRUs en 2009 por 5,1 millones de dólares. Y, si nos queremos escandalizar por completo, el ranking lo encabeza carinsurance.com, que en 2010 costó la friolera de 49,7 millones de dólares.

Otros casos curiosos

En 1999, Microsoft olvidó renovar el nombre de dominio Passport.com. Este descuido provocó que su servicio de Hotmail dejara de funcionar parcialmente. Un programador, Michael Chaney, pagó 35 dólares y entregó la propiedad a Microsoft. En 2013, el olvido se volvería a repetir. Microsoft olvidaba renovar hotmail.co.uk. En esas circunstancias, el portavoz de Nominet, empresa que gestionaba el dominio co.uk, aprovechaba para "recordar a las empresas y sus agentes que es su responsabilidad renovar sus dominios".

Otro caso mucho más moderno es el de Foursquare, que en 2010 estuvo temporalmente "inactivo" por olvidarse de renovar el dominio. Afortunadamente, salvo una desconexión temporal del servicio, el asunto no trajo muchas más consecuencias.

El gigante Google tampoco se salva. El 29 de septiembre de 2015, Sanmay Ved, ex trabajador de la compañía, compró el dominio Google.com. Sanmay estaba buceando por Google Domains y vio que Google.com, el dominio con mayor tráfico del mundo, estaba libre y decidió comprarlo. La alegría le duró un minuto, que fue el tiempo que tardó Google en hacerle una oferta y recuperar el dominio.

Concurso Fundorado - Heinz

Más controvertido y similar al de la CNMC fue el caso de Heinz. Entre 2012 y 2014, la marca llevó a cabo su concurso Fundorado, en el que los usuarios participaban a través de una URL proporcionada por un código QR. Al finalizar el concurso, Heinz no renovó el dominio y, cuando en 2015 un hombre utilizó el código, se encontró que la URL de la marca de ketchup le llevaba a un website de pornografía..

En aquel momento, Graham Cluley, un experto en seguridad informática entrevistado por la BBC, comentaba que "probablemente en el futuro la compañía barajará la idea de redirigir a los clientes a heinz.com en lugar de a un website específico para evitar estos problemas."

Qué es la URL y por qué Google quiere matarla

$
0
0

Qué es la URL y por qué Google quiere matarla

Las URLs forman parte de nuestra vida. Puede que no nos demos cuenta, pero las llamadas Uniform Resource Locator son esas direcciones que permiten que accedamos a todo tipo de servicios y protocolos en navegadores web y otros clientes que nos conectan al mundo.

¿Por qué Google quiere matar la URL entonces? Es lo que han querido explicar sus responsables, cansados de trabajar con unos identificadores que para ellos tienen hoy por hoy más desventajas que ventajas. El problema es que deshacerse de la URL no será moco de pavo, y de hecho aún no tienen ni idea de cómo lo harán: solo la intención de hacerlo.

Los peligros de las URLs

Adrienne Porter Felt, directora de ingeniería en Google Chrome, comentaba en Wired como "la gente lo ha pasado mal tratando de entender las URLs. Son difíciles de leer, es difícil en qué parte de ellas se supone que debemos confiar, y en general no creo que las URLs estén funcionando como una forma válida de transmitir la identidad del sitio".

A Porter Felt no le falta razón. Esas direcciones que vemos en el navegador pueden llegar a ser bastante crípticas, y aunque manejar el binomio (protocolo/esquema) + (dirección web o ip/ruta) no sea complicado para muchos, la complejidad de las URLs puede provocar confusión —los acortadores de URLs no ayudan en ese ámbito— y ser de hecho una de las herramientas utilizadas en ciberataques para engañar a todo tipo de usuarios.

Los ataques de phishing han sido especialmente peligrosos en este sentido, y no hace mucho pudimos descubrir cómo algunos atacantes comenzaban a usar una técnica sorprendente: la de utilizar caracteres de nuestro alfabeto con pequeños puntos debajo que casi eran invisibles a no ser que uno se fijara de forma clara en esa URL.

Google quiere matar la URL, pero no sabe cómo

Este tipo de problemas ha hecho que en Google se planteen que la URL ya no es una buena idea, y tienen el objetivo de hacer "grandes cambios en cómo y cuándo mostrar las URLs. Queremos desafiar la forma en que las URLs deben ser mostradas y cuestionarlas, ya que estamos descubriendo la forma correcta de transmitir la identidad", afirmaba Porter Felt.

Origin La característica "origin chip" mostraba el dominio principal, pero si querías conocer la URL completa tenías que pinchar sobre ese dominio. Chrome desactivó el experimento a las pocas semanas.

En Google el problema está en que no saben cómo hacerlo... aún. Los académicos llevan debatiendo ya tiempo sobre alternativas, pero ni ellos ni los ingenieros de Google parecen ponerse de acuerdo. La idea es de momento identificar la forma en la que la gente utiliza las URLs para luego encontrar una alternativa que mejore tanto la seguridad como esa transmisión de identidad de un sitio o servicio en internet.

Parisa Tabrizz, otra de las máximas responsables del desarrollo de Chrome, destacaba cómo propongan lo que propongan, la decisión acabará siendo "controvertida". Aún así creen que el cambio es importante, "porque todo el mundo está insatisfecho con las URLs. Básicamente apestan".

Los responsables de Chrome ya hicieron una primera aproximación al problema en 2014, cuando probaron un formato llamado "origin chip" que solo mostraba el nombre de dominio principal de los sitios web para asegurarse de que los usuarios sabían en dónde se encontraban navegando. Aquello gustó y disgustó a partes iguales, y en Chrome prefirieron desactivar esa opción.

Así pues, la idea de matar la URL. Ahora falta darle forma.

Vía | Wired
En Xataka | Microsoft quiere matar a Internet Explorer, pero ni empresas ni usuarios le dejamos

La inminente votación del Parlamento Europeo amenaza el futuro de la internet abierta y plural

$
0
0

La inminente votación del Parlamento Europeo amenaza el futuro de la internet abierta y plural

Internet está en peligro en la Unión Europea. Nuestros gobernantes han mantenido siempre una postura favorable a la libertad de expresión y la protección de privacidad, pero eso podría cambiar con la votación de una nueva directiva de derechos de autor que tendrá lugar el miércoles 12 de septiembre.

Esta nueva directiva comenzó a fraguarse en 2016, y hace dos meses se votó en contra de una negociación acelerada que habría sido fatal. Ahora se ha revisado la propuesta y los miembros del Parlamento Europeo votarán sobre ella, algo que podría convertir internet en un lugar muy distinto del que conocíamos. Uno en el que todo lo que compartimos es susceptible de espiarse con la excusa de vigilar las violaciones de los derechos de autor.

Qué está pasando con los derechos de autor

Nuestro compañero Toni Castillo explicaba en Genbeta por qué nos jugamos el futuro de internet en la Unión Europea con la propuesta de directiva de copyright y unía testimonios de expertos en nuestro país que indicaban las potenciales consecuencias fatales de esta directiva.

Art11

Dicha propuesta tiene como objetivo una teórica mejora de la normativa sobre derechos de autor, pero quienes ven una amenaza en ella —y nos incluimos— destacan cómo esa directiva es una grave amenaza a la libertad de expresión, la privacidad, la iniciativa empresarial e incluso la competitividad y creación de startups. En esa directiva hay dos puntos especialmente polémicos:

  • Artículo 11 (usos digitales de las publicaciones de prensa): con estas medidas la Unión Europea plantearía la implantación de una especie de tasa Google o Canon AEDE. Los editores de publicaciones de prensa podrían gestionar sus derechos de autor, cobrando o no a quienes les enlacen o les usen de fuente cierto importe como pago por hacer uso de dicha información con derechos de autor. Enlazar o citar se convertiría en un verdadero problema tanto en la práctica como en su gestión y sus consecuencias legales.
  • Artículo 13 (vigilancia de contenidos protegidos por parte de proveedores): en este caso la normativa obligaría a las plataformas de contenidos a monitorizar lo que los usuarios suben para comprobar si se violan o no los derechos de autor. Cada servicio tendría que crear un sistema tipo Content ID de YouTube que permitiría detectar violaciones de los derechos de autor. No solo de música, sino de cualquier contenido. Sitios como la Wikipedia o GitHub que abogan por la libre compartición de información y conocimiento, por ejemplo, estarían entre los afectados.

Ha habido muchas voces en contra de esta propuesta, y entre ellas destacan la de personalidades del mundo de la tecnología. Vinton Cerf y Tim Berners-Lee encabezaban una larga lista de expertos que explicaban en una carta al presidente del Parlamento Europeo, Antonio Tajani, cómo "el artículo 13 da un paso sin precedentes hacia la transformación de internet de una plataforma abierta para compartir e innovar a una herramienta para la vigilancia automatizada y el control de sus usuarios".

Muchos otros organismos que promueven esa internet abierta a todos y a (casi) todo también ven una amenaza notable en esa propuesta que se vota este miércoles. Los responsables de Mozilla explicaban cómo los efectos negativos serán enormes para creadores independientes, para los pequeños servicios online que no podrán competir, para la comunidad Open Source o para los propios usuarios de internet, que serán susceptibles de ser vigilados constantemente.

Aurop

Los peligros para la libertad de prensa también son notables, como explicaba el organismo European Innovative Media Publishers, cuyos responsables advertían de que los artículos 11 y 13 "no ayudan a las publicaciones innovadoras, pequeñas o digitales. Ambos sirven a los intereses de los grandes operadores tradicionales para frenar el flujo de nuevos editores innovadores".

Las críticas de los activistas que desde hace años defienden los derechos en internet y los comentarios de abogados a los que hicimos mención en el citado artículo de Genbeta de abril de 2018 y también en este texto posterior de junio lo dejan claro.

La directiva es para muchos expertos una grave amenaza a la libertad de expresión, la privacidad, la iniciativa empresarial e incluso la competitividad y creación de startups

El abogado Carlos Sánchez Almeida explicaba cómo esta directiva planteaba "un agravio comparativo a favor de los derechos de autor", y añadía que "ya tenemos una situación de monopolio 'de facto' de grandes corporaciones americanas. Eso está perjudicando la innovación de los actores económicos europeos".

En AMETIC (Asociación de Empresas de Electrónica, Tecnologías de la Información, Telecomunicaciones y Contenidos Digitales) ya compartieron sus críticas en aquel texto, pero hoy publicaban un nuevo texto en el que destacaban cómo la industria tecnológica, consumidores, internautas y startups rechazan la propuesta de directiva de copyright e instan al Gobierno a reconsiderar su postura.

Las voces críticas son muchas, pero además de esos mensajes y declaraciones existen distintas iniciativas que nos invitan a todos los usuarios de internet europeos a tratar de expresar nuestra preocupación por esta situación. Plataformas como Save Your Internet permiten contactar con los europarlamentarios de nuestro país por distintos métodos.

Podéis escribir un correo electrónico o compartir un tuit para mostrar vuestro parecer, pero la opción más llamativa es la de llamar por teléfono a los europarlamentarios, de forma gratuita y automática, lo que hará que vuestra voz se escuche por parte de quienes de hecho participan en la votación.

Y eso es lo que hicimos nosotros. Llamar. Esto es lo que pasó cuando lo hicimos.

Llamando a nuestros europarlamentarios

Para tratar de mostrar mi preocupación profesional y personal por esta situación hice dos intentos para contactar con nuestros europarlamentarios por teléfono. La primera el pasado viernes por la tarde, la segunda hace unas horas.

Llamar Podéis llamar a diversos europarlamentarios para expresar vuestra preocupación a través de sitios web como Save Your Internet.

El sistema es sencillo: accedes al sitio web de Save Your Internet en español, y en él pinchas en el apartado "Call". Al hacerlo aparecen a la izquierda una serie de menús desplegables que explican qué ocurre cuando hacemos clic en el botón de llamada y que además nos explican cómo afrontar esa llamada.

Presentarnos brevemente es lo primero, a partir de lo cual podremos expresar nuestra preocupación por una votación que, como decimos, plantea una grave amenaza a internet tal y como lo conocemos. En esos menús desplegables se explica qué podemos decir a estos europarlamentarios, cuáles pueden ser los argumentos que exponer e incluso hay un ejemplo transcrito de una llamada telefónica guionizada para que entendamos cómo puede ser el curso de dicho proceso.

En una carta abierta encabezada por Vinton Cerf y Tim Berners-Lee, "el artículo 13 da un paso sin precedentes hacia la transformación de internet de una plataforma abierta para compartir e innovar a una herramienta para la vigilancia automatizada y el control de sus usuarios"

A la derecha debemos insertar nuestro número de teléfono fijo o móvil, y debajo encontramos una selección aleatoria de europarlamentarios que recibirán la llamada. El sistema está automatizado: tras pinchar en "Make the call" solo tendremos que esperar unos segundos para que el sistema llame a nuestro teléfono.

A partir de ahí se nos irá conectando uno por uno por las personas de esa lista de europarlamentarios. Con todos el proceso es similar, y como hemos comentado es importante que nos presentemos, pidamos hablar con el europarlamentario en cuestión —al principio de cada conexión una voz sintetizada nos avisa de con quién nos está poniendo en contacto— y a partir de ahí expliquemos por qué llamamos.

En mis dos rondas de contacto, no obsstante, la decepción fue tan esperada como notable. El viernes se me pasó una lista de cinco europarlamentarios. Solo un teléfono (el de Antonio López-Istúriz) acabó respondiendo. Lo hizo una asistente de su equipo que en todo momento estuvo amable y escuchó mis argumentos. Lamentablemente y como me explicó no era la persona adecuada con la que contactar y hacerlo con alguien que llevara el tema era complicado: podría volver a llamar más adelante si quería para ver si tenía más suerte.

Remix1 El artículo 13 amenaza cosas que damos hoy por hechas en internet: blogs, livestreams, memes, parodias, remezclas de contenidos, copartición de código, participar en foros de discusión e incluso la capacidad de enlazar a otras páginas web.

Hace unas horas volvía a intentarlo. Seis personas estaban en la lista de llamadas, y esta vez puede hablar con cuatro de ellas, pero en ningún caso llegué a hablar con el europarlamentario o europarlamentaria en cuestión. A la llamada contestan miembros de sus equipos que, eso sí, tratan al interlocutor con máxima amabilidad, pacientes y dispuestos a ayudar. El problema, como todos me comentaron, es que todos los europarlamentarios con los que intentaba contactar estaban en Estrasburgo para la votación o camino de esa localización.

El servicio que nos pone en contacto con los europarlamentarios es muy fácil de usar. No hay que ser un experto en derechos de autor, y esa información que muestra la página sirve precisamente para que podamos exponer nuestros argumentos con éxito.

Aún así logré hablar con cuatro personas de los equipos de esos europarlamentarios para intentar transmitirles mi preocupación sobre esa votación. Todos estaban al tanto del proceso y habían recibido otras llamadas, pero en todos los casos no eran personas especializadas en ese ámbito. Uno de los asistentes era un joven extranjero que incluso me pidió hablar en inglés y se disculpó por no encontrar a nadie que me asistiera (o que lo hiciera en español).

En la última llamada, eso sí, un rayo de esperanza. La asistente de Verónica Lope Fontagné tampoco estaba especializada en el tema, pero me escuchó con atención y me aseguró que transmitiría mi preocupación a la europarlamentaria, e incluso tomó nota de mi nombre y número de teléfono.

El proceso es fácil de seguir y lo cierto es que animamos a cualquier lector de Xataka preocupado por la situación a que realice esa llamada. No hay que ser un experto en derechos de autor, y esa información que muestra la página sirve precisamente para que podamos exponer nuestros argumentos con éxito: basta con indicar lo preocupados que estamos por el futuro de una internet que al menos en la UE seguía protegiendo la libertad de expresión y la innovación y compartición de contenidos e información, y que ahora podría dejar de hacerlo.

¿Cuál es la postura del Gobierno de España?

Lamentablemente en España la postura del Gobierno es la de aprobar esta nueva directiva. Como explicaban en Teknautas el pasado sábado 8 de septiembre, buena parte del ministerio de Cultura se desplazó a Bruselas para reunirse con los europarlamentarios españoles.

Cadena

¿El objetivo? Convencer a todos ellos de aprobar esta propuesta. En dicha noticia indicaban cómo el ministerio de Cultura ha designado a Adriana Moscoso como responsable de que los europarlamentarios voten a favor de una ley que "favorecería al máximo los intereses de la industria cultural".

Moscoso es exempleada de la SGAE en excedencia, y desde Cultura tratarán de desequilibrar la balanza en este ámbito. Según Teknautas "el Gobierno asegura haber logrado el consenso de todos los grupos para votar a favor de la ley", pero indican que eso no es tan fácil y que en julio, cuando se canceló la negociación acelerada, solo PP y PSOE apoyaron la directiva.

Lamentablemente en España la postura del Gobierno es la de aprobar esta nueva directiva. Precisamente por eso actuar y hacer esa llamada de 5 minutos puede ser más importante de lo que parece.

Los europarlamentarios españoles son solo parte de la ecuación: hay 751 europarlamentarios de hecho fuentes de ambos bando indicaban en la noticia de Teknautas como la incertidumbre es total. Hay diferentes propuestas de enmienda a los artículos 11 y 13 (más y menos agresivas) antes de la votación para tratar de que la directiva sea aprobada , y ahora queda por ver qué se decide finalmente.

Puede que parezca inútil, pero una llamada más puede ser importante. Y si a esa llamada se le une otra, puede que el europarlamentario escuche. Y si a ella se le suman otras 1.000, quizás cambien pareceres y esos políticos entiendan que la amenaza es real para ellos, para nosotros y para los que vienen detrás.

En Xataka | Por qué la propuesta de directiva europea de copyright es preocupante para internet

Eric Schmidt, exCEO de Google, pronostica que internet se dividirá en una red dirigida por China y otra por EE. UU.

$
0
0

Eric Schmidt, exCEO de Google, pronostica que internet se dividirá en una red dirigida por China y otra por EE. UU.

El exdirector ejecutivo de Google, Eric Schmidt, considera que internet se dividirá en dos próximamente. En un evento privado celebrado la pasada semana en San Francisco, Schmidt predijo que la red de redes se bifurcará en dos versiones diferencias: una que estaría dirigida por chinos y otra bajo el mandado de estadounidenses.

Schmidt, que ha sido CEO de Google y presidente ejecutivo de su empresa matriz, Alphabet, formuló este vaticinio tras ser preguntado por la posibilidad de que en un futuro internet se fragmente en varias subrredes, cada una con accesos limitados y regulaciones diferentes.

"El escenario más probable ahora no es una escisión, sino más bien una bifurcación"

Webdesign 3411373 1280

"¿Qué posibilidades hay, digamos, de 10 a 15 años, de que tengamos sólo tres o cuatro internets separados?", preguntó el economista Tyler Cowen sobre la posibilidad de fragmentación, según recoge CNBC.

Eric Schmidt respondió:

"Creo que el escenario más probable ahora no es una escisión, sino más bien una bifurcación hacia una internet dirigida por chinos y una internet no china dirigida por Estados Unidos.

Si se mira a China, y yo acabo de estar allí, la escala de las empresas que se están construyendo, los servicios que se están construyendo, la riqueza que se está creando es fenomenal. La internet china es un porcentaje mayor del PIB de China, que es un número grande, que el mismo porcentaje de los EE. UU., que también es un número grande.

Si piensas en China como si dijera: 'Oh, sí, son buenos con internet', no lo entiendes. La globalización significa que ellos también pueden jugar. Creo que vas a ver un liderazgo fantástico en productos y servicios de China. Existe un peligro real de que junto con esos productos y servicios venga un régimen de liderazgo diferente al del Gobierno, con censura, controles, etc.

Miren cómo funciona el BRI —su Iniciativa del Cinturón y Ruta de la Seda, que involucra a más de 60 países— es perfectamente posible que esos países comiencen a asumir la infraestructura que China tiene con cierta pérdida de libertad".

Esta reflexión de un antiguo peso pesado de Alphabet llega en un momento en el que esta empresa planea llevar a China una versión al gusto de las autoridades del país de su buscador, Google, y parte de sus servicios. Fue una filtración de The Intercept sobre este proyecto, llamado Dragonfly, que está encima de la mesa. Habría estado en marcha desde la primavera del pasado año según las fuentes.

La compañía organizó una reunión interna para explicar a sus empleados la posibilidad de volver a China con un buscador adaptado, cuyo contenido también se filtró, y en ella quedó claro que pese a las intenciones, Google todavía estaría lejos de tener un producto viable para lanzar en el gran país asiático. No obstante, Dragonfly continúa generando titulares filtración tras filtración, con protestas internas incluidas.

Por otro lado, ya resulta una realidad hoy en día que navegar por el internet de China no es lo mismo que navegar por el internet de otras partes del mundo dadas las limitaciones existentes en el país. Algo que provoca, en gran medida, el gran cortafuegos de China, llamado Escudo de Oro oficialmente. En los últimos tiempos las autoridades han llegado a limitar las VPN, incluso imponiendo penas de cárcel por vender estos servicios sin autorización, y censurar una larga lista de palabras, llegando a prohibir la letra ene durante un tiempo con el fin de evitar críticas al plan de su presidente para perpetuarse en el poder.

Imagen principal | JD Lasica (CC BY 2.0)


Nuestro plan para conservar las webs de hace años está fracasando: de Archive.org a los enlaces rotos de medio internet

$
0
0

Nuestro plan para conservar las webs de hace años está fracasando: de Archive.org a los enlaces rotos de medio internet

Con la llegada de internet a la mayoría de los hogares, parecía que se iniciaba una época en la que cualquiera con una conexión tenía abierta una ventana al mundo repleta de información, cultura y ocio. Una biblioteca sin limitaciones espaciales donde albergar todo el conocimiento. Lugares como las hemerotecas corrían el riesgo de extinguirse en detrimento de servicios digitales online a los que acceder desde cualquier sitio y en cualquier lugar.

Nada más lejos de la realidad: como ya sucediera en Alejandría, toda esa información publicada y almacenada en la "biblioteca" de internet está desapareciendo sin necesidad de un incendio. Basta con el paso del tiempo. ¿Es buena idea confiar toda la información a nubes y servidores?

Error 404 Not found

Comprobarlo es muy fácil: solo tenemos que buscar información para documentar un artículo, preparar un trabajo para clase o resolver la típica disputa entre amigos que se salda googleando.

No hace falta irse muy lejos, basta con buscar algo que fuera actualidad hace algunos años. Pero veámoslo con un ejemplo. Como es más fácil encontrar estos fallos cuando no los buscas, probaremos suerte googleando "floppy disk". Google nos devuelve treinta y un millones de resultados.

Elegimos al azar una entrada que en teoría debería mostrarnos la evolución de las cinco décadas de vida del disquete, albergada en la siguiente ruta de la web Disk Trend: http://www.disktrend.com/5decades2.htm.

Lo que vemos a la izquierda es la información que debería salir y a la derecha, la que verdaderamente aparece.

Enlace Que Ya No

Así que El dominio de la web ya no pertenece a Disk Trend, por lo que buscando información relativamente antigua podemos toparnos con páginas que nada tienen que ver con la entrada indexada.

Otra de las entradas, albergada en la web Linux Command (concretamente http://linuxcommand.org/man_pages/floppy8.html), en teoría debería repasar cómo ha ido variando la capacidad del disquete a lo largo de su historia. Lo que encontramos en realidad es un error 404.

Error 404 1

Probamos de nuevo con más entradas de floppy disk en Google. Esta antigua entrada albergada en la web del Consejo Profesional de Ciencias Económicas de la Ciudad Autónoma de Buenos Aires (http://www.consejo.org.ar/aplicativos/pregfrecuentessifere.htm) debería explicar cómo el disquete se usaba para presentar la declaración de la renta en Argentina. Si haces click sobre el enlace, volverás a toparte con otro error 404.

Error 404 2

Buscando información "antigua" es relativamente frecuente toparse con el famoso error 404. ¿Qué significa? Aquí tienes una guía básica con los principales errores que puedes encontrar navegando por internet en la que por supuesto, se encuentra el mítico "Error 404, not found".

Error 404

Es bastante frecuente que los motores de búsqueda proporcionen entre sus resultados contenidos que ya no están disponibles en esa dirección. Esto se debe porque o bien porque la web original ha dejado de existir o el dominio dominio caducó y ya no fue renovado, por lo que ahora pertenece a otra persona.

Como no es posible saber si un contenido ha sido movido o eliminado, estos enlaces rotos seguirán disponibles en internet al alcance de todos durante un buen periodo de tiempo. Además, como tampoco se notifica al resto de páginas webs y blogs de esta incidencia, muchos de ellos pueden contener enlaces que dirigen a esta página que ya no se encuentra disponible.

Perdiendo las fuentes...¿y la fiabilidad?

Que las páginas web se pierdan es un problema en sí mismo que evidencia que el contenido de internet no va a estar ahí para siempre. Pero también es un problema cuando estas páginas se usan como fuente. Es el caso de Wikipedia, que confía en enlaces externos como referencias para aportar verificabilidad.

Siguiendo con el ejemplo del "floppy disk", ahora buscamos su entrada en inglés en la Wikipedia:

Floppy Disk

Como Wikipedia no es una fuente primaria, según la política de esta enciclopedia online todos sus artículos han de contener referencias suficientes para que pueda comprobarse "exactitud, precisión y neutralidad del artículo, y buscar más información sobre el tema", ya que todo su contenido debe haber sido publicado previamente en otro lugar.

Por eso en todos los artículos de Wikipedia hay unas referencias en el texto en forma de superíndice numérico que podemos consultar en la parte inferior de la entrada, accediendo a los artículos originales.

¿Recuerdas la entrada de Disk Trend del punto anterior que nos llevaba a una página que no tenía nada que ver? Resulta que es una de las referencias en las que se sustenta el artículo:

Referencias

La autoridad de Wikipedia ha estado en tela de juicio desde el principio porque cualquiera puede modificarla a su antojo. Una medida que tiene su lado malo en cuanto a que no se requiere ningún conocimiento o rigurosidad para modificar artículos que son consultados cada día por millones de personas, pero que posibilita el conocimiento abierto y actualizado.

Pero Wikipedia es mucho más que el sitio de consulta más popular de internet: según investigadores del MIT, es capaz de influir y potenciar el conocimiento científico.

Sin embargo, este parecer podría cambiar cuando las referencias que sustentan la enciclopedia web de conocimiento abierto desaparezcan, algo que de hecho ya está sucediendo. Si no hay fuentes en las que respaldarse, ¿qué autoridad tendrá Wikipedia a largo plazo?

Iniciativas contra el olvido de internet: Archive.org

Afortunadamente, existen algunas iniciativas como Archive.org que intentan frenar el olvido de la red. La Wayback Machine es el acceso a un archivo digital del World Wide Web que, además de almacenar libros, películas, audios, software, programas de TV y conciertos, también se ha propuesto almacenar internet.

De este modo, el servicio permite a los usuarios ver versiones archivadas de páginas web a través de algo que ellos mismos denominan "el index tridimensional".

Archive

Este proyecto sin ánimo de lucro nació en 1996 en la antigua prisión de San Francisco de la mano del activista de internet Brewster Kahle y desde entonces ha crecido de forma potencial, pero, ¿serán capaces de almacenar todo internet? ¿dónde y cómo podrán hacerlo?

Aunque comenzó guardándose en cintas digitales, pronto resultó inviable, pasando de los racks PetaBox de Capricorn Technologies a un centro de datos de Sun Microsystems en California en 2009.

En aquel momento, la Wayback Machine contenía aproximadamente 3 petabytes de datos, experimentando un crecimiento de 100TB al mes. Actualmente, Wayback Machine contiene más de 334.000.000.000 páginas web y su ritmo de crecimiento sigue aumentando.

Crecimiento

¿Cómo guardan internet?

Para descargar y almacenar internet, la fundación Archive.org ha desarrollado un software específico optimizado con inteligencia artificial que actúa como una red de arrastre de pesca en el fondo del mar, que en este caso es internet. Para hacerlo posible, ha contado con el apoyo de la Fundación Sloan, una filantrópica norteamericana centrada en la ciencia y la tecnología y Alexa, una firma que proporciona datos y análisis comerciales de tráfico web propiedad de Amazon.

Pero no lo guarda todo, solo el contenido accesible y público del World Wide Web, siguiendo dos protocolos que fueron muy populares en la década de los 90: la jerarquía Gopher y el sistema de tablón de anuncios Bulletin Board System.

La jerarquía Gopher permite trasladarse de un sitio a otro eligiendo una opción en el menú de una página, algo que hacemos sin darnos cuenta cuando pulsamos sobre un enlace. Por su parte, el BBS era la antesala de los foros actuales, permitiendo descargar software y datos, leer noticias, intercambiar mensajes con otros usuarios, crear zonas privadas... De este modo, el software rastrea cada uno de los enlaces del árbol de información contenido en una web, lo descarga y lo almacena.

Asimismo, este software sigue las normas del estándar de exclusión de robots, de modo que se queda solo con lo importante de una web, obviando información superflua o aquella información que los webmasters han querido mantener como privada.

La frecuencia de capturas varía según la página web y su tamaño. Existen varias listas de arrastre la Worldwide Web en la que se almacenan las páginas cada vez que se pasa esta red, un proceso que puede llegar a durar meses o años en función del tamaño.

¿Qué entra y qué se queda fuera?

Aunque su misión sea guardar todo el contenido accesible y público de la red, este software de arrastre no incluye toda la información disponible en internet, quedando fuera aquella cuyos datos son restringidos por la publicación o almacenado en bases de datos que no están accesibles públicamente.

Para evitar inconsistencias en páginas web que se han podido almacenar parcialmente, en 2005 la Fundación desarrolló Archive-It.org, una plataforma que permite a las instituciones y creadores de contenidos guardar voluntariamente sus colecciones para nutrir el archivo digital.

Como los dueños de las webs tienen la opción de elegir aparecer en la Wayback Machine, si cambian de parecer, el software aplica la decisión retroactivamente y borra todo lo que hubiera guardado.

De hecho, su forma de proceder plantea cuestiones legales en Europa por un posible infringimiento del Copyright si no existe permiso explicito. No es el único lugar donde han tenido problemas: en Estados Unidos la Cienciología se ha opuesto a que se almacene información relativa a su iglesia y no puede operar en China y Rusia está prohibida.

Sorprendentemente es la censura y no la falta de espacio el mayor problema de Archive.org

Y es que el tiempo corre en contra de internet y no solo es cuestión de desindexación o el error 404: también la manipulación, los ciberataques, la destrucción remota o física de información ponen en peligro la ingente cantidad de información de nuestra civilización.

Alternativas a Archive.org

Aunque Archive.org sea el proyecto más potente y con mayor extensión, no es el único. Otras como Archive.fo, Pagefreezer o competidor Screenshots permiten almacenar el contenido de webs y buscar cómo han ido variando su aspecto y su contenido.

A nivel educativo también se encuentra Perma.cc un servicio de almacenamiento web centrado en temática legal y académica fundado por la Harvard Library Innovation Lab en 2013.

Tim Berners-Lee presenta su evolución de la World Wide Web: "ha llegado a un punto de inflexión y necesita un cambio poderoso"

$
0
0

Tim Berners-Lee presenta su evolución de la World Wide Web:

"Siempre he creído que la web es para todos", asegura Tim Berners-Lee, padre de la World Wide Web. "Es por eso que yo y otros luchamos ferozmente para protegerla". Pero pese a los esfuerzos y la consecución de un mundo "mejor y más conectado", cree que la red "se ha convertido en un motor de inequidad y división; dominada por fuerzas poderosas que la utilizan para sus propias agendas". Y ha dicho basta.

Creyendo que hemos llegado a "un punto de inflexión crítico", según la expresión que él mismo ha empleado, considera que un "cambio poderoso para mejor" es posible y, además, necesario.

El padre de la World Wide Web cree que la red debe evolucionar "para restaurar el poder"

Por esa razón este célebre científico británico de computación y miembros del Instituto Tecnológico de Massachusetts acaban de presentar Solid, un proyecto de código abierto que pretende "restaurar el poder y la agencia de los individuos en la web". Todo a partir del tratamiento de los datos personales y los quince años de trabajo que ha llevado construir esta idea.

Qué es Solid

Solid Tim Berners Lee

La finalidad básica de Solid es una: cambiar el modelo actual en cuanto a los datos de los usuarios. Este en el que los usuarios tienen que entregar información personal a gigantes tecnológicos a cambio de un valor percibido. "Como todos hemos descubierto, esto no ha sido lo mejor para nosotros", dice Berners-Lee.

Por eso este proyecto de código abierto quiere ser una evolución de la web en la que se restaure un equilibrio dándole a los individuos un control absoluto sobre sus datos, sean personales o no, de una forma directa.

Solid ha necesitado 15 años de trabajo para su desarrollo

Eso se consigue, según ha explicado el padre de la World Wide Web, ofreciendo a cada usuario la posibilidad de elegir dónde se almacenan los datos, qué personas y grupos específicos pueden acceder a determinados elementos y qué aplicaciones utiliza. Por lo que Solid nos permitiría compartir datos con cualquier persona y usar los mismos datos con diferentes aplicaciones al mismo tiempo.

"Solid desata oportunidades increíbles para la creatividad, la resolución de problemas y el negocio. Empoderará a individuos, desarrolladores y empresas con formas completamente nuevas de concebir, construir y encontrar aplicaciones y servicios innovadores, confiables y beneficiosos. Veo múltiples posibilidades de mercado, incluyendo aplicaciones sólidas y almacenamiento de datos sólidos".

Phone 918633 1280

Si esta idea impulsada por Berners-Lee fuese adoptada, las aplicaciones desarrolladas en torno a ella estarían interconectadas entre sí al partir de un mismo conjunto de información que únicamente el usuario al que pertenece podría controlar. Un golpe sobre la mesa respecto al mercadeo de datos.

Y todo estaría descentralizado. Esto significa que no hay un lugar central para registrarse en este sistema. Que nadie controla los datos de todos. Sin embargo, sí se puede registrar una identidad y obtener un PoD en un servidor Solid, nuestro lugar de almacenamiento personal, allá donde se ofrezca. Además, tenemos la posibilidad de dar forma a uno propio.

Berners-Lee también ha anunciado el lanzamiento de Inrupt, una compañía con la que quiere guiar "la siguiente etapa de la web"

Esta identidad, ubicada en un determinado POD, será nuestra credencial en internet. Nuestra manera de iniciar sesión en los sitios compatibles, como si lo hiciésemos con nuestro correo o conectando la cuenta con una de nuestras cuentas en redes sociales, por ejemplo.

Berners-Lee también ha anunciado el lanzamiento de una compañía llamada Inrupt, desde cuya web ha presentado Solid, desde la que dice que estará "guiando la siguiente etapa de la web de una manera muy directa". Esta empresa asegura que está pensada para ser la infraestructura que permitirá que Solid florezca, ya que su misión es "proporcionar energía comercial y un ecosistema para ayudar a proteger la integridad y calidad de la nueva web".

Quizás sea esta la oportunidad de una web que él imagino y, según dijo en 2009, todavía no había visto.

Imagen destacada | Paul Clarke (CC BY-SA 4.0)

El acuerdo para ampliar el derecho de rectificación a internet preocupa: supone un mayor control de internet en España

$
0
0

El acuerdo para ampliar el derecho de rectificación a internet preocupa: supone un mayor control de internet en España

Congreso de los Diputados, Madrid

Está previsto que la Comisión de Justicia del Congreso de los Diputados dé luz verde este miércoles al primer paso de la nueva Ley de Protección de Datos Personales y Garantía de los Derechos Digitales. Una nueva norma que, entre otras reformas, introduce la ampliación a las redes sociales y plataformas digitales del derecho de rectificación.

Pese a que el informe de la ponencia sobre este proyecto de ley orgánica no es público, diferentes medios de comunicación como la Cadena SER o El País, agencias de noticias como Europa Press y colectivos como la PDLI, la Plataforma en Defensa de la Libertad de Información, han tenido acceso a él. Un texto elaborado para esta reforma legislativa y firmado por todos los grupos parlamentarios de la Cámara Baja.

El acuerdo político unánime para la ampliación del derecho de rectificación a internet ha levantado la preocupación de colectivos sobre la posible censura de contenidos en la red

Este documento acordado por unanimidad de los partidos —e incorporado al texto inicial presentado por el anterior Gobierno del PP— amplía el derecho de rectificación que asiste a personas o empresas al ámbito de las redes sociales y plataformas digitales. Una circunstancia que supone abrir la puerta "a la censura de contenidos" en internet para la PDLI y la Federación de Sindicatos de Periodistas (FeSP).

El artículo 85: "del derecho al olvido al derecho de amnesia"

Eraser 507018 1280

Pese a que como decíamos, la redacción de esta ley no se encuentra publicada, la PDLI y la FeSP han tenido acceso al artículo que contempla este llamado "derecho de rectificación en internet".

Este artículo, el número 85, dice así:

"Artículo 85. Derecho de rectificación en Internet.

  1. Todos tienen derecho a la libertad de expresión en Internet.

  2. Los responsables de redes sociales, plataformas digitales y servicios de la sociedad de la información equivalentes adoptarán y ejecutarán protocolos efectivos para garantizar el ejercicio del derecho de rectificación, en particular en relación con los contenidos que atenten contra el derecho al honor, la intimidad personal y familiar y personal en Internet y el derecho a comunicar o recibir libremente información veraz. A los efectos anteriores, la legislación sobre el derecho de rectificación en los medios de comunicación social resultará de aplicación a redes sociales, plataformas digitales y servicios de la sociedad de la información equivalentes. Cuando los medios de comunicación digitales deban atender la solicitud de rectificación formulada contra ellos deberán proceder a la publicación en sus archivos digitales de un aviso aclaratorio que ponga de manifiesto que la noticia original no refleja la situación actual del individuo. Dicho aviso deberá aparecer en lugar visible junto con la información original".

Para Carlos Sánchez Almeida, abogado especializado en derecho tecnológico y director legal de la PDLI, con este artículo se pasa "del derecho al olvido al derecho de amnesia". Asegura que "el derecho al olvido comunitario ya es un límite excesivo a la libertad de expresión" y que "intentar legislarlo ‘a la española’, endureciéndolo aún más, es simple censura". Dice, además, que es "contrario a la normativa comunitaria".

Sánchez Almeida: "La 'rectificación digital' de PP y PSOE prescinde de los jueces una vez más"

Almeida añade que el artículo 85 supone, asimismo, una modificación "por la puerta de atrás" de la Ley Orgánica 2/1984, de 26 de marzo, reguladora del derecho de rectificación, evitando el paso por los tribunales. "La 'rectificación digital' de PP y PSOE prescinde de los jueces una vez más, y los sustituye por 'protocolos efectivos'", explica. Porque la actual ley de derecho de rectificación garantiza el amparo judicial de la libertad de información y esta no lo haría.

A juicio de la PDLI y la FeSP, en caso de contenidos erróneos o noticias falsas, la legislación en vigor que regula el derecho del que estamos hablando ya es aplicable a los medios digitales y la aprobación de esa ampliación supondría una duplicidad que generaría "inseguridad jurídica".

Bundle 1853667 1280

Además, ambas organizaciones ponen el acento en que la posibilidad de que la obligación de rectificación se extienda a las plataformas digitales y redes sociales es "muy peligroso". ¿Por qué? Porque básicamente, la responsabilidad legal de borrar, ocultar o modificar un contenido, como las noticias en los medios digitales, recaerá sobre empresas que carecen de elementos de valoración y no son las autoras de las informaciones. A falta de esos criterios, dicen "existe el riesgo de que [...] se vean impulsadas a aceptar, por defecto, cualquier solicitud que se les presente sin entrar en consideraciones sobre la justificación o no". Sin tener en cuenta el punto de vista periodístico o informativo de la alteración que se les pide.

"Más que ante un derecho de rectificación, estaríamos ante el derecho a reescribir el pasado, inaceptable y contrario al derecho a conocer", dice la PDLI y la FeSP

Esto puede significar, dicen "el derecho a reescribir el pasado, inaceptable y contrario al derecho a conocer de la ciudadanía". De ahí que la PDLI y la FeSP hayan presentado un escrito en el Congreso de los Diputados pidiendo a los grupos parlamentarios "que no usen las noticias falsas como excusa para controlar Internet". "Tras años de ‘leyes mordazas’ del PP, el PSOE no solo no las deroga sino que propone reforzar la censura mediante nuevas versiones de Ley Sinde y Ley de Protección de Datos", concluye el letrado Sánchez Almeida.

Tras la votación de este miércoles, en la que se espera un apoyo unánime al informe, el texto preparado para esta reforma deberá ser votado en el pleno del Congreso antes de continuar su tramitación camino del Senado.

Slender Man, el dios 'fandomita' que retrata los miedos del siglo XXI

$
0
0

Slender Man, el dios 'fandomita' que retrata los miedos del siglo XXI

Diecinueve puñaladas. Dos de ellas no tocaron por muy poco dos arterias. Una se quedó a un roce de perforar el corazón. Todas sobre el mismo cuerpo, el de Payton Lautner, 12 años. Antes de recibir la primera, Morgan Geyser, su mejor amiga, se agachó junto a ella y le susurró al oído: "Lo siento". Y hasta aquí llega el morbo. Ahora, hablemos de Slender Man.

Decía Stephen King, en ese pozo sin fondo de sabiduría que es su 'Mientras escribo', que lo último que un narrador descubre de lo narrado es el tema. Y debe ser así. Al tema, dice King, se lo intuye cuando se deja que el relato pierda el rojo candente de lo factual, de la cadena de sucesos que lo articula, y se lo observa como conjunto, interrogándose sobre su significado. En ese momento, el narrador descubre cuál es el tema y en consecuencia, dice King, debe reescribir el relato para, por así decirlo, hacerlo remar a favor del tema. Lograr que lo accidental se convierta en voluntario.

En el periodismo pasa algo así. Se empieza por lo factual y se termina, según se suman años, por lo analítico. Por no solo contar las cosas que pasan, sino por tratar de encontrarles un sentido y transmitírselo a un lector. Como yo estoy ya en esa fase, porque aunque el DNI me señale como joven soy ya un viejo en el oficio, me niego a que este artículo sea un mero tren de la bruja que recopile las apariciones más populares de este monstruo de traje, corbata y tentáculos. Me niego porque creo que su tema es tan grande como el aquí y ahora. Lo contemporáneo. Internet. Me niego porque creo que las tres niñas ligadas por esa tragedia —la que mandó, la que apuñaló, la apuñalada— merecen algo más.

Hoy llega a las salas una adaptación que a todas luces será muy, muy olvidable de este gran monstruo del siglo XXI. En esta era de agregadores, los números dan pocas esperanzas —un 7% en Rottentomatoes y un 30 en Metacritic—. Pero hace apenas dos años, 2016, la HBO lanzó un documental firmado por Irene Taylor Brodsky titulado: Beware the Slenderman. Es extraordinario. Y en él se exponen, a veces frontalmente y a veces con sutileza, el tema medular tras este monstruo: Slender Man es Internet; la pesadilla de Internet; Internet desatado. Lleguemos al tema como debe de llegar todo relato: palabra a palabra.

1983. No queríamos matarlos

"No queríamos ir, no queríamos matarlos, pero su silencio persistente y sus brazos descoyuntados nos horrorizaban y serenaban al mismo tiempo".

Veintiún palabras. Y una imagen. La que está bajo estas líneas. Un grupo de muchachos y una altísima figura, que tiene mucho que ver con ese humano en disolución de El grito de Munch, descollando sobre ellos. La expresión de los jóvenes, especialmente la del chaval en primer plano, es una mezcla de miedo y violencia.

Primera imagen de Primera imagen de 'Slender Man' subida a un concurso del foro Something Awful por el usuario Victor Surge (Eric Knudsen).

El broche final, la firma de la foto: Fotógrafo desconocido, presuntamente muerto.

Slender Man nace del genio de un individuo. El 10 de junio, Eric Knudsen, bajo el alias de Victor Surge, exponía su participación en un concurso de retoque fotográfico del foro Somethingawful. Una de las fotos fue la que abre esta sección, la otra, incluida más abajo, completa todos los ingredientes esenciales del mito. Un parque infantil (niños, de nuevo) y la misteriosa figura alargada, con un tamaño más reducido y unos apéndices que semejan tentáculos.

El pie de foto da información clave: "Una de las dos fotografías recuperadas del incendio de la Biblioteca de Stirling City. Notable por haber sido tomada el día en el que catorce niños desaparecieron y por lo que ha sido denominado 'El Slender Man'. La fotografía fue confiscada como pruebas. 1986. Fotógrafa: Mary Thomas, desaparecida desde el 13 de junio de 1986.

Primera imagen de La segunda imagen de Victor Surge sobre Slender Man, primera que menciona el nombre de la criatura.

Knudsen, en una entrevista entrecortada y algo incómoda de escuchar por la devoción fandomita del entrevistador de Slender Nation Podcast, explicó la banalidad del proceso tras el fenómeno que involuntariamente había parido: "Apenas fueron 10 o 15 minutos de darle vueltas. Había visto lo que estaba haciendo otra gente para el concurso y pensé: 'Nah, están bien, pero… puedo hacer algo que dé más miedo'. Reuní unos assets, abrí Photoshop y creé esas dos imágenes."

Knudsen, cuando su entrevistador le deja entre risa histérica y divagaciones sobre su novela de Slender Man, enumera los epítetos fundamentales de esta creación. Lovecraftiano es el primero en surgen. En mente de su creador, esta criatura pertenece al horror cósmico, a esa categoría de lo temible que enfrente a los hombres ante la vastedad de lo infinito. Ergo, Slender Man debería ser una caja negra, un perfecto generador de preguntas. Así fue.

Como detalladamente recoge esta cronología de Rolling Stone, el virus de Slender Man se diseminó a la velocidad del rayo. Solo hicieron falta 10 días para que tres jóvenes cineastas —Troy Wagner, Joseph DeLange y Tim Sutton— creen una serie, 'Marble Hornets', en la que Slender Man acosa a unos jóvenes cineastas, un planteamiento idéntico al de 'The Blair Witch Project'. De ahí la viralización se vuelve explosiva. 4chan, Fangoria, Unfiction, un videojuego gratuito que se descarga más de dos millones de veces y que genera una secuela comercial y una pieza clave en toda la cultura fandomita: Deviantart.

Tal vez, tanto o más que Youtube, Deviantart es lo que contribuye a fijar los elementos esenciales de este mito; a crear un canon. En el ahora de estas palabras, la búsqueda de Slender Man en DeviantArt arroja 46.887 resultados. Una rápida navegación clava en el cerebro unas constantes: ausencia de rostro, traje y corbata, y un lugar favorito: el bosque. Esa omnipresencia de elementos visuales comunes cristalizó en Creepy Pasta, una suerte de repositorio para ficción terrorífica breve. Allí encontraría Anissa Weier el combustible para una obsesión, una obsesión que le contagió a Morgan Geyser y que se transformó en la tragedia ocurrida el 31 de mayo de 2014. El de las 19 puñaladas.

Wakesha, Wisconsin

"No queríamos matarla, pero debíamos. Era ella o nuestras familias".

Esta idea nuclear se repite una y otra vez en las confesiones de Anissa y Morgan recogidas en el documental 'Beware the Slenderman' una idea, por cierto, doblemente escalofriante cuando se la compara con el pie de foto de la primera imagen del monstruo. Planos cenitales de ambas niñas —Anissa siempre llorando; Morgan siempre distante y aparentemente serena— y de sus interrogadores. Los por qué se van sucediendo a media que la historia se torna más imposible de creer. Anissa y Morgan premeditaron el asesinato de una amiga durante días, para complacer a un monstruo nacido solo un lustro antes en un foro de Internet.

El relato de cómo sucedió el hecho es clave. No fue un plan ejecutado tal y como se pensó. Tuvo muchas idas y venidas. En un primer término, Anissa y Morgan querían atacar a Payton mientras dormía, porque según lo que había leído Anissa, siempre la encargada de concebir el plan, matar a una persona dormida es mucho más sencillo, "porque si le miras a los ojos a una persona cuando la matas te ves a ti mismo". Pero no fueron capaces.

Tras levantarse y desayunar juntas —era el cumpleaños de Morgan y estaban pasando el día en su casa— pidieron irse al bosque. Allí, en los lavabos de un parque infantil, sucedió la tragedia. Pero tardó en suceder. Anissa y Morgan no dejaban de ir y volver sobre la idea, de aterrarse con lo que pretendían hacer y de impulsarse a hacerlo. Al final, un empujón contra una pared inició la violencia. Luego Morgan tomó el cuchillo de manos de Anissa, que se confesó incapaz de hacerlo, le susurró a su amiga que lo sentía y la apuñaló.

Salieron corriendo de allí, convencidas de que un elemento mitológico repetido en las historias de Slender Man, una casa en el bosque en la que habita con los niños desaparecidos allí donde se le avista, se materializaría en la realidad. Anissa y Morgan le rogaron a gritos, como a un Dios, que apareciera. Pero nada sucedió. Fue entonces cuando empezaron a sentir la gravedad de lo que habían hecho. Hasta el punto de que Morgan, diagnosticada de esquizofrenia durante el juicio, se echó a llorar también. Anissa recordaba, entre sollozos, que "eso era muy raro, porque Morgan casi nunca lloraba".

Una imagen de Slender Man creada por el usuario Michael Driver y subida a DeviantArt.  Una imagen de Slender Man creada por el usuario Michael Driver y subida a DeviantArt.

Anissa y Morgan fueron condenadas a ser juzgadas como adultos y no como niñas por la gravedad de su crimen. En febrero de este año, fueron condenadas a una reclusión de 45 años en un centro psiquiátrico reducible a tres como mínimo si se pudiera probar que los síntomas que causaron su internamiento se han superado.

Lo que el documental de Taylor pone sobre la mesa son todas las preguntas incómodas. Las que se tuvo que hacer el juez para tomar tal decisión, las que se hicieron los medios, cayendo profusamente en el sensacionalismo, las que se hizo la opinión pública a partir de esos medios las que desgranaron los académicos de todo tipo, de la Biología a la Psicología, y las que asumieron los padres de las criminales, anonadados por lo que había ocurrido.

Estas preguntas son: ¿Cómo evaluamos el concepto de culpabilidad? ¿Qué influencia tiene la ficción sobre lo real? ¿Hay que ponerle fronteras a Internet? ¿Cómo se pueden detectar los indicios de que una persona padece una enfermedad mental grave? ¿Qué culpa es achacable a las familias de lo que sus hijos consumen?

La clave de estas preguntas es que el espectador, ante lo horrible del suceso, plantea unas respuestas tipo inmediatas, banales, epidérmicas. Unas respuestas cuya medida ideal, por qué no decirlo, es un tuit. O un titular. Evidentemente, las chiquillas tenían que ser unas locas o unos monstruos. Evidentemente, Internet es el diablo y quienes crearon a ese monstruo unos sectarios peligrosos que promueven el homicidio, como los llegó a definir un medio australiano. Evidentemente, los padres de las criminales son casi tan criminales como ellas, por no educarlas. Evidentemente, cualquiera puede ver de lejos que tal o cual persona es rara y dios sabe lo que habrá algún día.

Taylor destroza todos estos tópicos encontrando la voz de los padres. Hay múltiples momentos estremecedores, de pura humanidad, en los que se desnuda la imposibilidad de juzgar tan a la ligera los hechos. Por ejemplo, cuando la madre de Morgan recuerda, culpándose a sí misma por no darle una importancia mayor, cómo su hija no lloró cuando la madre de Bambi murió y simplemente le gritó al cervatillo que corriera y se escondiera. O cuando el padre de Anissa confiesa que no puede (ni quiere) mermar la educación de su benjamín quitándole la tableta obligatoria con la que lo educan en la escuela, pero que debería ser comprensible para cualquiera que él al menos dude si es lógico dejarla en manos de un niño, sabiendo que lo que ve es incontrolable.

Pero el momento que a mí me caló verdaderamente hondo, y que Taylor orquesta con maestría en el montaje, es la presentación y confesión del padre de Morgan. El padre de Morgan, la que apuñaló, es esquizofrénico. Eso quiere decir que percibe alucinaciones en nuestro mundo como si fueran reales y que es capaz, con un esfuerzo de voluntad difícil de imaginar, de negarlas racionalmente aunque las ve, las oye y las huele. Su hija, que no estaba diagnosticada, no tiene tal defensas.

En un momento desgarrador, este padre describe cómo recibe diariamente llamadas anónimas, llenas de odio, en el que le dedican palabras del estilo: "¡Tu hija y tú arderéis en el infierno!". Odio que también cabe en 140 caracteres. Este padre se deshace en explicar, desde su experiencia, cómo en ningún caso su hija odiaba o deseaba hacer lo que hizo: "La gente no entiende que amaba a Payton (su mejor amiga desde la infancia) tanto como la amo yo a ella". Este padre quiere hacer comprender a ese público implacable, que aguarda cualquier causa para volcar su veneno, que la realidad es mucho más compleja, y que un enfermo cuya percepción mezcla lo real y lo ilusorio puede cometer atrocidades sin quererlo. ¿Cometerlas lo hace culpable? ¿Lo hace merecedor del odio?

Internet, alea jacta est

En su estupendo libro, 'Folclore, historias de horror y el 'Slender Man: El desarrollo de una mitología de Internet' (Palgrave McMillan, 2015), los académicos Shira Chess (Universidad de Georgia) y Eric Newsom (Universidad de Missouri Central) hablan de una "oportunidad perdida". La que tuvo la prensa para desenmascarar ciertas execrables actitudes de la política más reaccionaria para tratar de coartar los límites de la ficción para que no pongan sobre la mesa incómodas preguntas disfrazadas de poderosas metáforas.

A veces por mero clickbait —como cuando el Huffington Post tituló: ¿Slender Man ataca de nuevo? por un homicidio dudoso que podría estar relacionado con el personaje—, a veces por clara agenda política —los numerosos tentáculos de Fox aprovechando los de esta siniestra entidad para generar el pánico en la población hacia Internet y su libertad a la enésima potencia—, los medios fallaron una y otra vez en proteger y reconocer el extraordinario nacimiento de un mito global enteramente alumbrado por Internet.

Slender Man, por su naturaleza tan abierta, por sus elementos de génesis tan inquietantes —su relación con los niños— por su capacidad de dispersión viral y por su carácter de monstruo lovecraftiano era la horma perfecta en la que calzar las obsesiones del siglo XXI. En Slender Man se han proyectado, argumentan los académicos, asuntos tan centrales a nuestro siglo como el bullying, el vacío espiritual, la deshumanización y, más que ninguna otra cosa, la creciente dificultad para discernir lo real de lo inventado. Vivimos, no lo olvidemos, en la era de las fake news.

Chess y Newson firman un valiente panegírico "a los miles de escritores, cineastas y artistas de todo tipo que contribuyeron con su talento a crear un mito en Internet de una enorme complejidad". Valiente porque incluso los numerosos creadores del mito, empezando por el padre original de la criatura Eric Knudsen, se vieron abrumados y aterrorizados por los sucesos de Wakesha.

The Slender Man By Pirate Cashoo Ilustración de Slenderman en DeviantArt subida por el usuario pirate-cashoo.

Pero estos dos académicos, y ni mucho menos son los únicos, se niegan a silenciar la vibrante riqueza de un mito compartido y creado por amateurs. De un dios, en esencia, fandomita. No se puede negar el escalofrío de descubrir que Morgan y Anissa oraran de facto a la criatura de ficción que se manifestara tras cometer su crimen. Pero tampoco se puede negar el valor cultural, filosófico e histórico de una creación que genera sus propias sectas y corrientes de interpretación.

A mí, desde luego, me fascinó que, en consonancia casi a la letra con el sufismo, exista una facción de los fandomitas de Slender Man que se consideran Surgistas, en alusión al seudónimo de su creador y que consideran que la actual interpretación de los mitos se ha alejado de su esencia original y abogan por un retorno a ella. Apenas hay diferencias entre esto y la diversidad interna de una religión real. Algo sobre lo que ya habló en esta casa el cineasta y máster Álex De la Iglesia.

Volviendo al libro de Chess y Newson, rescato una cita que me parece especialmente preclara: "Slender Man es un producto de Internet y de las tecnologías digitales. Por tanto, su horror a menudo refleja las ansiedades de la era digital. En muchos sentidos, podemos ver a Slender Man como un personaje analógico en un mundo digital. Su predilección por la naturaleza y los bosques, y su atemporalidad atestiguan que no ha lugar para él en el mundo de las tecnologías móviles y emergentes […]. Su existencia representa, en muchos sentidos, un desafío a la nueva cultura digital ofreciendo algo más antiguo y primario."

Vamos a dar el salto de las páginas a los fotogramas en una pirueta que (espero) evite el descalabro. En el desenlace de 'Beware the Slenderman' se ofrece una crítica alegórica a esa gente que llamaba al padre de Morgan para invitarlo a arder en las llamas del averno por toda la eternidad. Una sucesión de fanarts que simplifican, envilecen y cosifican a este dúo de niñas atrapadas por sus propias incapacidades para defenderse del poder de una ficción subyugante.

Es una forma de ratificar, sin subrayados, que los desalmados que llamaban (anonimizados, evidentemente) a ese padre no eran más que trolls, la especie más infecta que puebla nuestra dimensión digital; cobardes que escupen odio a resguardo de su anonimato. El documental de Taylor Brodsky concluye con una diáfana advertencia que podemos resumir en un conocido proverbio bíblico: No juzguéis si no queréis ser juzgados.

Desde su apasionado análisis académico, Chess y Newsom completan esta advertencia con una proclama: celebremos la libertad y viralización de Internet como el ágora más poderosa en la que cuestionar nuestra condición humana. Ambas metas son perfectamente compatibles y ambas metas luchan exactamente contra lo que lucha un personaje inmerso en una historia de horror: la simplificación intelectual en pos del sometimiento a lo visceral. El miedo que nace de la ignorancia.

Por eso, cuando descubrí que es muy probable que esta cuenta de Instagram sea en efecto la del original Victor Surge —la explicación es larga, pero quienes rastreen sus huellas digitales verán que muchas cosas casan, como esas pinup inspiradas en 'EVE Online' que se encuentran en el perfil de DeviantArt desde el que se redirige a este Instagram, un juego del que Surge se declaró fan—, sonreí. Porque Surge se ha permitido a sí mismo volver a Slender Man, a pesar de Wakesha.

El mismo día que el crimen saltaba a las noticias, declaró: "Estoy profundamente triste por la tragedia de Wisconsin y mi corazón está con las familias afectadas por este acto terrible". Cuatro años después, en la primera de las nuevas 12 imágenes que él o un sosias excelentemente informado dedica a Slender Man, se lee: "Como niño, sufrí terrible parálisis durante el sueño que me hacían sentir que alguien me observaba. Creí que me inventé a Slender Man. Ahora me doy cuenta de que esas sombras tal vez fueran él desde el principio". Slender Man se reencuentra con su padre. Y con esa imagen, lo celebro.

La primera de las nuevas 12 imágenes con las que Eric Knudsen, creador de Slender Man, ha resucitado a su personaje en Instagram. La primera de las nuevas 12 imágenes con las que Eric Knudsen, creador de Slender Man, ha resucitado a su personaje en Instagram.

Cómo crear una WiFi para invitados en casa

$
0
0

Cómo crear una WiFi para invitados en casa

Hoy te vamos a explicar cómo crear una WiFi para invitados en tu casa. Sí, además de tener tu WiFi particular, algunos routers y operadores también te permiten crear otra conexión secundaria que puedes activar y desactivar cuando quieras sin que repercuta en la principal. Con ello, puedes activarla cuando tengas invitados para no darle tus credenciales reales de WiFi, y luego puedes desconectarlo para que no pueda seguir utilizándose.

Normalmente, en Xataka Basics siempre intentamos hacer unas guías lo más visuales posible. Sin embargo, cada operador puede tener un router con una interfaz muy diferente, por no hablar también de otros routers de terceros que puedas haberte comprado. Por eso, vamos a intentar explicarlo todo lo mejor posible, porque quizá las capturas que vamos a incluir a algunos no os sirvan demasiado.

Crea una conexión WiFi para invitados

Admin Admin

Lo primero que tienes que hacer es acceder a la configuración de tu router. Para eso, tienes que escribir las IPs 192.168.1.1 y 192.168.0.1 en tu navegador y pulsar Enter. Son dos de las IPs de acceso más extendidas, aunque pueden usarse otras que puedes averiguar con el comando ipconfig en la consola de Windows. El nombre de usuario y contraseña suelen ser admin, 1234 o users. Si estas no funcionan mira en la etiqueta del reverso del router donde suele venir esta información o pregunta a tu operador.

Wifi1

Una vez dentro de la configuración de tu WiFi, ya puedes pasar a crear una cuenta para invitados. El camino a seguir cambia dependiendo del modelo de router. En algunos casos tendrás que ir al apartado Wireless -> Advanced y buscar que te deje añadir una WiFi Guest o Virtual Access Point. Otras veces la opción estará bien visible y podrás entrar directamente desde el menú principal de opciones que tenga el router.

Wifi2

Una vez entres en la opción para crear una WiFi de invitados, es posible que tu operador genere un nombre por defecto, pero puedes crear un nombre y contraseña específico para que los invitados puedan entrar. Si es un tipo de acceso que vas a desactivar después de que se vayan estos invitados, puedes incluso relajar un poco la fuerza de la contraseña para que sea fácil de escribir, aunque acuérdate de desactivar esta WiFi después.

También es importante que diferencies lo máximo posible el nombre de la WiFi para que los invitados sepan enseguida cuál es. En algunos routers podrás incluso limitar la velocidad de esta WiFi para invitados con la idea de que no interrumpan el normal funcionamiento de tu WiFi principal. En otros casos también puedes encontrarte con otras opciones como el límite de tiempo de la red, para que se desconecte a las pocas horas de activarla.

Image

En cualquier caso, ya te hemos dicho al principio que la posición de esta opción puede variar bastante dependiendo del router y el operador que tengas. Algunos operadores, incluso tendrán deshabilitada esa opción o te permitirán activarla mediante sus aplicaciones móviles. Por lo tanto, tómatelo con un poco de paciencia, y si no terminas de ver la opción ponte en contacto con tu operador para que te aclaren si está disponible.

Imagen de portada | Arkangel

La ambiciosa red global de internet de Elon Musk sube la apuesta: la FCC le autoriza desplegar 7.518 nuevos satélites

$
0
0

La ambiciosa red global de internet de Elon Musk sube la apuesta: la FCC le autoriza desplegar 7.518 nuevos satélites

Elon Musk se acaba de anotar una nueva victoria para el despliegue de su red de internet satelital, la cual en marzo de este año obtuvo la autorización de la FCC (Comisión Federal de Comunicaciones de Estados Unidos) para operar 4.425 satélites, ya que la Comisión le acaba de autorizar la operación de 7.518 más.

Es decir, SpaceX ahora mismo tiene la autorización para desplegar y operar casi 12.000 satélites en la órbita baja terrestre, lo que significa que SpaceX será la compañía privada o agencia con mayor número de objetos en espacio. Claro, cuando estén todos operativos.

SpaceX deberá demostrar que es seguro y cómo resolverán los desechos espaciales

La compañía que se encargará de esta red será conocida como 'Space Exploration Technologies Corp.' y dependerá de forma directa de SpaceX. El proyecto, bautizado como Starlink, hoy día ya tienen dos satélites de prueba operando desde el pasado mes de febrero, lo cuales estarán hasta inicios de 2019 y servirán para planificar el siguiente paso.

A pesar de que SpaceX no ha confirmado nada, toda la información que se sabe de esta red surge de los documentos de la misma FCC, donde se puede ver que cada satélite tendría unas dimensiones de apenas 10 centímetros con un peso de 1,3 kilogramos.

Starlink satelite

La idea es que sean capaces de proporcionar conexiones de internet con velocidad gigabit con hasta 25 ms de latencia y estarían ubicados a 1.125 kilómetros de la Tierra. Según la información, SpaceX espera tener los primeros satélites en 2020 y se encargarían de ofrecer conexiones a zonas remotas del planeta.

Además de la autorización, la FCC le está exigiendo a SpaceX un plan donde explique qué harán con la basura espacial que representarán estos satélites cuando terminen su vida útil. Además, al menos el 50% de la red, de los 4.425 satélites aprobados en primer lugar, deberá estar en la órbita asignada y operando antes del 29 de marzo de 2024. Si pasa esta fecha y Musk no cumple, la licencia le será retirada y deberá solicitar un nuevo permiso.

Adicional a esto, SpaceX deberá comprobar que no hay riesgos de colisión y el tiempo de vida de cada satélite, ya que estamos hablando de la primera red de este tipo en la historia. Para darnos una idea, hasta agosto de este año se reportaron 1.886 satélites orbitando la Tierra entre todos los países, y SpaceX, sólo ella, ya tiene autorización para poner 11.493.

Los 13 productos del "cementerio Google" que ya no están y que siempre echaremos de menos

$
0
0

Los 13 productos del

Google ha creado muchos productos y servicios a lo largo de su historia, pero algunos de ellos se han quedado en el camino. El cementerio Google está repleto ya de lápidas de desarrollos que no cuajaron o que acabaron formando parte de otros productos que sí han llegado a nuestros días.

De todos ellos —aquí hay una buena lista— hay algunos que echamos más de menos que otros, y aunque en algunos casos han aparecido alternativas, en otros el vacío que han dejado es patente. Este es un pequeño homenaje a todos esos servicios que desaparecieron para (casi) no volver.

Google Reader

Es probablemente el que más echamos todos de menos. El lector RSS por excelencia deaspareció en 2013, y lo hizo dejando un vacío que afortunadamente fue ocupado rápidamente por alternativas como Feedly o Inoreader.

Reader

A pesar de ello, el lector de feeds RSS de Google fue durante años un compañero inseparable de millones de usuarios que consultaban la actualidad de una forma cronológica imperturbable que nunca necesitó algoritmos que decidieran qué cosas había que ver antes que otras. Lo más nuevo siempre estaba arriba, y eso daba una paz mental que echamos mucho de menos en esta era de los feed de Twitter o Facebook.

Google+

La red social que pudo ser y nunca fue quizás intentó demasiado parecerse a unos y superar demasiado a otros. El desarrollo se convirtió en centro de buena parte de la estrategia de una Google que quiso meternos a Google+ hasta en la sopa, y eso acabó siendo una de las razones de que muchos acabaran cansados de ella.

Google Plus

Aún así, en Google+ seguían reuniéndose muchos usuarios que encontraron en esta plataforma un útil punto de reunión. Aún le quedan unos meses de vida y es posible exportar los datos que tengáis allí, pero el último intento de Google por rivalizar con Facebook en este ámbito dirá adiós definitivamente en 2019.

Inbox

Otro servicio que aún sigue disponible, pero no lo estará por mucho tiempo. Esta "vuelta de tuerca" del correo electrónico trató de cambiar nuestra forma de trabajar con este estándar, y aunque algunas de sus ideas han acabado heredándose en Gmail, el producto era quizás algo complejo para quienes ya se habían acostumbrado al paradigma de Gmail.

Inbox

Con todo y con eso, las mejoras que Inbox proponía convencieron a muchos usuarios que seguirán usándolo hasta el último día. Seguro que todos ellos echan de menos un cliente de correo que trataba de ofrecer una especie de cliente de correo 2.0 a nuestras vidas.

Goo.gl

Los acortadores de direcciones fueron un ingenioso descubrimiento cuando Twitter se convirtió en todo un éxito y cada carácter contaba. Meter URLs era costoso en esos mensajes con el límite original de 140 caracteres, así que estos servicios tuvieron mucho éxito.

Googl

La alternativa de Google no era tan popular como otras, pero el servicio ha seguido manteniendo su valor hasta ahora. Dejará de existir el próximo 19 de marzo de 2019, y lo cierto es que su existencia ya no tenía tantos argumentos ante la ampliación de los límites de caracteres en Twitter. En Google recomiendan usar los llamados Firebase Dynamic Links (FDL) o bien servicios como Bitly o Ow.ly.

Bump

Puede que muchos no lo conozcáis o ni siquiera lo recordéis, pero para mí Bump tiene un lugar especial en ese cementerio Google. Compartir fotos y otros archivos nunca fue tan sencillo y divertido como con Bump: chocabas el móvil (suavemente) con otro móvil o con la barra espaciadora de tu PC y ya estaba: podías enviar ese fichero de uno a otro fácilmente.

Bump1

La herramienta fue una de las mejores de 2013 según la revista Time, y la empresa que lo desarrolló, Bump Technologies, acabó siendo comprada por Google en septiembre de 2013. En enero de 2014 la empresa la retiró del mercado sin más, y algunos nunca entendimos cómo una idea tan buena se quedó en el camino cuando podía haber sido una excelente opción para todo tipo de dispositivos.

Picasa

Otra aplicación que al menos personalmente echaré mucho de menos durante mucho tiempo. En realidad no del todo, porque sigo usando la última versión disponible, que funciona sin problemas y sigue dando muchas alegrías a quienes la usamos.

Picasa1

Picasa era, para quienes no lo conociesen, el Google Photos "en local" antes de que la nube se apoderara de nuestras imágenes (y convenciera a algunos de mis compañeros de sus virtudes). Organizar las fotos de nuestros equipos sin acudir a servicios online es más pesado, desde luego, pero quienes tengan suspicacias con esas alternativas siguen teniendo a Picasa a un buen candidato, aunque Google no lo soporte oficialmente desde hace años.

MyTracks

Hoy los móviles registran nuestra ubicación en todo momento casi sin que nos enteremos, pero Google lanzó MyTracks en 2009 como una alternativa para hacer un seguimiento detallado de nuestras rutas (incluida la elevación).

Mytracks

Google acabó abriendo el código en 2010 y la versión 2.0 de 2012 llegó con soporte para Google Earth, algo que le dio una nueva dimensión. Aún así Google acabó abandonando su desarrollo, una lástima.

Sparrow

Otra herramienta probablemente desconocida para muchos: este cliente de correo exclusivo para OS X e iOS fue todo un soplo de aire fresco que apostaba por el minimalismo y por una interfaz simple y clara.

Sparrow2

Aquel proyecto se hizo muy popular entre los usuarios de las plataformas de Apple, e incluso hubo un amago de una versión para Windows, pero aquello nunca ocurrió. Google la compró para una vez más hacerla desaparecer del mapa.

Panoramio

En 2005 una aplicación sorprendente irrumpía en el mercado para aprovechar la potencia de Google Maps y permitía asociar fotos a localizaciones geográficas para tenerlas organizadas fácilmente y compartirlas en este servicio de Google.

Panoramio1

El servicio se convirtió en un éxito tal que Google acabó comprando la empresa, que además había sido creada por desarrolladores españoles. Aquel éxito tuvo bastante recorrido, pero en 2016 acababa aquella aventura: Panoramio acabó siendo parte de Google Maps, pero el servicio como tal desapareció para siempre.

Jaiku

Google intentó competir con Facebook en varias ocasiones, pero solo presentó una alternativa a Twitter. Se llamaba Jaiku, y aunque mantuvo su recorrido desde 2006 a 2012, su éxito siempre fue muy limitado.

Jaiku1

La empresa fue creada por dos desarrolladores finlandeses, y un año después acabaría siendo adquirida por Google que esta vez trató de impulsar su uso. Incluso llegó a liberar el código de la aplicación en 2009 para pasar el testigo a la comunidad, pero aún así la inercia de Twitter hizo imposible que el servicio acabara despegando del todo.

Google Code

Una empresa que como Google tenía miles de desarrolladores trabajando para ella tenía que tener una plataforma de gestión del código y control de versiones, y su alternativa a gigantes como GitHub o Bitbucket era Google Code.

Code

Aquella plataforma aguantó el tipo durante 11 años, desde 2005 a 2016, pero acabó anunciando el cierre reconociendo que la alternativa de GitHub y otras como SourceForge eran claramente superiores. De hecho tuvo un buen gesto y proporcionó herramientas que permitían migrar proyectos desde Google Code a esas otras soluciones rivales.

Picnik

Photoshop nunca ha acabado de tener un rival en versión online ni siquiera en una edición más ligera y reducida en prestaciones, pero si había un servicio online que podía dar una alternativa a la aplicación de Adobe, ese era Picnik.

Picnik

La herramienta ofrecía herramientas básicas de edición y retoque que complementaban las de servicios y redes sociales varios como Facebook, MySpace, Flickr o Picasa Web Albums. El servicio inició su andadura en 2005 y Google adquirió la empresa en 2010, pero la herramienta acabó siendo cerrada en abril de 2013 y sus prestaciones las heredó Google+.

Las otras redes sociales de Google

Antes de fracasar con Google+ los intentos de Google por ofrecer alternativas a Facebook también acabaron en este cementerio tan peculiar. Ocurrió con Orkut (2004-2014) que fue el que más cerca estuvo del éxito al menos en países como Brasil o con Google Buzz, que tuvo un lanzamiento polémico por los descuidos en materia de privacidad y que apenas tuvo un par de años de vida. De aquellos intentos precisamente hablamos en nuestro podcast Despeja la X recientemente:

Aquel fracaso coincidió con el de Aardvark, un servicio social algo menos conocido de preguntas y respuestas, pero probablemente más dolorosa fue la retirada de Google Wave, una plataforma que sorprendió por muchas ideas pero que quizás era demasiado confusa para la mayoría de los usuarios.


El presidente de Ecuador asegura que hay condiciones favorables para que Julian Assange deje su embajada sin que peligre su vida

$
0
0

El presidente de Ecuador asegura que hay condiciones favorables para que Julian Assange deje su embajada sin que peligre su vida

La situación entre el gobierno de Ecuador y Julian Assange está llegando a un punto por demás complicado. A inicios de este año, a Assange le fue suspendida la conexión a internet por haberse metido en asuntos que pusieron en riesgo las relaciones internacionales de Ecuador, y es que hay que recordar que el hacker australiano responsable de WikiLeaks vive desde 2012 en la embajada de Ecuador en Londres como refugiado político.

Tras la llegada de Lenín Moreno a la presidencia de Ecuador, el mandatario siempre se ha referido a Assange como "una molestia y un problema heredado" y no ha ocultado su descontento ante la presencia de Assange en su embajada, esto a pesar de que hace un año se le concedió la ciudadania ecuatoriana. Hoy, Moreno asegura que Gran Bretaña le ha garantizado por escrito que la vida de Assange no corre peligro, por lo que pide que el ciberactivista se entregue a las autoridades.

"El camino está despejado para que Assange tome la decisión de irse"

Durante una entrevista, Moreno volvió a tocar el tema de Assange, sólo que en esta ocasión aseguró que tiene garantías por escrito de parte del gobierno británico, donde se asegura que el activista no sería extraditado a Estados Unidos, ya que en la Constitución británica está prohibido que una persona que se encuentra en su territorio sea enviada al exterior, donde puedan juzgarlo y condenarlo a muerte.

"Nosotros protegeremos los derechos del señor Assange, es por eso que estamos buscando una solución concertada... Si es que el gobierno británico garantiza su vida, yo creo que lo que más le conviene es entregarse a la justicia británica... Y después de unos pocos meses de cárcel, la libertad."

Moreno Lenín Moreno, presidente de Ecuador.

Moreno destacó que no está expulsando a Assange de su embajada, sino que sólo está haciendo recomendaciones al activista tras haber cerrado importantes acuerdos diplomáticos entre Ecuador y Gran Bretaña. De hecho, también mencionó que el equipo legal de Assange está planeando los siguientes pasos, ya que desde finales de marzo de este 2018 el activista está completamente incomunicado.

A pesar de esto, ha surgido información de una supuesta charla entre Lenín Moreno y Paul Manafort, exjefe de campaña de Donald Trump, sobre la intención de expulsar a Julian Assange de la embajada ecuatoriana en Londres. Dicha reunión ha sido confirmada por ambas partes, pero se ha negado que uno de los temas de discusión haya sido la situación de Assange.

Como sabemos, Julian Assange es buscado por el gobierno estadounidense tras las filtraciones de WikiLeaks, donde en caso de ser capturado enfrentaría la pena de muerte. Por otro lado, se mantienen las acusaciones de agresiones sexuales por parte de Suecia, aunque a día de hoy ya se ha suspendido la investigación.

En el caso de Gran Bretaña, Assange tiene una orden de arresto vigente por no haberse presentado ante la justicia cuando se le solicitó. Ante esto, deberá pasar unos años en una prisión británica para posteriormente ser puesto en libertad, o al menos eso es lo que asegura el presidente Moreno.

El temor del equipo de Assange es que el gobierno estadounidense solicite la extradición con la garantía de que no se aplicara la pena de muerte, un escenario que pondría al activista en suelo estadounidense para enfrentar los cargos que le imputan por el caso WikiLeaks.

Patrones oscuros: así es como Amazon, Booking o Ryanair nos engañan con un diseño web tramposo

$
0
0

Patrones oscuros: así es como Amazon, Booking o Ryanair nos engañan con un diseño web tramposo

Tengo un reto para vosotros, queridos lectores: intentad encontrar en menos de un minuto la opción para cerrar la cuenta de Amazon. No vale mirar en Google, ojo: tenéis que encontrarla desde la página. ¿Lo habéis logrado?

Probablemente no —es mi caso—, pero es porque Amazon lo pone muy difícil. Como otras muchas empresas, Amazon hace uso de los llamados "patrones oscuros", técnicas de diseño web que fuerzan al usuario a hacer cosas que no quiere, o a no hacer cosas que la empresa no quiere que hagas. Todo, claro, para beneficiarla (o no perjudicarla). Vivimos en una web tramposa, así que cuidado. La solución a lo de la cuenta, por cierto, a continuación.

Cerrar una cuenta en Amazon es sorprendentemente difícil (y no solo depende de ti)

Teóricamente uno esperaría encontrar esa opción a través del enlace "Mi cuenta". Una vez allí podemos consultar pedidos, direcciones, métodos de pago y otras opciones, pero ninguno de los muchos enlaces que allí aparecen llevan a poder borrar nuestra cuenta. Simplemente no está allí.

De hecho para poder hacerlo tenemos que ir al pie de página, hacer clic en "Ayuda" y, entre todas las opciones, ir a "¿Necesitas más ayuda?" para luego seleccionar el enlace "Contáctanos". En la siguiente pantalla hay cuatro pestañas, y si vamos a la última, titulada "Prime y otros" estaremos un poco más cerca de nuestro objetivo.

Amazon1

Es allí donde en el desplegable "Cuéntanos más sobre tu problema", que no nos da tampoco una opción clara para borrar la cuenta. Tendremos que ir a "Actualizar información de tu cuenta" para encontrar un segundo desplegable en el que por fin aparece la opción "Cerra mi cuenta".

Antes de hacerlo, eso sí, tendremos que chatear con alguien de la plantilla de Amazon que nos intentará convencer de que no lo hagamos. No podemos borrar la cuenta por nosotros mismos, lo tiene que hacer Amazon por nosotros.

Patrones oscuros, trampas por doquier

Este es un ejemplo evidente de esos "patrones oscuros" que hacen extremadamente complejo acceder a una opción que el usuario debería tener a su disposición pero que, eso sí, perjudica a la empresa que nos da el servicio. Hay expertos en usabilidad como Harry Brignull que califican esto como un "motel de cucarachas": un diseño que hace fácil crear una cuenta o acceder a un servicio, pero difícil cerrarla o salir de él.

Ofertas Este es el final de un larguísimo correo con ofertas de Springfield. Es solo un ejemplo, porque todas las empresas que mandan publicidad actúan así. De hecho Springfield no lo hace tan mal: los enlaces para darse de baja o modificar nuestros datos están en negrita y subrayados, aunque para encontrarlos haya que tener vista de halcón e ir hasta abajo del todo en esos correos.

Desde entonces este experto ha estado tratando de educar a los usuarios sobre este tipo de técnicas que tratan de ponérselo difícil a los usuarios a la hora de "salirse del redil". Tenemos un buen ejemplo en esos correos promocionales que nos llegan y que a menudo no nos interesan. Es obligatorio que estas empresas ofrezcan una opción para darse de baja de la suscripción, pero a menudo esa opción está en colores pálidos o muy parecidos al resto de la "letra pequeña", poco destacada para que los usuarios tengan difícil encontrarla.

Two Dots Colores

Lo mismo ocurre con todos esos servicios y aplicaciones que tratan de confundir al usuario para que haga cosas que en realidad no quiere hacer. En el vídeo se ve un ejemplo con el juego móvil Two Dots, en el que para ir avanzando en los menús se usan siempre botones con texto en blanco y fondo en verde.

Colores 2

Todo perfecto hasta que perdemos en un nivel y el esquema de colores cambia: el primer botón que vemos en pantalla nos lleva directamente a una compra in-app, dentro de la aplicación, y que nos permite "comprar movimientos" para poder resolver esa pantalla.

Ese botón también está hecho con texto en blanco y fondo en verde: es fácil confundirse y apretarlo de forma involuntaria, casi refleja, confiando en que es parte de una inocua interfaz que en realidad tiene truco.

Booking o Ryanair son dos ejemplos flagrantes, pero hay muchos más

Los ejemplos son múltiples, y por ejemplo en sitios de reservas online como Booking (hay otros muchos casos) se hace todo lo posible por convencer a los usuarios de reservar cierto hotel porque quedan pocas plazas, hay mucha gente viendo esa misma oferta o quedan apenas unos minutos para que caduque ese precio.

Booking2 Señora, me los quitan de las manos.

Si habéis comprado un billete de avión con Ryanairmuy criticada por muchas de estas técnicas— habréis detectado también ese tipo de técnicas en las que el precio del billete, que suele ser atractivo, va incrementándose con todo tipo de opciones adicionales de las que a menudo es difícil escapar.

Ryanair1 La web de Ryanair está llena de pequeñas trampas. He buscado un vuelo ficticio de Madrid a Londres y tras seleccionar la ida y la vuelta lo primero que me aparece es una tarifa FlexiPlus que tengo que "Añadir al viaje" para poder "Continuar". Ese último botón aparece oscurecido y no se puede usar hasta que no selecciono esa tarifa extra. ¿Cómo no elegirla? Fácil: la eliges y, antes de hacer clic en "Continuar" vuelves a desactivarla. Y este es solo el primer obstáculo que nos ponen webs como esta a la hora de completar la compra.

Hay que poner los cinco sentidos para aprovechar la oferta que vimos en origen, y lo más curioso aquí es que las empresas se acusan entre sí de este tipo de técnicas: Ryanair se quejó en 2014 de cómo eDreams mostraba precios "artificialmente bajos".

Algunas empresas han acabado siendo demandadas por este tipo de técnicas. LinkedIn tuvo durante mucho tiempo una opción que sugería al usuario que diese permiso a la aplicación para añadir a contactos de correo que no tenía en su cuenta de LinkedIn. El usuario tenía que confirmar esa petición al llegarle un correo, pero si no lo hacía LinkedIn le enviaba varios recordatorios más.

Linkedin

En la demanda se indicaba que el usuario no había consentido en aceptar esos correos adicionales, algo que LinkedIn trató de negar argumentando que no había ningún tipo de mala intención en ello. Al final, eso sí, pagó 13 millones de dólares para que el caso se cerrara, y ahora sigue haciendo más o menos lo mismo... pero al menos lo avisan en su letra pequeña.

Como argumentan los responsables de Dark Patternsel hashtag #darkpattern sirve para denunciar estos casos por ejemplo en Twitter—, parte de la responsabilidad es del usuario, que debe estar atento a este tipo de trucos, pero quizás habría que regular en un segmento en el que el diseño web cuenta con poderosas herramientas que juegan con la psicología y la forma de trabajar que tiene nuestro cerebro para aprovechar cierta ventaja.

Rusia se desconectará de internet durante un día para probar la efectividad de su red 'Runet' en caso de guerra cibernética

$
0
0

Rusia se desconectará de internet durante un día para probar la efectividad de su red 'Runet' en caso de guerra cibernética

El gobierno ruso liderado por Vladimir Putin está planeando un test de seguridad para desconectar el país entero de la red global de internet. A través de ZDNet se informa que la agencia rusa RosBiznesKonsalting (RBK) ha comunicado que este experimento forma parte de la ley propuesta el pasado mes de diciembre por el Parlamento Ruso.

En los documentos iniciales de la ley propuesta se describe que los proveedores de internet rusos deben ser capaces de garantizar la independencia de la red rusa 'Runet' en caso de agresión del exterior.

Como parte de este programa de ciberseguridad nacional, los operadores rusos deberán ser capaces de tener la capacidad técnica para poder redirigir el tráfico ruso de internet a puntos aprobados o controlados por Roskomnazor, la agencia de telecomunicaciones rusa.

Un test de seguridad para comprobar la viabilidad de la "internet rusa"

¿Por qué esta serie de medidas? Se trata del 'Digital Economy National Program', que pretende proteger a Rusia de las interferencias del extranjero. El proyecto ha sido respaldado por el presidente ruso y según Finanz.ru, empresas como Yandex también han dado su apoyo.

La fecha concreta todavía no se ha especificado, pero antes del 1 de abril, fecha límite especificada por la ley, se realizará el experimento de desconexión. Tal y como fue aprobado en sesión parlamentaria a finales de enero.

Natalya Kaspersky, cofundadora de la firma de seguridad Kaspersky Lab y cuyo antivirus fue bloqueado por el gobierno norteamericano, preside el grupo de esta propuesta junto a otras empresas de telecomunicaciones rusas como MegaFon, Beeline, MTS o RosTelecom.

Runet

Para lograr esta desconexión, las autoridades rusas han estado trabajando en una copia local de todas las DNS. Una backup que fue testada en 2014 y ha vuelto a realizarse en 2018, según informa ZDNet. Esa copia de seguridad, será uno de los componentes más importantes para poder configurar 'Runet' con las direcciones de red correctas cuando los distintos ISPs desconecten el país de la red global.

Según el medio ruso Iz.ru, el gobierno de Vladimir Putin lleva trabajando en este proyecto desde hace años y en 2017, representantes del gobierno anunciaron que planeaban que para 2020 el 95% de todo el tráfico de internet se realice de forma local.

El objetivo de Rusia, según la BBC, es implementar un sistema de filtrado similar al que posee China con su 'Gran Cortafuegos', pero también tener una red propia totalmente operativa en caso que Rusia lo necesite. Grupos en favor de los derechos humanos como Agora han descrito esta desconexión como "una seria amenaza a la libertad de internet", según describe Telegraph.

Llevo más de una década traduciendo formatos de fichero de la antigua informática para que no desaparezca

$
0
0

Llevo más de una década traduciendo formatos de fichero de la antigua informática para que no desaparezca

El hardware tiene un encanto especial para muchos de los usuarios a los que nos apasiona la tecnología. Sin embargo, lo más valioso que tenemos no son los componentes físicos de nuestro ordenador; lo son los datos. Nuestra colección de fotografías, nuestra música favorita, las hojas de cálculo que recogen nuestra contabilidad doméstica o nuestro repositorio de películas son solo una parte de la información que todos atesoramos en el disco duro de nuestro ordenador.

Afortunadamente, existe una disciplina a medio camino de la informática y los estudios en biblioteconomía y documentación que se preocupa de ayudarnos a conservar a lo largo del tiempo, abrir y usar nuestros valiosos documentos electrónicos, sean del tipo que sean: la preservación digital. Aún no es una herramienta muy conocida, pero cada vez adquiere más importancia debido al crecimiento constante que experimentan nuestras colecciones digitales, así que hemos recurrido a un experto para conocer de primera mano por qué esta disciplina es tan importante y qué podemos hacer para proteger correctamente nuestros datos.

Juanjo Boté se dedica profesionalmente a la preservación digital desde hace más de una década. Está titulado en ingeniería en informática por la UOC (Universitat Oberta de Catalunya), y también tiene una licenciatura en documentación que le dota de un perfil híbrido ideal para su especialización en preservación digital. En su currículo destaca también un doctorado en esta última disciplina por la Universidad de Barcelona.

Juanjo Boté es un experto en preservación digital, tiene un doctorado en Sociedad de la Información y Conocimiento por la Universidad de Barcelona y da clase en esta institución

Actualmente Juanjo compagina su trabajo como profesor en el área de la preservación digital en la Facultad de Biblioteconomía y Documentación de la Universidad de Barcelona con los proyectos para personas que tienen colecciones digitales y están preocupadas por su conservación y mantenimiento con el propósito de poder seguir disfrutándolas por mucho tiempo que pase. Como veis, tiene un currículo muy atractivo para ayudarnos a descubrir no solo qué es la preservación digital, sino, sobre todo, qué impacto positivo puede tener en nuestras vidas como los generadores constantes de información que somos todos nosotros.

El primer reto: traducir los formatos de fichero de la antigua informática

Antes de que indaguemos en los desafíos que plantea la utilización de los archivos y las aplicaciones usados durante las primeras décadas de la informática nos interesa conocer qué es la preservación digital y cuál es su objetivo. Juanjo nos explica que «la preservación digital básicamente se preocupa de que pueda conservar, abrir y usar a largo plazo, por ejemplo, dentro de veinte años, los documentos que utilizo hoy, como un archivo de Word o una fotografía que he tomado con el móvil».

Juanjoboteretrato

Actualmente todos somos conscientes en mayor o menor medida de que es importante que tengamos copias de seguridad de nuestra información más valiosa, pero hace décadas, durante los primeros años de la informática, esta necesidad no era tan evidente, posiblemente porque en aquel momento era difícil imaginar la importancia que la informática acabaría teniendo en el día a día de todos nosotros. Además, posiblemente durante aquellas primeras décadas era difícil intuir lo mucho que evolucionarían los ficheros en los que guardábamos nuestros datos y las aplicaciones que utilizábamos para manejarlos.

Precisamente, por esta razón uno de los mayores retos a los que se enfrentan los profesionales que, como Juanjo, se esfuerzan para que la antigua informática no desaparezca, consiste en traducir los formatos de fichero que manejaban las primeras aplicaciones y sistemas operativos a otros diferentes que puedan ser «entendidos» por las herramientas que tenemos hoy. Juanjo apunta que «la traducción o migración de formatos plantea diversos retos que a veces son sencillos de resolver, y otras veces no. Como ejemplo, un fichero de una hoja de cálculo de QPRO o Lotus 1-2-3 realizado antes del año 2000 podría plantearnos problemas a la hora de identificar su formato con el objetivo de migrarlo a otro formato diferente que pueda ser leído por otra hoja de cálculo».

Uno de los mayores retos a los que se enfrentan las personas que trabajan para que la antigua informática no desaparezca consiste en traducir los viejos formatos de fichero a otros compatibles con las aplicaciones que tenemos hoy

Afortunadamente, existen herramientas que pueden ayudarnos a superar este escollo. Juanjo nos explica que «hay software que detecta este problema, como DROID. Esta aplicación es capaz de identificar el formato, pero corresponde a la persona que trata el documento saber cómo se hace la migración. Después se plantean otros problemas intrínsecos al fichero conocidos como propiedades significativas. En nuestro ejemplo estas características serían la compatibilidad de las antiguas fórmulas con las actuales, la conversión y el tratamiento de la coma decimal, los gráficos o incluso el tipo de letra en el que están realizadas las operaciones».

Curiosamente, Juanjo se dedica profesionalmente a la preservación digital por haber sido capaz de resolver con éxito un desafío como el que acaba de describir. Incluso más enrevesado. Su historia es muy interesante. «Mi dedicación profesional a esta disciplina comenzó con un reto. Yo estaba haciendo un máster en la Universidad de Barcelona en contenidos digitales y me enteré de que había un concurso internacional en preservación digital. Se llamaba Digital Preservation Challenge (se trataba de la edición de 2008) y decidí participar, aunque iba un poco justo de tiempo», rememora Juanjo.

«Aquel concurso planteaba cinco pruebas, y una de ellas consistía en identificar imágenes de un artista que estaban dentro de un juego electrónico. En este escenario había una serie de imágenes que había que recuperar, y para hacerlo era necesario previamente encontrar el juego en el que se encontraban. Aquí entra en acción vocabulario técnico como el término 'objeto digital', que es un elemento con información generado de forma electrónica, o el concepto de 'ingesta de datos', que significa a grandes rasgos introducir datos en un repositorio», nos aclara Juanjo.

Atari800xl Uno de los retos que Juanjo Boté superó en el concurso Digital Preservation Challenge requirió emular un ordenador Atari 800 XL de 8 bits.

Y continúa: «También nos facilitaron dos carpetas, una con extensión visible que solo se podía ver a través de un emulador, y la otra con documentos sin extensión asociada. La plataforma sobre la que corrían era Atari 800 XL/XE de 8 bits. Para poder ver las imágenes y usar el juego utilicé un emulador Atari800 Win Plus que emulaba el ordenador Atari 800 XL/XLE. Y para poder ver las imágenes que no tenían extensión utilicé un programa que se llamaba Graphfont para plataformas de 8 bits. Estos recursos los encontré en una antigua página web dedicada a Atari que ya no existe».

Lo que nos acaba de contar Juanjo ilustra bastante bien el reto que representa la traducción de los archivos utilizados por los ordenadores antiguos. Pero aún no hemos llegado al final de su historia. Boté quedó segundo en este concurso internacional, que ya no existe, y esta fue la chispa que despertó su pasión por la preservación digital. Además, la excelente posición que obtuvo en este evento tuvo una recompensa adicional: «Después de eso me ofrecieron dar clase en la Universidad de Barcelona como profesor asociado, y, a la vez, empecé el doctorado hasta terminarlo. Y aquí sigo, dedicado en cuerpo y alma a esta disciplina. De hecho, ahora trabajo en la Facultad de Biblioteconomía y Documentación», confiesa.

Más de una década dedicado a la traducción de ficheros y la preservación digital

Hoy en día estamos acostumbrados a transportar nuestros datos a través de Internet, en discos duros de gran capacidad y en unidades USB, pero no hace falta que nos remontemos a los orígenes de la informática para darnos de bruces con soportes de almacenamiento muy diferentes a los actuales. No hace demasiados años guardábamos nuestros datos y aplicaciones en antiguos discos mecánicos, disquetes de cinco pulgadas y cuarto, discos de tres pulgadas y media, e, incluso, en cintas de casete, entre otras opciones. Juanjo nos habla de las dificultades que acarrea preservar estos medios de almacenamiento.

«Los antiguos soportes de almacenamiento plantean varios problemas. El primero es encontrar un dispositivo que funcione y que, además, los lea. Luego, una vez que tienes la información, debes intentar traspasarla sin que se pierdan sus propiedades significativas a un dispositivo más moderno, y si no tienes dispositivos de lectura es un problema de difícil solución. Sin embargo, en plataformas como Ebay todavía se pueden conseguir. En el caso de las cintas de casete aún se pueden encontrar lectores. Sin embargo, las cintas se rompen con mucha facilidad porque se secan. Otra de las cuestiones es que el dispositivo tiene que poder funcionar en un ordenador normal en el caso de los disquetes de cinco pulgadas y cuarto, algo que no es fácil porque los ordenadores de hoy en día no tienen ese tipo de buses de conexión, pero se pueden encontrar adaptadores. En este ámbito incluso las grandes instituciones usan Ebay para comprar material antiguo», asegura Juanjo.

Boté continúa hablándonos de sus primeros pinitos en la traducción de ficheros: «Al tener formación como ingeniero informático siempre tenía curiosidad por saber cómo estaban formados internamente los ficheros de todo tipo. Esto incluye archivos de texto, ficheros de audio, de vídeo y otros tipos. Como ejemplo, quería saber cómo estaba formado un fichero de imagen. En la cabecera solían aparecer su descripción, tamaño, colores y otros elementos. Esto implicaba emplear software que hacía lecturas en hexadecimal de los ficheros, unas aplicaciones que podemos encontrar en sitios como SourceForge».

Spectrumcasete

Y prosigue: «También me interesaban otros tipos de ficheros, como las bases de datos y los archivos de tipo propietario, de los que obtener información era muy difícil cuando no contaba con Internet. En muchos casos recurría a la biblioteca de la universidad, o bien a contactos y amistades que tenía en el extranjero. Mis primeros pinitos en la traducción de archivos de la antigua informática llegaron al mismo tiempo que estudiaba la carrera. Además, ayudé a empresas que perdían datos total o parcialmente con herramientas tecnológicas que existían por entonces, y con las que se podía recuperar la integridad de la información de los ficheros que se hubiera perdido».

Nueva Zelanda, a la cabeza de la preservación digital

La conservación de los antiguos archivos y aplicaciones no es importante solo para las empresas y los usuarios; también lo es para los países. De hecho, resulta muy curioso saber que una de las primeras naciones que decidió tomarse en serio la recuperación y preservación de su patrimonio digital fue Nueva Zelanda. Parece razonable pensar que los primeros en «tomar cartas en el asunto» en el contexto estatal fueron los estadounidenses o los europeos, pero no; fueron los neozelandeses. Juanjo nos lo cuenta.

Nueva Zelanda fue el primer país que puso en marcha un proyecto de preservación digital de alcance nacional

«El primer proyecto de preservación digital de alcance global, para todo el país, lo puso en marcha Nueva Zelanda. Es un país relativamente pequeño, con unos 4,2 millones de habitantes, y esta característica facilita el despliegue de esta estrategia. Ya había experiencias anteriores en materia de preservación, sobre todo en Estados Unidos, pero el primer proyecto con alcance estatal fue el de Nueva Zelanda», asegura Boté.

«De hecho, están vendiendo su producto a través de varias empresas a instituciones europeas y otros organismos. Los neozelandeses están a la cabeza mundial en preservación digital, junto a los holandeses, los ingleses y los estadounidenses. Además de la ventaja que les da haberse preocupado antes que otros países por la preservación digital, tienen el aliciente de que Nueva Zelanda fue una colonia británica y, por esta razón, tiene dos culturas que es necesario preservar: la maorí y la británica, que vino después».

Centrodatos Guardar nuestros datos en la Nube no conlleva que estemos preservándolos, por lo que esta es una opción de almacenamiento más que podemos compatibilizar con varios discos duros externos.

Durante nuestra conversación Juanjo Boté me habló también de la importancia que tienen las auditorías como herramientas a las que podemos recurrir para comprobar que todo está en orden. Que dentro de muchos años vamos a poder seguir accediendo a nuestros ficheros y disfrutando nuestros datos. El término 'auditoría' suena muy serio. Suena a empresa. Pero no. Las auditorías también están al alcance de los usuarios domésticos.

«Los usuarios también pueden hacer su propia auditoría para salvaguardar sus colecciones personales. Es importante que tengamos en cuenta que nuestro archivo personal va creciendo constantemente, por lo que una de las preguntas que debemos hacernos es si tenemos espacio suficiente para asumir el crecimiento que irá experimentando nuestra colección», propone Juanjo.

«También es importante que nos cercioremos de que tenemos las copias de seguridad necesarias para estar seguros de que nuestro archivo personal está guardado. No debemos conformarnos con tener nuestra colección en el disco duro de nuestro ordenador. Como mínimo necesitamos tener tres copias e ir actualizando y verificando su contenido. Es una estrategia muy pesada, sí, pero si no haces esta verificación corres el riesgo de perder los datos con el paso del tiempo», sentencia Boté.

Consejos prácticos al alcance de cualquier usuario

Una forma eficaz de proteger nuestros datos consiste en tener una copia de seguridad. La Nube también puede ser un recurso valioso en este contexto porque pone a nuestra disposición un espacio de almacenamiento virtualmente ilimitado al que también podemos recurrir a precios con frecuencia bastante atractivos. Sin embargo, preservar nuestra información es más complejo de lo que parece. Juanjo Boté nos ofrece algunos consejos sencillos, pero con la capacidad de ahorrarnos malos tragos en el futuro.

«Todo depende del tamaño de nuestros archivos. Lo primero que haría es no almacenarlos en el disco duro de nuestro ordenador; es preferible utilizar un disco externo. Después me plantearía si puedo pagar un servicio de almacenamiento en la Nube, pero cerciorándome también de que me ofrecerá la suficiente capacidad de almacenamiento para contener toda mi colección personal en el futuro», nos explica Juanjo.

Para preservar nuestra colección personal como mínimo necesitamos tres copias permanentemente actualizadas

«Además, es importante estar seguro de que podré seguir pagando a lo largo del tiempo la cuota que me da derecho a seguir utilizando este servicio. A veces es preferible tener dos o tres discos duros externos e ir verificándolos poco a poco que optar por el almacenamiento en la Nube. De hecho, un punto interesante es que muchos teléfonos móviles con Android guardan las fotos automáticamente en el servicio de almacenamiento de Google, pero, ¿podemos estar seguros de que esta empresa seguirá existiendo dentro de muchos años?», pregunta de forma retórica Boté.

Y concluye: «Si por la razón que fuese las compañías que nos ofrecen el almacenamiento en Internet dejasen de existir o suprimiesen este servicio, podemos perder nuestros datos. Obviamente, Google y otras empresas similares son robustas, pero no tenemos la garantía de que no dejarán de existir en el futuro. Sí, puedo utilizar la Nube, pero es importante pensar a largo plazo para apostar por un servicio sostenible en el tiempo».

Opf El proyecto europeo Open Preservation Foundation se preocupa de desarrollar la tecnología y el conocimiento necesarios para administrar nuestra herencia cultural digital a largo plazo.

En cualquier caso, hay un segundo frente que no debemos pasar por alto. Además de salvaguardar nuestros datos creando y manteniendo las copias de seguridad adecuadas tenemos que preocuparnos por utilizar formatos de archivo que continúen siendo vigentes en el futuro. De lo contrario, tendremos nuestros ficheros, pero no podremos acceder a su contenido. Afortunadamente, el panorama hoy en día es mucho más reconfortante que en décadas pasadas. Juanjo nos explica por qué.

«La principal diferencia con los formatos de fichero que utilizábamos hace décadas, en los albores de la informática, es que todos ellos están tendiendo ahora hacia una estandarización, sobre todo en formatos abiertos y no propietarios. Y esto conlleva que no dependamos de una licencia para abrir un documento. Sin embargo, antiguamente era necesario utilizar un programa para abrir cada formato de fichero. Hoy podemos abrir un documento de texto basado en XML con Microsoft Word u OpenOffice sin ningún problema», defiende Boté. Sí, realmente es un paso adelante significativo.

Es importante que protejamos nuestro patrimonio tecnológico

Aunque aún queda mucho por hacer en materia de divulgación de la preservación digital, Juanjo Boté es optimista. «Todavía nos falta mucha cultura porque creo que no se ha difundido del todo qué implica la preservación digital y su importancia. Aun así, hemos avanzado porque hace unos años cuando yo hablaba de esta disciplina había gente que se sorprendía porque no sabía de qué se trataba, y ahora ya apenas sucede esto. Los usuarios empiezan a entender la diferencia entre qué es guardar y qué es guardar en el tiempo. Son conceptos diferentes», asegura.

En España ya hay varios proyectos y museos que tienen como objetivo preservar nuestro patrimonio tecnológico

Además, Juanjo nos confirma que si nos ceñimos a la «informática antigua» actualmente hay varios proyectos en marcha que aspiran a recuperar y preservar ese patrimonio, esos antiguos programas y ficheros que utilizábamos hace décadas. «Hay varios proyectos, pero están muy dispersos. Cada universidad tiene el suyo, y a nivel europeo merece la pena destacar la Open Preservation Foundation. Con alcance estatal cada institución también tiene el suyo. La Biblioteca Nacional tiene su propio proyecto, y el Archivo Nacional de Cataluña, también, entre otras instituciones que dedican recursos a esta materia».

Prácticamente todo el artículo ha girado alrededor del software, pero el hardware también forma parte de nuestro patrimonio cultural. En Europa cada vez más instituciones se preocupan de preservarlo, y en España varias universidades han dado un paso hacia delante creando sus propios museos. «La Universidad Complutense tiene uno, el Museo de Informática García-Santesmases. También destaca el Museo Torres-Quevedo, en la Universidad Politécnica de Madrid, donde se pueden encontrar prototipos de ordenadores», recuerda Juanjo Boté.

Como este experto en preservación digital nos ha explicado, queda mucho por hacer en este terreno, pero podemos ser optimistas porque la cultura tecnológica en general, e informática en particular, de los usuarios es cada vez mayor. Esta reflexión de Juanjo nos permite entrever el futuro con esperanza: «Aquí mismo, en España, ya empieza a haber empresas que se dedican exclusivamente a esto. Y en el contexto institucional se están haciendo cada vez más esfuerzos en materia de preservación digital. Poco a poco, a medida que las personas y las instituciones vayan tomando aún más conciencia de la importancia que tiene esta disciplina, seguirá desarrollándose».

Más información | Juanjo Boté
Imágenes | MOS6502

DeepL vs Google Translate: ¿quién gana la batalla de los traductores online?

$
0
0

DeepL vs Google Translate: ¿quién gana la batalla de los traductores online?

Hasta no hace mucho Google Translate (Traductor de Google) era el claro referente a la hora de traducir cualquier tipo de texto tanto en dispositivos móviles como en PCs y portátiles conectados a internet. Sin embargo a finales de 2017 apareció un competidor singular en este ámbito: DeepL.

Ambos servicios son gratuitos y permiten traducción de texto entre distintas combinaciones de idiomas, y nosotros hemos querido evaluar su comportamiento y características para valorar cuál se puede ajustar mejor a cada necesidad.

La traducción ayudada por la inteligencia artificial

Los motores de traducción de estos servicios tienen un fuerte componente tecnológico. Google ya anunció en septiembre de 2016 el uso de un sistema de traducción automática llamado Google Neural Machine Translation (GNMTS) que está basado en las llamadas Redes Neuronales Recurrentes (RNN).

Translate

Este sistema ha permitido a Google mejorar de forma constante la calidad de las traducciones ya que en él no solo se toman en cuenta las palabras o las frases, sino también el contexto en el cual aparecen esas palabras y frases y qué otras aparecen cercanas a ellas.

Esa ha sido la clave de la traducción humana y la traducción automática, y de hecho en Google pronto renovaron ese motor con la llamada Zero-Shot Translation y un nuevo sistema de representaciones de vectores distribuidos en los que las frases a traducir iban traduciéndose entre distintos pares de idiomas para ir combinando esos resultados y ver si todas ellas tenían sentido entre sí.

Cap 020

Su rival, DeepL, hace uso también de sistemas de inteligencia artificial, y en concreto redes neuronales de convolución, algo distintas a las recurrentes.

En este servicio la empresa alemana que lo desarrolla se aprovecha de otro componente fundamental: su diccionario multi-idioma, el conocido, Linguee. Este proyecto ha permitido construir una base de datos enorme con la que el traductor automático DeepL puede trabajar para lograr resultados destacables en la traducción.

DeepL soporta menos idiomas, ¿es más preciso?

Una de las desventajas claras de DeepL es el número de idiomas soportados. A día de hoy DeepL cuenta con soporte para 9 idiomas, mientras que Google da soporte a nada menos que 103 idiomas.

Cap 022

Esa desventaja en cantidad parece contrastar con su ventaja en calidad. Según la propia empresa las traducciones obtenidas por DeepL fueron votadas como las favoritas en una evaluación a ciegas realizada por traductores humanos profesionales. Estos indicaron que el servicio de DeepL era superior al de otras herramientas como Google Translate (u otros como Microsoft Bing o el traductor de Facebook) por un margen de 3 a 1.

No solo esos traductores profesionales parecen preferir los resultados ofrecidos por DeepL: también lo hace un banco de pruebas llamado BLEU (PDF) que mide la precisión de la traducción y que por ejemplo para la traducción entre inglés y alemán obtuvo una puntuación de 31,1 puntos frente a los 28,4 de Google Translate.

Cap 023

Es ciertamente difícil afirmar si uno u otro es mejor, pero lo cierto es que en nuestras pruebas DeepL lleva sorprendiéndonos desde su aparición. Nuestros compañeros de Genbeta lo indicaron nada más aparecer en el que indicaban que DeepL ofrece una traducción "más natural" que Google Translate, y lo cierto es que en muchas ocasiones los resultados son comparables pero DeepL efectivamente suele ofrecer un tono "menos artificial".

Podemos experimentar con algunos ejemplos más o menos complejos. Uno especialmente duro es el de ese célebre comienzo de la obra magna de la literatura, 'Don Quijote de la Mancha', de Miguel de Cervantes. En ese inicio se leen las palabras originales "En un lugar de la Mancha, de cuyo nombre no quiero acordarme, no ha mucho tiempo que vivía un hidalgo de los de lanza en astillero, adarga antigua, rocín flaco y galgo corredor".

Donq

Al ofrecer el texto en inglés con la edición en inglés del Proyecto Gutenberg nos encontramos con un resultado bastante distinto entre Google Translate y DeepL. Como puede verse, ninguno de los dos lo hace especialmente bien, aunque Google si traduce con más precisión el "vivió no hace mucho tiempo", pero DeepL traduce mejor ese último "galgo corredor" que se asemeja más a aquella inmortal frase original.

Aún así se lo hemos puesto probablemente demasiado difícil a estos motores. Probemos con un texto algo menos complejo: el inicio de 'Cien años de soledad', de Gabriel García Márquez, también célebre, y que decía lo siguiente: "Muchos años después, frente al pelotón de fusilamiento, el coronel Aureliano Buendía había de recordar aquella tarde remota en que su padre lo llevó a conocer el hielo".

Cap 013

Si utilizamos la traducción que por ejemplo aprovechan en la web de los Premios Nobel y la pasamos por ambos traductores el resultado es el de la imagen. La de DeepL podría considerarse ligeramente mejor por el tiempo verbal (un 'recordaría' algo más preciso que 'recordaba') y también por la forma en la que este último expresa ese "al enfrentarse" más literario en lugar del "cuando se enfrentaba", más literal quizás.

Esos dos textos son complicados, pero si cogemos ejemplos algo más cotidianos de un periódico en inglés como The New York Times, podemos elegir una noticia reciente como esta y ver el resultado por parte de ambos sistemas de traducción:

Deport

De nuevo podemos ver cómo la traducción de DeepL es más natural al utilizar expresiones como "consiguió un respiro" y no el "tuvo un respiro" de Google Translate, pero sobre todo en palabras como "en un partido repleto" y no el "en un juego lleno" que parecen dejar claro que DeepL ofrece mayor precisión a la hora de reconocer el contexto y las palabras adecuadas para ese ámbito del que se habla.

Si nos vamos a una noticia tecnológica, podemos poner como ejemplo esta de hace unos días de The Verge en la que se habla de la nueva decisión de Tesla frente a su estrategia comercial y la cancelación del cierre de sus tiendas físicas.

Cap 018

En esta ocasión las cosas están menos claras y ambas traducciones son bastante similares en su precisión. Quizás es algo más acertada la de Google por detalles como reconocer que Model 3 es una marca comercial de Tesla y mantiene las mayúsculas, pero por otro lado en DeepL se traduce correctamente la forma de escribir el precio. Son pequeños detalles, y para traducciones más largas pueden determinar la confianza del usuario en esos sistemas de traducción.

Cantidad o calidad

Google es claramente superior a DeepL en ese número de idiomas soportados y en características útiles y muy llamativas como la posibilidad de traducir páginas web enteras (basta con introducir la URL en el campo de traducción), algo que DeepL no permite de momento.

Cap 019 La edición en inglés de Xataka, cortesía de Google Translate.

El traductor de Google gana por tanto en cantidad, pero nuestra sensación es que pierde en calidad. En esas comparaciones que hemos hecho en la traducción del inglés al español DeepL es sensiblemente superior. Mi experiencia me dice lo mismo: llevo usando DeepL más de un año y en todo ese tiempo "me fío" más de esas traducciones que de las que hace Google Translate.

Evidentemente aquí puede haber casos en los que eso no sea así y perspectivas distintas, pero en cualquier traducción automática siempre habrá fallos importantes por las limitaciones de estos sistemas para reconocer el contexto, la jerga o la traducción más adecuada para una palabra en según qué situación.

Es ahí donde la supervisión humana es importante para lograr que esa traducción automática se vuelva más precisa y gane calidad. Y sin embargo, ambas propuestas son fantásticas por su carácter gratuito -DeepL tiene una versión Pro con algunas opciones interesanes- y su facilidad de uso y acceso.

Viewing all 355 articles
Browse latest View live