Quantcast
Channel: Magazine - internet
Viewing all 355 articles
Browse latest View live

Internet no es la WWW aunque hasta Google lo diga, y tampoco es su 30 aniversario (sino el de la WWW)

$
0
0

Internet no es la WWW aunque hasta Google lo diga, y tampoco es su 30 aniversario (sino el de la WWW)

Estamos de celebración: hace 30 años que a Sir Tim Berners-Lee se le ocurrió escribir la célebre propuesta que daría lugar a la World Wide Web (WWW) mientras trabajaba en el célebre CERN.

Aquel documento transformaría nuestro mundo para siempre, pero curiosamente en Google, donde han creado un doodle al respecto para celebrar el magno acontecimiento, se han equivocado en su versión en español y han contribuido a una confusión popular: internet no es lo mismo que la World Wide Web, aunque uno y otro estén fuertemente ligados.

Una confusión habitual

La World Wide Web es la cara más visible de internet, pero aunque es una parte importante de la red de redes, internet no es la WWW, ni viceversa.

Www

De hecho en internet cohabitan muchos otros protocolos y estándares que hacen que podamos hacer muchas otras cosas y aprovechar esa maraña de ordenadores y dispositivos conectados no solo a través de un navegador, sino con otro tipo de clientes e infraestructuras.

Así, internet proporciona esa gigantesca infraestructura para que también podamos usar el correo electrónico, la mensajería instantánea o protocolos como FTP y SSH para el acceso a todo tipo de servidores. La web es tan solo una porción de internet.

Google lo sabe bien, pero curiosamente ha contribuido a reforzar esa confusión con su "doodle" en su versión en español que hace que internet y la World Wide Web sean lo mismo, cuando no lo son. Curioso, porque en su propio artículo vuelven a confundirnos titulándolo "30º aniversario de internet para luego, en el texto, dejar claro que es el 30º aniversario de la World Wide Web. En la versión en inglés, por ejemplo, ese artículo sí titula de forma correcta.

Es efectivamente la World Wide Web la que está de celebración hoy, pero en su Doodle se apunta precisamente a que el aniversario es de internet, y no de la www. Veamos con algo más de detalle cuándo nació una y la otra.

Así se gestó la World Wide Web hace 30 años

"Supón que toda la información almacenada en ordenadores en todas partes estuviera vinculada. Supón que pudiera programar mi ordenador para crear un espacio en el que todo pudiera estar vinculado a todo".

Aquella fue una de las frases definitorias de aquella propuesta titulada "Information Management: A Proposal" que Tim Berners-Lee escribió en marzo de 1989 mientras trabajaba en el CERN.

El documento fue toda una declaración de intenciones, pero fue tan solo la semilla de lo que después se convertiría en la World Wide Web. Tim Berners-Lee trabajó en aquel proyecto los meses siguientes, y el 12 de noviembre de 1990 publicaría junto a Robert Cailliau una propuesta más formal.

Tim

Aquella segunda propuesta definía el desarrollo de un "proyecto de hipertexto" llamado "WorldWideWeb" (en una sola palabra, curioso) que sería una "telaraña" de "documentos de hipertexto" que se verían con "navegadores" usando una arquitectura cliente-servidor.

El resto de componentes estaban también en marcha en aquella época: el lenguaje HTML, el protocolo HTTP y el primer servidor web llegarían poco después, y fue en diciembre de 1990 cuando se lanzó aquella primera página web que con toda su modestia y su simplicidad acabó dando lugar a toda una revolución.

No confundir con internet, que cumple 50 años (más o menos)

En esto de los aniversarios tecnológicos hay a menudo fechas que bailan y es difícil establecer con precisión cuándo se gestaron algunos de los eventos más relevantes de la historia.

Arpanet

Es el caso de la creación de internet, cuyo germen es bastante anterior al de la World Wide Web. De hecho muchos consideran que ese nacimiento se produjo el 2 de septiembre de 1969, cuando un grupo de científicos conectó dos ordenadores en la UCLA con un cable de 5 metros y lograron que ambas máquinas se comunicasen entre sí.

La propia UCLA reconoce ese evento, aunque pone la fecha de nacimiento ligeramente más tarde: fue el 29 de octubre de 1969 cuando el profesor de informática Leonard Kleinrock envió el primer mensaje a través de ARPANET, la red informática que más adelante acabaría convirtiéndose en internet.

Pero claro, también podemos ceñirnos a otros argumentos como el que realmente impulsó la creación de internet tal y como la conocemos hoy: en el verano de 1973 Robert E. Kahn y Vinton Cerf ya habían perfilado aquel protocolo que sería crucial para el desarrollo de internet, el llamado TCP/IP.

Su implementación tardó varios años en completarse, y de hecho hasta 1982 no se usó de forma oficial por parte del Departamento de Defensa de Estados Unidos. La migración de ARPANET a TCP/IP se completó el 1 de enero de 1983, y aquello fue otro de aquellos hitos que también pueden ser contemplados como el nacimiento de la internet que conocemos hoy.

Más información | CERN


Se aprueba la directiva del copyright en la Unión Europea: llegan el artículo 11 y el artículo 13. ¿Y ahora qué?

$
0
0

Se aprueba la directiva del copyright en la Unión Europea: llegan el artículo 11 y el artículo 13. ¿Y ahora qué?

Día negro para internet. El Parlamento Europeo ha aprobado la reforma del copyright que llevaba en desarrollo desde 2016 y que tras superar distintos obstáculos se ha visto bendecida por las instancias europeas por 348 votos a favor y 274 en contra. Eso plantea cambios enormes para la internet que todos conocíamos: cambios aún por determinar, pero sobre los que han alertado diversos expertos y analistas.

Los internautas y muchas de las grandes plataformas de internet no se creen los argumentos de la Comisión Europea. Tampoco Tim Berners-Lee, Vinton Cerf, Bruce Schneier o Jimmy Wales. La reforma de los derechos de autor plantean cambios relevantes en muchas áreas, pero los célebres artículos 11 y 13 (ahora 15 y 17) han hecho que salten las alarmas desde que se descubrieron. Y probablemente con razón.

Una reforma que pone en peligro la libertad de expresión en internet

Para empezar, la directiva podría acabar con los memes y las parodias que son ahora comunes en todo tipo de plataformas y redes sociales. Los juristas de la PDLI están convencidos de ello. "La directiva juega calculadamente a la ambigüedad", afirmaba Yolanda Quintana, cofundadora de la Plataforma en Defensa de la Libertad de Información (PDLI), y se hacen promesas con excepciones que por ejemplo mencionan los memes, pero en la práctica las obligaciones que se imponen a las plataformas hacen que los memes se vean en peligro por la supervisión que se debe hacer de lo que los usuarios suben a las plataformas.

Copy

La cantidad de contenidos que se suben hace inabarcable la tarea a moderadores humanos, lo que obligará probablemente a usar filtros automatizados que probablemente no detecten sátira o ironía y frenen esos contenidos censurándolos. Para la responsable de la PDLI, los memes y vídeos como por ejemplo los que hacen crítica política y se hace ese análisis ciudadano de la realidad política "se verán seriamente amenazados".

David Bravo explicaba en un debate con varios expertos cómo esta directiva "ataca la esencia misma de internet. Los usuarios no se limitan a consumir contenido, sino que también lo aportan". La responsabilidad de las plataformas no era la de controlar o censurar contenidos, sino de actuar a posteriori si se detectaba que estos incumplían los derechos de autor o violaban los términos de uso.

Con la nueva directiva ya no se aplica este sistema, y estas plataformas cambian. la directiva "convierte internet en algo más parecido a la televisión", un canal unidireccional.

Hay casos que la UE ha intentado tratar como una excepción, y la Wikipedia es uno de los más conocidos. Allí se aplicaría esa permisividad para ofrecer "fragmentos cortos" de información como parte de los artículos, pero desde Wikimedia advierten que eso no solo es ambigüo, es insuficiente.

Virginia Díez, responsable de comunicación y comunidad en Wikimedia España, destacaba que ellos no quieren "ser una isla paradisiaca sin filtros dentro de un ecosistema y de un océano filtrado", porque plataformas como Wikipedia se nutren también de otros contenidos, y esta reforma pondría en peligro todo el trabajo de esta y el resto de servicios de los que se alimenta.

David Bravo incidía en cómo los ganadores en la propuesta son "los lobbies del copyright". Como señalaba, "los artistas, autores y creadores de contenido cedan en bloque sus derechos para que puedan explotarse por medio de estas empresas si quieren que entren en el circuito comercial". Eso permite a las empresas que controlan esos derechos a imponer contratos y elimina esas alternativas de distribución de obras creativas que habían aparecido en los últimos tiempos como por ejemplo Patreon.

Para Yolanda Quintana esta directiva "privatiza la censura y deja la capacidad de retirar contenidos en manos de empresas privadas y de estas grandes entidades tecnológicas, lo que plantea riesgos enormes".

Los polémicos artículos y lo que supone su aplicación

En Genbeta explicaban hace tiempo por qué nos jugamos el futuro de internet en la Unión Europea con la propuesta de directiva de copyright y unía testimonios de expertos en nuestro país que indicaban las potenciales consecuencias fatales de esta directiva.

Eur

Dicha propuesta tiene como objetivo una teórica mejora de la normativa sobre derechos de autor, pero quienes ven una amenaza en ella —y nos incluimos— destacan cómo esa directiva es una grave amenaza a la libertad de expresión, la privacidad, la iniciativa empresarial e incluso la competitividad y creación de startups. En esa directiva hay dos puntos especialmente polémicos:

  • Artículo 11 (ahora 15) (usos digitales de las publicaciones de prensa): con estas medidas la Unión Europea plantearía la implantación de una especie de tasa Google o Canon AEDE. Los editores de publicaciones de prensa podrían gestionar sus derechos de autor, cobrando o no a quienes les enlacen o les usen de fuente cierto importe como pago por hacer uso de dicha información con derechos de autor. Enlazar o citar se convertiría en un verdadero problema tanto en la práctica como en su gestión y sus consecuencias legales.
  • Artículo 13 (ahora 17) (vigilancia de contenidos protegidos por parte de proveedores): en este caso la normativa obligaría a las plataformas de contenidos a monitorizar lo que los usuarios suben para comprobar si se violan o no los derechos de autor. Cada servicio tendría que crear un sistema tipo Content ID de YouTube que permitiría detectar violaciones de los derechos de autor. No solo de música, sino de cualquier contenido. Sitios como la Wikipedia -aunque la UE planteo este caso como una excepción- o GitHub que abogan por la libre compartición de información y conocimiento, por ejemplo, estarían entre los afectados.

Según la UE, "la directiva es mucho más que esos dos artículos"

El pasado viernes 22 de marzo nos reunimos en Bruselas con los responsables de la Comisión Europea que han participado en esta reforma. Para ellos la directiva se ha visto perjudicada por la polémica que ha envuelto a esos dos artículos, que para ellos no son en absoluto negativos. De hecho, destacaban, esta reforma "es mucho más que esos dos artículos".

Parlam

Es así porque hay cinco títulos con distintos artículos para distintas disposiciones. Entre ellos nos ponían un ejemplo con el artículo 14 que permitirá que sacarle una foto al cuadro de "Las Meninas" de Velázquez en el Museo del Prado, acción que antes estaba protegida por los rechos de autor, no lo esté ya a no ser que se considere obra nueva. O ese conjunto de artículos del capítulo III (del 18 al 23) que según estos representantes "garantizan la efectividad de los derechos de los autores" y protege a creadores, autores y artistas.

En el caso del artículo 19, por ejemplo, se nos hablaba de la obligación de transparencia: cuando alguien escribe un libro y lo vende a través de una editorial cualquiera esta editorial te pagaba, pero más allá de eso poco hacía para informarte de cómo se había vendido. Con este artículo el editor no solo te paga, sino que tiene la obligación de darte información transparente de cómo se está explotando tu obra (dónde vendes, cuánto y en qué formatos). También se expone el derecho de revocación: si la empresa a la que vendiste los drechos quiebra, puedes cambiar esa licencia a otra empresa que los explote bajo los mismos términos.

Los artículos 15 y 17 (antes 11 y 13) no están dirigidos a la censura (dicen desde la UE)

Llegábamos tras ese debate en el que se dieron ejemplos interesantes de esta reforma a aquello que más se ha protestado desde que se ha conocido esta reforma. Los artículos 11 y 13, que ahora han pasado a ser el 15 y el 17. ¿La razón? Durante el proceso de edición de la reforma se han ido añadiendo otros artículos pero sin modificar la numeración, como subapartados de artículos ya existentes: en la redacción final, eso sí, esa numeración debía quedar como definitiva, lo que obligaba a cambiar esos números de artículos.

Cadenas

Para estos responsables estos dos artículos trataban esa manera en que usamos los contenidos, una manera que ha variado mucho desde la llegada de internet. Para ellos hay dos grandes modelos para los medios de comunicación: la publicidad o los muros de pago. Sea cual sea el modelo, afirmaban, "el acceso ya no depende tanto de ellos, sino de los agregadores". Incluso si esos agregadores (Google, Facebook) aumentan el tráfico de una publicación, "hay un cambio sobre dónde va la publicidad", destacaban.

Para estos reguladores "cada vez es más difícil para los editores atraer publicidad y cada vez son más las plataformas agregadoras. Un número relevante de visitas no trae un gran aumento de ingresos", pero Google News (por ejemplo) sí que se beneficia.

En el caso del artículo 11 (ahora 15) se han hecho modificaciones para que por ejemplo el tiempo de exposición de un contenido se reduzca a dos años: no puedes usar el contenido sin permiso o negociación explícita con el autor durante ese tiempo, después sí. Además, indicaban en la UE, el editor de prensa no se puede oponer a que nadie comparta un enlace de su publicación.

Así pues, los hipervínculos se pueden compartir, algo crucial para que el enlace que es la base de internet no se vea perjudicado. Para los responsables de la UE el objetivo es reforzar la capacidad de negociación de editores frente a agregadores. No están cambiando la jurisprudencia en materia de hipervínculos: las páginas ilegales que ofrecen vínculos a contenidos protegidos por derechos de autor siguen siendo ilegales.

También hubo aclaraciones con el artículo 13 (ahora 17), al que ellos se refieren habitualmente con el término 'value gap'. Plataformas como YouTube se han convertido según los legisladores de la UE en una de las principales fuentes de acceso a contenidos protegidos por derechos de autor. "Spotify paga las licencias", aseguraban, "y YouTube no".

De hecho, indicaban, se usa esa plataforma para acceder a esos contenidos "pero los ingresos no llegan a los autores. Quizás -si acaso- llegan a los que suben el contenido". Aquí ha habido cambios en los últimos tiempos, y YouTube ya tiene acuerdos con los titulares de derechos para ejecutar medidas con las que asegurarse de que se protegen esos contenidos y se retiren en caso de violación de las licencias.

¿Qué pasaba hasta ahora? Que con la actual regulación esas medidas no son obligatorias y las plataformas no dan transparencia a los autores. Dichas plataformas se beneficiaban del artículo 14 de la directiva de comercio electrónico (2000/321/EC), pero ya no. Que un autor detecte un contenido que se ha subido sin su permiso y lo denuncie ya existía y la plataforma puede retirarlo a petición del propietario de los derechos. Lo que no existía es que ahora apartir de esa detección la plataforma debe detectar futuros usos de este tipo para quitarlos de forma automática.

Eso, indicaban desde la UE, no incluye al contenido subido con ánimo de cita, o de crítica, por ejemplo, situaciones que se consideran como excepciones y que por tanto permitirán a los creadores incluir clips o fragmentos de contenidos protegidos por los derechos de autor para hablar sobre ellos. Cómo definen esos fragmentos, eso sí, es otro cantar.

Para los responsables de la directiva esta reforma abriría la puerta a que Google News volviera a estar activo en España, algo que sería sorprendente teniendo en cuenta que la empresa retiró este servicio en 2014 por la introducción de la 'Tasa Google'. Ya en 2017 la cuestión volvió a debatirse con la introducción del polémico Canon AEDE.

Plataformas como Google estarán claramente afectadas por esta reforma, y de hecho esta empresa ha dejado claro cuál podría ser el impacto de la aplicación de la nueva normativa. Para los legisladores europeos "la estrategia que han seguido en muchos casos es exagerar los riesgos", y para ellos estas grandes plataformas tienen tantos recursos que podrán "adaptar su modelo de negocio". Veremos si lo hacen, cómo lo hacen, y cómo afecta eso a la internet que todos conocíamos.

La empresa ya ha emitido un comunicado tras la decisión del Parlamento Europeo, y según un portavoz de Google, "la directiva sobre Copyright ha mejorado pero seguirá provocando inseguridades jurídicas y perjudicará a las economías creativas y digitales en Europa. Los detalles importan, y esperamos poder trabajar con los responsables políticos, editores, creadores y propietarios de derechos, a medida que los Estados miembros de la UE avanzan en la aplicación de estas nuevas normas".

¿Y ahora qué?

Tras ser aprobada en el Parlamento Europeo, la reforma del copyright deberá ser adoptada por el Consejo de la Unión Europea. Esta decisión podría tomarse el próximo 9 de abril.

Period

La esperanza de europarlamentarias como Julia Reda es que países como Alemania -cuyo ministro de justicia no estaba de acuerdo con los filtros que impone el artículo 17- se opongan al apoyo de esta reforma, lo que podría llevar a nuevas negociaciones tras las elecciones europeas que se celebran en el mes de mayo.

Queda por tanto un último cartucho, pero la marcha de la votación de hoy no da demasiado lugar al optimismo. Y si el Consejo aprueba dicha reforma, los estados miembros tendrán dos años para implementar la directiva en sus propias legislaciones. Así pues comenzaríamos a ver los efectos de esta reforma a partir de 2021, pero esos preocupantes efectos son difíciles de predecir.

Más información | Directiva sobre la reforma del copyright (otros idiomas y formatos)

El texto de Carl Sagan en el que 20 años atrás anticipaba el debate sobre redes sociales y fake news

$
0
0

El texto de Carl Sagan en el que 20 años atrás anticipaba el debate sobre redes sociales y fake news

Astrónomo, comunicador científico y escritor prolífico. Carl Sagan alcanzó la fama con la serie 'Cosmos', pero sus enseñanzas van mucho más allá. Hace más de 20 años, el divulgador publicó uno de los mejores libros sobre pensamiento crítico, donde además de ofrecernos las 9 reglas del pensamiento escéptico también confirmó que era un hombre adelantado a su tiempo.

El libro El mundo y sus demonios: la ciencia como una luz en la oscuridad fue publicado por primera vez en 1995 y casi de manera profética, contiene un fragmento donde nos advierte de manera precisa sobre los peligros de las redes sociales y las noticias falsas. El texto está orientado principalmente al ámbito de los Estados Unidos, pero es fácil darse cuenta que puede aplicarse perfectamente a nuestra situación.

Una advertencia casi profética

En 1995, Carl Sagan escribe el siguiente texto en su libro 'The Demon-haunted World':

"La ciencia es más que un cuerpo de conocimiento, es una manera de pensar. Tengo un presagio de la época de mis hijos o mis nietos, cuando Estados Unidos sea una economía de servicios e información; cuando casi todas las principales industrias manufactureras se hayan ido a otros países; cuando los increíbles poderes tecnológicos estén en manos de muy pocos, y nadie que represente el interés público pueda si quiera comprender los problemas; cuando la gente haya perdido la capacidad de establecer sus propias agendas o cuestionar sabiamente a los que tienen autoridad; cuando, abrazados a nuestras bolas de cristal y consultando nerviosamente nuestros horóscopos, con nuestras facultades críticas en declive, incapaces de distinguir entre lo que se siente bien y lo que es verdad, nos deslicemos de vuelta, casi sin darnos cuenta, en la superstición y la oscuridad".

Generalmente con una visión optimista, la cita de su libro nos habla de una sociedad que desconfía de la autoridad, con cada vez más diferencia entre los que tienen el poder y los que no y donde nos dejaríamos llevar por las supersticiones, las viejas pseuodociencias y otras formas más sofisticadas de desinformación que nos llevarían a difuminar la línea entre lo que sienta bien y la verdad.

Pero su premonición de hace más de veinte años no queda ahí y también concreta sobre esta sociedad de la información en la que vivimos. Sagan continúa así:

"La caída en la estupidez de Norteamérica se hace evidente principalmente en la lenta decadencia del contenido de los medios de comunicación, de enorme influencia, las cuñas de sonido de treinta segundos (ahora reducidas a diez o menos), la programación de nivel ínfimo, las crédulas presentaciones de pseudociencia y superstición, pero sobre todo en una especie de celebración de la ignorancia."

Como si tuviera una bola de cristal, Carl Sagan describe muy bien la problemática con las noticias falsas y el contenido viral que en unos pocos segundos pasa por nuestras redes sociales.

El autor nos advierte de una "celebración de la ignorancia", una situación donde afortunadamente sí parece que se está luchando desde los propios medios con el auge de verificadores y desde las propias empresas tecnológicas.

El mensaje de Sagan sigue muy vigente

Carl Sagan nos dijo adiós un año después de la publicación de este libro. De eso hace ya bastantes años, pero su mensaje de escepticismo sigue siendo muy actual. Para el divulgador, el método científico y el pensamiento crítico eran vitales para arrojar luz en la oscuridad. Y precisamente este enfoque le permitió analizar las tendencias de su tiempo y pronosticar, con bastante precisión, los resultados en nuestra época.

El divulgador no solo puso encima de la mesa un debate que ahora nos planteamos, también describe lo sutil del proceso. "Consultando nerviosamente, "incapaces de distinguir" o "nos deslicemos casi sin darnos cuenta"; si hemos llegado a plantearnos el debate sobre las noticias falsas es porque ya se ha convertido en un problema a solucionar, pero lo que deberíamos ver es cómo hemos llegado hasta aquí y hacia dónde nos dirigimos.

Un futuro donde haríamos bien en seguir aplicando las reglas que nos recomendó Sagan, porque de la misma manera que hemos derivado en las noticias falsas, esta ceguera provocada por no aplicar un pensamiento escéptico nos puede llevar a otra oscuridad.

Imagen de portada | Cornell University

Pagar por jugar más rápido no garantiza nada, pero eso es lo que promete un ISP en EE.UU. si pagas 15 dólares más al mes

$
0
0

Pagar por jugar más rápido no garantiza nada, pero eso es lo que promete un ISP en EE.UU. si pagas 15 dólares más al mes

La eclosión total del juego online ha hecho que los jugadores se den cuenta de lo importante que es la latencia en sus sesiones: que la conexión no vaya perfecta puede condenarte o situarte en desventaja, y desde hace tiempo hay empresas que prometen conexiones especiales para gamers.

Una de las últimas en hacerlo es Cox Communications, un ISP que promete que si pagas 15 dólares al mes (aparte del coste de tu línea de banda ancha) podrás disfrutar de una reducción de la latencia, las desconexiones y los picos que perjudican esas sesiones de juego. El problema es que esas garantías parecen quedarse en nada, porque quienes han probado estos servicios dan opiniones desiguales: algunos sí aprecian cierta mejora, pero otros muchos dicen que sus conexiones son incluso peores de lo que eran.

Un servicio que promete algo casi imposible de cumplir

La función del servicio que ofrece Cox es la de calcular la ruta al servidor de juegos al que estás conectado y trata de optimizar esa ruta logrando menos saltos entre tu nodo y el del servidor y evitando nodos intermedios congestionados por el tráfico.

Gaming1

Este proveedor de servicios de internet ha comenzado las pruebas en Arizona, donde indica que usuarios que tengan una conexión con ellos de al menos 100 Mbps pueden solicitar este servicio extra llamado "Elite Gamer" para lograr esas mejores conexiones al jugar a videojuegos.

En Motherboard indican cómo este servicio parece ser una versión más de WTFast, un servicio teóricamente optimizado para videojuegos que lleva tiempo disponible en países como Taiwán o Singapur, y cuyas críticas son variadas: desde usuarios que efectivamente notan mejoras en las latencia hasta otros que indican que al usar su servicio no mejora, sino que empeora.

Cambiar de router o modificar DNS puede ayudarte

Este tipo de promesas no son nuevas, y desde hace tiempo hay empresas que tratan de aprovechar las noticias alrededor de la neutralidad en la red para lograr que usuarios con pocos conocimientos contraten esos servicios cuando las garantías de que aporten mejoras significativas son muy dudosas.

Juegos2

Los propios responsables de Cox aclaran que su servicio "no altera la velocidad de conexión en modo alguno ni prioriza un tráfico sobre otro en nuestra red", además de destacar que otros clientes no se ven afectados por un servicio que podría pensarse que beneficiaría a unos perjudicando a otros. Lo que hace, simplemente, es tratar de dirigir mejor el tráfico, pero es amuy complejo y con reducidas garantías de funcionar de forma consistente y duradera.

De hecho muchos usuarios acuden a soluciones que sí han demostrado ser algo más eficaces en ciertos escenarios: comprar un router con mejor soporte de estándares WiFi o que priorice ciertos paquetes (los del tráfico dedicado a los videojuegos), cambiar la configuración del DNS o evitar conexiones WiFi y aprovechar las conexiones de red suelen ser medidas que sí pueden ayudar en este terreno.

Vía | Motherboard

Elitetorrent, Lateletetv, 1337x y más: todas las páginas de descargas que están bloqueadas en España por orden judicial

$
0
0

Elitetorrent, Lateletetv, 1337x y más: todas las páginas de descargas que están bloqueadas en España por orden judicial

El Gobierno de España continúa su lucha contra las páginas de descargas. Con la aprobación de la nueva "Ley Sinde" se podrán cerrar webs incluso sin necesitar una autorización judicial. Un mecanismo que facilitará bloquear aquellos sitios que infrinjan las leyes de Propiedad Intelectual.

¿Cómo es el proceso que se sigue a la hora de cerrar una página web? El mecanismo es bastante opaco. La Sección Segunda, un órgano administrativo integrado por vocales de varios ministerios, es el encargado de, según la Ley de Propiedad Intelectual, proteger los derechos de propiedad intelectual. El primer paso para bloquear una web es que haya una denuncia por parte de los propietarios de los derechos. Una vez realizado este procedimiento, la Sección Segunda toma las riendas y dicta resolución.

Finalmente, es el juez quien autoriza o deniega la resolución de la Sección Segunda, un paso que con la nueva Ley Sinde no será necesario para proceder a bloquear una web a través de los operadores. La figura del juez está para indicar si se están vulnerando derechos de libertad de expresión, aunque no declara culpabilidad. Esto último debe resolverse en el posterior juicio, en caso que se realice.

Según los datos del Ministerio de Cultura y Deporte, a finales de marzo 479 webs fueron afectadas por las acciones de la Sección Segunda de Propiedad Intelectual. De las cuales, todas menos 35 retiraron todos los contenidos que, según ellos, se ofrecían de manera ilícita. Como consecuencia de estas actuaciones, 56 páginas webs han tenido que cerrar completamente. Entre ellas, se incluyen algunas tan conocidas como 'Elitetorrent' o 'ExVagos'.

Sin embargo, el Gobierno no ofrece una lista completa ni da más detalles sobre las páginas webs cerradas de manera cautelar. Tampoco de aquellas que webs que tuvieron problemas legales y decidieron cerrar o de aquellas que han cerrado por temor a los bloqueos.

El panorama de las páginas de descargas ha cambiado radicalmente respecto a como era hace diez años y esto se debe entre otros motivos a los casi constantes bloqueos que han habido por parte de la Comisión Segunda. Este es un repaso de aquellas páginas de descargas que han sido bloqueadas en España. Muchas de ellas cerradas indefinidamente, mientras que otras siguen buscando una nueva vida en dominios alternativos.

Páginas bloqueadas por la Ley de Propiedad Intelectual

Elitetorrent.com

Elitetorrent

El caso de Elitetorrent es particularmente curioso debido a que pese a llevar varios años bloqueado, todavía sigue disponible en dominios alternativos.

Tanto 'elitetorrent.com' como 'elitetorrent.net' aparecen en el listado de dominios bloqueados por la Comisión de la Propiedad Intelectual, pero la página ha seguido su curso.

ThePirateBay

Piratebay

España es solo un país más donde The Pirate Bay está bloqueado. Fue en marzo de 2015, donde el juzgado Central de lo Contencioso-Administrativo nº5 de Madrid ordenó bloquear el acceso a TPB. Según especificaba la Ley Sinde, ante la falta de respuesta de la página a la petición de retirada de los contenidos infractores se procedió a su cierre.

Actualmente el buscador de torrents, considerada como la página de BitTorrent más visitada del mundo, se puede acceder a través de los múltiples dominios existentes.

exVagos y GoEar

Exvagos

Cuatro años más tarde, en 2016, AGEDI denunció a 'exvagos.com' y GoEar, solicitando la eliminación y retirada de más de 100.000 enlaces a audios. La Sección Segunda de la Comisión de Propiedad Intelectual dictó sentencia y actualmente se encuentran en el listado de dominios bloqueados en España.

La web de exvagos tiene hasta nueve dominios distintos bloqueados, entre los que se encuentran 'exvagos.com', 'exvagos.tv', 'exvagos.pro','exvagos.li', 'exvagos.me', 'exvagos.ovh', 'exvagos.uk', 'exvagos.club' y 'exvagos.net'.

Seriesflv, Pordescargadirecta, cuevana2 y más

Seriesflv

La gran cantidad de páginas de internet bloqueadas ha llevado a que existan iniciativas como 'Unblocked', un directorio de webs facilitadoras de descargas que han intentado ser bloqueadas. Una herramienta suficiente polémica como para que sus responsables hayan tenido que reubicar la web en varias ocasiones.

En el caso de la Sección Segunda de la CPI, existen hasta 62 dominios bloqueados. Como son los recientes casos de las webs de 'pordescargadirecta.com', 'pelis24.com' o 'cuevana2.tv'.

Pordescarta Directa

La Comisión Segunda de Propiedad Intelectual ha logrado bloquear los siguientes dominios, siguiendo los dictados de 24 resoluciones judiciales en el ámbito de la Audiencia Nacional. Una larga lista que únicamente representa una parte de las páginas web bloqueadas en nuestro país.

  • www.vooxi.com
  • www.equipo.gdn
  • www.equipox.online
  • www.musicalcloud.es
  • www.musicalcloud.com
  • www.pordescargadirecta.com
  • www.issuu.com
  • www.freelibros.org
  • www.freelibros.com
  • www.freelibros.me
  • www.dafenart.com
  • www.pelis24.com
  • www.pelis24.tv
  • www.pelis24.live
  • www.newpelis24.com
  • www.pelis24.life
  • www.pelisespaña.site
  • www.pelisespaña.club
  • www.pelisespaña.life
  • www.music-bazaar.com
  • www.music-bazaar.pro
  • www.music-bazaar.biz
  • www.music-bazaar.net
  • www.music-bazaar.movi
  • www.seriesflv.net
  • www.genteflowmp3.com
  • www.genteflowmp3.org
  • www.genteflowmp3.me
  • www.genteflowmp3.tv
  • www.genteflowmp3.one
  • www.divxtotal.com
  • www.x-caleta.com
  • www.harpofilm.es
  • www.grantorrent.net
  • www.grantorrent.com
  • www.mp3xd.com
  • www.fiuxy.com
  • www.fiuxy.net
  • www.fiuxy.biz
  • www.fiuxy.bz
  • www.fiuxy.co
  • www.fiuxy.eu
  • www.fiuxy.org
  • www.espaebook.com
  • www.espaebook.org
  • www.descargarmusica.me
  • www.verdirecto.tv
  • www.espapdf.com
  • www.espapdf.net
  • www.elitetorrent.com
  • www.elitetorrent.net
  • www.quedelibros.com
  • www.tucinecom.com
  • www.multiestrenos.com
  • www.goear.com
  • www.newpct.com
  • www.bajatodo.net
  • www.bajatodo.xyz
  • www.cinefox.tv
  • www.thepiratebay.se
  • www.thepiratebay.org
  • www.thepiratebay.net
  • www.thepiratebay.com
  • www.compralia.es
  • www.peliculasonlineflv.net
  • www.veocine.es
  • www.exvagos.com
  • www.exvagos.tv
  • www.exvagos.pro
  • www.exvagos.li
  • www.exvagos.me
  • www.exvagos.ovh
  • www.exvagos.uk
  • www.exvagos.club
  • www.exvagos.net
  • www.equipox.ovh
  • www.todocvcd.com
  • www.todocvcd.net
  • www.x-caleta2.com
  • www.ultimoslanzamientos.com
  • www.pordescargadirecta1.com
  • www.harpofilm.com

Páginas bloqueadas por un juez o intervenidas por la Guardia Civil

Además de las páginas de descargas bloqueadas por la Sección Segunda, también existen numerosas webs que han tenido que cerrar después de denuncias de otras organizaciones u operaciones de la Guardia Civil o la Policía Nacional.

El pasado 10 de julio se produjo el cierre de páginas como 'Tomadivx.org', 'DDMix' y 'NewPCT1' y actualmente esas páginas redirigen a una web policial. En el caso de entidades como Red.es, también han logrado clausurar páginas como 'retro80.es', 'musicalcloud.es', 'lolabits.es', 'mydownload.es' o 'peliculas4.es'. Pero hay bastantes más. Estas son algunas de las páginas bloqueadas más importantes por acciones judiciales no relacionadas con la Comisión de Propiedad Intelectual.

Elitetorrent.biz

Elitetorrent

Adicionalmente al cierre de 'Elitetorrent.com' y '.net', el Juzgado de lo Mercantil número 9 de Barcelona decretó el pasado mes de marzo bloquear también el dominio 'elitetorrent.biz'. Un bloqueo que las tres grandes operadoras, Movistar, Orange y Vodafone, aplicaron cautelarmente.

El auto del juez llegó 42 días después que los estudios de cine y televisión que incluyen a Columbia, Disney, Paramount, Fox, Universal y Warner interpusieran la demanda.

Actualmente, si colocamos 'Elitetorrent.biz' en la barra de navegador seremos redirigidos automáticamente al nuevo dominio: 'Elitetorrent.io'. Una web que desde una conexión Movistar e IP de España, es accesible perfectamente.

Mejortorrent

Mejor Torrent

Otra página de descargas bloqueada es 'Mejortorrent.com'. Si la visitamos, la página web redirige a la web de 'webbloqueadaporpolicianacional.com', donde aparece el símbolo de la Policía Nacional y el mensaje que el dominio ha sido intervenido por la autoridad judicial. Aunque no se especifica qué juzgado ha llevado a cabo la orden.

Actualmente, 'mejortorrent.tv' se encuentra en la posición nº41 del ranking de Alexa en España, aunque, según describe ADSLZone, el portal llegó a situarse entre el top 20 de webs más visitadas. Recientemente, el dominio alternativo 'mejortorrent1.com' también ha sido bloqueado después de la denuncia de los grandes estudios de cine.

Gnula

Gnula

'Gnula.nu' y 'Gnula.se' son dos de los dominios que también han sido bloqueados, después de la resolución del Juzgado de lo Mercantil número 9 de Barcelona. En este caso, la página web sigue operativa a través del dominio 'Gnula.me'.

Exhiben ilegalmente películas y con las que obtienen un beneficio tan ingente como ilícito gracias a los ingresos publicitarios que generan″, aseguraba en un comunicado la Federación de Distribuidoras Cinematográficas.

Latelete.tv y Rojadirecta

Guardia Civil

El 26 de noviembre de 2015, el Juzgado de lo Mercantil de A Coruña ordenó el cierre cautelar del portal Rojadirecta. Desde entonces, los dominios de 'rojadirecta.com', 'me' o '.es' han estado bloqueados. Actualmente, el portal sigue estando activo a través de 'rojadirecta.biz'.

A Rojadirecta se le acusó de "competencia desleal" por parte de Canal+. Los dueños de la web respondieron que su web era legal y no esperaban cambios para el usuario final, pero finalmente las operadoras bloquearon el acceso al no eliminar los enlaces a las retransmisiones de los partidos de fútbol.

Después del cierre aparecieron numerosas alternativas. Entre ellas TarjetaRojaOnline o Latelete.tv. Sin embargo, esta última también aparece como bloqueada por orden judicial y redirige a la web 'webbloqueadaporpolicianacional.com'. Al menos en redes Movistar. Un bloqueo que, según ADSLZone, llegó junto al de los portales 'lacasadeltikitaka.me', 'pirlotv.online' y 'deportemixtv.info'.

1337x.to

1337x

La Asociación de Gestión de Derechos de Propiedad Intelectual (AGEDI) logró que el Juzgado Mercantil número 1 de Barcelona ordenase bloquear el acceso a siete páginas webs diferentes; entre las que se encuentran '1337x.to', 'Masquetorrent.com', 'Isohunt.to', 'Limetorrents.cc', 'Torlock.com'. 'Torrentfunk.com' y 'Extratorrent.cd'.

Según indica la propia asociación que puso la denuncia, 1337x era una página web de descargas muy visitada con 85 millones de visitas durante 2018 y un beneficio de 1,3 millones de dólares anuales.

También denunciadas por AGEDI, el juzgado mercantil número 11 de Barcelona bloqueó en España las páginas de 'flvto.biz', 'flvto.com', 'flvto.co/es', 'flvv2mp3.org', 'flv2mp3.com', 'flv2mp3.by', y '2conv.com' por la práctica conocida como 'stream ripping'.

DivxTotal, GamesTorrents y Estrenos DTL

Divx Total

"Operación Cascada" fue el nombre que la Guardia Civil dio a la campaña de bloqueo de varias páginas dedicadas a compartir por P2P contenidos con propiedad intelectual. En una primera fase, se cerraron 23 páginas entre las que se encontraban DivxTotaL, GamesTorrents y Estrenos DTL.

La Guardia Civil apuntaba que los administradores de estos dominios operaban desde el extranjero, aunque el 80% del tráfico venía de España.

Pese a que la web de 'DivxTotaL.com' fue bloqueada, lo cierto es que los administradores han ido activando progresivamente nuevos dominios. Se llegó a bloquear el acceso a 'DivxTotaL1.org' o 'DivxTotaL.co', pero actualmente se puede visitar en 'divxtotal3.net'. Un número que evidencia la cantidad de dominios que llevan escapando del bloqueo de la justicia.

SeriesBlanco

Seriesblanci

La Guardia Civil junto a la Fiscalía de Criminalidad Informática y en colaboración con policías de Argentina, Alemania y EEUU, cerró a mediados de 2018 hasta 49 páginas web distintas. La operación se dividió en tres grandes operativos: "Cascada", con los casos de Gamestorrents y Divxtotal comentados previamente; "Démona", con el cierre de 'Descargasmix.com' y asociados y "Colmillo", donde se bloquearon 7 dominios vinculados a las páginas 'Seriesblanco.com' y 'Bajul.org' y donde se detuvo a su administrador.

SeriesBlanco comenzó a funcionar en 2014 y contó con al menos 15 millones de visitas mensuales. Actualmente los dominio de 'seriesblanco.com' y 'seriesblanco.tv' están inoperativos, aunque ya no muestra el símbolo de la Guardia Civil.

Páginas de descargas que cerraron y entraron en juicios

Vagos.es

Vagos

En 2012, uno de los portales en español más conocidos cerró después de la denuncia de la asociación CEDRO. Hablamos de 'Vagos.es', un portal representado en su momento por la empresa Wamba Project S.L.

Los responsables de Vagos aseguraron que el cierre de sus foros es temporal hasta que se pudiera demostrar que no se incurría en ningún delito, lo que quedó probado posteriormente. La página no aparece en el listado de webs bloqueadas por la Comisión Segunda, aunque 'vagos.es' sí dejó de estar disponible.

Seriesyonkis

Seriesyonkis

El caso de Seriesyonkis es posiblemente uno de los más importantes en materia de descargas y propiedad intelectual. En 2008 era una de las veinte páginas más visitadas de España, pero la acusación de dos grandes entidades de gestión de derechos como EGEDA y FAP llevó al bloqueo y cierre de la página.

No es juicio sencillo, ya que intervienen varias acusaciones y por el camino la web dejó varios administradores. El dominio de 'seriesyonkis.com' cambió de dueño varias veces y el contenido de la web fue modificándose hasta acabar convertida en publicidad. Una web colaborativa venida a menos que representa como ninguna la batalla entre este tipo de páginas y la justicia española.

Seriespepito y Películaspepito

Seriespepito

Los administradores de 'Seriespepito' y 'Peliculaspepito' fueron detenidos a finales de 2014, después de una operación de la Unidad de Investigación Tecnológica de la Comisaría General de Policía Judicial con la colaboración de la Brigada Provincial de Policía Judicial de Alicante. Posteriormente y después de declarar fueron puestos en libertad. La Policía les acusó de generar unos beneficios estimados en 1.085.000 euros a través de estas páginas web que ponían "a disposición de los internautas obras protegidas".

La página web, cuya empresa propietaria en su día era Zeniox Media SL, puede consultarse actualmente a través del dominio 'seriespepito.biz', pero no así el '.com' que no está disponible ya que se acordó el cierre cautelar del hosting, situado en España.

Páginas que cerraron por iniciativa propia para no recibir más "avisos"

PlusDede

Plusdede

'PorDescargaDirecta' pasó a ser 'PorDede', pero a mediados de julio de 2017 sufrió un hackeo masivo que les obligó a cerrar durante meses. Medio año después anunciaron su regreso pero lo hicieron con otra filosofía. Actualmente se encuentran en fase de renovación, buscando una alternativa legal.

En medio de estos cambios de 'PorDede', apareció 'PlusDede'. Pero su cierre no tardó mucho en llegar. ¿Los motivos? "Escapan a su control", indicaron los propietarios. El dominio de 'plusdede.com' sigue estando activo, pero únicamente para mostrar un mensaje donde indica que recibieron un "aviso" en el que constaba la dirección personal de un miembro del equipo. Al día siguiente varios integrantes decidieron abandonar.

Desdeunlugarmejor, Subtitulos.es, Planeta Lúdico y más

Desdeunlugarmejor

No fue por orden judicial, pero 'Subtitulos.es' cerró un día antes de la entrada en vigor de la "Ley Mordaza". ¿El motivo? "Leyes draconianas" afirmaron. Operativa desde 2008, 'Subtitulos.es' cerró frente a un marco legal incierto y temiendo que cayeran sobre ellos multas similares a las vistas en otros países, como los casos de Legendas.TV o Undertexter.se.

En el caso de páginas como 'tusseries.com', 'descargaya.es', 'peliculon.tv', 'ultimosdiscos.com', 'kioskowarez.net' y 'descargas-directas.net', que también decidieron cerrar por voluntad propia después de ser notificados como parte de una denuncia, según informa La Razón.

'Desdeunlugarmejor' comenzó siendo un referente para las descargas en España con el programa Pando, pero para evitar problemas legales con la Ley de Propiedad Intelectual decidieron echar el cierre. Una decisión similar tomó 'papyrefb2', página donde se compartían libros en formato digital y donde decidieron eliminar todos los ebooks para no enfrentarse a las multas.

Las Leyes de Propiedad Intelectual no solo han creado el marco legal para cerrar páginas, también han actuado como una medida de presión para que muchas webs se anticiparan y decidieran cerrar por su propia cuenta. Son los casos de 'Planeta Lúdico', 'Magnovideo', 'Multifriki' o 'InfoAliment'.

Starlink de SpaceX empieza a ser una realidad: la primera ronda de 60 satélites se ha lanzado con éxito

$
0
0

Starlink de SpaceX empieza a ser una realidad: la primera ronda de 60 satélites se ha lanzado con éxito

La empresa de vehículos espaciales de Elon Musk se ha apuntando un nuevo tanto en su particular incursión en la carrera espacial. Finalmente ha sido el 23 de mayo cuando se ha hecho efectivo el primer lanzamiento de satélites de Starlink, la gran red global de internet satelital de SpaceX con el objetivo de colocar miles de satélites en órbita.

Así, tras haber recibido la aprobación de la Comisión Federal de Comunicaciones de Estados Unidos (FCC) la empresa preparó los lanzamientos de todos estos satélites, con el fin de que proporcionen internet de banda ancha a todo el mundo. La Comisión impuso una fecha límite, por lo que no se podía retrasar mucho más la puesta en marcha y ahora por fin se ha realizado el primer paso.

Una carga de récord para el Falcon 9

Este primer paso consta en la carga y eyección de 60 de estos satélites desde un cohete Falcon 9. Como confirma SpaceX, se realizó desde Cabo Cañaveral (Florida, Estados Unidos), a las 10:30 p.m. hora local EDT (las 4:30 a.m. en España peninsular, 3:30 en Canarias, 9:30 p.m. en México y Colombia) desde el complejo de lanzamiento número 40. Un lanzamiento exitoso después de que se pospusiera varias veces debido a las condiciones climáticas y/o incidencias con los satélites (actualizaciones de software).

Cada uno de los satélites pesa 227 kilogramos, de modo que el conjunto de los 60 significa la carga más pesada que hasta ahora se ha llevado en un Falcon 9, según recogen en Space.com de los representantes de la compañía. Un cohete que ya es todo un veterano, de hecho era el tercer viaje del propulsor, habiendo ascendido previamente para las misiones Telstar 18 VANTAGE e Iridium 8.

Starlink Lanzamiento Fotografía del Falcon 9 en uno de los intentos previos, fallido por el viento. Imagen: SpaceX vía Space.com

Elon Musk detalló previamente que para el lanzamiento de estos primeros 60 satélites se recurriría a la inercia de los mismos para colocarlos en órbita, y no de mecanismos añadidos. De este modo, el Falcon 9 rota para que los satélites salgan proyectados al exterior, como cuando se reparten cartas sobre una mesa, con una mínima posibilidad de que hubiese pequeños contactos entre los satélites pero estando éstos diseñados para aguantarlo, según el empresario.

Starlink Satelites Carga La carga de los 60 satélites. Imagen: SpaceX vía Space.com

Un pequeño paso para SpaceX, ¿un gran paso para internet?

Decíamos en el inicio que el objetivo es componer una red de satélites en órbita, contándolos a miles. Y es que tras la primera aprobación de la FCC para que operasen con 4.425 satélites, ésta amplió su permiso para 7.518 más. Es decir, SpaceX dispone de autorización para desplegar y operar casi 12.000 satélites en la órbita baja terrestre, siendo así la compañía privada o agencia con mayor número de objetos en espacio.

SpaceX dispone de autorización para desplegar y operar casi 12.000 satélites en la órbita baja terrestre
Starlink Satelites Espacio La carga de los satélites ya en el espacio, antes de ser lanzada. Imagen: SpaceX vía Space.com.

Se distribuirán en dos constelaciones, repartidas justamente en estos dos grupos que hemos descrito. La segunda (y más numerosa) estará a una altura menor que la primera, y en conjunto podrán proporcionar conectividad a todas las partes del mundo, según SpaceX.

Eso sí, estos primeros 60 satélites se hayan aún en fase de prueba (si bien la empresa ya hizo una en febrero de 2018 con un par de satélites). Se trata de unidades que no disponen de todas las características del diseño final que los que compondrán la constelación requieren, de hecho no pueden establecer comunicación entre ellos (pero sí con los centros de control en la Tierra).

Starlink Esquema

El plan es que tras este primer lanzamiento haya otros seis de también 60 satélites para que Starlink empiece a proporcionar una cobertura mínima de internet, y otros 12 lanzamientos para una cobertura moderada. La idea de SpaceX es que las conexiones por satélite se abaraten y sean de mejor calidad que las actuales, así que veremos si al final compensa enviar un número tan elevado de satélites teniendo en cuenta cómo tenemos ya nuestros alrededores.

Ascenso y caída de Myspace: de cómo la falta de copias de seguridad se llevó la explosión cultural de una generación

$
0
0

Ascenso y caída de Myspace: de cómo la falta de copias de seguridad se llevó la explosión cultural de una generación

¿Imaginas perder todo lo que has ido subiendo en Facebook o YouTube a lo largo de estos años? En una época en la que internet es lo más parecido a un dios omnisciente y omnipotente, una generación se ha quedado huérfana de vídeos, canciones y fotos que subieron a la plataforma del momento. Hablamos de Myspace, uno de los portales de referencia de principios de siglo.

Para hacernos una idea de la magnitud de la pérdida, en 2006 Myspace fue más visitada que Google solo en Estados Unidos, una plataforma en la que se dieron a conocer artistas de la talla de Arctic Monkeys, Kate Nash o Adele. Myspace almacenaba más de 53 millones de canciones y videoclips de más de 14 millones de artistas, erigiéndose como un referente cultural para una generación que lo ha perdido (todo lo almacenado en Myspace) para siempre. Analizamos las consecuencias con Borja Prieto, representante de Myspace en España.

Sin copia de seguridad

El ocaso de Myspace coincidió con el ascenso de otras plataformas, es ley de vida. Pero nadie pensó que con su abandono se perdería el contenido: la sensación era que el contenido subido y compartido iba a quedarse allí para siempre.

Pero internet ya ha dado aviso de que no es eterno. Myspace constituye un doloroso ejemplo de ello. La empresa que gestiona myspace.com reconoció hace unas semanas que el contenido multimedia subido entre 2003 y 2015 se ha perdido para siempre y no existe posibilidad de recuperación:

"como resultado de un proyecto de migración del servidor, las fotos, vídeos y archivos de audio que fueron cargados hace más de tres años puede que ya no estén disponibles. Nos disculpamos por las molestias y sugerimos que conserve sus copias de seguridad".

Andy Baio, uno de los talentos detrás del éxito de Kickstarter, cuestionó en un tweet que la pérdida fuera accidental, insinuando que la razón se encontraba en el coste de migrar y almacenar tal cantidad de archivos "viejos".

https://twitter.com/waxpancake/status/1107511026931490817

Cabe recordar que Myspace fue comprada por NewsCorp en 2005 por 580 millones de dólares y vendida a Specific Media en 2011, ya en su ocaso, por 35 millones de dólares. Myspace ya no era la red social para la reproducción de contenido, sino un mero repositorio de contenido en el que muchos confiaron para depositar sus recuerdos ad aeternum.

Los hermanos Chris y Tim Vanderhook, detrás de Specific Media, eran fervientes usuarios de Myspace antes de adquirirla y veían en su capacidad para conectar artistas y fans su punto fuerte. Los Vanderhook, de la mano de Justin Timberlake, se pusieron manos a la obra en 2013 para intentar reflotar la plataforma con un cambio de estrategia.

Por aquel entonces contaba con una librería de más de 53 millones de canciones, provenientes tanto de acuerdos con discográficas como de subidas por parte de los usuarios.

Myspace

Con un diseño simplificado y una arquitectura que buscaba la agilidad y la velocidad de carga del contenido en streaming, la beta del nuevo Myspace llegaba en forma del primer single de Justin Timberlake en 7 años, Suit & Tie. Un rayo de sol iluminaba Myspace: una semana después, la tasa de registros era de una persona por segundo.

Myspace surgió y se hizo fuerte en un tiempo de cambio en los hábitos de consumo musicales: los usuarios iban abandonando los soportes físicos tradicionales en favor del formato digital. Pero, con el tiempo, fue perdiendo terreno frente a otras alternativas como Spotify.

Como los hermanos Vanderhook creían, Myspace era una alternativa que permitía conectar a los artistas con su audiencia, pero también dar a conocer a nuevos cantantes y bandas como lo fueron un día Katy Perry y Bruno Mars.

Y no solo músicos: también fotógrafos, cineastas y otros creadores de contenido. Myspace era un bazar de creatividad como lo es ahora YouTube, donde cualquiera puede crearse una cuenta y subir contenido.

Myspace, el testigo cultural de toda una generación

Para aquellos usuarios que mantuvieron su cuenta, la noticia de la pérdida de datos no fue una sorpresa. Como podemos leer en esta discusión de Reddit, varios usuarios se quejan de la imposibilidad de escuchar sus canciones. No solo no pueden reproducirlas, sino que tampoco pueden descargarlas o acceder a ellas.

Algunos se quejan amargamente por haber perdido las canciones de su vieja banda, otros de haber perdido para siempre las canciones que grabaron cuando eran adolescentes y subieron a la plataforma.

Card

Card

Jordan Tallent es uno de esos usuarios afectados por la pérdida que se puso en contacto con Myspace. Su antigua banda de heavy, Where Got Ghost, había subido su música a Myspace y ya no podía acceder a ella.

Un representante de la empresa le contestó vía email que debido a la migración de servidor llevada a cabo en 2016, algunos archivos antiguos habían quedado corruptos e irrecuperables. Eso sí, a diferencia del comunicado oficial en la que se hablaba de archivos subidos antes de 2016, el representante marcaba 2013 como el punto de pérdida:

"Si tenías un perfil de Myspace antes de 2013, cierto contenido de las cuentas clásicas de Myspace (mensajes, comentarios, blogs, vídeos, etc) ya no se encuentran disponibles para su reproducción o descarga, al no haber sido migrados a nuestra web rediseñada."

En el email se hacía referencia a que Tallent no había usado su cuenta desde 2014, por lo que estos archivos se encontraban fuera de su compromiso de mantenimiento de datos de perfil, que como hemos visto más arriba, se ciñe a aquellos posteriores a 2015.

La pérdida de canciones es solo la punta del iceberg. Como hemos visto, en Myspace no solo tenía cabida la música, sino también fotografías, vídeos y otras creaciones, lo que constituye una pérdida irrecuperable de la cultura de una generación, que ya no podrá descargarla, disfrutarla o comprarla y venderla. Por supuesto, también se han perdido sus interacciones.

Esta pérdida de datos masiva evidencia un peligro actual que nos acecha: cuanta más información compartimos de nuestras vidas a las grandes empresas de internet, más control perdemos sobre ellas.

¿Cuánto valor le damos a nuestros recuerdos? Estamos en el siglo XXI y las redes sociales se han convertido en nuestros álbumes y escaparates. No, las plataformas no son un buen lugar para archivar nuestros datos.

Myspace es el primer gran servicio en perder los datos de los usuarios, ya sea intencionadamente o por accidente. Pero no es el único: Flickr anunció recientemente que comenzaría a borrar fotos.

Myspace

Entonces, ¿dónde están mis datos?

Myspace fue el lugar de encuentro e intercambio cultural de una generación, pero en los últimos 4 años la sangría de usuarios ha sido constante, pasando de 29 millones de usuarios únicos en Febrero de 2015 a solo 2.

En Myspace ya no quedan usuarios, pero quedan los datos de estos. En 2016, Viant, una empresa especializada en medios digitales, adquirió Myspace. Después, Time Inc., compró Viant por 87 millones de dólares.

Un año después, Meredith Corporation — otra empresa de medios — se hizo con su propiedad intelectual, que incluye los datos de los consumidores y las direcciones de email de 250 millones de usuarios, solo en Estados Unidos. Posteriormente, puso Viant a la venta.

¿Y en España?

Bor

Tras analizar el ascenso y ocaso de Myspace, charlamos con Borja Prieto, el que fuera responsable de contenido en España, hoy creador y máximo responsable de la agencia Está Pasando, sobre lo que supuso culturalmente Myspace a pequeña y gran escala:

"En la época MySpace despuntaron muchos y mi labor era darle espacio en la plataforma a grupos de música y proyectos. No creo que fuéramos más listos que los demás, sino que teníamos una plataforma con 6 millones de usuarios únicos donde podíamos mostrar lo que estaba pasando a nivel musical en el país. De alguna manera, Myspace era un termómetro de los gustos de la gente."

Myspace constituyó una revolución en la forma de entender la música, la antesala de lo que se ha convertido el negocio musical actualmente: "Era una época sin Spotify y con un Youtube más disperso. Hablábamos con grupos, sellos pequeños y grandes y hacíamos un marketing muy de guerrilla y muy galopante, todos los días había novedades."

Si Myspace sirvió de trampolín para artistas internacionales de la talla de Arctic Monkeys, Kate Nash o Bruno Mars, dentro de nuestras fronteras hizo lo propio con bandas hoy consolidadas:

"Recuerdo cosas muy sorprendentes que petaron: cuando colgamos los discos de Vetusta Morla o Love of Lesbian y reventaron, cuando salió 'La revolución Sexual' de La Casa Azul y tenía 200K plays al día, los discos de Russian Red, Zahara... hubo mil cosas que no existían en los medios que dieron números que certificaban que debían estar en los medios generalistas. También hicimos muchos conciertos con grupos y cantantes cuando justo estaban empezando: Katy Perry, Lady Gaga, Ting Tings... un desfase, la verdad. "

Prieto nos habla de 6 millones de usuarios únicos en España, una plataforma notable para compartir contenido, pero también para crearlo: "Impulsábamos básicamente música que negociábamos con artistas, discográficas y productoras de cine y contenido propio que comenzamos a hacer como unas entrevistas bastante chulas donde juntábamos a artistas que se entrevistaban, por ahí pasaron Eva Hache, Nacho Vigalondo, Iker Casillas, Rafa Nadal..."

Al margen de artistas ahora consolidados, en Myspace también había espacio para que cualquiera lanzara al mundo sus pinitos artísticos: "Lo que más se subía era música y mucha fotografía." Precisamente aquellos que subieron contenido de forma amateur, sin comercializarlo ni hacer copias al creer que estaría allí para siempre, son los más perjudicados.

Myspace fue uno de los servicios pioneros en cambiar la forma de interactuar de los artistas con sus fans, erigirse como plataforma de puesta en común cultural y de experimentar en la generación de contenido. Una potente estrategia y una situación privilegiada que choca con su final. ¿Cuál es tu percepción sobre lo sucedido?

"Como en toda empresa cuando se van sus fundadores, pierde un poco su esencia. Para mí, cuando desaparecieron Tom y Chris, empezó el bajón. También empezaron a quitar herramientas muy útiles para sus usuarios más activos y eso al final se nota. Si un músico no tiene lo que necesita migra a otra herramienta. Esa dejadez a nivel de usabilidad y programación mató a MySpace."

Tampoco ayudó la llegada de Spotify o la consagración de YouTube: "Creo que estas empresas entendieron mucho mejor que la usabilidad, el móvil y las herramientas de compartición eran básicas para el crecimiento."

Lleida.net: la aventura de un grupo de radioaficionados que pasaron del BBS a facturar 13 millones de euros con los SMS y la certificación electrónica

$
0
0

Lleida.net: la aventura de un grupo de radioaficionados que pasaron del BBS a facturar 13 millones de euros con los SMS y la certificación electrónica

Hablar de Lleida.net es hacerlo de una de las empresas con las que se puede hacer un repaso de la historia de Internet en España. Una empresa que, como tantas otras, nace casi de casualidad como punto de unión entre la afición de varios amigos y que, con el paso del tiempo, ha ido evolucionando hasta facturar 13 millones de euros, cotizar en dos mercados bursátiles y tener filiales en 19 países del mundo. Y conseguir este volumen vendiendo SMS (entre otros servicios).

Una startup de 24 años

“LLeida.net es hoy una pequeña multinacional de bolsillo”, señala Sisco Sapena, fundador y CEO de la empresa que en estos momentos cuenta con 80 trabajadores en plantilla (muchos de ellos ingenieros) de 14 nacionalidades, siendo el 56% de ellos mujeres.

Lleida.net tiene una facturación de 13 millones de euros, filiales en 19 países, 104 patentes concedidas y 250 en camino. La compañía asegura tener unos crecimientos anuales del 25% repartidos en tres líneas: Verificación y notificaciones (que supone el 65% de la facturación), servicios de SMS (un 25%) y Validación de información (10%).

El negocio de los SMS en la era del Whatsapp

En la era del Whatsapp y cuando parecía que incluso las operadoras habían renunciado al negocio de los SMS, el origen de buena parte del negocio de Lleida.net está, precisamente en estos mensajes cortos de texto.

Todos

“También las empresas de reciclaje hacen dinero con lo que otros tiran”, ironiza Sisco Sapena, matizando que donde está el negocio es en el SMS profesional, no en el personal. “Este servicio no solo se ha mantenido, sino que sigue creciendo porque es el único que es universal. No depende de un programa”. Por ejemplo, si usas Airbnb y alguna vez has recibido un SMS, ya sabes quién lo ha gestionado.

“Las empresas se hacen supranacionales y ahí están nuestros clientes. O en los proveedores de esas supranacionales. En este terreno, si eres muy eficiente en tu gestión, hay mucho mercado”, asegura el CEO de Lleida.net, quien sabe en cada SMS que sale de la compañía cuánto gana o deja de ganar. Según sus datos, “hay mensajes cuyo margen de beneficio es de 0,000001 euros. Es muy poquito. Pero el volumen, al estar completamente automatizado, acaba siendo rentable”, explica. Reacio a dar cifras exactas de cuántos SMS gestiona Lleida.net en un año, sí desliza algunos datos: que con GDPR hubo una "apoteosis de SMS", que el último trimestre suele ser el mejor (por el impacto de las navidades y black friday) y que este año la compañía superará "el millar de millón de mensajes".

Entre los clientes de Lleida.net se encuentra eléctricas, banca (como Bankinter), seguros (como Zurich), mutuas… pero también usuarios particulares que, en algún momento determinado, necesitan “dejar un rastro para certificar algo”, como en denuncias o divorcios. “Para usar nuestros servicios no exigimos un alta ni nada. Pagas por uso con una tarificación mínima de 5 euros y se puede pagar con tarjeta”, explica Sapena, quien recuerda que hace un par de meses se empezaron a dar de alta muchos clientes que eran trabajadores de una empresa low cost que ha decidido cerrar algunas bases en España. “Todos los trabajadores se dieron de alta en el servicio de mail certificado para notificar a la compañía que no estaban de acuerdo con el cierre”, explica.

Todo empezó como radioaficionados

El negocio de envío de SMS supone 1 de cada 4 euros que factura la compañía. Este año superarán los mil millones de SMS

Pero, hasta llegar hasta aquí, Lleida.net ha pasado por varios cambios. La empresa nace a mediados de los 90 y lo hace como proveedor de Internet (ISP). Sapena y un grupo de amigos radioaficionados tenían una BBS (una evolución de los radioaficionados en los que se ponía un sistema en la línea telefónica que permitía que otros usuarios se conectasen, descargarse correos, shareware, etc.). “Formamos parte de la red FidoNet. Y nos animamos a fundar Lleida.net como red BBS de Lleida”, rememora el CEO de la compañía. Este grupo de amigos era consciente en aquellos momentos de que Internet podía tener futuro. “Nos gustaba mucho así que lo intentamos”.

Durante un año y medio largo buscaron financiación y “tras un par de sonoros fracasos”, Sisco Sapena tiró de lo que se conoce como FFF (family, friends and fouls, familia amigos y locos) para buscar ese dinero que les hacía falta para montar la empresa hasta llegar a ser “la tercera empresa a la que Telefónica prestó servicios de FrameRelay, la tecnología de conectividad que había entonces. No nos fue mal y nos fuimos adaptando y evolucionando”, recuerda el CEO de la empresa, que también asegura que, de aquella época pre punto com, “somos los únicos que todavía existen, con el mismo nombre, la misma gente y creciendo”.

Sisco2 Sisco Sapena, CEO y fundador de Lleida.net

En el 2000, coincidiendo con una crisis interna (uno de los socios y director técnico se marchó de la compañía, dejando a Sapena al frente de la misma), Lleida.net pasa de ser un ISP a dar servicios de chat. “Durante 9 años yo fui presidente de IRC hispano, que era el Facebook de la época. Teníamos 1,5 millones de usuarios cada noche. Ahí aprendimos muchas cosas, como a gestionar comunidades y con escasos recursos como teníamos entonces”, señala Sisco Sapena.

Cómo ser operadora y no morir en el intento

En esa época aparecen los móviles y el boom de los SMS. Los gestores de Lledia.net ven que podía haber un nicho de mercado en ofrecer servicios profesionales, pero la clave era ser operadora, no revendedor.

Tras varios intentnos, Lleida.net salió finalmente a bolsa un año después del escándalo de Gowex. También cotiza en la de París desde 2018

Es la época de las primeras operadoras móviles virtuales. “Montar una OMV costaba 500 millones de pesetas de entonces (3 millones de euors)”, asegura el CEO de Lleida.net. “No teníamos ese dinero pero buscamos en la antigua Comisión del Mercado de las Telecomunicaciones (hoy Comisión Nacional de los Mercados y la Competencia) una figura que nos permitiera tener numeración y con ella interconexión y prestar el servicio”, explica. La solución estaba en ser operador fijo virtual. “Era una opción relativamente barata, que estaba tan pasada de moda que hacía 3 años que ninguna empresa se daba de alta con esta figura”, rememora Sapena. Pero Lleida.net apostó por ella porque le permitía tener los recursos que querían.

La suerte, esta vez, cayó de su lado. “Telefónica empezó a dar servicios de SMS a través de sus líneas fijas, con lo cual si el incumbente lo daba, a los que venían detrás no se les podía negar. Pero hay muchas maneras de decir que sí y de decir que no, Así que necesitamos 3,5 años en cerrar todos los acuerdos de interconexión con todas las operadoras”.

Desde 2002 a 2006 los responsables de LLeida.net se centran en intentar conseguir todos estos acuerdos de intereconexión. Pero no solo a nivel de España, sino también a nivel internacional. Tras acudir a muchos congresos, en otoño de 2006 lanzan estos servicios, con cerca de 800 operadoras a nivel internacional. “Las operadoras nacionales alcanzaban solo 200”, asegura Sapena. La explotación de estos servicios coincide con la segunda oleada de las OMV, forzadas por la CMT. “El único proveedor de servicios dispuesto a dar servicios de interconexión a todas las OMV éramos nosotros. A día de hoy, creo que seguimos siendo la única empresa que ofrece servicios de tránsito de SMS a todas las OMV”, asegura.

Oficinas2

Del SMS al negocio de la certificación

El servicio de SMS que ofrecía Lleida.net se realizaba a través de softphones, pequeños programas que descargabas y que permitían enviar y recibir mensajes a través de un número asignado a cada usuario.

Pero Lleida.net ofrecía, por el mismo precio, generar un mail al mandar un sms que verificaba que se había enviado el mensaje. “Lo utilizaba el 80% de nuestros clientes”, asegura Sapena, quien explica que aquello conllevó que empezaran a recibir muchas notificaciones judiciales pidiendo esos datos. “Al principio hasta te hace ilusión colaborar con la justicia, pero cuando te llaman insistentemente, la cosa empieza a no tener tanta gracias, porque en España es una obligación y no se cobra por ese servicio, al que había que destinar mucho tiempo”, ironiza Sapena.

“Lo importante de una compañía es ser capaz de generar tus propios recursos. No puedes gastar 10 veces más de lo que ganas. Hay 200 familias dependen de nosotros. Eso mola” Sisco Sapena, CEO de Lleida.net

La solución a esto, y la llegada de un nuevo negocio, se produce casi por casualidad. “Un día se produce una avería en la red de Vodafone. Los mensajes llegaban pero no se podía generar el correo electrónico”, recuerda el CEO de LLeida.net. La llamada de una secretaria de un ayuntamiento fue clave. Sisco Sapena recuerda casi con literalidad lo que aquella secretaria le dijo: “No me importa si los mensajes llegan o no, pero yo no tengo el informe de que he hecho mi trabajo”. Ese comentario le dio la clave para arrancar su nuevo negocio: la certificación.

“Los techies somos muy finalistas: si utilizamos una fórmula y no nos da el resultado que esperamos, nos parece mala. Pero aquí el subproducto de la fórmula, que era el correo electrónico, tenía mucho más valor que el producto final, el SMS”, señala. Sapena se da cuenta de que, por un lado, tenía a jueces pidiéndole cosas certificados y, por el otro lado, clientes que pagaban “encantados” por ese servicio porque su jefe hacía de juez con ellos. “El mismo certificado que le generaba a los jueces es el que le generaba al usuario. Y ahí nacieron todos los servicios de certificación que son los que nos han traído hasta la bolsa”, explica.

Certificar facturas, contratos y demás

Y, de la misma manera que casi por casualidad surge el negocio de los servicios de certificación de mensajes, apareció también el de los contratos. “En una feria un cliente nos dijo que lo quería al revés: que certificásemos lo que él recibía” con el fin de asegurar que los pedidos que se le hacían se le iban a pagar. Es así como Lleida.net también desarrolla la certificación de mensajes entrantes.

Sisco5

Hasta que, otro golpe de suerte, muestra a Sapena el siguiente negocio. “Tenía impresos varios certificados en mi mesa. Salieron todos volando y cuando los recogí me di cuenta de que tenía, uno enfrente del otro, un certificado de ida y otro de vuelta. Me di cuenta de que si certificaba la ida y la vuelta y las juntaba, eso suponía un contrato. Así nació el contrato SMS, que se utiliza en renegociación de deudas, en eléctricas, etc.”, explica.

Algo que también se aplica a las facturas electrónicas. “Con la última crisis nadie quería recibir las facturas. Nadie reconocía haberlas recibido. Nosotros ya nos estábamos planteando cómo hacer el servicio de mail certificado. Existía la notificación por comparecencia, pero tiene el inconveniente de que necesitas que haya voluntad de acuerdo en las dos partes. Si es una multa, o algo punible o que cuesta dinero, nadie quiere”, explica.

“Buscaba la excusa para desarrollarlo y lo encontré en la factura certificada”, detalla. Hacer una certificación era tan caro que nadie pensó en certificar facturas. “Existía el concepto, pero más desde el punto de vista del consumidor, para asegurarte de que esa factura es de esa empresa. Pero quien genera la factura no tiene ninguna repercusión económico. Pero si un tercero certifica cuándo se emitió esa factura, empiezan a correr los tiempos para el cobro y penas por retrasos en el pago, porque con este servicio se puede demostrar qué día y a qué hora se entregó esa factura”, explica.

Así fue como hace el mail certificado y algunas de las 104 patentes concedidas sobre certificación.

El complejo momento de salir a bolsa

Lleida.net salió en 2015 a bolsa en nuestro país, en el Mercado Bursátil Alternativo. La principal razón para hacerlo era seguir creciendo. “Tenemos mucho inmovilizado material, que es toda la I+D que estamos desarrollando. Pero vas a un banco y le enseñas todo esto inmaterial y creen que te has inventado todo”, se lamenta Sapena.

La salida al mercado bursátil no fue sencilla. El primer intento fue en 2011, pero un inversor de capital riesgo se opuso en redondo. Lleida.net tiene también que pasar de ser una Sociedad Limitada a una Sociedad Anónima y en 2015, un año después del escándalo de Gowex, sale a bolsa, tras un proceso bastante complicado.

Oficinas4

Lleida.net consiguió tener una valoración antes de salir a bolsa de 23 millones euros. Pero era finales de julio, así que los gestores decidieron retrasar la salida. Justo ese verano de 2015 las bolsas asiáticas cayeron un 40%. “Nosotros habíamos conseguido una última ronda de financiación de 8 millones de euros con 5 inversores. Se nos cayeron 4,5 millones de euros de la ampliación”, recuerda Sapena, que también señala que la valoración cayó hasta los 14 millones de euros.

Además, las elecciones catalanas estaban próximas. “El gobernador del Banco de España Linde aseguró que podía haber un corralito en Cataluña y aquello hizo que se nos cayeran 3 millones de euros”, recuerda el CEO de Lleida.net, quien también señala que fueron la séptima empresa en acogerse al decreto del gobierno que permitía a las empresas catalanas cambiar su sede social ante el riesgo de escisión de Cataluña.

No quiero que me compren, quiero comprar

Lleida.net ha recibido propuestas de adquisición, pero Sapena asegura que, más que ser comprado, él lo que quiere es comprar, aunque eso no es tarea fácil tampoco.

Lleida.net cotiza en dos mercados bursátiles y busca hacerlo en 5. El 56% de su negocio se realiza fuera de España

“Muchas de esas propuestas que hemos recibido partían de bases falsas. Las ofertas no eran realistas. Nosotros hemos conseguido algo que pocos logran y a lo que yo doy mucho valor: no hemos heredado algo de nuestros padres o mentores, sino que lo hemos creado nosotros, hemos logrado que sea algo grande y que puede serlo más. Y eso pocas veces se consigue”, expone Sapena. “Tenemos un raro privilegio: guiar nuestros pasos en conciencia e interés. Y es un tesoro al que me cuesta mucho renunciar. Mientras pueda mantenerlo, lo haré”, sentencia.

Sapena explica que la mayoría de las ofertas priman los asuntos meramente económicos. “Yo no estoy aquí solo por eso”, defiende.

En cuanto a las compras que quiere hacer, busca empresas complementarias y que les permitan avanzar en su roadmap. “El gran problema que tenemos es que nuestros ratios son muy altos: tenemos una rentabilidad superior al 50%”, asegura. En este punto, reconoce que estuvieron en conversaciones con una empresa que facturaba 10 millones, pero que, a su juicio, tenía dos grandes problemas: su rentabilidad era del 10% “lo que haría caer mi rentabilidad al 30%”. Y la gran parte de su dinero estaba concentrado en 50 clientes. “Y eso es mucho riesgo”.

Euronext1 Salida a la Bolsa Euronext

Una startup viejuna

Sisco Sapen define Lleida.net como una startup de 24 años que cotiza en dos bolsas y que tiene sus propios CPD para ofrecer sus servicios (3 en Lleida, otro en Paris, Colombia y Tokio, con la previsión de construir alguno más).

El 56% de la facturación proviene de fuera de España, lo que obliga a Sapena a pasar 140 días fuera de su casa. “Ójala tuviera en el banco las millas que acumulo en aviones”, se ríe.

Sapena reconoce disfrutar mucho con su trabajo. “Lo importante de una compañía es ser capaz de generar tus propios recursos. No puedes gastar 10 veces más de lo que ganas. Hay 200 familias dependen de nosotros. Eso mola”, asegura, reconociendo que, quizá, el nombre de su empresa no suene tanto en el panorama tecnológico español como otros nombres. “Hay muchas compañías discretas a nivel nacional, que son multinacionales y con un gran peso. Lo importante es que generemos valor, también para nuestros accionistas”.


Cómo funciona exactamente un test de velocidad y cómo de fiables son

$
0
0

Cómo funciona exactamente un test de velocidad y cómo de fiables son

El test de velocidad, esa herramienta que consultamos normalmente en situaciones desesperadas, cuando algo falla en la conexión a Internet. Si no va todo como esperábamos acudimos a estos test de velocidad para poner a examen a nuestra conexión y operadora. Pero, ¿es fiable el resultado que nos da? Veamos qué es un test de velocidad, cómo funciona exactamente y cuánto hay que fiarse de él.

Los test de velocidad suelen ponernos en grande una cifra tras ver varias agujas moviéndose durante unos segundos. Si esa cifra se aproxima a lo que nuestro operador nos ha prometido, todo bien. Sin embargo, hay más cosas en las que deberíamos fijarnos.

Los términos que hay que conocer: descarga, subida, ping, Mbps...

Antes de ver cómo se realiza un test de velocidad es importante conocer algunos de los términos que comúnmente se utilizan en estas apps y servicios. El usuario medio conoce lo que es la velocidad de descarga y la velocidad de subida. Pero, ¿la latencia? ¿el servidor? ¿Mbps y Mb/s? Veamos estos términos no tan comunes:

  • Velocidad de descarga: La velocidad que tiene la conexión a internet para obtener datos de un servidor. Es el tiempo que tarda un paquete de archivos en ser descargado desde un punto externo al dispositivo que se esta utilizando. Se mide generalmente en megas por segundo. Es decir, en los megas que consigue descargar en un segundo.
  • Velocidad de subida: En este caso hablamos del tiempo que tarda un archivo en ser subido a un servidor externo. Al contrario que la velocidad de descarga, aquí se mide la cantidad de megas que la conexión a Internet puede subir en un segundo al servidor.
Res Test de velocidad mostrando los resultados obtenidos.
  • Velocidad teórica: La velocidad de descarga o subida que nos promete el operador. Generalmente es más alta que la velocidad real que tenemos, y se debe a distintos factores que veremos a continuación. Cuanto más se acerquen las velocidades de descarga y subida a la velocidad real, mejor.
  • Latencia y ping: Hablamos de latencia cuando medimos el tiempo exacto que tarda un paquete de datos en transmitirse dentro de una red (del dispositivo al servidor o viceversa en este caso). La latencia se mide en pings, que son los milisegundos que tardan en comunicarse entre sí el servidor y el dispositivo. Cuanto menor sea la latencia/ping mejor, ya que menos tardará en conectarse servidor y dispositivo. Esto es especialmente importante en conexiones en directo como una película en streaming o videojuegos online.
  • Mbps: Sirve para medir la velocidad de descarga y subida. Literalmente significa "megabits por segundo" y mide la cantidad de megabits capaz de enviar la conexión en un segundo.
  • Proveedor: Si un test de velocidad indica el proveedor hace referencia generalmente al operador que tenemos contratado. Pero claro, hay operadoras que dependen de un proveedor común, por ejemplo aquellas operadoras que son filiales low cost de operadoras mayores. Por lo tanto puede que el proveedor no siempre sea exactamente el operador con el que tenemos contratado Internet.
  • Peak: Son los picos de velocidad máxima que se dan en un test de velocidad. No hay que tenerlos mucho en cuenta, ya que lo que importa es la velocidad media que se obtiene.
  • Jittter: Relacionado con la latencia, el jitter es la variabilidad de tiempo que se puede dar en el envío de pings. Es un dato que normalmente no se muestra en los test de velocidad, aunque si queremos indagar e investigar a fondo una conexión a Internet habría que tenerlo en cuenta. Normalmente importa en conexiones en directo, como la latencia.

Cómo funciona un test de velocidad

El funcionamiento básico de un test de velocidad se basa en descargar y subir un paquete de archivos a su servidor. Según el tamaño del paquete y lo que tarde la bajada y la subida es capaz de calcular la velocidad de conexión. Por ejemplo, digamos que tenemos contratados 50 megas de velocidad con el operador. Haciendo un test de velocidad vemos que obtiene una velocidad de descarga de 47 Mbps. ¿Qué significa esto? Que si por ejemplo ha descargado un paquete de 500 megas ha tardado aproximadamente un minuto y medio. Son 500 por 8 Mbps y el resultado dividido por 47 Mbps. Obtenemos algo más de ochenta segundos, casi un minuto y medio de duración.

Aguj

Pero claro, por dentro el funcionamiento es algo más complejo. El test no se limita a descargar y subir un archivo. Lo primero que hace en realidad es determinar cuál es el proveedor, la empresa que nos proporciona la conexión a Internet. También analiza dónde se encuentran los servidores más cercados de este proveedor. Según la ubicación de estos servidores y la ubicación del usuario puede determinar desde dónde realizar la prueba.

Sí, el servicio de test de velocidad también tiene su propio servidor desde el cual descarga o al cual sube un archivo. La ubicación de los servidores es clave para determinar la fiabilidad del test de velocidad. Cuanto más alejados estén ambos del usuario, peor será la velocidad de conexión obtenida en el test.

Normalmente los test de velocidad disponen de servidores ubicados a lo largo y ancho del mundo, incluso varios por país. También es común que el servicio escoja automáticamente el servidor más cercano al usuario, aunque algunos dejan cambiarlo para escoger otro si se desea.

Img 4

Elegidos los servidores correctos se procede a medir la latencia, que como ya hemos visto es el tiempo que tarda un paquete de archivos en enviarse del servidor al usuario y viceversa. Para ello manda pings al servidor desde el dispositivo para ver cuánto tarda en responder. Nos interesa que sea lo más bajo posible este tiempo, especialmente si usamos Internet para ver vídeos en streaming, hacer videollamadas o jugar online.

Tras esto finalmente se procede a realizar la descarga de archivos y posteriormente la subida de vuelta al servidor. Aquí normalmente es cuando vemos una animación con las agujas midiendo la velocidad que obtiene por momentos. Esto es lo de menos, lo que importa es el resultado final, que se trata de una media de velocidad obtenida durante todo el proceso. Su durante el proceso hemos visto un número más alto de lo normal o cifras más grandes que la de final, son los picos de velocidad, los peak.

Qué factores afectan al test de velocidad y cómo mejorarlo

Previamente hemos mencionado el servidor como uno de los factores que más determinan la velocidad de conexión final. Pero claro, es algo en lo que poco podemos interferir ya que difícilmente vamos a convencer al operador para que ponga un servidor más cerca de nosotros. Hay otros factores que sí dependen más del usuario:

  • Los demás dispositivos conectados: Si hay más dispositivos conectados a una misma red es posible que la velocidad se vea reducida, ya que también están consumiendo ancho de banda de la conexión al servidor. Para mejorar el test de velocidad lo ideal es que haya la menor cantidad posible de ordenadores, móviles y otros dispositivos conectados a la misma red Wi-Fi.
  • Conexión por Wi-Fi o por cable: No se va a obtener la misma velocidad si el ordenador está conectado por Wi-Fi que por cable. La señal Wi-Fi puede debilitarse y en consecuencia reducirse la velocidad de conexión. Se obtienen mejores resultados por cable, pero no todos los dispositivos permiten este tipo de conexión, por ejemplo los móviles.
  • Las otras tareas del dispositivo: Si el ordenador está realizando otras tareas en segundo plano como descargar archivos o reproducir un streaming, el test de velocidad será inferior. Esto se debe a que se está utilizando parte del ancho de banda para otras tareas. Influye también las tareas que no tengan que ver con conectarse a Internet, ya que el rendimiento del dispositivo también puede afectar a la velocidad de conexión.
  • La congestión del servidor: A veces aunque tengamos un dispositivo perfectamente optimizado podemos obtener velocidades bajas. En tales casos puede deberse a que el servidor del test de velocidad o el del operador están algo congestionados o sobresaturados. Lo mejor es realizar diferentes pruebas y en diferentes momentos del día o incluso semana.
Img 5 La cantidad de dispositivos conectados a la red y si lo están por cable o de forma inalámbrica afecta a los test de velocidad.

Como podemos ver, hay diversos factores que determinan la cifra final de nuestro test de velocidad. Evidentemente no siempre va a dar las cifras máximas que nos promete el operador, ya que esas cifras se han obtenido en condiciones óptimas, o lo que es lo mismo, conectados por un cable a un metro de distancia del servidor del operador. ¿Son fiables los test de velocidad entonces? Siempre y cuando tengamos en cuenta los aspectos que pueden modificar el resultado final, sí.

Apps y webs para hacer un test de velocidad

Es recomendable usar un test de velocidad que cuente con servidores desplegados por todo el mundo. Con esto nos aseguramos de que tendremos uno cerca de nosotros y si solemos conectarnos a servicios de una parte determinada del mundo podremos usar un servidor de esa zona para obtener un resultado más certero. En este sentido lo interesante es apostar por un test de velocidad internacional. Y claro, si lo queremos aún más fiable es recomendable que disponga de una app para móviles y así poder probar la conexión en las mismas condiciones en todos los dispositivos.

Otro detalle a tener en cuenta es que sea uno lo más "independiente" posible. Es decir, el test Fast de Netflix por ejemplo puede ser perfecto para saber tu conexión al usar Netflix, pero se deja métricas que sí importan, ya que se centra en la velocidad de descarga y el ping, no hay datos que el usuario tiene que subir a Netflix. En cuanto a los test de las operadoras más de lo mismo.

Img 6 Test de velocidad realizado con SpeedSmart.

Teniendo esto en cuenta algunos de los más comunes y mejor reputación son los siguientes:

Conociendo cómo funciona un test de velocidad y especialmente los factores que hacen que sea más o menos fiable, es posible realizar un test de velocidad mucho más correcto. La recomendación es hacerlos siempre en las condiciones más comunes en las que nos encontremos. Es cierto que podemos optimizarlos, pero no reflejarán el uso real que hacemos de la conexión a Internet.

Imagen | @thomasjsn

Qué es Cloudflare, cómo funciona y por qué cuando "se cae" parte de internet se viene abajo

$
0
0

Qué es Cloudflare, cómo funciona y por qué cuando

Quizás alguno de vosotros hayáis visto en vuestras pantallas el mensaje "502 Bad Gateway". Intentábais acceder a algún sitio o página web y de repente, ese mensaje de error. ¿A qué se debe?

Pues a que Internet se ha cogido un catarro. Al menos, parte de ella, porque Cloudflare, una de las empresas que nos permiten acceder a esos sitios web, está teniendo problemas. Y si Cloudflare tose, a internet le sube la fiebre. Por eso queremos aclarar qué es Cloudflare, cómo funciona y qué está pasando últimamente con ella.

Que vivan los CDNs

Internet funciona conectando unos ordenadores a otros. Cuando nos conectamos a una página, servicio, o aplicación web, lo estamos haciendo mediante peticiones a un servidor remoto.

Down1

El problema con esos servidores remotos es que pueden no estar distribuidos de forma óptima por todo el mundo: que yo me monte una tienda online en un pequeño servidor en mi país hará que los que están cerca de esa localización tengan un acceso decente, pero la cosa puede ponerse complicada para quienes están lejos.

Además las velocidades de conexión pueden ser bajas y podemos tener problemas de disponibilidad o de acceso geográfico desde ciertos países. Lo ideal sería tener replicada nuestra tienda online en varios servidores distribuidos de forma diversa geográficamente para que si uno falla no fallasen el resto y para que cada usuario se conecte al que le ofrece los mejores tiempos de acceso y velocidad de conexión.

Cloudflare2

Eso es precisamente lo que hacen los CDN (Content Delivery Network o Content Distribution Network), que no son más que redes de servidores distribuidos geográficamente en los que residen aplicaciones, servicios o datos a los que los usuarios acceden remotamente.

Estos CDNs se han convertido en una parte fundamental del funcionamiento de internet, sobre todo ahora que la ubicuidad de las comunicaciones hace que podamos aprovechar todo tipo de servicios en cualquier momento. Los servicios de streaming de vídeo son un buen ejemplo de ese escenario en el que contar con una red de distribución de contenidos es vital para dar un buen servicio a todos los usuarios.

Cloudflare es (más que) un CDN

En 2009 el concepto de los CDN ya era conocido y comenzaba a ser popular entre las empresas que comprendían que tener acceso a estas plataformas era muy interesante, y fue así como nació Cloudflare.

Cloud1

La empresa comenzó a operar definitivamente en 2010, pero se ganó fama en los años siguientes al convertirse en una solución óptima no solo para quienes buscaban esa red de distribución de contenidos, sino también para proteger a empresas de ciberataques -como los de denegación de servicio- que intentaban "tumbar" sus sitios web.

Eso convirtió a Cloudflare en un referente que iba más allá de la mera puesta en marcha de un CDN. Sus servicios fueron ampliándose, y pronto tenía un catálogo que permitía a usuarios y empresas mitigar esos ataques DDoS, que distribuía sus contenidos y que también ofrecía un servicio DNS alternativo (el célebre 1.1.1.1) o, más recientemente, una VPN llamada Warp.

Todas estas propuestas han hecho que muchas empresas, grandes y pequeñas, apuesten por Cloudflare a la hora de gestionar todos sus contenidos.

Asi, Cloudflare actúa como intermediaria entre el cliente y el servidor, usando unos sistemas llamados proxies reversos (reverse proxies) para crear copias espejo y cachés de sitios web. Eso permite distribuir las copias y que estén accesibles de forma rápida y segura a los clientes.

Cdn3

No solo eso: esa filosofía permite actuar a Cloudflare como guardián de esos contenidos, detectando tráfico malicioso, interceptando los citados ataques de denegación de sonido, o limitando el spam, por ejemplo.

Aunque todo eso es vital a la hora de ofrecer un servicio a los clientes, en realidad su papel como CDN es vital a la hora de luchar contra una de las grandes demandas de los usuarios: la baja latencia. Conectarse rápido a sitios web y que la respuesta sea prácticamente instantánea depende de esa infraestructura de red, y los CDN juegan un papel vital en este ámbito.

¿Por qué no puedo usar el chat de Discord?

Los clientes de Cloudflare son a menudo muy conocidos, y aunque la dependencia puede no ser total, muchísimas empresas trabajan en mayor o menor medida con esta plataforma. Entre ellas están Medium, ThemeForest, Discord, exchanges de criptodivisas como Coinbase o HitBTC, tiendas online montadas con Shopify, además de otras muy conocidas como Soundcloud, Dropbox o Pinterest.

502

El problema de esa dependencia es claro: cuando se cae Cloudflare, lo más probable es que algunas de ellas (o todas) se vean afectadas en mayor o menor medida.

Ha ocurrido en los últimos días, y eso hace que servicios como Discord, muy utilizado entre los gamers, de repente deje de funcionar. O que nos encontremos con que cierta tienda online tampoco carga en el navegador.

Si esos u otros servicios no cargan el problema suele no estar en ellos, sino en las infraestructuras que utilizan para dar servicio. Ha ocurrido en el pasado con Amazon, por ejemplo, y esta semana hemos visto una fuerte caída de Cloudflare de la que ellos mismos informaron en su sitio web dedicado a comunicar el estado de su infraestructura.

Cuando detectamos una caída en ese servicio o sitio web que usamos y esta se mantiene durante unos minutos lo más probable es que haya algún problema relativamente serio en la infraestructura de red que lo proporciona.

Servicios como DownDetector permiten consultar el estado de algunos de esos servicios, pero también podemos consultar las cuentas de Twitter de esos servicios o de sus responsables, que suelen utilizar esta red social para ofrecer información sobre esos potenciales problemas.

Ante estas situaciones, eso sí, poco podemos hacer: la dependencia de estas empresas es total para quienes las usan (y para los usuarios), y en la mayoría de los casos solo podemos esperar a que sean ellas las que reaccionen lo antes posible para restablecer el servicio. Así pues, la mejor receta contra los odiosos errores "502 Bad Gateway" suele ser la paciencia.

Para los ISPs británicos, Mozilla es tan mala para internet como Donald Trump

$
0
0

Para los ISPs británicos, Mozilla es tan mala para internet como Donald Trump

El organismo británico llamado ISPA (Internet Services Provider's Association) agrupa a diversos operadores y proveedores de contenidos en internet, y cada año se encargan de nominar a tres "héroes" y tres "villanos" de internet.

Para este organismo el presidente Donald Trump es uno de esos villanos por amenazar la cadena de suministro de telecomunicaciones, pero junto a él está el polémico artículo 13 de la reforma del copyright y, atención, Mozilla, un organismo que todos consideraríamos precisamente como héroe de internet, no como villano. ¿Por qué lo hacen? La razón está en un curioso acrónimo: DoH.

A los ISP no les gusta DNS-Over-HTTPS

Hasta ahora la gestión de los DNS se realizaba sin cifrar, pero en los últimos tiempos han aparecido dos alternativas que permiten evitar que terceras partes puedan recolectar información sobre las DNS que visitamos, algo que ayuda a proteger la privacidad de los usuarios.

Moz2 La propia Mozilla publicó una explicación de DNS over HTTPS en formato cómic

Esas dos alternativas son DNS over HTTPS (DoH) y DNS over TLS (DoT). Hay algunas diferencias sutiles entre ambos, pero lo importante es que tanto Mozilla como Google han adoptado la primera en fase preliminar: sus sistemas ya están preparados para soportar ese cifrado de DNS, pero los clientes (como nuestros navegadores y los sitios web que deben implantar el protocolo) no.

A falta de que eso ocurra, la polémica ha saltado por diversos motivos. En primer lugar, porque algunos creen que este sistema permitirá a Google controlar una parte más de la infraestructura de red para recolectar datos, y en segundo, porque ese control era de otros.

En concreto, de los ISP -nuestros routers usan servidores DNS de las operadoras-, que se quejan ahora de que este tipo de protocolo es incompatible con el régimen de bloqueo de sitios web que está vigente actualmente en el Reino Unido, de donde es la organización ISPA.

Como explican en TechCrunch, en el Reino Unido los sitios web pueden ser bloqueados o baneados si facilitan la violación de materiales protegidos por los derechos de autor, por ejemplo. Al cifrar las peticiones DNS se podría hacer más complejo que los ISP pudieran filtrar ese acceso de sus clientes a internet, logrando así que el veto/baneo fuese poco efectivo.

Otros organismos han protestado por la adopción de protocolos que impedirían (o pondrían más difícil) poner barreras a ciertos sitios web, y entre ellos están el servicio de inteligencia británico GCHQ y la Internet Watch Foundation del Reino Unido.

Para la ISPA activar por defecto DoH "sería dañino para la seguridad online, para la ciberseguridad y para la capacidad de elección de los consumidores". Mozilla no se ha pronunciado de momento al respecto.

Los YouTubers europeos forman un sindicato que tratará de obtener más transparencia cuando se eliminan o desmonetizan sus vídeos

$
0
0

Los YouTubers europeos forman un sindicato que tratará de obtener más transparencia cuando se eliminan o desmonetizan sus vídeos

Si sois youtubers quizás os hayáis enfrentado a esa preocupante situación en la que YouTube elimina alguno de vuestros vídeos o los banea para que no podáis recibir ingresos por ellos. Eso ha ocurrido con frecuencia en el pasado, pero los creadores de contenido rara vez pueden hablar con alguien en persona y resolver un problema que suele generarse por la plataforma automatizada de filtrado de vídeos en YouTube.

Los youtubers europeos llevan tiempo tratando de luchar contra esa opacidad de Google, y ahora podrían tener éxito: un sindicato llamado 'FairTube' liderado por un youtuber alemán se ha aliado a IG Metall, un gigantesco sindicato industrial de ese país.

Los youtubers están hartos de no poder hablar con nadie de YouTube

Jorg Sprave, un creador alemán de contenidos con 2 millones de seguidores ya tuvo problemas de este tipo y la situación no se resolvió a pesar de que no violó los términos de uso del servicio. Eso provocó la puesta en marcha de ese particular sindicato que por el momento no había tenido impacto en las políticas de Google.

Eso podría cambiar con el acuerdo con IG Metall, que es uno de los sindicatos más antiguos en Alemania y que aunque se centraba en sector metalúrgico ha acabado ampliando sus horizontes para unir a trabajadores del sector de las tecnologías de la información, el segmento de plásticos y el textil y, atención, el de estos creadores de YouTube.

La nueva campaña llevada a cabo por el sindicato podría servir para que la UE investigara los procesos que YouTube ofrece para gestionar su plataforma, y que forzaran a ser más transparentes a la hora de lidiar con esos vídeos que desaparecen o dejan de proporcionar ingresos a los usuarios incluso cuando no violan los términos de uso.

El vídeo en el que explican sus objetivos desaca cómo tratarán de plantear estrategias legales como la de cuestionar si se debería considerar a los creadores de contenido como empleados de YouTube. También interviene aquí la GDPR, que podría forzar a Google y a YouTube a ofrecer mayor transparencia a la hora de cubrir datos personales.

Si los responsables de Google / YouTube no responden a las peticiones antes del 23 de agosto de 2019, podrían comenzar a tener problemas con un sindicato que quiere luchar por un trato más justo y menos automatizado para los creadores de contenido. Desde Google España nos han remitido un comunicado en el que sus responsables indican lo siguiente:

"Los creadores son un parte fundamental del ecosistema de YouTube, es por ello que YouTube comparte la mayor parte de los beneficios generados con ellos. Con el objetivo de que el ecosistema sigan desarrollándose, YouTube trabaja por encontrar un equilibrio que asegure la seguridad de sus usuarios, la sostenibilidad del contenido para los anunciantes, al igual que la del negocio de los creadores. Valoramos la opinión de los creadores e intercambiamos opiniones de manera constante con ellos a través de múltiples vías".

En Xataka nos hemos puesto en contacto con algunos youtubers españoles para saber cuál es la situación en nuestro país. De momento no hemos obtenido respuesta de ninguna de las partes, pero si lo hacemos actualizaremos esta información.

Actualización (29/7/2019, 15:06): incluidas declaraciones de Google

Imagen | Pixabay
Vía | Engadget

8chan: así es el controvertido foro donde se engendró el tiroteo racista de El Paso y que hasta su creador está a favor del cierre

$
0
0

8chan: así es el controvertido foro donde se engendró el tiroteo racista de El Paso y que hasta su creador está a favor del cierre

"Consigue una puntuación más alta". Esa fue la primera respuesta que un usuario anónimo puso después que Brenton Tarrant, el autor de 28 años de la matanza de Christchurch en Nueva Zelanda, publicara su manifiesto racista instantes antes del ataque. Lamentablemente, estos días ha ocurrido otro terrible tiroteo en El Paso, EE.UU, con veinte muertos. Un atentado confesado por Patrick Crusius, un joven de 21 años, que según las autoridades también habría publicado su mensaje de odio en 8chan momentos antes.

A raíz del último tiroteo medios como el New York Times han admitido que existe un serio problema con el supremacismo blanco y ya se considera a 8chan como uno de los sitios más peligrosos de internet, comparándose incluso con grupos terroristas como Al-Qaeda o ISIS.

Las grandes empresas de tecnología como Google o Facebook tampoco se libran de la radicalización y ya han empezado a tomar medidas. Pero cuando los hombres blancos pueden intercambiar sus proclamas libremente y bajo total anonimato, la tendencia a las ideologías extremas y la violencia parece ser clara. Y esto es justo lo que ocurre en 8chan, un foro que ha acabado convirtiéndose en el perfecto reducto para recibir incentivos a hacer más ataques.

8chan, un foro nacido en 2013 que explotó después del Gamergate

8chan Imagen de cabecera de 8chan, "los abismos más oscuros de Internet", como ellos mismos proclaman.

Para conocer la historia de 8chan tenemos que hablar de Fredrick Brennan, su fundador. Nacido en 1994, sus padres se divorciaron cuando tenía cinco años y sufre una profunda discapacidad que le obliga a estar en silla de ruedas desde su nacimiento. Precisamente por ello los usuarios de 8chan le pusieron el sobrenombre de 'Hotwheels'.

El nacimiento del foro de 8chan no fue por motivos ideológicos, sino como parte para demostrar sus habilidades como programador. Una web para añadir a su portfolio y crear una comunidad para combatir la soledad.

8chan es un sitio web donde los mensajes de los usuarios generan hilos de conversación. Un foro donde discutir de todo tipo de temas, desde criptomonedas o videojuegos hasta política. Los usuarios pueden participar de forma anónimo y no hay reglas establecidas salvo la prohibición de publicar material explícito ilegal.

Su funcionamiento es muy similar a 4chan pero al contrario que en aquel, Brennan ofrece absoluta libertad de expresión y aseguró no borrar ningún mensaje. Una diferencia que sirvió para atraer muchos usuarios de su rival después de la polémica del 'Gamergate' y los mensajes misóginos.

"No soy como Chris Poole. Yo esto feliz con vosotros", publicó Brennan en un chat como manera para convencer a aquellos usuarios descontentos con 4chan. Era 2014 y aquella polémica sirvió para que 8chan multiplicara por 100 su número de mensajes por hora. Hoy en día ocupa la posición 4.546 del ranking Alexa de las webs más visitadas del mundo.

8chan foro

Brennan ya no es el administrador de 8chan. En 2015 traspasó el dominio a Jim Watkins, un veterano del ejército norteamericano residente en Filipinas y donde a través de su compañía NT Technology también administra varias páginas porno. Un traspaso que con el paso del tiempo ha ido distanciando totalmente a Brennan de su foro pese a que 8chan se ha mantenido igual desde hace años en cuanto a la libertad de publicación. Principalmente en /pol/, su board más popular y polémico.

La moderación no existe en 8chan

La conexión de 8chan con el joven de 21 años autor de la masacre de El Paso ha sido confirmada por las autoridades, según informa NBC News. Una relación que no ha sido aislada, ya que supone el tercer tiroteo en menos de 6 meses que previamente fue anunciado en 8chan. El primero de ellos contra ciudadanos musulmanes, el segundo contra judíos y el tercero contra latinos.

Preguntado por el The Washigton Post, Jim Watkins contestó que "espero que estén bien". Al mismo tiempo que defendió la libertad de expresión para acoger el vídeo donde el autor de la matanza de Christchurch mostraba cómo cometía su atrocidad.

8chan

Bellingcat describe 8chan como un "sitio que permanece casi completamente sin moderación ... Los usuarios de 8chan con frecuencia elogian a los tiradores utilizando distinta jerga, refiriéndose a los cuerpos como "altas puntuaciones" y creando memes alabando a los asesinos".

Según explica The Guardian, antes del tiroteo distintos usuarios hablaban del autor como "nuestro hombre" e incitando a alcanzar un alto número de víctimas. Y es que la dinámica creada en estos foros está muy controlada y hasta existen hojas de cálculo donde se ordenan las distintas matanzas, con detalles como el número de víctimas, la localización y la fecha.

El autor del tiroteo de El Paso publicó su manifiesto racista 20 minutos antes. Una decisión que se debate sobre si habría sido promovida por las mismas acciones similares ocurridas en anteriores ataques. Como apunta Wired, los autores saben perfectamente las consecuencias de sus mensajes y "es una información que se envía deliberadamente, para generar la máxima cobertura periodística".

Cloudflare decide dejar de darles soporte

Según informa el New York Times, Tucows, la compañía que gestiona la dirección de 8chan, explica que no tiene planes inmediatos de bloquear el dominio. Pero tras el atentado de El Paso, Matthew Prince, CEO y cofundador de Cloudflare, ha emitido un comunicado donde informa que dejará de dar soporte a 8chan. "Ellos (8Chan) han demostrado ser anárquicos, y esa anarquía ha causado múltiples muertes trágicas". Cloudflare acusa a 8chan de "cruzar una línea" de "servir para inspirar sucesos trágicos". Una decisión que afirman que "no han tomado a la ligera".

El cese de servicio de Cloudflare provoca que 8chan pierda la protección contra ataques de denegación de servicio (DDoS), hasta que encuentren una alternativa.

Durante el día después del anuncio, 8chan ha estado caído en distintas ocasiones aunque en el momento de escribir esto todavía se mantiene accesible de manera intermitente. La propia empresa ha informado de estas caídas y explica que en un periodo de 48 horas buscarán otro servicio alternativo a Cloudflare, aunque desde el WSJ se informa que 8chan no está disponible debido a la falta de soporte de Cloudflare.

Desde Cloudflare, creen que se debería trabajar junto a otras compañías y con legisladores para ayudar a comprender el problema que suponen webs como estas. "Estoy nervioso acerca de si hemos tomado la decisión correcta, y estoy nervioso acerca de cómo esto sentará un precedente en el futuro", explica Prince a Wired.

"Es negativo para todos, excepto para los usuarios que están ahí"

La situación ha llegado a tal punto que Fredick Brennan, fundador de 8chan, haya pedido el cierre de la web que en su día creó. Tal y como recoge el New York Times, Brennan ha comentado que "que se cierre el sitio. No está haciendo ningún bien al mundo. Es completamente negativo para todo el mundo, excepto para los usuarios que están ahí. ¿Y sabes qué? También es negativo para ellos. Pero no se dan cuenta".

8chan es hogar teorías de conspiración, discursos de odio y promoción de la violencia, pero no es debido a ciertos algoritmos ni la estructura del propio foro. Como apunta Buzzfeed, se trata de un problema de educación, de los propios jóvenes blancos norteamericanos que entre ellos refuerzan este tipo de ideas y no se encuentran con una oposición suficiente fuerte entre sus usuarios. Unas ideas que se pueden transmitir a través de 8chan o de cualquier sitio web que aparezca como alternativa. Un problema que que no debería ser atribuido solo a lobos solitarios, sino a un ecosistema radicalizador que inspira estas masacres.

En Xataka | Youtube filtrando las búsquedas de Brie Larson y Capitana Marvel nos enseña un posible futuro de internet

Así es ZeroNet, el internet alternativo P2P al que se ha mudado 8chan y hace que sea (casi) imposible de cerrar

$
0
0

Así es ZeroNet, el internet alternativo P2P al que se ha mudado 8chan y hace que sea (casi) imposible de cerrar

El pasado lunes 5 de agosto 8chan recibió un importante golpe al perder a Cloudfare como servicio para la protección contra ataques de denegación de servicio (DDoS). En consecuencia, el polémico foro se cayó en diferentes ocasiones hasta que finalmente no pudo sostenerse más en pie en Internet. Al menos no en el Internet que todos conocemos, porque ahora se ha mudado a ZeroNet, un Internet alternativo que funciona mediante tecnología P2P para evitar la censura y centralización de los servidores.

Si ninguna empresa les proporciona alojamiento, los usuarios lo harán. Esta es la solución que han encontrado los responsables de 8chan para sobrevivir ahora que empresas como Cloudflare no quieren proporcionales servicio debido su posible relación con tiroteos recientes. Esta solución la han encontrado en ZeroNet, una tecnología que no es nueva, pero que suele coger relevancia siempre que alguna web o servicio importante se pasa a este universo alternativo por las dificultades de operar en el Internet tradicional.

Un Internet descentralizado y con tecnología P2P

ZeroNet es una red descentralizada que opera de forma similar a las redes P2P, es decir, que la información se transmite directamente entre usuarios y no con un servidor de por medio. Es un servicio basado en código abierto y en lugar de operar con una dirección IP para cada usuario, los identifica como en una red blockchain. Al utilizar una clave blockchain firma y publica cambios en una página web a la que accede, de forma similar a cómo lo hace cualquier criptomoneda como Bitcoin.

En teoría –en teoría– es imposible de censurar una web de ZeroNet, están distribuidas en diferentes ordenadores y no en un sólo servidor. Tampoco hay por lo tanto costes de mantenimiento de la página en un servidor, pues se almacena en local en los ordenadores de los usuarios que quieren acceder a ella.

ZeroNet Páginas de control en ZeroNet donde podemos ver qué páginas ha descargado, el tamaño total y más opciones.

ZeroNet funciona en la mayoría de navegadores modernos como Chrome, Firefox, Safari u Opera. Sólo necesita instalar una app que se encuentra disponible para Windows, macOS o Linux. Con esta app se crea un servidor local desde el que acceder y donde almacenar las páginas web a las que se accede. Por poder se puede incluso operar sin conexión a Internet, a fin de cuentas las web se descargan en el ordenador y en local.

Qué diferencia a ZeroNet de Tor

Tanta descentralización y anonimato hace que nos venga a la cabeza otra alternativa a Internet, la red TOR. Bien, son tecnologías diferentes, aunque compartan características. La primera diferencia de todas es que ZeroNet no es anónimo en realidad, sí que es cierto que una vez el usuario está dentro puede anonimizar su conexión, y se hace precisamente utilizando TOR. TOR por su parte es anónimo desde el principio, de hecho es su principal objetivo, anonimizar al usuario para que navegue por la red de forma descentralizada y sin ser rastreado.

ZeroNet ZeroSites, la web donde aparece el listado de todas las páginas en ZeroNet ordenadas por categorías.

Por lo tanto, TOR se centra en cifrar con diferentes capas la conexión del usuario y modificar la conexión para que no sea directa con el servidor. ZeroNet por su parte se centra en ofrecer alojamiento a páginas web de forma descentralizada mediante conexión P2P. El combo de ambas tecnologías consigue una red totalmente descentralizada y anónima.

Por último, ZeroNet es mucho más amigable de cara al usuario que TOR. La navegabilidad es más cómoda y sencilla, además de que el acceso sólo requiere de instalar una simple app.

Cómo acceder a ZeroNet y qué nos vamos a encontrar

Para instalar ZeroNet no se requiere de un navegador espacial, como hemos visto basta con la app de ZeroNet disponible gratuitamente. Una vez instalada sólo hay que abrir el navegador que usamos siempre y encontraremos la web de inicio de ZeroNet. A partir de ahí es cuestión de navegar por sus páginas web disponibles. Para algunas se requiere un nombre de usuario, aunque podemos hacerlo sin problemas desde la web ZeroID y servirá para todo ZeroNet.

El funcionamiento de ZeroNet es realmente sencillo, para cada página a la que accedamos el programa descarga una versión en local en el ordenador. Esto se hace para que se pueda acceder sin problemas, pero sobre todo para que actuemos como servidor y otros puedan acceder también a ella desde nuestro ordenador. Es como un archivo de digamos una película torrent, tú descargas la película mediante torrent desde los ordenadores de otros usuarios, mientras que al mismo tiempo otros usuarios están descargando la película de lo que tú tienes ya descargado. Si nadie está compartiendo el torrent no puedes descargarlo, si nadie está compartiendo una web de ZeroNet no puedes acceder a ella.

ZeroMaps ZeroMaps, el servicio de mapas alternativo de Zeronet. Si nos fijamos aparece un mensaje de error, es porque no hay suficientes usuarios en la página para poder descargarla correctamente.

Lo que nos vamos a encontrar dentro de ZeroNet es de lo más variado. Por un lado tenemos servicios básicos como puede ser un gestor de correos llamado ZeroMail, una app de mensajería llamada ZeroBoard, un foro llamado ZeroTak, un servicio de mapas llamado ZeroMaps, un monedero de Bitcoin llamado ZeroWallet... Pero no todo son webs alternativas a las populares y con nombres que comienzan por Zero. Si nos vamos a ZeroSites vamos a encontrar la lista completa de webs disponibles, y hay de todo.

Al ser un alternativa en principio sin censura es posible encontrarse contenido de lo más polémico. Encontramos por ejemplo Play, una página para obtener películas y series online que se dio a conocer tres años atrás. También hay páginas para descargar aplicaciones y otro contenido de pago. Encontramos incluso tiendas con productos ilegales, páginas porno y más.

Zerop Sí, también hay páginas de porno en ZeroNet.

El futuro sin censura de 8chan

Por la forma en la que está hecho ZeroNet parece un lugar ideal para un foro como 8chan, que suele contener y publicar contenido polémico o que puede incitar al odio. No hay empresa ni gobierno que pueda acabar con 8chan en ZeroNet a no ser que encuentre la forma de cerrar al completo ZeroNet. Es como intentar acabar con los torrents. Ahora mismo su web se encuentra operativa.

Zeronet Página de 8chan en ZeroNet y su subpágina /pol.

En principio parece el lugar ideal, sí, sin embargo migrar a ZeroNet implica dejar el Internet que usa todo el mundo por uno utilizado por una ínfima parte de la población. 8chan podrá aguantar en pie en ZeroNet, pero no con la misma cantidad de usuarios ni con la capacidad de llegar a tantas personas como en el Internet tradicional. Es lo mismo que tenemos en la Dark Web: hay cosas mucho más radicales que en el Internet tradicional, pero debido a las dificultades para acceder es mucho más difícil que tenga una repercusión tan grande como se puede tener en Internet.

Vía | @getongab
Más información | ZeroNet

Llevamos años escuchando que las IPv4 se han acabado y que IPv6 es el futuro, pero todavía no ha cambiado nada (o eso parece)

$
0
0

Llevamos años escuchando que las IPv4 se han acabado y que IPv6 es el futuro, pero todavía no ha cambiado nada (o eso parece)

Las direcciones IPv4 se agotaron hace años y el mundo sigue girando. Esa parece ser la conclusión de una situación que algunos analistas tildaban de preocupante y que años después no parece haber afectado en nada el día a día de millones de usuarios y empresas en todo el mundo.

De hecho hubo un tiempo en el que diversos organismos alertaban de la situación y advertían que debíamos ir preparándonos para el cambio al nuevo protocolo IPv6 y a sus direcciones de 128 bits. Aquello no sirvió de mucho, y a día de hoy el soporte de direcciones IPv6 apenas supera el 25% y puede que nunca veamos una migración completa a este espacio de direcciones IP.

Cuidado que se acaba IPv4 (o no)

Cada dispositivo que se conecta a internet tiene una dirección IP, una especie de DNIe o matrícula de coche que lo identifica y lo diferencia del resto. Cuando se diseñó la red de redes se pensó en un protocolo que sirviera para asignar esas direcciones de forma organizada y con margen de maniobra suficiente para que millones de dispositivos pudieran conectarse a internet.

Ipv6 11

Así surgió IPv4, un protocolo con direcciones de 32 bits que permitía generar direcciones IP para 2^32 dispositivos. O lo que es lo mismo, 4.300 millones de ellos (en concreto, 4.294.967.296). Parecía margen de maniobra suficiente, ¿verdad?

No lo era. La llegada de los smartphones y de los dispositivos conectados lo cambió todo, y a principios de esta década se comprobó cómo ese espacio de direcciones era insuficiente. Había que generar nuevos carnés de identidad para los dispositivos del futuro, pero ya no había números disponibles para hacerlo. Nos habíamos quedado sin números de matrícula.

Había una solución potencial. El protocolo IPv6, que se convirtió en un borrador de un estándar IETF (Ingernet Engineering Task Force) en 1998 acabaría siendo ratificado como un estándar de internet en 2017. Curiosamente nos habíamos saltado el protocolo IPv5, que tuvo un propósito diferente y se convirtió en el llamado Internet Stream Protocol y no pasó del ámbito experimental.

Aquel IPv6 daba solución al problema con ese espacio de direcciones de 128 bits: 2^128 direcciones quedaban de repente disponibles para que 340 sextillones de dispositivos (difícil de imaginar la cantidad, pero creednos, es más que suficiente para nuestro corto, medio, e incluso largo plazo) tuvieran su particular identificador. Volvía a haber números de matrícula de sobra.

El problema con IPv6 es que fue diseñado sin compatibilidad hacia atrás con IPv4. O usabas uno, o usabas el otro. O, como ha acabado sucediendo, usabas los dos a la vez para ir migrando de uno a otro cuando por fin IPv4 fuese redundante.

El problema es que eso no ha pasado y podría estar lejos de pasar.

La adopción de IPv6 se ralentiza, y podría no llegar nunca al 100%

La alerta por la falta de direcciones IPv4 hizo que como comentábamos desde varios organismos se animara a usuarios finales y sobre todo a empresas y proveedores de internet -que debían habilitar ese cambio- a comenzar a adoptar IPv6 en todo tipo de dispositivos.

Ipv6 1 La adopción de IPv6 monitorizada por Google era el pasado 7 de agosto de 2019 de un 25,19%. El ritmo no es prometedor, y puede que a este paso no superemos ni el 30% según Ericsson Research.

Aquel mensaje no pareció calar demasiado hondo no en los usuarios ni en las empresas: el ritmo de adopción ha sido bueno durante buena parte de esta década, pero los modelos predictivos parecen dejar claro que ese crecimiento no apunta a una migración total a IPv6 ni a corto plazo ni, atención, en un futuro lejano.

Un estudio reciente de Ericsson Research lo dejaba claro. Esta compañía lleva estudiando esa adopción del protocolo IPv6 desde 2013, y ha ido generando modelos diversos para tratar de predecir el futuro estado de esa adopción y si en algún momento íbamos a poder hablar del adiós definitivo a IPv4.

Basándose en datos como los que proporciona Google -tienen un gráfico actualizado que muestra cuántos usarios usan su buscador desde un equipo con IPv6 habilitado- los responsables de Ericcson han ido adaptando su modelo, y las noticias no son buenas.

Ipv6 2 El modelo de adopción de IPv6 que más se ajusta a la realidad es esta "S" que parece plantear una ralentización gradual de la adopción que podría estancarse en 2022. Para entonces llegaremos al 28,3% de adopción y la cosa se estancará ahí, afirman los analistas de Ericsson Research. Como veis, la adopción real (azul) es prácticamente idéntica al modelo estimado.

Ese modelo final ha ido pasando por fases. Durante los primeros años la adopción fue muy rápida y de hecho se pensó que el crecimiento de la adopción sería exponencial. Los ingenieros de Ericsson plantearon modelos que indicaban que en 2022 la adopción rondaría el 80%.

Sin embargo, a principios de 2018 notaron que las previsiones comenzaban a desviarse demasiado de los datos reales, así que abandonaron esos modelos previos para ir ajustándolos y crear el modelo actual, que se ajusta mucho más a los datos reales.

Ipv6 Pro

Esas predicciones optimistas se han visto contrastadas en los dos últimos años con un panorama mucho más oscuro para IPv6, un protocolo que no parece estar siendo impulsado ni adoptado por las grandes corporaciones y los organismos que gestionan internet.

Hay otra dificultad añadida: aunque las direcciones IPv4 se han agotado en la teoría, no lo han hecho en la práctica. Desde hace años han surgido diversos "IP brokers", revendedores de paquetes de direcciones IPv4 que por uno u otro motivo ya no se utilizan y que estos intermediarios le venden a empresas y organismos que las necesitan para sus usuarios.

Eso ha hecho que ese "agobio" por la falta de direcciones IPv4 no sea tan problemático como podría parecer. Y eso, a su vez, plantea más dudas sobre la necesidad de adoptar un IPv6 que de momento está bien tener como alternativa pero que no parece que vaya a imponerse.

No a corto plazo, desde luego. Y puede que nunca.

Imagen | Unsplash


Google nos encierra en Google: los usuarios no hacen clic ni en la mitad de las búsquedas

$
0
0

Google nos encierra en Google: los usuarios no hacen clic ni en la mitad de las búsquedas

Lo que hace Google no es distinto de lo que otras empresas quieren hacer con sus respectivos ecosistemas, claro, pero aquí el peligro es que en Google hacen uso de su potente buscador, que antes era más que nunca puerta de enlace a toda internet, para presentar las respuestas a nuestras preguntas antes de necesitar ir a ningún otro sitio.

Eso no es necesariamente malo: obtenemos nuestros resultados de búsqueda en la propia página de Google gracias a los llamados 'featured snippets' que incluyen parte del contenido de fuentes externas en esos resultados del buscador. Todo funciona estupendamente para el usuario y para Google, pero quienes realmente han hecho el trabajo de contestar a la pregunta y redactarla se quedan sin esa visita. Tanto es así, que menos de la mitad de las búsquedas en Google acaban en un clic a un sitio web externo. Las demás se las queda Google.

Google se lo guisa, Google se lo come

Al menos eso indica el estudio de Jumpshot citado por SparkToro. En ese análisis incluyeron datos de más de 140 millones de búsquedas realizadas tanto en navegadores móviles como de escritorio en Estados Unidos desde abril a junio de 2019. Los datos son aplastantes:

Busquedas

Menos de la mitad de las búsquedas acaban en un clic a terceras partes: casi la mitad se quedan en Google, no hay clic, el resultado de la búsqueda le basta al usuario para encontrar lo que buscaba. No solo eso: Google envía casi un 6% del tráfico a sus propios sitios web: YouTube, Maps, el blog de Google y otros subdominios de la empresa se benefician de esos resultados de forma importante.

Como indican en SparkToro, es probable que esos sitios de Google acaben dando el mejor resultado porque son excelentes resultados (YouTube y Maps son dos servicios muy utilizados por sí solos), pero el comportamiento del buscador, por fantástico que sea para los usuarios (y para Google), representa una amenaza para quienes se encargan de producir esos contenidos: la gente ya no va (tanto) a esos sitios web. No lo necesita.

La crítica no es nueva. En 2014 Twitter convertía en viral un mensaje de Dan Barker que dejaba claro que los 'featured snippets' eran peligrosos para quienes se encargan realmente de dar respuesta a las preguntas de los usuarios. El texto del snippet era idéntico al de la Wikipedia que definía ese término de búsqueda, y aunque Google citaba claramente la fuente (ahora lo hace de forma aún más patente) el debate estaba (y está) ahí.

En Google ya explicaban hace tiempo cómo estos resultados especiales tienen sentido porque "creemos que este formato ayudará a la gente a descubrir con mayor facilidad lo que están buscando". Es una característica, añadían "especialmente útil para los que buscan con la voz o en el móvil".

Danny Sullivan, uno de los responables de la división de Google Search, destacaba que la característica no restaba visitas a quienes publican los contenidos. "Pronto quedó claro que los feature snippets de hecho incrementan el tráfico". Eso no queda demasiado claro con las estadísticas de JumpShot, que muestran por ejemplo el mercado de los buscadores en Estados Unidos en el segundo trimestre de 2019:

Jump1

Para los responsables de ese estudio Google Search es un monoplio que no va a menos, sino que va a más, con las búsquedas orgánicas -aquellas que llevan a sitios de terceras partes- van decreciendo mientras que las búsquedas con cero clics (las que se quedan en la página de resultados de Google) y aquellas que van a resultados de pago (porque son resultados promocionados por publicidad) crecen:

Clic

El estudio termina mostrando otras dos gráficas difíciles también de discutir, y que muestran cómo tanto en móviles (sobre todo en móviles, de hecho) como en escritorio esas tendencias comentadas se consolidan: a los usuarios les basta con el resultado que muestra Google en sus resultados sin que haya que ir más allá... aunque quien haya hecho el trabajo de ofrecer ese resultado sea un tercero, enlazado, sí, pero que nunca recibe el ansiado clic.

Clic1
Cl3

Es difícil no alabar la utilidad del buscador de Google: nos hace la vida más fácil y millones de personas lo utilizan a diario para encontrar respuestas rápidas y claras a cualquier cuestión.

Frente a ese fantástico comportamiento está el aparente peligro para aquellos que se encargan de "hacer el trabajo sucio": los que responden las preguntas son en realidad otros, y la mayoría no les prestamos atención. Google no se lo pone demasiado fácil tampoco, desde luego.

Imagen | Unsplash

La webcam que más años lleva retransmitiendo vídeo en Internet cortará sus emisiones dentro de diez días

$
0
0

La webcam que más años lleva retransmitiendo vídeo en Internet cortará sus emisiones dentro de diez días

FogCam es una webcam que lleva desde 1994 retransmitiendo por Internet los tres fotogramas que captura por minuto, hecho que le convierte en toda una reliquia histórica, por llevar 25 años haciéndolo. La más longeva de la Red en años mostrando la realidad que capta.

Sin embargo, después de tanto tiempo las personas que le dieron vida y programaron la web, Jeff Schwartz y Dan Wong, han anunciado que a finales de agosto se suspenderá su emisión para siempre y FogCam pasará a ser historia. Su web es tan antigua que incluso aparece en Wikipedia como una de las más antiguas que todavía existe.

Un proyecto nacido en la Universidad Estatal de San Francisco que ya no pueden mantener

Fogcam Cafe

Si FogCam ha estado emitiendo desde 1994, ¿por qué no lograr que cumpla 30 años, por ejemplo? Según han comentado Schwartz y Wong a SFGate, "sentimos que ha llegado la hora de dejarlo ir". "En resumen, ya no tenemos una buena vista o lugar para poner la cámara."

Hasta ahora ha estado situada en la la Universidad Estatal de San Francisco, de la que comentan que "nos tolera, pero realmente no nos apoya, y tenemos que encontrar ubicaciones seguras por nosotros mismos". Muchos sitios probablemente la mantendrían como parte de la historia de una institución (y como presente, pues aún la gente la mira), pero no es el caso aquí, y prefieren dejar de utilizarla antes que transportarla fuera.

FogCam originalmente nació mientras Schwartz y Wong cursaban la carrera de Informática, cuando el primero, recuerda, estaba aprendiendo a programar. En el momento de su nacimiento, Fogcam no estaba sola, pues desde un año antes, la Trojan Room Coffee Pot ya se había conectado a Internet. La Trojan era una cámara que apuntaba a una cafetera, y cuyos usuarios consultaban para ver cuánto café quedaba en la taza, para así no andar hasta ella y ver que el café se había acabado. Pese a no ser la primera, FogCam se convirtió en la más antigua en estar retransmitiendo en 2001, cuando la Trojan fue desconectada.

A lo largo de todos estos años, FogCam ha cambiado varias veces de ubicación dentro de la universidad, aunque generalmente grababa lo que ocurría en la Avenida Holloway. Como homenaje a su predecesora con algo relacionado con el café, también apuntaba a veces a una cola, la del Café Rosso, para que mirándola, la gente supiera si era buen momento para ir a tomar una taza.

La ISS mejora su conexión internet: sus astronautas podrán enviar y recibir datos a 600 Mbps (y ver Netflix aún mejor)

$
0
0

La ISS mejora su conexión internet: sus astronautas podrán enviar y recibir datos a 600 Mbps (y ver Netflix aún mejor)

Contar con una conexión de banda ancha de 300 Mbps es ya algo bastante habitual en países desarrollados, pero sorprende saber que en la Estación Espacial Internacional (ISS) esa conexión a internet no tiene nada que envidiarle a las nuestras.

Menos que nunca ahora, porque los ingenieros de la NASA han mejorado esa conectividad a internet de la ISS, cuyos astronautas ahora podrán transferir datos a 600 Mbps, algo sorprendente y que potenciará los experimentos que se siguen realizando en dicha plataforma espacial.

Experimentos a 600 Mbps

Esa nueva tasa de transferencia dobla la que la ISS ofrecía hasta la fecha, y permitirá que otras futuras naves como la plataforma orbital Gateway que orbitará la Luna también tenga acceso a tal conectividad.

Nasa

Así lo confirmaba George Morrow, director del Goddard Space Flight Center de la NASA, que destacaba que esos datos que se recolectan en la ISS puedan "alcanzar la Tierra para beneficio de la humanidad".

La ISS se ha convertido en pilar fundamental de los experimentos que estudian los efectos a largo plazo de los viajes espaciales tanto en el cuerpo humano como en todo tipo de organismos, y también habilitan que todo tipo de tecnologías se puedan probar en microgravedad.

Para comunicarse con la Tierra, la ISS aprovecha la comunicación a través de la llamada Space Network -una red de antenas terrestres- y la Tracking and Data Relay Satellites (TDRS), un sistema de satélites de comunicaciones que también se utiliza para otras aeronaves e incluso para bases remotas como la Estación del Polo Sur Amundsen-Scott.

Ojo, que en la ISS también ven películas en streaming

Esa nueva velocidad de conexión, como habréis adivinado muchos, no solo se aprovecha para potenciar la experimentación de la ISS, sino para hacer que la estancia de los astronautas sea más agradable.

Scott2

Scott Kelly, uno de los que más recientemente estuvo en la estación, explicaba en una entrevista con la CNBC que en sus ratos libres disfrutaba de 'Juego de Tronos' y 'Better Call Saul', aunque reconocía que la conexión no siempre era óptima porque dependía de que las estaciones terrestres estuviesen el la línea de visión de la ISS.

Aún así esos contenidos multimedia parten de un servidor especializado y protegido para la tripulación. Algunos estrenos de Hollywood han tenido propaganda al ser también emitidos en la ISS -ocurrió con 'Star Wars: los últimos Jedi'-, y los tripulantes -así lo confirmaba Kelly en la misma entrevista- también tienen aceso a redes sociales o a banca online, pero con restricciones de velocidad y con medidas de seguridad extra para evitar cualquier tipo de amenaza de malware.

Vía | ScienceAlert
Más información | NASA

Cómo de anónimos son los datos anonimizados que nos prometen las empresas cuando van a usar nuestros datos personales

$
0
0

Cómo de anónimos son los datos anonimizados que nos prometen las empresas cuando van a usar nuestros datos personales

Nuestros datos personales son muy valiosos. Lo son para nosotros, los usuarios, porque aglutinan información privada de la que somos legítimos propietarios. Y también lo son para las empresas porque ponen a su alcance herramientas que pueden ayudarles a desarrollar su área de negocio con más eficacia. A llegar directamente a nosotros.

Estas dos premisas justifican que los usuarios nos mostremos recelosos cuando una empresa está interesada en hacerse con nuestros datos personales de una forma más o menos transparente. Esta desconfianza se ha visto avivada por los conflictos de los que hemos sido testigos durante los últimos meses, como las escuchas por trabajadores de Amazon, Apple y Google de algunas de nuestras interacciones con sus asistentes de inteligencia artificial.

Hemos recurrido a dos expertos especializados en protección de datos y privacidad, y también hemos hablado con dos de las grandes compañías cuyos servicios utilizamos con frecuencia: Google y Microsoft

Con cierta frecuencia las grandes compañías de tecnología aducen en las condiciones de uso de sus servicios que el tratamiento de nuestros datos se lleva a cabo de forma anónima, pero esta política provoca que los usuarios nos hagamos más preguntas. ¿En qué consiste exactamente esta forma de procesar nuestros datos personales? ¿Cómo podemos estar seguros de que realmente están a salvo? ¿Qué establece la normativa en este ámbito?

Para salir de dudas y dar una respuesta lo más certera posible a estas y otras preguntas hemos recurrido a dos expertos especializados en protección de datos y privacidad en Internet. Y también hemos hablado con dos de las grandes compañías cuyos servicios utilizamos muchos de nosotros con frecuencia, Google y Microsoft, con el objetivo de conocer de primera mano para qué utilizan nuestros datos personales «anónimos», y también para saber cómo los procesan. Este es el resultado de nuestras indagaciones.

Los expertos nos explican qué dice la normativa actual

Uno de los profesionales en protección de datos a los que hemos consultado es Paloma Llaneza, directora general de Razona Legaltech y experta en derecho TI y ciberseguridad, entre otras áreas. También hemos hablado con Samuel Parra, especialista en protección de datos personales, derecho tecnológico y ciberseguridad; socio fundador de la firma ePrivacidad y autor de un blog en el que publica artículos muy interesantes dedicados a la protección de datos.

Samuelparra

Samuel comienza explicándonos qué estipula la regulación vigente para proteger la privacidad y los datos personales de los usuarios una vez que son recogidos por las empresas: «La normativa establece distintas medidas, cada una enfocada en un momento concreto del tratamiento que de esa información pueden hacer las empresas y otorgando derechos específicos según estas fases. Así, en una primera fase, la que surge en el momento en el que la empresa capta o recaba los datos de los usuarios, la principal medida normativa es la que se denomina ‘principio de transparencia’. Este principio exige, según indica el RGPD (Reglamento General de Protección de Datos), que toda información y comunicación relativa al tratamiento de dichos datos sea fácilmente accesible y fácil de entender, y que se utilice un lenguaje sencillo y claro».

«Dicho principio se refiere en particular a la información de los interesados sobre la identidad del responsable del tratamiento y los fines del mismo, y también a la información añadida para garantizar un tratamiento leal y transparente con respecto a las personas afectadas y a su derecho a obtener confirmación y comunicación de los datos personales que les conciernan que sean objeto de tratamiento. En palabras más sencillas, se trata simplemente de informar al usuario antes de que sus datos sean recabados sobre la identidad de la empresa que va a recopilar esos datos y para qué los va a utilizar. En este punto hablamos simplemente de informar, no de pedir consentimiento, por ejemplo, que eso es algo que debe ir después de la información», matiza Samuel.

«La normativa estipula que las compañías deben informar al usuario antes de que sus datos sean recopilados sobre la identidad de la empresa que va a recabar esos datos y para qué los va a utilizar»

Lo realmente interesante de lo que nos cuenta este experto, y lo que merece la pena que recordemos, es que las empresas tienen la obligación de revelarnos su identidad y explicarnos con claridad qué datos nuestros van a recopilar y para qué van a utilizarlos. Además, Samuel añade nuevas implicaciones de este principio: «El RGPD indica igualmente que los datos personales deben ser adecuados, pertinentes y limitados a lo necesario para los fines para los que sean tratados. Ello requiere, en particular, garantizar que se limite a un mínimo estricto su plazo de conservación».

«Además, los datos personales solo deben tratarse si la finalidad del tratamiento no pudiera lograrse razonablemente por otros medios. Si, por ejemplo, es verificar la asistencia a clase de los alumnos de un instituto, utilizar mecanismos de reconocimiento facial sería excesivo, pues hay otras formas de verificar esa asistencia con métodos menos intrusivos, como, por ejemplo, pasar lista como se ha hecho toda la vida», nos explica Samuel.

Palomallaneza

Paloma Llaneza introduce en esta discusión la protección que nos ofrece la normativa comunitaria: «En Europa hay toda una panoplia de medidas recogidas en el RGPD que van desde la responsabilidad proactiva, la recogida del consentimiento tras facilitar información clara y comprensible, la privacidad desde el diseño y por defecto, y la aplicación de medidas de seguridad, como la anonimización o pseudoanonimización». Como veis, Paloma ha introducido expresamente el concepto de protección del anonimato, pero antes de indagar en él Samuel nos explica qué derechos establece la normativa para que los usuarios tengamos la capacidad de fiscalizar el tratamiento que las empresas dan a nuestra información.

«El artículo 15 y siguientes del RGPD otorgan una serie de derechos a los usuarios directamente ejercitables frente a las empresas para acceder a la información que tienen de nosotros. Tenemos la potestad de exigirles que nos indiquen qué datos tienen sobre nosotros, su origen, la finalidad del tratamiento y si los datos han sido facilitados a otras empresas. También podemos rectificar la información si detectamos que es incorrecta, y, en determinadas circunstancias recogidas en el RGPD, exigir que nuestros datos sean borrados o solicitar que dejen de ser tratados para una finalidad concreta», asegura Samuel.

Qué es la anonimización y cómo debe llevarse a cabo

Para entender con precisión en qué consiste el proceso de anonimización de los datos necesitamos repasar qué es un dato anónimo en el contexto de la protección de datos. Samuel Parra nos lo explica: «Solo podemos hablar de dato anónimo cuando se encuentra realmente separado de la parte que hace identificable al dato. Tomemos como punto de partida para ilustrarlo una base de datos con los campos ‘nombre’, ‘apellidos’, ‘edad’ y ‘provincia’. Si le quitamos los campos ‘nombre’ y ‘apellidos’, solo tratamos los de ‘edad’ y ‘provincia’, y no es posible restaurar de ninguna manera los campos ‘nombre’ y ‘apellidos’, entonces estamos ante datos anónimos».

«Pero si lo que hago es cifrar los campos ‘nombre’ y ‘apellidos’ para conservarlos, no estamos ante una anonimización real, pues se podrían descifrar esos datos y juntarlos con los de edad y provincia. Esto último es lo que en el RGPD se llama ‘pseudoanonimización’, y viene definido como el tratamiento de datos personales de manera tal que ya no puedan atribuirse a un interesado sin utilizar información adicional, siempre que dicha información adicional figure por separado y esté sujeta a medidas técnicas y organizativas destinadas a garantizar que los datos personales no se atribuyan a una persona física identificada o identificable», expone Samuel.

Datos2

Paloma Llaneza amplía lo que nos explica Samuel incidiendo en los requisitos que debe cumplir el proceso de anonimización: «Tiene que ser irreversible y no permitir que la identidad sea deducida de los datos que se incorporan a un perfil pretendidamente anónimo. Con las técnicas de análisis de datos es posible revertir un proceso de anonimización con tres o cuatro datos de una persona. Si una empresa te presta servicios, analiza tu comportamiento, y luego convierte esos datos en desagregados para un análisis estadístico o de comportamientos generales, sigue teniéndote identificado. Y, por tanto, no se ha producido una anonimización», sentencia Paloma.

Como acabamos de ver, para que una empresa nos garantice que nuestros datos van a ser tratados de forma anónima es imprescindible que nuestra identidad quede totalmente desvinculada de la información que está procesando. Esta es la razón por la que la Agencia Española de Protección de Datos ha definido la K-anonimidad como «la propiedad de los datos anonimizados que permite cuantificar hasta qué punto se preserva la anonimidad de los sujetos presentes en un conjunto de datos en el que se han eliminado los identificadores. Dicho de otro modo, es una medida del riesgo de que agentes externos puedan obtener información de carácter personal a partir de datos anonimizados».

Así es como Google utiliza los datos que generamos

Hasta ahora hemos repasado qué medidas establece la normativa actual para proteger nuestros datos personales, qué es un dato anónimo y cómo debe ser el proceso de anonimización para garantizar que nuestra información realmente es tratada sin que nuestro anonimato se vea comprometido. Pero aún nos falta averiguar qué uso dan las empresas a estos datos y cómo los procesan para asegurar que la anonimización se lleva a cabo correctamente. Por esta razón hemos hablado con Stephan Micklitz, director de ingeniería de Google, con la esperanza de que pueda arrojar un poco de luz acerca de la forma en que esta compañía usa y procesa nuestros datos.

Stephanmicklitz

En lo que se refiere al uso que da Google a nuestros datos y a la información que generamos a través de nuestros hábitos de utilización de sus servicios Stephan nos explica que «generalmente enfocamos este asunto a partir de tres categorías. Por un lado los aspectos que hacen que los productos y servicios que utilizas puedan ser más útiles, como, por ejemplo, que Google Maps pueda decirte la ruta más rápida para llegar a casa porque has podido guardar la localización ‘Casa’ de manera privada en tu cuenta de Google».

«La segunda categoría que contemplamos consiste en el uso de datos anónimos con el fin de que el producto sea más útil para todos. Como ejemplo, los datos de tráfico de Google Maps reducen los atascos al ofrecer a los usuarios rutas alternativas. Y las consultas en el traductor de Google hacen que las traducciones puedan ser más precisas para millones de hispanohablantes. La tercera categoría recoge las cosas que ayudan a Google a financiar su trabajo mostrándote anuncios que se ajustan mejor a tus intereses», confiesa Stephan.

«La principal fuente de ingresos de Google es la publicidad. La mayoría viene de anuncios en el buscador, lo cual requiere muy pocos datos, ya que ofrecemos anuncios en respuesta a la búsqueda individual de cada usuario. Por ejemplo, si buscas ‘Flores’ lo más seguro es que estés interesado en comprar flores. Esto es un ejemplo de publicidad contextual, y para ese tipo de anuncios no es necesario que sepamos quién eres», argumenta Stephan.

«Una pequeña cantidad de los datos que Google recopila se utiliza para ayudar a páginas web y apps a mostrar anuncios ‘personalizados’. Incluso para este tipo de anuncios los datos personales obtenidos a través de apps como Docs o Gmail no se utilizan con fines publicitarios. La mayor parte del dinero que generamos ayudando a los editores de páginas web va para ellos (más del 70%). Y si los anuncios personalizados que se muestran no le resultan útiles el usuario puede desactivarlos desde su cuenta. La decisión es de los usuarios y nosotros intentamos que el proceso sea sencillo», nos explica este ingeniero de Google.

Google

Lo que nos cuenta Stephan refleja con claridad por qué nuestros datos y nuestros hábitos de uso son tan importantes para Google, pero nos falta indagar en las medidas que esta compañía ha implementado para proteger nuestra confidencialidad y asegurar que nuestros datos son procesados de forma anónima. En este contexto este técnico apunta que «cómo utilizamos tus datos es algo que tú mismo puedes decidir. Para ello la transparencia y el control están en el centro de nuestros productos. Creamos Google Cuenta a modo de lugar único para poder realizar ajustes de privacidad y seguridad, y casi 20 millones de personas lo visitan cada día».

«Una de las funciones que ofrece es la eliminación automática’ del historial de localización, que permite eliminar dicho historial cada tres meses o cada 18, dependiendo de lo que elija el usuario. Además, minimizar los datos que recabamos de los usuarios es un principio de privacidad importante para Google. Otra tecnología nuestra, Private Join and Compute, ha creado nuevas formas de recopilar conjuntos de datos sin necesitar moverlos de un lado a otro. En el futuro las técnicas de inteligencia artificial, muchas de ellas desarrolladas por Google, ofrecerán nuevas vías para hacer los productos más útiles utilizando menos datos procedentes de los usuarios», concluye Stephan Micklitz.

Esto es lo que nos dice Microsoft acerca de la forma en que trata nuestros datos

No hemos hablado únicamente con Google con el propósito de conocer cómo las grandes compañías administran nuestros datos y qué uso les dan; también nos hemos puesto en contacto con Microsoft. La persona que nos ha atendido en esta ocasión es Héctor Sánchez Montenegro, director de tecnología de Microsoft Ibérica. Lo primero que ha hecho Héctor es apuntar que «tenemos muy claro que los clientes no van a utilizar tecnología en la que no confíen, y por eso nuestro compromiso es proteger su privacidad a la vez que proporcionamos los mejores mecanismos para que cada usuario determine qué información pueden recopilar los sistemas automatizados, e, incluso, deshabilitar la función por completo».

Hectorsanchez

«A diferencia de otras plataformas, independientemente de las opciones de privacidad elegidas ni Windows 10 ni ningún otro software de Microsoft analiza el contenido de correos electrónicos u otras comunicaciones, archivos, etcétera, para ofrecer publicidad de forma personalizada», apunta Héctor intentando desmarcarse, según él, de las prácticas que llevan a cabo otras compañías. En lo que se refiere a la administración de nuestros datos de forma anónima este responsable de Microsoft defiende lo siguiente:

«Recopilamos una cantidad limitada de información fragmentada y anónima para proporcionar una experiencia segura y fiable. Esto incluye datos como el ID de dispositivo, el tipo de dispositivo y los datos de bloqueo de aplicaciones, que utilizamos para mejorarlas continuamente. Entre dichos datos no se recoge ningún contenido o archivo del usuario, y tomamos varias medidas para evitar recopilar cualquier información que lo identifique directamente, como su nombre, dirección de correo electrónico o ID de cuenta», asegura Héctor.

Microsoft

Y prosigue su explicación: «Windows recopila y envía datos para mejorar cada día y permitir un funcionamiento personalizado de servicios como Cortana. Además, la recolección de datos ayuda a los usuarios a mantener sus preferencias y archivos sincronizados en todos sus dispositivos; nos permite seguir desarrollando características de Windows que respondan a las necesidades de los usuarios y ayuda de forma enorme a garantizar la seguridad».

Para concluir, Héctor apunta algo que a los usuarios nos viene bien tener en cuenta: «En cualquier caso, no pretendemos un ‘acto de fe ciega’. Mediante la aplicación de Visor de datos de diagnóstico cualquier usuario puede consultar en tiempo real los datos de diagnóstico que Microsoft recopila desde su dispositivo Windows en función de las opciones de privacidad seleccionadas en la configuración de Comentarios y Diagnósticos de Windows. De este modo la transparencia es total y el usuario tiene la certeza de que conoce qué información personal estamos recopilando».

Imagen de portada | Kevin Ku
Imágenes | panumas nikhomkhai | Wonderlane
Crédito de la fotografía de Paloma Llaneza | Julián Fallas
Más información | K-anonimidad por la Agencia Española de Protección de Datos

Tímidos del mundo, estamos perdiendo Internet

$
0
0

Tímidos del mundo, estamos perdiendo Internet

Internet llegó a mi casa en octubre de 2001. Yo acababa de cumplir once años y supe antes del Messenger de Microsoft que de las aurigas de Platón. Pronto empecé a dedicar las tardes a chatear con desconocidos, principalmente en tres sitios: el chat de Terra, el del diario deportivo Sport y el de la web oficial de Pokémon. Bendita inocencia.

Un año después creé mi primera web. Tenía doce años y cero conocimiento sobre nada, pero me gustaba esa sensación de tener un altavoz en el que nadie podía juzgarme por mi edad o por mi corta estatura de prepúber, porque no las sabían. En los chats ocurría lo mismo. Muchos de los que dedicábamos horas a la red por puro ocio en esa época de un Internet dominado por el texto éramos básicamente gente demasiado joven como para ser tomada en serio en el cara a cara, gente demasiado insegura con su propia imagen o simplemente inadaptados al Mundo Real™.

Éramos los tímidos, los que preferíamos la seguridad que nos daba la palabra escrita, más reflexiva, frente a la improvisación oral. En una comunicación basada en texto, la habilidad para comunicarse en él era todo. No importaba que no tuviéramos carisma, o que no levantáramos un palmo del suelo, o que nuestra presencia física fuese muy débil. Si escribíamos bien y dominábamos un tema, captábamos la atención mejor que nadie, ya fuese anónimamente o dando nuestro nombre real.

Cuando llegaron las redes sociales, se empezó a joder todo.

Tú al MSN y yo a Fotolog

Toda esa comunicación escrita estaba en los chats, en IRC, en ICQ. Los foros también jugaron un papel importante para aupar a cierta fama a los más influyentes, yo mismo pasé las tardes de mi adolescencia en el off topic de Meristation, que acababa siendo un pueblo metido en una pantalla.

Penalva

Los blogs fueron el último gran formato en el que los tímidos y los inadaptados conseguían audiencias masivas. La segunda mitad de los 90 y la década de los 2000 fueron los años de su auge definitivo hasta convertirse en los líderes digitales. Por aquel entonces era normal ver de vez en cuando reportajes en televisión y prensa escrita sobre bloggers que habían conseguido vivir de ello. Como ejemplo, mi compañero Javier Penalva siendo entrevistado por El País en 2006. Tan cerca y tan lejos.

Javier es una gran persona, tan experta y profesional como campechana. Pero definitivamente lo hubiese tenido complicado para vivir de una cuenta de Instagram en 2019 en lugar de un blog en 2006. Difícilmente un blogger de los que triunfaron a nivel de fama personal en los 2000, sea Javier o prácticamente cualquier otro, ha podido hacerlo al mismo nivel en este final de década, donde Instagram y YouTube mandan. Los líderes de esta generación están hechos con otros moldes.

El avance tecnológico, tanto de dispositivos como de telecomunicaciones, ha hecho que las webcams testimoniales y los módems de 56 Kbps hayan dejado paso a las cámaras quasi-profesionales integradas en teléfonos y a la fibra óptica. Del paradigma texto al paradigma vídeo pasando por una transición en forma de fotografía, del ordenador al móvil. Mal asunto para los tímidos.

Consumiendo stories

Por si fuera poco, la llegada de TikTok atrona. Por si no hubiese sido suficiente con haber tenido que pasar por el aro de redes sociales cada vez más centradas en fotos (Facebook → Instagram) y además ver cómo se convierten al vídeo, efímero o no, además ahora se supone que si queremos destacar nuestra presencia online tenemos que hacerlo cantando y bailando, o montando sketches. La pesadilla del introvertido.

En estas dos décadas de transición, y a punto de entrar en el 2020, la tortilla de Internet se ha dado la vuelta. En esta era de postureo y de culto a la imagen propia, los líderes de Internet ya no son los tímidos ni los inadaptados: son los guapos. Véase a Pelayo o a María Pombo. Y si no son guapos, los que más carisma y extroversión tienen. Véase a ‘El Cejas’ o a Esty Quesada, que además sustentan buena parte de su personaje en reírse de sus propias carencias. Un señor introvertido que habla para sí mismo de tecnicismos jamás vivirá de su canal de YouTube. Un chico con un carisma arrollador, sí.

Esto puede sonar a lamento, pero no lo es tanto. En todo caso, un agradecimiento a esa primera era de Internet, la que premiaba al talento capaz de comunicarse por escrito sin importarle la simetría de su rostro ni lo bien que bailase el swish-swish. Duró lo que tuvo que durar, e Internet sigue siendo de todas formas un buen refugio para el que se ruboriza cuando le habla un desconocido. Solo que ya no podrá aspirar a ningún estrellato: ya casi nadie se molesta en seguir la pista a un cohibido que rehuye a las cámaras.

Contando canas

Internet tiene mucho de democrático. Sin un smartphone y una cuenta de Instagram, ‘El Cejas’ nunca hubiese ido a Got Talent a berrear El Dembow del Pimpim. Y si se hubiese atrevido, le hubiesen echado a patadas, que es justo lo que pretendía hacer la mayoría del jurado hasta que les dijo “en Instagram tengo 1,3 millones de seguidores”. 'El Cejas', por cierto, ha acabado en Gran Hermano VIP.

El paso gradual del paradigma texto al paradigma vídeo ha sido clave para que las estrellas de Internet sean los guapos y los carismáticos

El talento abunda y es tan democrático o más que Internet: no entiende de razas, ni de lugares de nacimiento, ni de clase social. Que se lo pregunten a Leo Messi. Y las herramientas surgidas en la era del iPhone y del 4G permiten a esos talentos salir del ostracismo más rápido que nunca y crearse marcas personales que les acaban dando para vivir muy bien sin tener que entregar informes a un jefe gruñón. A veces incluso para comprarse un Lamborghini antes de cumplir los 23. No está mal.

Mientras vemos ese avance de los instagramers cincelados en el gimnasio o especialmente locuaces cosechando seguidores a millones, de canales de YouTube donde no siempre se dice algo pero siempre se exhibe carisma, y de gente en TikTok con audiencias que superan a programas de TV en prime time, a los tímidos que pensábamos que Internet era nuestra baza vitalicia se nos queda la misma cara que a las vacas cuando ven pasar al tren.

El tímido que lleva lustros en Internet -ayer gloria, hoy supervivencia- atraviesa una especie de crisis de los 40. Le cuesta mirarse al espejo, porque ya no es lo que fue y tampoco sabe en qué se convertirá. Aparecen preguntas sin respuesta y dudas en torno a qué posición está ocupando frente al resto. Solo hay una forma de superar el apagón: aceptar que el tiempo pre-Instagram ya pasó, que las reglas han cambiado, y empezar a construir el futuro. Quizás no sea placentero para quien paladeaba con gozo cierta fama pasada desde su salón, pero perder el tiempo contándose las canas no aporta nada. Hay que volver a sentirse satisfecho con uno mismo.

Siempre nos quedará poder dedicarnos a nichos específicos y a tratar de tener éxito con ellos, con ese reducto que sigue apreciando la palabra escrita y no necesita consumir todo en vídeos frenéticos o sensuales. Algunos incluso nos ganamos la vida con ello pese a no trabajar para ningún medio de comunicación tradicional. Con eso nunca seremos estrellas, pero vamos pagando las facturas y nos da para ver HBO los viernes por la noche sin demasiados dolores de cabeza. Tampoco está mal.

Viewing all 355 articles
Browse latest View live