Archivos Mensuales: febrero 2016

¿Es lo mismo Internet y WWW (World Wide Web)?

¿Es lo mismo Internet y World Wide Web?

Por simplicidad se usan normalmente como sinónimos Internet y WWW (World Wide Web) cuando, en puridad, no lo son. Internet en realidad podemos considerarla como un conglomerado de elementos de interconexión (routers, gateways…), servidores (que ofrecen información) y puestos finales (que consumen la información). La conectividad entre todos estos nodos es sin dirección. Esto es capital ya que es la diferencia fundamental frente a la WWW. Esta podría definirse como el conjunto de páginas web conectadas mediante (hiper)enlaces dirigidos (desde la web original que apunta a la página referenciada por el enlace). Es esta segunda red a la que se suele entender por Internet.

Image courtesy of FreeDigitalPhotos.net

Image courtesy of FreeDigitalPhotos.net

 

¿cómo evoluciona la World Wide Web?

Dorogovtsev y Mendes (2002) apuntan que hay dos maneras: a) a través de la creación de una página inicial (HOME). Una vez que la tienes configurada (con un editor HTML, mediante un gestor que escriba el código automáticamente…), “tienes que hacerla accesible en la WWW, esto es, publicarla. Vas al administrador del sistema el cual la conecta (normalmente con una referencia) con la página principal (HOME) de tu institución”; y b) Suponiendo que ya tienes tu página personal añades una nueva página web y la enganchas desde dicha página principal. En mi opinión, existe una tercera manera de crear una página web no contemplada por Dorogovtsev y Mendes. Un sitio puede crearse de cero sin que ninguna otra página la referencie. Para ello, una vez diseñada la página, se deberá de gestionar el alojamiento y el dominio con uno o varios proveedores. Este nuevo sitio aparecería desconectado de la WWW y, si no tuviera ningún enlace, viviría como un nodo ermitaño. Poco valor tendría a priori desde el punto de vista de la publicidad de sus contenidos pero quizás el autor sólo tenga la pretensión temporal o permanente de subir información a la WWW —por ejemplo, para poder acceder a ella desde cualquier sitio—. La siguiente figura serviría de ilustración:

real networks 1

Con lo anterior, podemos encontrar una diferencia esencial entre la WWW y la red formada por las citas bibliográficas. En esta, cada nueva publicación (nuevo nodo de la red) tiene un listado de obras referenciadas (nodos ya existentes en la red) y, obviamente, estas últimas no pueden tener enlaces a la nueva obra pues no existía en el momento de sus redacciones. De esta manera todos los enlaces son dirigidos del nuevo nodo a la red antigua. La siguiente figura —tomada del capítulo 3 de “Evolution of networks”— serviría de ilustración:

real networks 2

En cambio, según Dorogovtsev y Mendes (2002) una nueva página web es referenciada al menos una vez (bien desde la institución o bien desde la HOME). Las siguientes dos ilustraciones que aparecen en su libro dan buena cuenta de lo anterior. La primera explica el escenario de un nuevo nodo en una red de citas bibliográficas, la segunda en la WWW. La siguiente figura —tomada del capítulo 3 de “Evolution of networks”— serviría de ilustración:

real networks 3

Finalmente, tal y como hemos argumentado la tercera vía de crear una nueva página web y la no necesidad de que exista un enlace inicial desde la “antigua red” (sin llegar al extremo del nodo ermitaño), la figura —apoyándonos en la anterior— podría carecer del enlace superior tal que así:

real networks 4

¿Qué diferencia hay entonces entre Internet y World Wide Web?

En resumen, la red formada por citas bibliográficas es eminentemente una telaraña con enlaces dirigidos en el que un nuevo nodo no tiene referencia alguna. Lo cual también podría pasar con la red WWW. En todo caso, ambas redes son diferentes a Internet ya que esta se basa en conexiones sin dirección: los datos pueden viajar por caminos en ambas direcciones entre los nodos.

 

Bibliografía y webgrafía

Anuncios

Internet y democracia: somos invisibles por la naturaleza de la red digital

Internet y democracia. ¿Qué aspecto tiene Internet?

Quizás la naturaleza de Internet no sea tan democrática como parece. Los primeros estudios teóricos (mediados del siglo XX) reflejaron que las redes crecían de manera aleatoria conectándose unos nodos con otros de manera equiprobable. Desde 1999, sabemos que esto no es así. Los nodos se conectan de manera caprichosa siguiendo una serie de criterios: les gusta los nodos bien conectados, de calidad, con afininidad temática… La consecuencia es que la red crece asimétricamente siguiendo la clásica regla: “los ricos se hacen más ricos”. En definitiva, un blog recién nacido puede vivir en la más absoluta oscuridad: apenas nadie lo leerá y será desterrado por parte de los motores de búsqueda que buscarán resultados de las páginas jugosas (Amazon, Yahoo…). Nos preguntamos: ¿hasta qué punto es así? ¿Internet es estructuralmente anti democrática? Algunos autores sostienen que sí. En este artículo profundaremos sobre estas cuestiones!

Image courtesy of FreeDigitalPhotos.net

Internet y Democracia. Topologías de Internet

Al estudiar con mayor rigor la estructura de la Internet, encontramos un problema epistemológico debido a la invisibilidad intrínseca a la naturaleza topológica de la Red. Esto se traduce en que algunas iniciativas positivas, como por ejemplo, una cultura más participativa, una mayor libertad para crear… pueden quedar relegadas a la nada: si no soy visible, ¿de qué sirve poder publicar en el desierto? Una primera cuestión que podemos preguntarnos es ¿qué aspecto tiene Internet?, ¿cambiará radicalmente los próximos años? Estas preguntas exigen un análisis por las distintas topologías de red. Desde mediados del siglo XX se han distinguido dos familias de topologías: a) basadas en redes aleatorias y b) basadas en leyes de potencias. En cuanto a las redes aleatorias, uno de los primeros modelos (1959) que dieron respuesta fue el desarrollado por los matemáticos Paul Erdős y Alfréd Rényi. Estudiaron la generación de grafos aleatorios. Estos se basan esencialmente en el siguiente criterio: si tenemos tres nodos (n1, n2 y n3) inconexos en una primera situación, la probabilidad de que n1 se conecte con n2 es la misma a que se conecte a n3. En general, existe una independencia estadística para que dos nodos se conecten entre sí (no existe ninguna conexión preferencial). Este modelo se quedó muy lejos de representar la realidad toda vez que las redes de comunicaciones empezaron a desarrollarse con verdadera expansión hacia la última década del siglo pasado. Así fue el modelo de Waxman (1988) procura investigar en particular sobre la red Internet y la manera en que se transmiten los datos en ella. Para ello introduce el concepto de ubicación geográfica. En todo caso, tanto este modelo como los siguientes llamados jerárquicos si bien no son puramente aleatorios se suelen englobar en la primera familia ya que, en palabras de ALVAREZ-HAMELIN (2006), “Todos estos modelos son similares a una superposición de grafos aleatorios y responden a la característica básica de tener una distribución de grados con bajo coeficiente de varianza”[1]. Lo realmente interesante vino unos años más tarde de la mano de Faloutsos et al. (1999) que, tras un estudio de trece meses (noviembre de 1997 a diciembre de 1998), observaron que la ley de potencias explicaba mucho mejor la realidad de los datos en Internet en un 96%. De hecho, encontraron no una sino tres leyes de potencias (que se mantuvieron para tres instancias de internet que tomaron en su estudio e, incluso en alguna de ellas, con un mayor porcentaje de precisión).

 

Distribución (aleatoria) de campana Vs Distribución de ley de potencias

A partir de aquí, surgieron diferentes modelos de leyes de potencia. El primero fue el propuesto por Barabási y Albert (1999) introduciendo el concepto de “conexión preferencial”[2]. Por tanto, se consolidó que la distribución de las conectividades apuntan a que los nodos no se conectan siguiendo una distribución normal sino una ley de potencias. Yochai Benkler (2006), apunta defiende esta idea de donde tomamos prestado el siguiente gráfico: Si tomáramos los parámetros “número de sitios web” y “número de conexiones que apuntan al sitio web” los gráficos de una u otra distribución serían, aproximadamente:

 

topologia internet

Ilustración tomada en préstamo de BENKLER, Yochai, (2006), The Wealth of Nations: How Social Production Transforms Markets and Freedom”. Yale University Press

 

 

La explicación sería la siguiente. En la distribución normal, un pequeño número de sitios web tendrían pocos o muchos enlaces mientras que un número moderado de sitios tendrían una cantidad intermedia de enlaces. Según una distribución de ley de potencias, habría un pequeño número de sitios web que tuvieran un gran número de enlaces mientras que un gran número de sitios apenas tendrían enlaces. ¿Qué distribución es la que se adapta mejor a Internet? En 1999, hubo dos publicaciones en las revistas Nature y Science que apuntaron que la ley de potencias es la que mejor responde a la realidad. De un lado, el artículo mencionado de Barabasi y Reka Albert donde desarrollaban la conexión preferencial: un nodo se conecta a otro no al azar sino siguiendo algún criterio con el que priorizaba sus conexiones: uno de los más importantes era el “grado de conectividad” (cuán bien conectado estaba el nuevo nodo). De esta manera, un nodo prefiere enlazar con un nodo “bien conectado”. Por otro lado, el artículo de Lada Adamic y Bernardo Huberman aportaron, sobre la base de la distribución de la ley de potencias, que la tasa de crecimiento era exponencial y distinta en cada red.

El propio Barabasi pone otro ejemplo muy ilustrativo en su libro “Linked” sobre una distribución aleatoria frente a una de ley de potencias. Compara la red de carreteras y el mapa de aeropuertos de Estados Unidos. En el primer caso, casi todas las grandes ciudades están conectadas, más o menos porel mismo número de autopistas —una cantidad pequeña, por cierto—. En el segundo, se produce un fenómeno en el que grandes aeropuerto concetran un buen número de vuelos: el famoso “hacemos escala en Nueva York”. La siguiente figura ilustra lo anterior:

 

topología

Tomado de BARABASI, Albert-laszlo (2002). Linked: the new science of networks. Ed. Perseus books.

 

¿Qué consecuencias tiene esto para la democracia? La supuesta mayor participación que las tecnologías ponen a disposición de los ciudadanos se diluye al no hacerse eco debido a la ley de potencias. Participas, sí, pero apenas se es oído. El propio Barabasi (2002) si bien comienza asumiendo que la web es una herramienta para la libertad y la democracia, da un giro basándose en sus resultados topológicos:

El resultado más intrigante de nuestro proyecto de mapeo Web fue la ausencia completa de democracia, justicia y valores igualitarios en la Web. Nos dimos cuenta de que la topología de la Web nos impide ver más allá de un mero puñado de documentos de entre los miles de millones disponibles.

 

Internet y democracia. Participación en Internet

En efecto, la clave de la participación en Internet (por ejemplo, publicar un artículo en un blog personal) no reside en poder publicar sino en ser visible. La publicación cierto es que se ha simplificado enormemente. Hasta hace unos pocos años, era necesario tener unos conocimientos tecnológicos medios o superiores para manejarse en el mundo de los dominios web, hosting o housing, lenguaje HTML, etc. para poder escribir el código de una página web y poder publicarla. La alternativa era pertenecer a un grupo que ya publicara (por ejemplo, una revista o un medio de comunicación) y colaborar como editor o articulista. En esta segunda opción se perdía justamente el efecto democratizador en tanto que no se potenciaba el empoderamiento del individuo sin tener que depender de medios masivos tradicionales o reconvertidos al mundo digital. Actualmente, con unos conocimientos mínimos técnicos combinados con buen ánimo para emprender, no resulta especialmente complejo poder publicar tus artículos en tu propio blog. Por tanto, estamos en disposición de asumir con garantías que la publicación, en términos generales, no supone un problema.

Image courtesy of FreeDigitalPhotos.net

Image courtesy of FreeDigitalPhotos.net

¿Cuál es el elemento crítico? La visibilidad. Para Barabasi (2002), la “medida de la visibilidad” es el número de enlaces que apuntan a tu página web. El número de enlaces en un sitio web suele ser entre cinco y siete —apunta en el capítulo quinto del mismo libro— cada uno a apuntando a páginas diferentes de entre las miles de millones que nutren la telaraña digital mundial. Por tanto, concluye Barabasi, la probabilidad de que seas referenciado es infinitesimal. En un estudio que realiza sobre la los dominios de la universidad de Notre Dame, Barabasi encuentra que el 82 % de las páginas web (270.000 de entre 350.000) reciben tres o menos enlaces de entrada (es decir, páginas externas que referencian sus webs). En cambio, unas pocas de ellas (42 entre 350.000) son referenciadas más de mil veces. Barabasi amplía el espectro de estudio a 3 millones de webs y los resultados son parecidos: en torno al 90 % de ellas son referenciadas menos de diez veces mientras que unas pocas (tres páginas) son referenciadas más de un millón de veces. Estos ejemplos refuerzan la tesis de que la distribución de la web sigue la ley de potencias y, por tanto, existen un nodos matriz ultra visibles (Facebook, Twitter, Youtube, Amazon, eBay, Google, Yahoo…) que absorben los nodos como si de una fuerza gravitatoria electrónica se tratara. El resto de nodos, o están enlazados con ellos o pierden gran visibilidad ya que los propios motores de búsquedas dan más relevancia a dichos nodos que concentran buena parte de las referencias web. Barabasi denomina a estos nodos hubs (concentradores) y concluye, en contra de la democracia electrónica que “estos hubs son el mejor argumento en contra de la visión utópica de un ciberespacio igualitario”. Esto podría ser de otra manera si la distribución siguiera el modelo Erdös-Rényi según el cual se explica la generación de grafos de manera aleatoria. Se ha constatado (por ejemplo, gracias, entre otros, a los estudios mencionados más arriba) que las redes tanto sociales como virtuales no siguen tal modelo y ha quedado rezagado a un modelo teórico.

¿Qué influye en la conexión de los nodos de Internet?

Como crítica a Barabasi hay que señalar que, si bien el número de enlaces referenciados es un criterio muy importante, no es el único reseñable a la hora de aumentar la visibilidad. Algunos de los que no tiene en consideración son: a) la calidad del enlazador. No es lo mismo que te referencie el ministerio de Presidencia que un individuo anónimo. Los motores de búsqueda tienen muy en cuenta la relevancia de las webs. Los dominios institucionales tienen un peso mayor de tal manera que si, por ejemplo, una universidad enlaza a tu blog, tu posicionamiento en la lista de resultados va a ser sustancialmente mejor; b) La calidad del propio contenido publicado también se tiene en cuenta por los motores de búsqueda. Aquí entran en juego todas las técnicas SEO/SEM para escalar posiciones mediante usos inteligentes de palabras clave, redundancias controladas de contenidos, homogeneidad de distintas partes de la estructura de una páginas web…; c) el dinero. Una manera rápida de ser visible es pagar para te vean. Todos los motores de búsqueda dejan un espacio privilegiado para que el anunciante sea francamente visible en una lista de resultados. A veces, se mimetiza tanto que es casi imposible distinguir en una pasada veloz un resultado real de uno pagado.

Conclusión. ¿Internet es (anti) democrática?

Yochai Benker coincidice con Barabasi en la reticencia democrática de Internet. Así en el capítulo 7 de la “La riqueza de las redes” reza lo siguiente:

La implicación que para la democracia que viene inmediatamente a la mente es deprimente. Por más que, como señaló de forma entusiasta el Tribunal Supremo, en Internet todos puedan ser planfletistas o tener su propia tribuna, en realidad la Red no permite que los individuos se hagan oír de una forma sustancialmente más eficaz que la de improvisar un estrado de una plaza pública. Muchos sitios web y blogs simplemente pasarán desapercibidos y no contribuirán así a construir una comunidad política más comprometida.

 

Quizás sea algo exagerado tales afirmaciones. Sin embargo, no deja de ser muy sugerente cómo la propia naturaleza de Internet pueda crecer con esta asimetría (basada en una ley de potencias) que, sin duda, suaviza las bondades participativas en la Red. ¿Por cuánto tiempo será así?

[1] Excede del presente trabajo el detalle matemático de las distintas topologías. Para mayor detalle, ver Bibliografía y webgrafía.

[2] Tomando este como base, en los siguientes años fueron mejorando y generalizando distintos modelos (optimización multicriterio, competencia y adaptación…). Más información en Bibliografía y webgrafía: ALVAREZ-HAMELIN (2006).

 

Bibliografía y webgrafía

  • BENKLER, Yochai, (2006), The Wealth of Nations: How Social Production Transforms Markets and Freedom”. Yale University Press
  • /informe_anual_del_sector_de_los_contenidos_digitales_edicion_2015.pdf
  • BARABASI Albert-Laszio, ALBERT Reka, (1999). Emergence of Scaling in Random Networks, Science, 286, p. 509.
  • HUBERMAN Bernardo, ADAMIC Lada (1999). Growth Dynamics of the World Wide Web. Nature, 401, p. 131.
  • BARABASI, Albert-laszlo (2002). Linked: the new science of networks. Ed. Perseus books.
  • ALVAREZ-HAMELIN, José Ignacio (2006). Taxonomía de los modelos de topología de internet. Recuperado de: http://www.cimec.org.ar/ojs/index.php/mc/article/view/636/604
  • ERDÖS, P. y RÉNYI, A. (1959). On random graphs I. Math. (Debrecen), 6:290–297.
  • FALOUTSOS, M., P. FALOUTSOS, y C. FALOUTSOS (1999). On power-law relationship of the Internet topology. Commun. Rev., 29:251–263.