ppt seminario 21 5 08

Post on 16-Apr-2017

1.324 Views

Category:

Technology

3 Downloads

Preview:

Click to see full reader

TRANSCRIPT

La Web como ecosistema informacional y las leyes de

la potencia (power laws)

Ignacio Uman 28/5/08

Internet: la imprenta del siglo XXI

Piscitelli, A. (2005)

Génesis de Internet Interconexión descentralizada de redes de computadoras implementado

en un conjunto de protocolos denominado TCP/IP. Garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah.

Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW, o "la Web"). Ésta es parte de Internet, siendo uno de los muchos servicios ofertados en la red Internet. La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. La WWW utiliza Internet como medio de transmisión .

Algunos de los servicios disponibles en Internet, aparte de la Web, son el acceso remoto a otras máquinas (SSH y telnet), la transferencia de archivos (FTP), el correo electrónico (SMTP y POP), los boletines electrónicos ( news o grupos de noticias ), las conversaciones en línea ( IRC y chats ), la mensajería instantánea y la transmisión de archivos ( P2P , P2M , Descarga Directa ).

Estadística mundial de usuarios

Acceso

Continentes de la Web

“Estructura gráfica de la Web”. Investigación realizada por: Andrei Broder y sus colegas de Altavista. Nodos analizados: 200 millones (cerca de un 1/5 de todas las páginas Web en 1999).

Cuatro continentes: núcleo central, adentro, afuera e islas/rulos.

Principios para entender la Red

1.Conexión preferencial

2. Dependencia de la distancia

3. Estructura fractal subyacente

4. Reconocimiento

1. Conexión preferencial: No importa tanto la distancia al nodo (largo del cable) sino su ancho de banda (abundancia de bits). Esto explica que los nodos más ricos son los que más conexiones atraen (el ganador se queda con todo).

2. Dependencia de la distancia: aunque no sea el criterio definitivo, la distancia también importa. 2 km de fibra óptica son más caros que 0,5 km…. Los nodos no aparecen al azar en los mapas: hay más routers donde más demanda hay de ellos, por lo que la demanda es una propiedad de quienes quieren usarlos.

3. Estructura fractal subyacente: Pone en correspondencia la densidad de la población y la densidad de nodos de Internet. La distribución de routers sobre el territorio de EE.UU. conforma un conjunto fractal (objetos autosimilares).

4. Reconocimiento: Carácter exponencial de la Red (expansión) asociada a su Naturaleza libre de escala.

¿Cómo entender, entonces, el ecosistema de la Web?

Pensando en una red libre de escala (Faloutsos P. C. y M., 2000; Barabàsi, 2001) donde la interacción de elementos simples desprovistos de toda inteligencia terminan generando un cerebro y una piel global inesperada y superpoderosa.

Albert László Barabási

Profesor de Física de la Universidad de Notre Dame (Indiana, EE.UU) Experto en redes complejas, realizó investigaciones cruciales en redes libres de escala y redes biológicas Director del proyecto de redes auto-organizativas de esa Universidad : http://www.nd.edu/~networks/

De acuerdo a Barabási:

- Todo sistema complejo tiene una estructura subyacente en red (por ej. la Web).

- El descubrimiento de que el apiñamiento (clustering) es ubicuo lo ha transformado rápidamente de una propiedad única de la sociedad a una propiedad genérica de las redes complejas.

- La impresión común de que Internet contribuye al desmoronamiento de las distancias tiene base matemática: si la distancia entre un par de humanos es de 6, entre un par de páginas Web cualquiera es de 19.

- Los cubos (hubs), sin embargo, pueden resultar más importantes todavía, y este es el principal mensaje de Linked: mantienen la cohesión de la mayoría de las redes.

Distribución desigual: Pocos nodos con muchos links (muy ricos), muchos nodos con pocos links

(muy pobres).

¿Qué son las leyes de la potencia (power laws)?

Son leyes que describen ASIMETRÍA (Zipf/Pareto). Explican situaciones en las que los fenómenos extraordinarios son escasos y donde los fenómenos comunes abundan (Piscitelli, 2005).

Power Laws

-Pocos elementos con un alto valor (la cola de la izquierda en los diagramas). -Un número medio de elementos con valores intermedios (la parte media del diagrama). -Una gran cantidad de elementos que tienen un ranking bajísimo (la cola de la derecha en los diagramas) .

Tomemos como ejemplo un sitio especializado hipotético (ej. E-bay)

Rango del sitio en toda la Web

Visitas (pageviews) Rango del sitio en el tema especializado

# 20.000 10.000.000 1º más grande

# 40.000 5.000.000 2º más grande

# 60.000 3.333.333 3º más grande

# 80.000 2.500.000 4º más grande

# 100.000 2.000.000 5º más grande

Ejemplos donde se visualizan power laws

-Frecuencia de palabras en el Quijote de la Mancha.-Distribución de nombres propios en Corea.-Dispersión de superficies visuales en arquitectura (un paredón dice poco, mucho más dirá un farolito bien ubicado).-Estética: preferencia de colores en pintura.-Mnemotécnica.-Temas de newsgroups.-Tamaños de las páginas webs y de otros tipos de archivos (imágenes, audio, etc.)-Número de enlaces que salen de un sitio web (out).-Número de enlaces que llegan a un sitio web (in). La mayoría de las páginas tienen sólo un enlace a ellas y hay pocas páginas con muchos enlaces.-Fecha de actualización de las páginas-Uso de las palabras en buscadores: la mayoría de las consultas son muy comunes y poco significativas.

Pareto (80/20) Hay muchas cosas sin importancia y

algunas claves. El 80% de las resoluciones de problemas se originan en el 20% de los elementos.

Por ende: el 20 % de la población se apoderará del 80 % de los recursos, independientemente de la cultura estudiada.

Principio de Pareto en Internet Una minoría de internautas representarán la mayoría de

las visitas.Una minoría de archivos serán causantes de los mayores costos de edición.Una minoría de problemas causarán el grueso del retraso de un proceso.Una minoría de ideas que representarán la mayor causa de atracción de atención.El 20% de los Motores de Búsqueda generarán el 80% de las visitas (Google + Yahoo)El 20% de las palabras clave generarán el 80% de las visitas a una página determinada….

A modo de (in)conclusión• Contrariamente a lo que podríamos esperar, las

regularidades y patrones que la Web exhibe nos permiten imaginar usos más inteligentes de recuperación de datos así como creación de nuevos formatos y narrativas.

• De la ecología de la Web puede derivarse: 1) la concentración de visitas generalistas en pocos sitios 2) la imposibilidad de los sitios pequeños de tener un peso significativo en la construcción o desvío de tendencias (en los sitios de interés general) 3) al estar concentrados y permanecer cada vez más en empresas comerciales de noticias (orientadas) se ve el peso de las leyes de la desigualdad. Esto se aplica también a los Weblogs.

top related