cuadernos de la fundación general csic / nº 7 / diciembre ... · cuadernos de la fundación...

90
Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre 2011 / Publicación trimestral / Precio: 9 euros |||||||||||||||||||| 4 Introducción 12 Tecnologías de la información 40 Nuevos espacios de la información 62 Efectos sociales

Upload: nguyendung

Post on 28-Oct-2018

217 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cua

der

nos

de

la F

und

ació

n G

ener

al C

SIC

/ D

icie

mb

re 2

011

Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre 2011 / Publicación trimestral / Precio: 9 euros

07

||||||||||||||||||||

4Introducción

12Tecnologías de la información

40Nuevos espacios de la información

62Efectos sociales

Page 2: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

LYCHNOSCuadernos de la Fundación General CSIC

Nº 7 DICIEMBRE 2011

Page 3: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Dirección Reyes Sequera

EdiciónSira Laguna

MaquetaciónDiScript Preimpresión, S. L.

Ilustración Lola Gómez Redondo

Edita

Presidente Rafael Rodrigo Montero

Director General Javier Rey Campos

Dirección postal c/ Príncipe de Vergara, nº 9 - 2ª derecha; Madrid 28001

www.fgcsic.es

© Fundación General CSIC, 2011 Todos los derechos reservados. La utilización por parte de terceros de las obras contenidas en esta revista,sin el consentimiento previo y por escrito de su titular, podrá constituir una infracción civil o la comisión de un delito contra la propiedad intelectual.

Imprime: Cyan S.A.Dep.Legal S.527-2010ISSN: 2171-6463

En esta edición se utiliza papel sometido a un proceso blanqueado ECF, cuya fibra procede de bosques gestionados de forma sostenible certificada.

Page 4: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 3

ÍNDICELYCHNOS Nº 7 DICIEMBRE 2011

01 Introducción ..................................................................................................... 4Tecnologías de la información. Jesús Marco de Lucas ........................................... 6

02 Tecnologías de la información .................................................................. 1202.1 La inteligencia artificial. Vicenç Torra ............................................................... 14

02.2 Infraestructuras de computación científica. Isabel Campos ............................. 20

02.3 Diez años construyendo una web semántica. Marco Shorlemmer .................. 26

02.4 Criptografía: si no existiera, habría que inventarla. Gonzalo Álvarez ................. 33

03 Nuevos espacios de la información ....................................................... 4003.1 Tiempo para nuevos modelos de comunicación y difusión de la ciencia.

03.4 Agnès Ponsati e Isabel Bernal ........................................................................ 42

03.2 La aportación digital al universo de las enciclopedias.

03.4 José Antonio Millán ........................................................................................ 50

03.3 La Internet del futuro y la I+D. Tomás de Miguel ............................................. 55

04 Efectos sociales de las tecnologías de la información ................... 6204.1 Los cambios culturales provocados por el software social.

03.4 José Luis Molina ............................................................................................. 64

04.2 La recuperación de prácticas sociales en la Red.

03.4 Antonio Rodríguez de las Heras ...................................................................... 70

04.3 Móviles, mapas, satélites y redes sociales: gestión de crisis 2.0.

03.4 Marta Poblet ................................................................................................... 75

05 Tribuna ............................................................................................................... 80

06 Noticias .............................................................................................................. 84

Page 5: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

01Introducción

Page 6: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios
Page 7: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

6 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

01 INTRODUCCIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

En primer lugar hay que decir que esta es la his-toria de una revolución

tecnológica, con un increíble impacto económico y social, y que ha requerido muchas aportaciones científicas. Pero no es la historia de una revo-lución científica. De hecho, la mayor parte de los conceptos clave en tecnologías de la in-formación fueron concebidos en un periodo especialmente fructífero de colaboración di-recta entre matemáticos, físi-

Tecnologías de la información

«Las tecnologías de la información se ocupan de la adquisición, procesado, almacenamiento y difusión de información en forma de voz, imágenes, texto o numérica, combinando técnicas de computación y telecomunicación basadas en la microelectrónica». Esta definición, original de 1958, y recogida por Wikipedia en su artículo «Information technology» puede ser un buen punto de partida para analizar la evolución de esta área del conocimiento.

Jesús Marco de Lucas

Instituto de Física de Cantabria (CSIC y Universidad de Cantabria)

cos e ingenieros, entre 1940 y 1960, por genios como Jo-hn von Neumann, Alan Turing o Claude Shannon, que sen-taron las bases de la Teoría de la Información y de la Ciencia de la Computación. Pero fue otro gran avance tecnológi-co y científico, el desarrollo del transistor y del circuito inte-grado, y el consiguiente naci-miento de la microelectrónica, como bien recuerda la defini-ción citada por Wikipedia, lo que ha hecho posible la revo-

lución de la tecnología de la in-formación (Information Tech�Tech�nology, IT). Y otros muchos avances en paralelo, como la tecnología láser, el desarrollo de nuevos materiales, la fotoli-tografía o la microscopia elec-trónica han permitido su increí-ble expansión.

La expansión IT: una ex-pansión exponencialLa potencia de un ordena-dor, que es el bloque bási-co en un sistema de informa-

ción, depende críticamente de la capacidad de su (micro) pro-cesador para ejecutar las ope-raciones internas definidas por el código de un programa que se ejecuta sobre los datos que residen en su memoria. Es-ta capacidad depende tanto de la velocidad del reloj inter-no del procesador que marca su «ciclo», como de la com-plejidad y número de opera-ciones internas que es capaz de efectuar en ese ciclo, así como del tamaño de los da-

Page 8: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 7

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| INTRODUCCIÓN 01

tos que es capaz de procesar a la vez; está muy relacionada, por tanto, con el número to-tal de transistores integrados en el chip. Desde 1970, la po-tencia de los procesadores ha crecido siguiendo la predic-ción de lo que se conoce co-mo ley de Moore, directivo de Intel que sugirió que la poten-cia de cálculo se duplicaría aproximadamente cada dos años, gracias a la reducción de tamaño de los transistores y al aumento de la velocidad del reloj. El primer microproce-sador, Intel 4004 de 1971, fun-cionaba a una frecuencia de 740 KHz y contaba con unos 2.300 transistores. Un pro-cesador actual integra, en un chip de unos 2 cm2, más de 1.000 millones de transistores y puede operar a una frecuen-cia de hasta 5 GHz (millones

de KHz). Una evolución expo-nencial: la potencia se dupli-ca cada dos años o lo que es lo mismo se multiplica por un millón en 40 años (220 = 1.048.576).

Este incremento de la poten-cia de computación se com-plementa con la creación de los supercomputadores, que aco-plan la potencia de hasta cien-tos de miles de procesadores en un mismo sistema, permi-tiendo alcanzar una potencia del orden de petaFLOPS (billo-nes de operaciones por segun-do) a partir de procesadores capaces de realizar cientos de gigaFLOPS (cientos de millones de operaciones por segundo).

Del mismo modo, la capaci-dad de transmisión de datos entre sistemas, o de comuni-cación, también ha mejorado

exponencialmente. De trans-ferir cientos de bits (unida-des básicas de información) por segundo a través de ca-bles paralelos en 1970, se ha pasado a transferir 100 mi-llones de bits por segundo, empleando fibra óptica. De nuevo un salto de un factor cercano a un millón en un pe-riodo de 40 años.

La capacidad de almacena-miento de información tam-bién ha crecido exponencial-mente: los discos magnéticos han pasado de una capacidad de 2-3 Megabytes o millones de caracteres en 1971 a unos 3 Terabytes (3 millones de Me-gabytes) en 2011.

Por último, la capacidad pa-ra captar información externa a través de instrumentación

conectada directa o indirec-tamente a los ordenadores también ha aumentado expo-nencialmente. Prácticamente cualquier adquisición de da-tos del tipo que sea se realiza hoy en día de forma electró-nica y la información se pro-cesa y almacena en sistemas de información. Por ejemplo, una cámara puede propor-cionar imágenes de 20 millo-nes de puntos 50 veces por segundo.

Esta expansión «cualitativa», en cuanto a potencia indi-vidual, ha venido además acompañada de una expan-sión «cuantitativa», referida al número de sistemas insta-lados. Se estima que actual-mente hay más de mil millones de computadores instalados en todo el mundo, aunque ob-

Jesús Marco de Lucas

Profesor de investigación en el Instituto de Física de Cantabria, centro mixto CSIC-Universidad de Cantabria. Doctor por la Universidad de Cantabria, desarrolló su tesis en el campo de la Física Experimental de Altas Energías, dentro del expe-rimento DELPHI en el acelerador LEP (Large Electron Positron Collider) del Laboratorio Europeo de Física de Partículas (CERN) en Ginebra, Suiza. Fue coordinador del grupo de búsqueda del bosón de Higgs en dicho experimento, partici-pando en la combinación de los resultados de LEP que fijó el límite inferior actual de su masa, que es de aproximada-mente 120 veces la masa del protón.

Con el objetivo inicial de abordar las necesidades de computación de los experimentos del siguiente acelerador del CERN, LHC (Large Hadron Collider), participó en la creación de una red internacional de computadores para uso científico, utilizan-do la tecnología «grid»: LHC Grid Computing. Igualmente participó en la puesta en marcha de la red de e-Ciencia en Espa-ña, abierta a todas las áreas de investigación, y en la creación de la infraestructura europea Grid, EGI.eu, que procesa ac-tualmente más de un millón de trabajos diarios en 50 paises utilizando de modo coordinado más de 300.000 procesadores y con una capacidad de 100 millones de Gigabytes (100 Petabytes). Ha sido coordinador del proyecto europeo Interacti-ve European Grid, que desarrolló herramientas que permiten usar esta infraestructura de modo interactivo y ejecutar apli-caciones paralelas de supercomputación.

Ha ocupado distintos cargos de responsabilidad en el CSIC, siendo director del Instituto de Física de Cantabria entre 2004 y 2007 y coordinador del Área de Ciencia y Tecnologías Físicas entre 2008 y 2010.

Jesús Marco de Lucas.

Page 9: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

8 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

01 INTRODUCCIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

viamente la inmensa mayo-ría son ordenadores persona-les. Cabe resaltar que los 500 supercomputadores más po-tentes del mundo suman algo más de diez millones de nú-cleos de procesador.

El impacto de las tecnolo-gías de la información en la cienciaLa investigación en práctica-mente todas las áreas de la ciencia y la tecnología no só-lo se ha beneficiado enorme-mente de las posibilidades de la IT, sino que en muchos ca-sos ha pasado a ser una herra-mienta imprescindible.

La simulación es una de las primeras y más importantes aplicaciones de los ordenado-res. El método denominado de «Monte Carlo» fue desa-rrollado en 1946 por Stanislav Ulam en el Laboratorio Nacio-nal de Los Álamos, junto con Von Neumann, para analizar la difusión de neutrones. Este método «simula» experimen-tos independientes emplean-do números aleatorios, co-mo los que se obtendrían de una ruleta de casino, y per-mite aproximar de este modo la solución de integrales muy complejas. La simulación se emplea hoy en día para ana-lizar toda la escala de proce-sos de la naturaleza: desde conocer los resultados espe-rados cuando dos protones colisionan en un acelerador, el

comportamiento del plasma en un reactor de fusión, dise-ñar nuevos materiales a esca-la atómica, entender el plega-miento de proteínas, probar nuevos fármacos, compren-der la evolución de un eco-sistema o predecir el impacto de un tsunami hasta anali-zar la expansión del universo. Los investigadores utilizan los computadores como labora-torios «in-silico», donde pro-bar «virtualmente» sus hipó-tesis.

El análisis de datos es la se-gunda herramienta clave. Los ordenadores actuales permi-

ten analizar grandes volúme-nes de datos aplicando téc-nicas muy avanzadas, como, por ejemplo, el método de re-des neuronales, para obtener modelos con mucha mejor ca-pacidad predictiva.

La combinación de las dos he-rramientas anteriores, simula-ción y análisis de datos, per-mite abordar de forma integral muchos problemas básicos pero complejos de la ciencia que de otro modo hoy en día no se podrían analizar.

¿Un techo de cristal en los sistemas IT?Este techo no hace referen-cia al grave problema de la ba-ja proporción de mujeres que trabajan en el área IT sino al contraste entre la increíble ex-pansión de la potencia de los sistemas informáticos, de su hardware, y la relativamente lenta evolución de las aplica-ciones para los mismos, de su software.

La base de cualquier aplica-ción informática es el lengua-je de programación, la forma de proporcionar al procesador las instrucciones que quere-mos que realice. En primer lu-gar, los tipos de instrucciones que pueden realizar los pro-cesadores no han variado tan sustancialmente en estos úl-timos 40 años. Es cierto que se han extendido y optimizado muchas de las instrucciones

La simulación es una de las primeras y más importantes aplicaciones de los ordenadores

básicas, y la forma/orden de ejecutarlas para lograr mayor rendimiento. También se han introducido nuevas instruc-ciones específicas que permi-ten realizar, por ejemplo, gráfi-cos de forma muy eficaz. Pero en principio podríamos ejecu-tar muchas de las aplicacio-nes actuales en ordenadores de hace 20 años, aunque so-lo en versiones básicas que re-quieran recursos mínimos.

No se ha producido un cambio de paradigma de la programa-ción. La evolución de los len-guajes iniciales de alto nivel, como Fortran, Cobol o C, ha-cia lenguajes orientados a ob-jeto como C++ o Java, ha si-do en cierto modo natural. No ha aparecido hasta el momen-to ningún lenguaje de alto nivel popular que permita estable-cer una comunicación más di-recta y eficaz con los sistemas informáticos, como en cierto momento parecían prometer algunas ideas del área de la in-teligencia artificial.

Las aplicaciones más popula-res, como procesado de datos (incluyendo el uso de bases de datos o de hojas de cálcu-lo), simulación, visualización, procesado de texto, sonido o imágenes/video, simplemente han aumentado enormemen-te en potencia y en funciona-lidad pero no han cambiado radicalmente su filosofía. La mayor evolución se ha dado

Page 10: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 9

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| INTRODUCCIÓN 01

en la forma de interaccionar con el usuario, que ha pasado de la consola de caracteres a la pantalla táctil de alta resolu-ción y basada en menús.

Así, podríamos decir que los sistemas informáticos de hoy no son intrínsecamente más «inteligentes» que los de ha-ce 40 años, pero sin embar-go sí son capaces, debido a su gran capacidad, de propor-cionar mejores respuestas.

¿O residirá la inteligencia jus-tamente en elevar aún más esa capacidad de integrar adecuadamente las respues-tas? El ordenador Deep Blue derrotó al campeón mun-dial de ajedrez Kasparov, en 1997, empleando principal-mente su potencia de cálcu-lo. Recientemente, otro orde-nador de IBM, denominado Watson, fue capaz de vencer a los finalistas del juego jeo-pardy, empleando esta vez no solo su capacidad de cálcu-lo sino una aplicación de pro-cesado de lenguaje natural y de representación del cono-cimiento que incluye el análi-sis de hipótesis a contrastar, utilizando una relevante can-tidad de información almace-nada en su memoria (equiva-lente a unos 400 millones de páginas).

Revolución en la RedSe podría decir que la expan-sión de Internet en los últimos

20 años sí que ha supuesto una verdadera revolución en el mundo IT. Las posibilidades, desafíos y riesgos de Inter-net solo empiezan a compren-derse ahora. La evolución de la Red, tanto en sistemas co-nectados como en la capaci-dad de esa conexión, aún está despegando.

Así, la tecnología basada en comunicaciones ópticas o inalámbricas de muy alta ve-locidad está todavía en ple-no desarrollo y limita, aunque cada vez menos, algunas de las aplicaciones posibles. Pe-ro no es solo la capacidad de estas conexiones sino tam-bién la forma de establecerlas la que va a incidir en aspectos clave, como la seguridad y pri-vacidad.

La mayoría de los usuarios perciben Internet a través de su experiencia con el nave-gador web, en muchos casos accediendo a información de forma pasiva.

El World Wide Web, basado en el protocolo HTTP, en el len-guaje HTML y en los identifica-dores URL que permiten com-partir la información en la Red, nació en un entorno científico, en el CERN, en 1984, y se po-pularizó gracias al navegador gráfico Mosaic de la NCSA, precursor de los navegadores actuales, que permitía acce-der a páginas de información

incluyendo tanto texto cómo imágenes.

El desarrollo del Web sobre Internet ha permitido que los computadores puedan acce-der, recopilar y procesar de forma cuasi automática infor-mación, tanto pública como privada, disponible en otros muchos computadores de cualquier parte del mundo.

Los computadores, evidente-mente configurados por sus administradores, pasan por tanto a ser «actores sociales» en esta red. La aparición de Google marca, en este sen-tido, un antes y un después. Google se posiciona en la Red como un sistema capaz de captar prácticamente toda la información disponible en las páginas web abiertas, pe-ro además con potencia sufi-ciente para procesarla y ofre-cerla de forma que sea útil. De esta forma, Google pasa a es-tablecer casi de facto un or-den de «importancia» en la información, con toda la re-percusión asociada. Para ello, Google opera con gigan-tescas «granjas» de ordena-dores distribuidas por buena parte del mundo que se ocu-pan de copiar la información, procesarla y ofrecerla luego a los usuarios.

Google, como buscador, es solo un primer ejemplo, aun-que muy relevante, de las nue-

Los sistemas informáticos de hoy no son intrínsecamente más «inteligentes» que los de hace 40 años, pero sin embargo sí son capaces de proporcionar mejores respuestas

Page 11: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

10 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

01 INTRODUCCIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

vas aplicaciones globales que permite Internet y además es ofrecido al usuario con un in-terfaz (el navegador) de posi-bilidades limitadas.

Las redes sociales que acu-mulan gigantescas bases de datos analizables en función de las acciones de sus usua-rios o los ciber-ataques coor-dinados desde cientos de or-denadores en la Red son dos ejemplos, no tan distintos, de lo que se puede realizar hoy en día desde Internet.

e-Ciencia«La e�Ciencia se entiende co�mo el conjunto de actividades científicas desarrolladas me�diante el uso de recursos dis�tribuidos accesibles a través de Internet».

Esta definición, que aparece en un libro blanco editado en 2004, no hacía más que refle-jar una evolución que hoy en día parece consolidada.

Desde un punto de vista tec-nológico, además de la mejo-

ra de la conectividad en red, en los últimos años se han de-sarrollado nuevas tecnologías que apoyan esta evolución.

Las tecnologías de «computa-ción en la nube» (Cloud com�puting) abren el acceso de los usuarios bajo demanda a re-cursos remotos de todo tipo, desde almacenamiento ma-sivo a supercomputación. La tecnología Cloud puede per-mitir además reducir gastos al consolidar recursos en gran-des centros muy eficientes.

El computador Watson de IBM. / Foto: Jesús Marco de Lucas.

Google, como buscador, es solo un primer ejemplo de las nuevas aplicaciones globales que permite Internet

Las compañias más importan-tes en el mundo IT y en Inter-net (Amazon, Apple, Google e IBM) ofrecen este tipo de solu-ciones a diverso nivel.

Una iniciativa anterior pero más ambiciosa tecnológicamente, la computación Grid, permite en cambio compartir de forma dinámica recursos de diferen-tes centros de computación, asignando recursos a nivel mundial a organizaciones «vir-tuales». Esta filosofía permite abordar grandes problemas de

Page 12: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 11

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| INTRODUCCIÓN 01

computación de forma coordi-nada e intensa: durante la cri-sis de la gripe aviar en 2006 los computadores de la iniciativa Grid europea fueron capaces de analizar más de 300.000 compuestos químicos en bus-ca de un inhibidor de la encima N1 que forma parte del virus, completando en menos de un mes una tarea que hubiera re-querido más de 100 años en el ordenador de trabajo de un in-vestigador. En la infraestructura Grid actual, un análisis similar se puede completar en menos de un día. Además, los centros Grid son capaces de transferir de modo automatizado gran-des volúmenes de información (miles de Gigabytes de datos diarios) sobre las redes de alta velocidad que los unen, y eje-cutar cientos de miles de pro-gramas de análisis de estos datos de forma automática. La potencia del Grid para resolver problemas que requieren gran-des volúmenes de datos supe-ra actualmente la de cualquier supercomputador.

El último componente de la e-Ciencia que empieza a des-pegar en estos momentos es la instrumentación remota, incluyendo los sensores ubi-cuos que se pueden enmar-car en lo que se conoce co-mo Internet of Things. La extensión del alcance de In-ternet a prácticamente cual-quier región, a través de di-ferentes formas de conexión

y especialmente de bajo cos-te, como wifi/wimax y 3G, es-tá permitiendo una explosión en la instalación de sensores de todo tipo que facilitan co-nocer con mucho mayor de-talle tanto el medio natural (sensores atmosféricos, de calidad del medio, cámaras) como social (cámaras, po-sición GPS). La integración de esta información requie-re nuevas herramientas y ba-ses de datos masivas, así co-mo una gran capacidad de almacenamiento y procesa-do. Además debe integrarse con la información proporcio-nada por múltiple instrumen-tación remota, cada vez más potente, como, por ejemplo, las imágenes proporcionadas por satélites.

Por una IT al servicio de la ciencia y de los ciudadanosSi miramos atrás, la evolución de la IT en los últimos 40 años impresiona. La ciencia y la tec-nología han impulsado una gran parte de esta evolución y también se han beneficiado de ella. En paralelo, las tecno-logías IT han ido convirtiéndo-se en un elemento casi im-prescindible en la educación, la industria, la Administración y la vida personal.

Después de este «vértigo ex-ponencial» quizás sea el mo-mento de una reflexión. Una reflexión que debería partir de preguntas muy básicas pe-

ro importantes, como las si-guientes:

¿Controlamos el impacto de las tecnologías IT en nuestra actividad diaria?

¿Es sostenible la evolución ac-tual, especialmente en uso de energía en los cada vez más grandes centros de procesa-do de datos, pero también en el reciclado y en el uso de ma-teriales agotables?

¿Somos conscientes de la de-pendencia que supone es-ta tecnología actualmente, a todos los niveles, y de su im-plicación económica, social y política?

Algunas de estas preguntas pueden tener respuestas muy positivas, en los próximos años, de la mano de nuevos avances científicos y tecnoló-gicos. Por ejemplo, el impacto de la nanotecnología con nue-vos materiales, como el gra-feno, puede propiciar el paso de la industria del silicio a la del carbono, reduciendo el consu-mo y aumentando las presta-ciones de los sistemas actua-les, aunque es difícil que varíe el contexto económico/indus-trial. Entender mejor cómo funciona nuestro cerebro po-dría acercarnos a nuevas for-mas de inteligencia artificial y propiciar un cambio de para-digma de programación, inclu-so de arquitectura de nuevos

computadores. La computa-ción cuántica podría permitir resolver cálculos específicos en un tiempo mucho menor y con mucho menor consumo energético.

Donde sí estamos a tiempo de lograr un cambio es en el uso de Internet, y especialmente de la información que circula y la forma en que se controla.

Probablemente el «negocio» más importante y a la vez más delicado de los próximos años es el asociado a la gestión de nuestros datos, a nivel social e individual, datos profesiona-les y también personales, de consumo, relaciones, opinio-nes, etc. Nuestro propio tra-bajo queda reflejado en mu-chos casos en documentos que residen en la Red. El cono-cimiento y la gestión de estos datos escapan paulatinamente de nuestro control. Con aquel se va también la visión que po-demos y debemos tener, co-mo ciudadanos, de la evo-lución de nuestra sociedad, tanto económica como políti-camente. Si no somos capa-ces de limitar adecuadamente el uso de estos datos por par-te de los «proveedores de ser-vicios» ni de saber «explotar» los mismos en beneficio global de la sociedad, habremos per-dido una de las mejores opor-tunidades que nos brindan ac-tualmente las tecnologías de la información.

Page 13: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

02Tecnologías

de la información

Page 14: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios
Page 15: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

14 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.1 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

La inteligencia artificial (IA) es una de las ramas de la Informática, con fuer-

tes raíces en otras áreas como la lógica y las ciencias cogni-tivas. Como veremos a con-tinuación, existen muchas definiciones de lo que es la in-teligencia artificial. Sin embar-go, todas ellas coinciden en la necesidad de validar el trabajo mediante programas. H. A. Si-mon, uno de los padres de la IA, nos sirve de ejemplo, pues afirmó, en un artículo en 1995, que «el momento de la verdad es un programa en ejecución». Las definiciones difieren en las características o propiedades que estos programas deben satisfacer.

La inteligencia artificialLa inteligencia artificial (IA) es una de las ramas de la Informática, con fuertes raíces en otras áreas como la lógica y las ciencias cognitivas. Vicenç Torra nos conduce por sus definiciones y aplicaciones.

Vicenç Torra

Instituto de Investigación en Inteligencia Artificial (CSIC)

La inteligencia artificial na-ce en una reunión celebrada en el verano de 1956 en Dart-mouth (Estados Unidos) en la que participaron los que más tarde han sido los investigado-res principales del área. Para la preparación de la reunión, J. McCarthy, M. Minsky, N. Ro-chester y C. E. Shannon re-dactaron una propuesta en la que aparece por primera vez el término «inteligencia artificial». Parece ser que este nombre se dio a instancias de J. Mc-Carthy.

¿Qué es la inteligencia ar-tificial?La propuesta citada más arri-ba de la reunión organizada

por J. McCarthy y sus cole-gas incluye la que puede con-siderarse como la primera de-finición de inteligencia artificial. El documento define el proble-ma de la inteligencia artificial como aquel de construir una máquina que se comporte de manera que si el mismo com-portamiento lo realizara un ser humano, este sería llamado in-teligente.

Existen, sin embargo, otras definiciones que no se ba-san en el comportamiento humano. Son las cuatro si-guientes.

1. Actuar como las perso�nas. Esta es la definición de

McCarthy, donde el mode-lo a seguir para la evaluación de los programas correspon-de al comportamiento huma-no. El llamado Test de Turing (1950) también utiliza es-te punto de vista. El sistema Eliza, un bot (programa soft-ware) conversacional es un ejemplo de ello.

2. Razonar como las per�sonas. Lo importante es có-mo se realiza el razonamien-to y no el resultado de este razonamiento. La propuesta aquí es desarrollar sistemas que razonen del mismo mo-do que las personas. La cien-cia cognitiva utiliza este pun-to de vista.

Page 16: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 15

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.1

3. Razonar racionalmen�te. En este caso, la defini-ción también se focaliza en el razonamiento, pero aquí se parte de la premisa de que existe una forma racio-nal de razonar. La lógica per-mite la formalización del ra-zonamiento y se utiliza para este objetivo.

4. Actuar racionalmente. De nuevo el objetivo son los re-sultados, pero ahora evalua-dos de forma objetiva. Por ejemplo, el objetivo de un programa en un juego co-mo el ajedrez será ganar. Pa-ra cumplir este objetivo es in-diferente la forma de calcular el resultado.

Además de las definiciones mencionadas más arriba, hay aún otra clasificación de la in-teligencia artificial según cuá-les son los objetivos finales de

la investigación en este cam-po. Son la inteligencia artificial fuerte y la débil.

Inteligencia artificial débilSe considera que los orde-nadores únicamente pueden simular que razonan, y úni-camente pueden actuar de forma inteligente. Las partida-rios de la inteligencia artificial débil consideran que no será nunca posible construir orde-nadores conscientes, y que un programa es una simulación de un proceso cognitivo pero no un proceso cognitivo en sí mismo.

Inteligencia artificial fuerteEn este caso se considera que un ordenador puede te-ner una mente y unos estados mentales, y que, por tanto, un día será posible construir uno con todas las capacidades de la mente humana. Este orde-

nador será capaz de razonar, imaginar, etc.

Temas en la inteligencia ar-tificialAunque existen puntos de vis-ta diferentes sobre qué es la inteligencia artificial, hay un acuerdo importante sobre cuales son los resultados atri-buibles a esta rama de la Infor-mática, así como a la clasifica-ción de los métodos y técnicas desarrollados. Repasamos a continuación los cuatro gran-des temas de la inteligencia ar-tificial.

1. Resolución de problemas y búsqueda. La inteligencia artificial tiene como objetivo resolver problemas de índo-le muy diferente. Para poder cumplir este objetivo, da-do un problema es necesa-rio formalizarlo para poderlo resolver. Este tema se cen-

tra en cómo formalizarlo y las formas de resolución.

2. Representación del co�nocimiento y sistemas ba�sados en el conocimiento. Es frecuente que los pro-gramas en inteligencia ar-tificial necesiten incorporar conocimiento del dominio de aplicación (por ejemplo, en medicina) para poder re-solver los problemas. Este tema se centra en estos as-pectos.

3. Aprendizaje automático. El rendimiento de un progra-ma puede incrementarse si el programa aprende de la actividad realizada y de sus propios errores. Se han de-sarrollado métodos con es-te objetivo. Existen también herramientas que permiten extraer conocimiento a par-tir de bases de datos.

4. Inteligencia artificial dis�tribuida. Durante sus prime-ros años la inteligencia arti-ficial era monolítica. Ahora, con los ordenadores multi-procesador e Internet, hay interés en soluciones dis-tribuidas. Estas van des-de versiones paralelas de métodos ya existentes a nuevos problemas relacio-nados con los agentes au-tónomos (programas soft-ware con autonomía para tomar decisiones e interac-cionar con otros).

Vicenç Torra.

Vicenç Torra

Doctor en Informática por la Universitat Politècnica de Catalunya (UPC) e investi-gador científico del Instituto de Investigación en Inteligencia Artificial (CSIC). Fue profesor titular de la Universitat Rovira i Virgili. Preside la Asociación Catalana de Inteligencia Artificial.

Inició, en 2004, la organización del congreso Modeling Decisiones for Artificial In-telligence, que se celebra anualmente y tiene una evaluación de CORE B (el ran-king de conferencias australiano). Fundador y editor de la revista Transactions on Data Privacy. Asimismo, es miembro del consejo editorial de las siguientes pu-blicaciones: Fuzzy Sets and Systems, Information Sciences, Progress in Artificial Intelligence, Journal of Advanced Computational Intelligence and Informatics e International Journal of Computational Intelligence System.

Es autor, entre otros libros, de Fundamentos de Inteligencia Artificial y Del ába�co a la revolución digital.

Page 17: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

16 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.1 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Además de los cuatro temas mencionados más arriba, existen otros que están fuer-temente relacionados con la inteligencia artificial. Son los enumerados a continuación:

a) El lenguaje natural. b) La visión artificial. c) La robótica. d) El reconocimiento del

habla.

Como se verá a continuación, muchas de las aplicaciones más llamativas utilizan algu-nas de las técnicas relaciona-das con estos temas.

Algunas aplicacionesHasta la fecha se han desa-rrollado muchas aplicaciones que utilizan algunos de los mé-todos o algoritmos diseñados en el área de la inteligencia ar-

tificial. En esta sección repasa-mos algunas de las aplicacio-nes existentes más vistosas o que han tenido relevancia histórica. Sin embargo, estas no son las únicas aplicacio-nes existentes, pues hay mé-todos desarrollados en es-ta rama de la Informática que se utilizan en aparatos de uso cotidiano o en el software em-pleado por empresas y cor-poraciones. Por ejemplo, por una parte, encontramos los al-goritmos de búsqueda cita-dos más arriba en los siste-mas que construyen horarios teniendo en cuenta las restric-ciones de las entidades e indi-viduos que participan en ellos. Por otra parte, los métodos de aprendizaje se usan para reco-mendar productos en las tien-das virtuales y para seleccio-nar los anuncios que se nos proporcionan al visitar ciertas páginas web. Otro ejemplo es el de los sistemas difusos, uno de los métodos de representa-ción del conocimiento que han sido aplicados con éxito en problemas de control de muy diversa índole. Existen tanto cámaras digitales como lava-doras que incorporan en su in-terior un sistema difuso.

Pasamos a ver a continuación algunas de las aplicaciones más relevantes.

Aplicaciones en los juegosDurante décadas, la inteligen-cia artificial se ha dedicado a

los juegos con el fin de derro-tar a los mejores jugadores hu-manos. Se ha considerado siempre que la habilidad de ju-gar era propia de la inteligencia. Las damas y el othello fueron derrotados primero. En el año 1997 fue el turno del ajedrez. Ahora prácticamente queda únicamente el go por batir.

•  Las damas. Chinnok, un programa desarrollado des-de el año 1989 por el equipo de Jonathan Schaeffer, de la Universidad de Alberta, se convirtió en el año 1994 en el campeón mundial de damas. El programa inclu-ye una base de datos con aperturas de los mejores ju-gadores y otra de situacio-nes finales cuando quedan 8 o menos fichas en el table-ro. El mismo equipo investi-gador demostró años más tarde, en el año 2007, que cuando se juega a las da-mas de forma perfecta nin-gún jugador puede ganar. Esto significa que una estra-tegia óptima por parte de los dos jugadores únicamente puede llevar a tablas. La difi-cultad de esta demostración estriba en que puede haber aproximadamente 500 3 1020 tableros posibles, o, en palabras, cincuenta mil trillo-nes de tableros. El problema es un millón de veces más difícil que el de las 4 en ra-ya. La información sobre es-te programa se puede en-

ASIMO (Advanced Step in Innovative Mobility –paso avanzado en movilidad innovadora–) es un robot humanoide creado en el año 2000 por la empresa Honda. / Foto: Honda.

Page 18: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 17

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.1

contrar en: http://webdocs.cs.ualberta.ca/~chinook/.

•  El  ajedrez. Durante mu-chos años se desarrollaron inventos y programas con el fin de ganar en el juego del ajedrez. Sin embargo, no fue hasta mayo del año 1997 cuando Deep Blue venció al campeón humano G. Kas-parov en Nueva York. El pro-grama desarrollado por IBM utilizaba hardware específi-co, bases de datos que per-mitían al programa jugar de forma perfecta en las situa-ciones finales con 7 o menos fichas en el tablero, y algo-ritmos de búsqueda del ti-po minimax para encontrar la mejor solución en todos los otros casos. Se puede encontrar información sobre Deep Blue en la página web http://www.research.ibm.com/deepblue.

•  El go. Mientras los otros juegos ya han sido derrota-dos, no existe en la actuali-dad ningún programa infor-mático que tenga un nivel suficiente en go como para ganar a los buenos jugado-res humanos. Hace años que se considera el go un juego mucho más difícil que el aje-drez. La dificultad estriba en las dimensiones del tablero (19 3 19, con 361 intersec-ciones), el número de movi-mientos posibles en cada ta-blero y la dificultad de definir

funciones que evalúen co-rrectamente un tablero da-do. Actualmente se han con-seguido algunos programas que tienen un buen nivel en un tablero reducido de 9 x 9. Los programas que tienen un buen rendimiento no utilizan el mismo algoritmo de bús-queda que el ajedrez (el míni-max) sino el UCT.

Aplicaciones en robóticaLas aplicaciones en robótica se han desarrollado desde el principio de la informática con diversidad de objetivos: la au-tomatización de procesos in-dustriales, las aplicaciones militares y la exploración espa-cial. Mientras los primeros ro-bots estaban orientados a rea-lizar actividades repetitivas, actualmente se busca una mayor autonomía en relación a su capacidad de tomar de-cisiones. La evolución de la ro-bótica también ha pasado por su intento de construir robots con forma humana y con ca-pacidad de andar. A continua-ción se enumeran algunos de los logros más importantes en esta área.

•  Los  robots  mascotas. Existen en la actualidad mu-chos robots para diversión o juegos. Podemos subrayar dos de ellos: los japoneses Paro y Aibo. El primero es un robot terapéutico para redu-cir el estrés de los pacientes y que permite incrementar su

dar y correr. Además puede reconocer objetos móviles, posturas y gestos a partir de la información subministrada por sus cámaras.

Aplicaciones en vehículos in-teligentesSe han construido muchos tipos de vehículos con dife-rentes grados de autonomía. En el apartado anterior ya se mencionaron algunos robots. Aquí se señalan vehículos que pueden llevar pasajeros.

•  El metro de la ciudad japo�nesa de Sendai (仙台地下鉄). Este metro, desarrollado en el año 1987, fue el primero en el mundo con una conducción totalmente automatizada. Ac-tualmente, son muchas las lí-neas de metro sin conductor en el mundo. El sistema fue realizado bajo la dirección de Seiji Yasunobu, miembro del laboratorio de Desarrollo de Sistemas de Hitachi. Está ba-sado en técnicas de lógica di-fusa.

•  Coches autónomos. Stan-ley fue el coche ganador de la carrera «2005 DARPA Grand Challenge». El coche, autóno-mo y sin conductor, completó el recorrido de 212,4 km en el desierto de Mojave, en los Es-tados Unidos, en 6 horas y 54 minutos. En el 2007 se realizó la «2007 DARPA Grand Cha-llenge» que consistía en reco-rrer 96 km en área urbana (en

socialización. Aibo, presen-tado en el año 1999 e im-plementado y comercializa-do por SONY, es un robot en forma de perro con un siste-ma de visión y programable.

•  Los robots de exploración y reconocimiento. Se envia-ron a la superficie de Mar-te dos robots, el 3 y el 24 de enero de 2004 respectiva-mente. Son los robots Spi-rit y Opportunity. Spirit estu-vo activo hasta el año 2010 y Opportunity aún está en fun-cionamiento. El 26 de no-viembre de 2011 se mandó un tercer robot, el Curiosity, que debe llegar a Marte en agosto de 2012. Este robot tiene una navegación auto-mática media de 30 m/ho-ra (y máxima de 90 m/hora). Se espera que su misión du-re dos años.

•  Los  robots bípedos. P3 fue el primer robot bípedo capaz de caminar. Su cons-trucción, realizada por la compañía Honda, acabó en el año 1997. En octubre del año 2000, la misma compa-ñía presentó el robot ASIMO (de Advanced Step in Inno-vative Mobility). Este robot es la culminación de la se-rie de robots P, todos desa-rrollados con el objetivo de disponer de robots con for-ma y capacidades motrices humanas. ASIMO es un ro-bot bípedo que puede an-

Page 19: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

18 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.1 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

la base de las Fuerzas Aéreas George en California). Los co-ches circulaban procesando en tiempo real las reglas de cir-culación del estado de Cali-fornia. El 20 de septiembre de 2011, el coche Made in Ger-many de la Universidad Li-bre de Berlín se desplazó por las calles de esta ciudad en un viaje de 80 km. El recorri-do fue entre el Centro de Con-gresos Internacional y la Puer-ta de Brandenburgo, en el centro de Berlín. El automó-vil es completamente autó-nomo, aunque algunas infor-maciones, como la velocidad del recorrido, le vienen dadas y no son recogidas por sus cámaras. El coche recono-ce la presencia de peatones y de semáforos. Para informa-ción del coche alemán puede consultarse la siguiente pági-na web: http://autonomos.inf. fu-berlin.de.

•  Los vehículos aéreos no tripulados (UAV, Unmanned Aerial Vehicle). El vehículo aé-reo no tripulado Global Hwak fue el primero en cruzar el Océano Pacífico sin paradas. Realizó el trayecto de Esta-dos Unidos (California) a Aus-tralia en abril del año 2001. Sin embargo, aún necesita un piloto en una estación terres-tre y otros operadores para analizar los datos. De acuer-do con Weiss (2011), el prin-cipal problema de estos sis-temas autónomos es que,

aunque pueden recoger mu-chos datos, les falta todavía capacidad de proceso para tratar los datos en tiempo real y actuar de forma inteligente conforme a estos datos.

ConclusionesLa informática ha avanzado enormemente desde sus ini-cios hace 70 años. La poten-cia de cálculo se ha estado multiplicando por dos cada 18 meses, siguiendo la ley de Moore. Se cree que, si la ley de Moore se sigue cumplien-do, para el año 2030 la capaci-dad de cálculo de un procesa-dor corresponderá a la de una persona.

A su vez, la cantidad de in-formación almacenada digi-talmente en la actualidad es enorme. Los buscadores co-

mo Google almacenan millo-nes de copias de las páginas web existentes, y los servi-cios de correo de las compa-ñías acumulan por millones nuestros mensajes. Las redes sociales registran cuáles son nuestros intereses y nues-tras amistades. Las compa-ñías guardan cualquier in-formación, por insignificante que pueda ser, por si en el fu-turo les puede ser de alguna utilidad.

Naturalmente, un aumento de la velocidad de computación y una mayor capacidad de al-macenaje implicará que los sistemas dispongan de más recursos para tomar decisio-nes y que estas decisiones se realicen de manera más infor-mada y, a su vez, de manera más personalizada.

Paro, comercializado en España con el nombre Nuka, es una foca robot de origen japonés, que lleva desarrollándose desde 1993. / Foto: página web de parorobot.

Durante décadas, la inteligencia artificial se ha dedicado a los juegos con el fin de derrotar a los mejores jugadores humanos

Page 20: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

La planificación estratégica es un ejercicio sistemático de análisis y reflexión que nos permite aclarar dónde estamos, lo que pretendemos conseguir y cómo nos proponemos realizarlo.

La FGCSIC ofrece su experiencia a todas aquellas organizaciones que deseen aplicar una lógica estratégica de planificación con una filosofía propia y adaptarlo al mundo académico, científico y tecnológico.

Contáctanos en www.fgcsic.es

C

M

Y

CM

MY

CY

CMY

K

Anuncio Planif AF.pdf 1 29/11/11 18:30

Page 21: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

20 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.2 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

En 1985 en el auditorio de los Laboratorios BELL, Richard Feynman, segu-

ramente el físico más brillante de la segunda mitad del siglo XX, llamaba a la reflexión con su estilo provocador a una au-diencia repleta de científicos e ingenieros declarando que él no creía en la computación como ciencia («I do not be-lieve in Computing Science»). Argumentaba Feynman que la

Infraestructuras de computación científica

En este artículo, la autora nos muestra como la historia de las infraestructuras de computación científica está ligada a una simbiosis entre ciencia y tecnología. La simulación numérica en ordenadores nos ha permitido entender mecanismos fundamentales de la naturaleza, usando la simulación de modelos teóricos allá donde el experimento no es factible.

Isabel Campos

Instituto de Física de Cantabria (CSIC y Universidad de Cantabria)

ciencia es el estudio del com-portamiento de la naturaleza, mientras que la ingeniería es el estudio de las cosas que fabri-ca el hombre, por eso la com-putación en sí misma, perte-nece al ámbito de la ingeniería.

Feynman se caracterizó por saber aplicar una enorme in-tuición física a muchas áreas de conocimiento, era un cien-tífico multidisciplinar. En una

de sus últimas tareas for-mó parte de la Comisión Ro-gers, encargada de analizar las causas del desastre del transbordador Challenger. Fe-ynman demostró, en una fa-mosa intervención televisiva, cómo las anillas de las juntas de los motores del transbor-dador perdían la flexibilidad a temperaturas bajo cero (co-mo las que se registraron la noche anterior al lanzamien-

to) y se rompían como el cris-tal, provocando la explosión que acabó con el transborda-dor y la vida de sus tripulantes en 1986.

En general es poco conocido que Feynman, premio Nobel en Física por una teoría que explicaba el comportamien-to de los quantos de luz, algo que en principio parece tan le-jos de la aplicabilidad cotidia-

Page 22: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 21

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.2

Isabel Campos.

Isabel Campos

Se doctoró en Física por la Universidad de Zaragoza en 1998 y es científico titular del CSIC desde el año 2008 en el Instituto de Física de Cantabria. Durante su ca-rrera de profesional ha trabajado en el Deutsches Elektronen Synchrotron (Ham-burgo) y en el Laboratorio Nacional de Brookhaven (Nueva York) en el desarrollo de aplicaciones científicas en entornos de computación de alto rendimiento. An-tes de incorporarse al CSIC fue responsable de gestión de aplicaciones científi-cas y Grid computing del Centro de Computación Leibniz en Munich, el mayor de Alemania y uno de los más importantes de Europa. En su trayectoria profesio-nal se encuentran contribuciones a las áreas de simulación de física de partícu-las, sistemas complejos y fusión nuclear.

Cuenta en su haber con mas de 40 publicaciones en revistas de impacto eleva-do y alrededor de 100 presentaciones a congresos internacionales. Actualmen-te es la directora de la Infraestructura Española de Computación Grid (es-NGI) y forma parte del comité ejecutivo que dirije la Infraestructura Grid Europea (EGI).

na, fuese capaz de resolver el puzzle nada menos que de la tragedia del Challenger.

En particular en el tema que nos ocupa, Feynman traba-jó también en el diseño de los primeros superordenadores paralelos que existieron a fi-nales de los años 70, y formó parte de manera fundamental del equipo que construyó un ordenador masivamente pa-ralelo, la Connection Machine.

Computadores en generalUn ordenador es un disposi-tivo capaz de recibir informa-ción, procesarla y devolver esa información procesada. Un ordenador moderno es ca-paz de hacer cosas tan dispa-res como ganar al ajedrez al campeón del mundo de turno y predecir el tiempo que ha-rá mañana. Sin embargo, en esencia, todos los ordenado-res son iguales. En todos ellos se reproduce una misma ar-quitectura; un diseño de má-quina digital que data del año 1945 y que se debe al ma-temático húngaro John von Neumann (ver figura 1).

En la llamada máquina de Von Neumann hay una memo-ria donde alojar información, una unidad de control para gestionar la entrada y salida de información y una unidad aritmética capaz de realizar operaciones lógicas sobre esa información.

La implementación tecnoló-gica se hace usando transis-tores digitales sobre silicio y los diseñadores de hardware se han esforzado por encon-trar soluciones cada vez más compactas. Una mayor con-densación de transistores nos permite hacer más operacio-nes por segundo, es decir, au-mentar la frecuencia con que el procesador realiza una ope-ración lógica a cada «tic» de su reloj.

Como fruto de este esfuerzo, durante los últimos 30 años, cada año y medio ha sido po-sible doblar el número de tran-sistores en los chips de los componentes internos de los ordenadores. En esto consiste la llamada ley de Moore, que no es ninguna ley de la natura-

leza sino una predicción, aun-que ciertamente visionaria, que uno de los fundadores de Intel, Graham Moore, hizo en el año 1965 sobre la evolución de la tecnología de integración de transistores.

La predicción de Moore se ha ido cumpliendo razona-blemente. Sin embargo ha-ce ya varios años que la rea-lidad no es exactamente así. Se sabía desde el principio que hay límites prácticos a la hora de hacer que un orde-nador aislado alcance la ve-locidad suficiente para resol-ver problemas arbitrariamente complejos.

Estos límites tienen que ver con la velocidad máxima de transmisión de información:

En esencia, todos los ordenadores son iguales. En todos ellos se reproduce una misma arquitectura; un diseño de máquina digital que data del año 1945 y que se debe al matemático húngaro John von Neumann

Page 23: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

22 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.2 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

la velocidad de la luz (30 cm/nanosegundo) o el límite de transmisión en el cobre (9 cm/nanosegundo). Además, a es-calas muy pequeñas las re-glas de la física clásica ya no se cumplen y los electrones, portadores de la información en los transistores, dejan de comportarse como partículas y comienzan a comportarse como ondas. Entraríamos en el terreno de investigación de la llamada computación cuán-tica, todavía en un estado muy prematuro de desarrollo.

La miniaturización de los tran-sistores impone, además de los límites físicos, los econó-micos puesto que su coste se incrementa. Es por ello por lo que las arquitecturas más mo-dernas han preferido por repli-car estructuras internas de la CPU (central processing unit) antes que llevar la miniaturiza-ción al extremo. Esta es la filo-

sofía de las arquitecturas tipo multinúcleo, en inglés multico�re, que ahora poseen la practi-ca totalidad de las CPU.

Las mejoras en el rendimien-to de la CPU ya no vienen, por tanto, de hacer cada vez más pequeña la superficie del chip sino de introducir más de una unidad de cálculo, o core, en cada CPU con lo que se con-sigue que la frecuencia total se multiplique por agregación. De hecho la frecuencia por co�re lleva prácticamente parali-zada en torno a los 3,4GHz en los últimos años.

Es necesario puntualizar que el ahorro económico que su-pone la arquitectura multico�re se hace a expensas de una mayor complejidad en la pro-gramación: la carga de trabajo se tiene que distribuir entre los cores. Es decir, hay un traba-jo significativo que ahora recae

sobre los desarrolladores de sistemas operativos y códigos.

Los ordenadores paralelosDesde finales de los años 70 era ya claro para la comunidad científica que la resolución de problemas muy complejos iba a requerir la utilización de va-rios ordenadores trabajando conjuntamente para repartirse la carga de la simulación.

A mediados de los años 80, la empresa Thinking Machines Corporation, una de las pione-ras en el diseño de ordenado-res paralelos, comenzó a pro-ducir máquinas basadas en la agregación de miles de proce-sadores conectados entre sí li-teralmente mediante cables. Eran las llamadas Connection Machine (CM), de las que hu-bo cinco generaciones, la últi-ma de ellas en 1993. A través de los cables, los procesado-res se transmitían la informa-ción necesaria para cooperar en los cálculos.

En la CM la unión hacía la fuer-za: la frecuencia de cada pro-cesador individual no era alta (entre 10 y 30 Hz) pero su ven-taja residía en una poderosa red de comunicaciones inter-na, uniendo 64.000 procesa-dores que podían así coope-rar para resolver un problema.

El router, que es la parte del hardware que permite a los procesadores comunicarse,

MEMORIA DE DATOS Y PROGRAMAS

Unidad de control

Unidad aritmética y lógica

acumulador

Entrada Salida

/// Figura 1. Esquema de la arquitectura de Von Neumann junto a la placa base de una máquina moderna ////////////////////////////////////////////////////////////////////////////////////////

Las máquinas basadas en hardware muy especializado son máquinas en la frontera del conocimiento tecnológico

Page 24: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 23

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.2

fue analizado por Feynman, quien se encargó de calcular mediante métodos algebrai-cos (redes de Hopkins) la to-pología óptima para que una red de 64.000 procesadores estuviese interconectada de manera que se evitase el co-lapso por sobrecarga de infor-mación en los cables.

¿Por qué se preocupaba Ri-chard Feynman de algo tan alejado de la física teórica? La respuesta es que quería es-tudiar cromo dinámica cuán-tica (QCD) y aplicó sus cono-cimientos para avanzar en la construcción de la máquina necesaria para ello.

La QCD es la teoría que des-cribe cómo se comporta el mundo subatómico de par-tículas, como los protones. Usando QCD es posible cal-cular los valores de cantida-des medibles físicamente

mediante la simulación por or-denador. Por ejemplo, la ma-sa del protón. En la práctica, el cálculo de la masa del protón mantendría ocupado duran-te muchos años a cualquier superordenador de la época de Feynman, y varios años a cualquier super ordenador de nuestra época.

Feynman escribió un código para simular QCD en la CM. Puesto que solo conocía el lenguaje BASIC, desarrolló una versión paralela de BASIC y, primero, hizo la simulación «a mano» para estimar cómo de rápido iría en la máquina.

Como anécdota, cabe decir que las CM fueron máquinas visualmente muy atractivas. Podemos verlas en la pelícu-la Parque Jurásico, en la que una CM-5 (foto 1) aparece co-mo el «ordenador responsable de la isla».

La historia de la Connection Machine es un ejemplo de una simbiosis frecuente en la historia de la computación científica: colaboración entre ingenieros y físicos para dise-ñar hardware optimizado pa-ra uso científico. El caso ex-tremo de esta colaboración se plasma en los llamados or-denadores dedicados, má-quinas en las que la electró-nica está volcada en resolver un problema científico parti-cular, aun a expensas de re-sultar menos eficientes para cálculos generalistas. Espe-cial mención merecen las co-laboraciones dedicadas a di-señar máquinas para resolver QCD: el grupo APE con base en la Universidad de Roma, con ramificaciones en Espa-ña en la Universidad de Zara-goza, o el grupo QCDOC, de la Universidad de Columbia, en los EEUU. Estos grupos están desarrollando ordena-

dores dedicados a QCD des-de mediados de los años 80.

En los años 80 y 90, la empre-sa CRAY producía también su-perordenadores con éxito pe-ro con una visión distinta: muy pocos procesadores pero muy potentes. Por ejemplo, la se-rie de CRAY-XMP (1982-1985) consistía en máquinas de en-tre uno y cuatro procesadores máximo, con una frecuencia de alrededor de 120MHz.

En 1988, la empresa estatal Construcciones Aeronáuticas S.A. (actual EADS España) compró el primer superorde-nador que se instaló en Espa-ña, un CRAY 1-S/2000. La co-munidad científica española tenía acceso 975 horas al año. El resto del tiempo estaba de-dicado a estudiar aerodinámi-ca en aviones, sustituyendo a la muy costosa experimenta-ción en túneles de viento.

Un CRAY-XMP costaba en el año 1985 unos 15 millones de dólares, y tenía un potencial de cálculo de 420 millones de operaciones de decimales por segundo (420 MegaFlop/s). Claramente, una compra de este tipo era una inversión po-sible solo a nivel nacional.

La era de los grandes clús-tersLas máquinas basadas en hardware muy especializa-do son máquinas en la fronte-

Foto 1. A la Izquierda, Connection Machine-5. Las luces rojas representan conexiones activas entre procesadores. A la derecha, la imagen de su contemporáneo, el CRAY-XMP.

Page 25: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

24 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.2 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

ra del conocimiento tecnoló-gico, costosas de producir y, sobre todo, muy específicas desde el punto de vista de su explotación. El fabricante, jun-to con el hardware, tenía que desarrollar un lenguaje de pro-gramación ad hoc para la má-quina que tuviera en cuenta el hardware, compiladores o in-cluso el sistema operativo.

Para utilizarlas era necesario aprender su lenguaje de pro-gramación y con ello rees-cribir los códigos de simula-ción. No es de extrañar, por tanto, que el hardware/soft-ware de estos sistemas haya evolucionado hacia máqui-nas menos especializadas en general, con sistemas opera-tivos compatibles basados en UNIX y capaces de usar len-

guajes de programación es-tándar como el C, aun a ex-pensas de sacrificar entre un 10-20% de rendimiento con respecto a lenguajes adapta-dos al hardware.

En paralelo el software ha evo-lucionado en el mismo senti-do. Dos hechos fundamen-tales fueron el desarrollo del software de código abierto con el proyecto GNU y la intro-ducción de Linux como siste-ma operativo, convertido aho-ra en un estándar de facto en el mundo científico.

Este proceso de simplifica-ción fue en gran parte con-secuencia del auge de la in-formática comercial a partir de mediados de los años no-venta, lo que indujo un aba-

ratamiento del hardware muy importante en los costes de producción debido a la com-petencia entre fabricantes para ofrecer productos con más rendimiento, sobre todo orientados al mercado de jue-gos por ordenador.

Actualmente la computación científica se realiza mayorita-riamente en Clusters Beowulf. Este es el nombre genéri-co que reciben las máquinas formadas por la unión de va-rios ordenadores construidos con componentes comercia-les conectados mediante un switch que posibilita el inter-cambio de datos entre ellos. El primero de ellos fue ensam-blado en 1994 en los Estados Unidos.

Los fabricantes siguen inclu-yendo en sus productos op-ciones dirigidas a los clientes del sector científico, sobre to-do enfocadas a una mejor efi-ciencia a la hora de hacer cál-culos con decimales. Pero en esencia todos los superor-denadores que se presentan en el mundo como tales son Clusters Beowulf, cada vez con más procesadores y con un switch más rápido.

En el momento de escribir es-te artículo, el mayor Cluster Beowulf del mundo es el K-Computer, del centro de in-vestigación RIKEN (Japón). El K-Computer consiste en

/// Figura 2. Esquema del K-Computer, el mayor superordenador del mundo en 2011 //////////////////////////////////////////////////////

Actualmente la computación científica se realiza mayoritariamente en Clusters Beowulf, unión de varios ordenadores construidos con componentes comerciales conectados mediante un switch que posibilita el intercambio de datos entre ellos

Page 26: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 25

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.2

550.000 cores, capaces de alcanzar una potencia com-binada de ocho Petaflops, es decir ocho millones de millo-nes de multiplicaciones de números decimales cada se-gundo.

En España, MareNostrum, la máquina emblema del Cen-tro Nacional de Supercom-putación, cuenta con 10.000 cores, y es el sistema más grande instalado en nuestro país. Los centros de investi-gación con una componen-te computacional importan-te albergan también Clusters Beowulf tipicamente de entre 1.000 y 4.000 cores.

Infraestructuras de compu-tación distribuídaEl avance de la ciencia bási-ca suele ir en paralelo con el desarrollo de soluciones in-novadoras que permitan a los científicos abordar problemas complejos. Si la realización de un proyecto científico ne-cesita de una infraestructura que no existe en ese momen-to, los científicos desarrollarán una solución ad hoc para re-solverlo.

Un ejemplo paradigmático fue la invención de la Web. En el año 1990, en el CERN (el La-boratorio Europeo de Física de Partículas), un grupo liderado por Tim Berners-Lee diseñó un sistema de intercambio de ficheros para los científicos del

CERN, que hoy conocemos como la World Wide Web.

A finales de los 90 surgió otra idea visionaria en el senti-do que nos ocupa: igual que compartimos información en la Web, usando la conexión a Internet para transmitirla, ¿por qué no compartir por Internet la propia infraestructura de computación?

Así se concibió la creación de una infraestructura global de computación distribuida, un Grid, que daría servicio para empezar a todos los investi-gadores de física de partículas del mundo que necesitasen analizar datos del nuevo ace-lerador del CERN, el Large Ha�dron Collider (LHC).

La infraestructura Grid ha evolu-cionado en sus modos de orga-nización: sería simplista pensar que es equivalente compartir información (la Web) y compar-tir recursos de computación (el Grid), cuando los modelos de coste son tan distintos. Lo im-portante es que es la tecnología Grid posibilita compartir, si se desea, la infraestructura.

En Europa tenemos una in-fraestructura única que da soporte a los científicos eu-ropeos: la European Grid In�frastructure (EGI), formada por la unión de las infraes-tructuras Grid nacionales de 38 países europeos.

La infraestructura de EGI con-siste en más de 250.000 co�res y más de 150 millones de GigaBytes. La Península Ibé-rica representa aproximada-mente el 10% de esta infraes-tructura. Durante el año 2011 la infraestructura de EGI ha proporcionado más de 1.500 millones de horas de CPU, entre otras cosas para anali-zar los datos del LHC: la ma-yor máquina jamás construida por el hombre necesita tam-bién la mayor infraestructura de computación nunca dise-ñada para asistir a los cien-tíficos en la búsqueda de la estructura fundamental de la materia.

La tecnología computacio-nal se ha desarrollado en los últimos 30 años de mane-ra asombrosa. Un hecho que avala esta afirmación es que nuestros teléfonos móviles tie-nen una capacidad de cálculo equivalente a la del primer su-perordenador que se instaló en España en 1988.

Mirando al futuro, vamos a ter-minar como empezamos, ci-tando a Feynman cuando in-trodujo conceptualmente lo que conocemos como com-putación cuántica: «... hay mucho margen para hacer los computadores más peque-ños, no hay nada que yo ha-ya visto en las leyes de la física que nos impida hacer un com-putador a nivel atómico».

El avance de la ciencia básica suele ir en paralelo con el desarrollo de soluciones innovadoras que permitan a los científicos abordar problemas complejos

Page 27: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

26 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.3 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

En mayo de 2001 la re-vista Scientific American publicaba un artículo en

el que se proponía una nueva forma de organizar el conteni-do en la Red que desencade-naría una avalancha de posi-bilidades y, en consecuencia, revolucionaría Internet. El pri-mer autor del artículo era Tim Berners-Lee, el físico del CERN que en 1980 desarro-lló un sistema de vinculación y transferencia de documentos en red que acabó convirtién-

Diez años construyendo una web semántica

Por web semántica se entiende una forma de organizar el contenido en la Web que mejore la cooperación entre computadoras y humanos. Esto pasa por avanzar de una web de documentos a una web de datos enlazados en la que se puedan ofrecer novedosos servicios que hagan uso del potencial de combinar e interrelacionar datos de diversa índole y procedencia.

Marco Shorlemmer

Instituto de Investigación en Inteligencia Artificial (CSIC)

dose en la World Wide Web que todos conocemos hoy. A la nueva forma de organiza-ción de la Web que los autores de dicho artículo pregonaban la llamaron web semántica.

Han pasado más de diez años y es bien seguro que la Web ha revolucionado muchos aspec-tos de nuestras vidas cotidia-nas, pero la revolución que se preveía en el artículo del Scien�tific American todavía no se ha producido, por lo menos no en

su totalidad. Sin embargo, la vi-sión de una web semántica que describieron Berners-Lee y sus colaboradores desencadenó toda un línea de proyectos de investigación, y, precisamente, en octubre pasado se celebró en Bonn, Alemania, la 10ª edi-ción del Congreso Internacio-nal sobre la Web Semántica. Pero, ¿qué significa que la Web sea semántica? Y ¿en qué me-dida la semántica en la Web ya ha revolucionado o acabará por revolucionar Internet?

Todos estamos bastante fami-liarizados con la Web y sobre cómo operar con ella. Abri-mos un navegador (por ejem-plo, Explorer, Firefox o Safa-ri) e introducimos la dirección de la página que deseamos consultar o bien pedimos a un buscador (por ejemplo Goo-gle o Yahoo!) que nos deter-mine las ubicaciones de do-cumentos en la Web que contengan una combinación de palabras deseada y que nos las ordene por importancia.

Page 28: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 27

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.3

A partir de ahí podemos ir sal-tando de una página web a otra a través de hipervíncu-los –estas palabras, frases, imágenes o iconos que ge-neran la descarga automáti-ca de otra página web cuan-do pinchamos sobre ellos–. Esto es lo que se conoce co-mo la web de primera genera-ción o Web 1.0: personas con conocimiento especializado de diseño y composición de páginas web crean los docu-mentos con su contenido y definen los hipervínculos que los entrelazan; los usuarios no expertos son fundamen-talmente consumidores de in-formación. Leen noticias, con-sultan diccionarios, visualizan imágenes o vídeos o compran productos.

En la web de segunda gene-ración, la Web 2.0, los usua-rios no expertos, además de

consumidores, pueden ser también generadores de con-tenidos y proveedores de ser-vicios. Mediante blogs, por ejemplo, se pueden escribir y compartir reflexiones periódi-cas, y los lectores pueden aña-dir comentarios o nuevos enla-ces relevantes; con Wikipedia, millones de personas constru-yen una gran enciclopedia mul-tilingüe que constantemente es actualizada y ampliada por los propios usuarios; a través de redes entre pares, como ori-ginalmente Napster, BitTorrent o eMule, se comparten pelícu-las y ficheros de música; y úl-timamente, con la irrupción de las redes sociales —Facebook, Tuenti o Twitter—, la Web se ha convertido en un espacio glo-bal de participación e interac-ción entre usuarios.

La web semántica viene a ser la tercera generación de la

Web, la Web 3.0, una exten-sión de la Web actual en la que los contenidos están orga-nizados de forma que no so-lo los humanos sino también las computadoras sean capa-ces de procesar su significado —por eso lo de semántica— posibilitando así una mejor cooperación entre computa-doras y humanos. La nomen-clatura Web 1.0, 2.0 y 3.0 es seguramente artificiosa, ya que de hecho no se trata de nuevas versiones de la Web, sino de la misma web de siem-pre pero con niveles añadidos de funcionalidad.

De una web de documen-tos a una web de datosPara alcanzar esta visión de una web semántica de entra-da no se deberían enlazar úni-camente documentos de tex-to, imágenes u otro contenido multimedia sino directamente

Marco Schorlemmer.

Marco Schorlemmer

Doctor en Informática por la Universidad Politécnica de Cataluña, actualmente es científico titular en el Instituto de Investigación en Inteligencia Artificial del CSIC y profesor asociado de la Universidad Autónoma de Barcelona. Ha sido investiga-dor en el SRI International y en la Universidad de Indiana, en EEUU, y también en la Universidad de Edimburgo, en el Reino Unido.

Es autor de numerosas publicaciones en revistas especializadas y congre-sos internacionales sobre especificación formal y demostración automática de teoremas, representación y razonamiento diagramáticos, coordinación dis-tribuida del conocimiento, interoperabilidad semántica de ontologías y siste-mas multiagente.

Ha dirigido varios proyectos nacionales y europeos y ha sido miembro de nume-rosos comités científicos de conferencias internacionales, entre ellas las confe-rencias sobre sistemas multiagente (AAMAS), la web semántica (ISWC) y la World Wide Web (WWW).

los datos sin procesar. En el si-tio web del World Factbook de la CIA, por ejemplo, podemos visualizar páginas web con in-formación sobre los diferentes países del mundo. Encontra-remos datos sobre la geogra-fía, la población, la estructu-ra política y la economía de un determinado país procesa-dos para ser visualizados co-mo páginas web que serán leí-das por seres humanos. En cambio, si se publicasen los datos no únicamente para el consumo humano sino direc-tamente en un formato para ser procesados por computa-doras podríamos combinar y comparar datos de forma au-tomatizada. Pero este poten-cial no reside únicamente en la publicación de los datos sino en enlazar datos de un repo-sitorio con los de otro a través de enlaces como los hipervín-culos que conocemos de las

Page 29: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

28 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.3 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

páginas web. El conjunto de buenas prácticas para la publi-cación y el enlace de datos es-tructurados en la Web se co-noce como Linked Data, datos enlazados. He aquí sus puntos principales:

1. Cada dato –o cada re-curso, como suele llamarse a la información en la Web– debe tener un identificador único que lo distingue de cualquier otro dato publi-cable en la Web. Es lo que se conoce como Universal Resource Identifier, o URI. De hecho muchos usuarios de la Web ya estamos fa-miliarizados con lo que es un URI. Por ejemplo, la di-rección https://www.cia.gov/library/publications/the-world-factbook/geos/sp.html es el URI que identi-fica la página web con la in-formación sobre España en el World Factbook. Pero, para enlazar datos, los URI deben identificar no solo a páginas sino a los elemen-tos concretos que compo-nen los datos. Así, pues, pa-ra publicar el hecho de que España y Francia compar-tan frontera debemos tener unos URI que identifiquen «España», «comparte fron-tera con» y «Francia», res-pectivamente.

2. Al mismo tiempo, estos identificadores deben ser desreferenciables, lo que

significa que el identificador del recurso apunta a su vez al lugar en la Web donde podemos acceder al mis-mo. La desreferencia de un URI (literalmente «desha-cer la referencia») se realiza mediante el protocolo HTTP (Hypertext Transfer Proto�col) que posibilita los hiper-vínculos en la Web: cuando pinchamos sobre uno de estos vínculos, el protoco-lo HTTP toma el URI y a tra-vés de él es capaz de acce-der al contenido al cual está apuntando. Lo mismo debe ocurrir ahora con los recur-sos que componen un dato. El URI de «comparte fronte-ra con» deberá poder ser desreferenciado para acce-der a la definición de lo que significa esta relación. Ahí entra la semántica: dispo-ner de estas definiciones y poder acceder a ellas.

3. Los datos propiamente dichos se deben expresar usando el Resource Des�cription Framework o RDF, un lenguaje para estructu-rar los datos en enuncia-dos con el simple formato sujeto�predicado�objeto, y que se conoce como tri�plete. El sujeto y el objeto son recursos identificados mediante un URI, y el pre-dicado es la relación entre estos recursos. Así pues el hecho de que Espa-ña comparte frontera con

Francia se expresaría en forma de triplete RDF de la siguiente manera:

sujeto: http://www4.wiwiss.fu-berlin.de/factbook/re-source/Spainpredicado: http://www4.wi-wiss.fu-berlin.de/factbook/ns#landboundaryobjeto: http://www4.wiwiss.fu-berlin.de/factbook/re-source/France

Hemos usado las URI de la publicación del World Factbook como Linked Da�ta realizada por la Universi-dad Libre de Berlín. Como se puede observar, en RDF la relación entre sujeto y ob-jeto –el predicado– es a su vez también un recurso con su URI que debe ser desre-ferenciable. Como hemos dicho anteriormente, es así como accederemos a sus

Evolución de una web cuyo contenido es producido por unos y consumidos por otros a una web semántica que mejora la cooperación entre computadoras y humanos. / Fuente: Frederic Martin.

Web 1.0

Productor Consumidor

C/P

C/P C/P

C/P

C/P

C/P

C/P = Consumidor/Productor

Web 2.0

La web semántica

Page 30: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 29

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.3

definiciones, especifican-do por ejemplo que Spain y France son países y que landboundary es la relación de dos países que compar-ten una frontera. Estas de-

finiciones que aquí hemos expresado en lenguaje na-tural deberían ser especifi-cadas a su vez como datos publicados en forma de tri-pletes RDF.

4. Finalmente, para poder utilizar todo el potencial que nos ofrece la infraestructura de la Web, los datos de un repositorio o base de datos deberían estar enlazados

con datos externos, defini-dos en otro repositorio o ba-se de datos. Es decir, el suje-to, predicado y objeto de un mismo triplete RDF no tienen por qué estar ubicados, de-

Actualmente ya son numero-sas las aplicaciones que de una forma u otra se basan en tecnologías semánticas para la Web. A continuación ilustrare-mos tres casos de naturaleza diversa para mostrar el poten-cial que todavía alberga la Web.

Producción científica. Uno de los pilares para el avance de la ciencia es la publicación de los resultados de la experimenta-ción científica para que puedan ser contrastados y corrobora-dos por la comunidad científica y para que a su vez puedan ayudar a avanzar en otras líneas de investigación. El por-tal GoPubMed, por ejemplo, ofrece un buscador semántico de publicaciones científicas en el área de la biomedicina. Está conectado con la Gene Onto-logy, una ontología que unifica y estructura la terminología sobre genes y productos géni-cos de un amplio número de organismos. Con GoPubMed se pueden localizar los textos

relevantes para una búsqueda no únicamente por la ocurren-cia de determinadas palabras clave sino por la relación semántica existente entre con-ceptos biomédicos.

La publicación no solo de los resultados de una investigación sino también de los datos expe-rimentales sobre los que se ha basado permitirá una mayor colaboración y transparencia en el ámbito de la investigación científica. Proyectos financiados por la Unión Europea, como OpenKnowledge o LiquidPub, han investigado formas novedo-sas de colaboración y publica-ción distribuida en la Web que apuntan a que vamos a ser tes-tigos de un cambio importante en cómo se publican, se com-parten y se diseminan los resul-tados científicos.

Gobiernos abiertos. Numerosos gobiernos nacionales están impulsando iniciat ivas de

«gobierno abierto», haciendo públicos los conjuntos de datos

en su posesión para promover la transparencia, aumentar la efi-ciencia administrativa y estimular el crecimiento económico. La combinación de estos datos mediante mashups –aplicaciones web que combinan datos y fun-cionalidades de diferentes fuen-tes– permite realizar consultas y presentar sus resultados de forma novedosa y creativa. En 2009, en una localidad del estado de Ohio, en Estados Unidos, un abogado creó un mashup que combinaba los datos públicos sobre la ubicación de las tuberías de agua corriente con los datos obtenidos del censo municipal sobre qué viviendas estaban habitadas por familias afroameri-canas. El mapa resultante reveló que, en determinados barrios limítrofes, el ayuntamiento clara-mente discriminaba a los hoga-res afroamericanos. En conse-cuencia, un juez decretó una indemnización por daños y per-juicios.

Colaboración popular masiva. LinkedGeoData es una inicia-

tiva para añadir una dimensión espacial a los datos publicados en la web semántica y se basa en la información recogida por el proyecto OpenStreetMap, un mapa mundial abierto al que cualquiera puede añadir datos, al estilo de Wikipedia. A finales del 2009 muy pocas áreas de la ciudad de Port-au-Prince en Haití estaban etiquetadas. Pero justo después del gran terre-moto de enero de 2010, cuando se hicieron públicas imágenes de satélite del país, miles de personas estudiaron estas imágenes y comenzaron a anotar en el OpenStreetMap información detallada sobre las zonas devastadas: carreteras bloqueadas, edificios dañados, ubicación de campos de refu-giados y hospitales de cam-paña, muelles en los que atra-caban los barcos con ayuda humanitaria, etc. Todos estos datos fueron de gran utilidad para los equipos de rescate que sobre el terreno consulta-ban esta información con sus dispositivos móviles.

LA WEB SEMÁNTICA EN LA PRÁCTICA

Page 31: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

30 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.3 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

finidos y gestionados en el mismo repositorio de datos, sino que pueden estar distri-buidos por la Web.

Publicando los datos direc-tamente en formato RDF, con unos URI desreferen-ciables que apuntan a defi-niciones de entidades y sus relaciones, que a su vez se expresan como datos en RDF enlazando así unos da-tos con otros, es como se añade a la infraestructura tecnológica existente de la Web este nivel, que puede aumentar significativamente su funcionalidad pues per-mite procesar estos datos y sus relaciones de forma automatizada. Al igual que en la web de documentos, en la web de datos cual-quier persona u organiza-ción puede publicar datos, del tipo que sea, y definir los vocabularios asociados a recursos y relaciones. Una buena práctica es usar los URI y los vocabularios ya existentes y ampliamente utilizados. A diferencia de la web de documentos, la es-tructuración de los datos es independiente de su visua-lización en pantalla para un usuario humano.

Datos enlazados abiertosEl potencial de la web de da-tos, al igual que pasó con la web de documentos, reside en la participación a gran es-

cala de numerosas personas y organizaciones en la pu-blicación sistemática de da-tos en la Web, siguiendo las buenas prácticas de Linked Data. Es esta participación masiva, con un esfuerzo re-lativamente bajo, la que es-tá detrás del éxito de la Web actual. Es por eso por lo que hace unos años se puso en marcha una iniciativa llama-da Linked Open Data (da-tos enlazados abiertos) con el objetivo de traducir a RDF y publicar en forma de datos enlazados una serie de re-positorios abiertos ya exis-tentes, como los que se ob-tienen de Wikipedia, por ejemplo. A día de hoy impor-tantes organizaciones se han sumado al proyecto, como por ejemplo la BBC, Thom-son Reuters y la Library of Congress, volcando sus da-tos en la Web. De esta mane-ra, poco a poco se está defi-niendo un espacio global de datos sobre personas, com-pañías, libros, publicaciones científicas, películas, músi-ca, programas de radio y de televisión, genes, proteínas, fármacos y ensayos clínicos, comunidades en línea, da-tos estadísticos y científicos, etc., que a día de hoy se esti-ma en 32.000 millones de tri-pletes RDF con 500 millones de enlaces entre ellos.

La publicación de datos es so-lo una parte de lo que consti-

tuye la web de datos. La otra parte la forman las aplicacio-nes informáticas que nos pro-veen de los servicios para ac-ceder, consultar, buscar y combinar los datos. Al igual que la web de documentos no nos sería de gran utilidad sin navegadores, buscadores o servicios de interacción social, las funcionalidades de la web de datos nos las dan las apli-caciones determinadas sobre los datos enlazados que uti-lizan leguajes específicos de consulta en repositorios RDF, tales como SPARQL, que se inspira en el leguaje SQL (Structured Query Language) de consulta de bases de da-tos tradicionales, pero ahora especialmente diseñado para ser ejecutado sobre la tecno-logía web.

Ontologías y razonamiento automatizadoEn último término, la visión de una web semántica, tal y como la plantearon Berners-Lee y sus colaboradores ha-ce diez años, incluye tam-bién la posibilidad de razonar y sacar conclusiones lógi-cas de forma automatizada a partir de los datos publica-dos en la Web. Así pues, del hecho de que España com-parta frontera con Francia y de que compartir frontera signifique que las regiones geográficas que constituyen estos países son contiguas, se debería poder deducir au-

La visión de una web semántica, tal y como la plantearon Berners-Lee y sus colaboradores hace diez años, incluye también la posibilidad de razonar y sacar conclusiones lógicas de forma automatizada a partir de los datos publicados en la Web

Page 32: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 31

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.3

tomáticamente que uno pue-de desplazarse de España a Francia por tierra sin tener que cruzar un tercer país. Es-to, requiere que disponga-mos de definiciones forma-les —es decir procesables por una computadora— de lo que significa la relación de contigüidad entre regiones espaciales y su relación con el desplazamiento continuo en regiones del espacio.

Esta información adicional que complementa los datos y con la cual se pueden de-ducir relaciones semánticas sin que estén explícitamente representadas en el conjun-to de datos es lo que se lla-ma una ontología. Habitual-mente se trata de un conjunto de expresiones en un lengua-

je formal basado en la lógi-ca que describe con mayor o menor detalle los conceptos y sus interrelaciones de un área de conocimiento en particu-lar (por ejemplo de la geogra-fía en general o de la de Espa-ña en particular). Para poder publicar y razonar con ontolo-gías en la Web se recomienda utilizar el Web Ontology Lan�guage (OWL).

Retos de futuroLa web de datos, con sus vo-cabularios y ontologías, es un ente abierto y dinámico. Con-tinuamente aparecen nuevos datos y nuevos enlaces entre ellos, mientras otros quedan obsoletos y se eliminan. Ade-más, los servidores que hos-pedan estos datos a veces no están activos, bien porque han

caído o bien porque están ba-jo mantenimiento. Eso implica una gran variabilidad semánti-ca en los datos, por lo que hay que abordar los problemas que surgen cuando cambia el significado de un término, aparece una nueva terminolo-gía o surgen definiciones con-tradictorias. La publicación masiva de datos implica tener que preservar la privacidad de las personas e instituciones, garantizando que no sea po-sible deducir indirectamente determinada información con-fidencial. Además, el hecho de que cualquiera pueda publicar y enlazar datos en la web de datos implica que hay que te-ner en cuenta también aspec-tos sobre la procedencia de los datos, su calidad y la fiabili-dad de las fuentes.

Todas estas son ricas áreas de investigación en las que apli-car técnicas de inteligencia ar-tificial, como el razonamien-to automático, el alineamiento semántico, los modelos com-putacionales de confiabilidad, la minería de datos para la pre-servación de la privacidad y el control de revelación de esta-dísticas. Pero, en última ins-tancia, las posibilidades de esta web semántica están en las manos de los usuarios, que son los que generan los datos e idean los servicios que, co-mo decía Tim Berners-Lee, harán realidad todo el poten-cial de la Web.

La nomenclatura Web 1.0, 2.0 y 3.0 es seguramente artificiosa, ya que no se trata de nuevas versiones de la Web, sino de la misma de siempre, con niveles añadidos de funcionalidad

Fragmento de la ontología de relaciones espaciales (en el lenguaje OWL y en sintaxis XML/RDF) creada por Ordenance Survey, la agencia gubernamental británica que elabora los mapas del Reino Unido. Se muestra la definición de la relación espacial ‘touches’ como relación simétrica, entre otras propiedades.

Page 33: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Te ayudamos a

investigarDestinatarios:Personal investigador en formación y personal docente e investigador de universidades españolas, y funcionarios y personal al servicio de centros propios y mixtos del Consejo Superior de Investigaciones Cientí cas.

Características de las becas:Colaborar en actualizar su nivel de conocimientos, el aprendizaje de nuevas técnicas y métodos, establecer o consolidar vínculos académicos entre equipos de investigación e instituciones españolas e iberoamericanas. Asimismo, la beca tiene como n ayudar a completar la formación y especialización cientí ca y técnica del personal investigador en formación.

Una estancia en algún otro centro de investigación o universidad iberoamericana, distinto al país de origen, nanciando gastos de alojamiento desplazamiento y manutención con el importe de la beca. La duración mínima de la estancia será de 2 meses.

Infórmate ya y solicítalas en:http://www.becas-santander.comhttp://www.agora-santander.com

@Agora_Santander

Page 34: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 33

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.4

Puede afirmarse que la criptografía o arte de ha-cer secreta la escritura

nació con la escritura misma. Desde las primeras tablillas babilónicas cifradas hace más de 4.500 años hasta nuestros días, la criptografía ha evolu-cionado considerablemen-te, especialmente a partir de la irrupción de los ordenado-res. En el siglo XX, la cripto-grafía pasó de ser patrimonio casi exclusivo de militares, di-plomáticos y grandes corpo-raciones a un artículo de uso cotidiano por todos los ciuda-danos. Aunque tal vez incons-cientes de ello, consumimos criptografía diariamente: al ha-blar a través del móvil, al sacar dinero del cajero electrónico, al ver canales de televisión de pago o al hacer compras por Internet. El mundo no existiría

Criptografía: si no existiera, habría que inventarla

Desde que el hombre comenzó a comunicarse con sus semejantes ha experimentado la necesidad de proteger su información confidencial de oídos y ojos indiscretos.

Gonzalo Álvarez

Instituto de Física Aplicada (CSIC)

tal y como lo conocemos hoy día sin la criptografía.

La primera criptografía usa-da por el hombre fue la si-métrica o de clave secretaPara cifrar mensajes de co-rreo, archivos del disco duro, registros de una base de da-

tos, y en general para cifrar grandes cantidades de datos, se utiliza un tipo de algoritmo de cifrado conocido como de clave secreta o simétrico, re-presentado en la figura 1.

La seguridad de un algoritmo de cifrado depende de dos

factores. El primero de ellos es la robustez de su diseño. Durante muchos siglos se vi-nieron usando dos tipos de operaciones de cifrado: sus-titución y transposición. En la sustitución se sustituyen los caracteres del mensaje por otros caracteres, que pueden

/// Figura 1. Algoritmos simétricos ///////////////////////////////////////////////////////////////////////////////

Texto claro

EMISOR RECEPTOR

Clave

Texto claro Cifrar Texto cifrado Descifrar

En los algoritmos simétricos se usa la misma clave para cifrar y descifrar, solo conocida por emisor y receptor.

Page 35: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

34 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.4 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

criptoanálisis, el estudio de un texto cifrado con el fin de obte-ner el mensaje original o bien la clave con la que se cifró el men-saje. Por supuesto, la labor del criptoanalista se puede com-plicar utilizando una sustitu-ción polialfabética, consisten-te en sustituir un carácter por

Gonzalo Álvarez.

Gonzalo Álvarez

Su formación académica incluye los títulos de Ingeniero Superior de Telecomu-nicación por la ETSIIIT de Bilbao de la UPV/EHU en 1995 y Doctor en Informáti-ca por la Facultad de Informática de la UPM en 2000.

Posee experiencia como criptólogo en proyectos de investigación en el Consejo Superior de Investigaciones Científicas, donde trabaja desde 1995 en el Depar-tamento de Tratamiento de la Información y Codificación. En su faceta divulgati-va, ha sido columnista de varios periódicos (El Mundo, El Correo) y colaborador en revistas especializadas (iWorld, PC World, Mundo Electrónico y SIC). Es autor de los libros Los mejores trucos para Internet (6ª edición), Seguridad informáti�ca para empresas y particulares y Cómo protegernos de los peligros de Internet.

Fue pionero de la seguridad en Internet en España con su sitio web Criptonomi�cón, uno de los más antiguos de la comunidad latina, creado en 1997. Desde 2008 mantiene el blog El Arte de Presentar, sobre cómo planificar, estructurar, diseñar y exponer presentaciones.

varios caracteres distintos, de manera que la frecuencia de las letras quede ofuscada. Sin embargo, con textos suficien-temente largos, aún puede ob-tenerse el mensaje original.

Otra operación de cifrado que se ha utilizado también desde antiguo consiste en la trans-posición, es decir, simplemen-te se cambian de sitio las letras del mensaje siguiendo una re-gla determinada, como en el ejemplo de la figura 3. Uno de los primeros ejemplos históri-cos de cifrado de transposición de los que tenemos conoci-miento es la scitala espartana.

A menudo esta regla recibe el nombre de mapa de transpo-sición. En este caso, el crip-toanalista debe ordenar las letras en la secuencia correc-ta para reconstruir el mensaje original. Para ello, puede bus-car palabras comunes, como artículos y preposiciones, o palabras clave que tenga cer-teza de que aparecerán en el mensaje estudiado, lo que le ayudará a determinar cuál ha sido la regla utilizada. Para au-mentar la dificultad del crip-toanálisis se puede aplicar re-petidamente la misma regla o mapa de transposición, algo muy fácil de hacer con un or-denador.

Ahora bien, la transposición por sí sola tampoco sirve pa-ra cifrar textos de manera se-

sados en la operación de sus-titución.

El mayor inconveniente del ci-frado por sustitución es que no oculta los patrones lingüísti-cos de frecuencia de aparición de letras de cada idioma, por lo que resulta vulnerable a un

ser del mismo alfabeto o de al-fabetos diferentes. Uno de los primeros ejemplos históricos conocidos es el cifrado de Cé-sar, cuyo funcionamiento se explica en la figura 2. Desde la Edad Media hasta principios del siglo XX, fueron de uso co-mún los discos de cifrado ba-

/// Figura 2. Cifrado César ////////////////////////////////////////////////////////////////////////////////////////

Clave: 3

Mensaje: A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Cifrado: D E F G H I J K L M N O P Q R S T U V W X Y Z A B C

M: ALEA IACGA EST

El cifrado César recibe su nombre en honor de Julio César, quien, según Suetonio, lo usó con un desplazamiento de tres espacios para proteger sus mensajes importantes de contenido militar. Para leer el mensaje original bastaba con desplazar las letras a la izquierda el mismo número de lugares. La clave consistía en el número de desplazamientos.

C: DOHD NDFAD HXA

Page 36: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 35

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.4

gura. Sin embargo, la robustez del algoritmo de cifrado pue-de mejorarse considerable-mente si se combinan ambas operaciones, usando sustitu-ción y transposición repetida-mente sobre el mismo mensa-je. Los algoritmos modernos de cifrado, como DES y AES, utilizan múltiples vueltas de ci-frado en las que se combinan las dos operaciones, tal y co-mo se muestra en la figura 4.

El objetivo es conseguir lo que se conoce como difusión y confusión. Idealmente, la apa-riencia de un texto cifrado de-be ser totalmente aleatoria. Debe eliminarse cualquier rela-ción estadística entre el men-saje original y su texto cifrado. La combinación de la susti-tución y transposición difun-

de, es decir, distribuye o dis-persa, la estructura estadística del mensaje sobre la totalidad del texto cifrado. En otras pa-labras, examinando el texto ci-

frado no se obtendrá más in-formación sobre el mensaje original que examinando un texto aleatorio. Si se cambia un bit del texto en claro, debe-ría cambiar en promedio la mi-tad de los bits del texto cifra-do. Esta propiedad también se llama efecto de avalancha. Re-sumiendo, la difusión oculta la relación entre el texto en claro y el texto cifrado.

La confusión busca ocultar la relación entre el texto cifrado y la clave secreta. Si se cambia un solo bit de la clave, también debería cambiar en promedio la mitad de los bits del texto ci-frado. Los algoritmos de cifra-do que se sirven de la confu-sión y de la difusión se suelen llamar cifradores de produc-to. Cada aplicación de la con-fusión y de la difusión se pro-

duce en una vuelta de cifrado. Los cifradores modernos, co-mo los ya mencionados DES y AES, suelen utilizar muchas vueltas de cifrado o iteracio-nes.

Por tanto, si un algoritmo de cifra está bien diseñado, un texto cifrado sólo se podrá descifrar si se conoce la clave secreta. En la buena criptogra-fía se sigue siempre el principio de Kerckhoffs: la seguridad del sistema debe recaer en la se-guridad de la clave, debiéndo-se suponer conocidos el resto de los parámetros del sistema criptográfico.

Si no se te ocurre cómo atacarlo, recurre a la fuer-za brutaEl segundo factor para cali-brar la seguridad de un algo-

/// Figura 3. Ejemplo de cifrado de transposición /////////////////////

El texto se escribe en una matriz rellenándola fila a fila y se envía leyéndola columna a columna. La clave de cifrado es la dimensión de la matriz.

INTRODUCCIÓN DEL TEXTO EN CLARO

E S T E E S

U N E J E M

P L O D E T

R A N S P O

S I C I O N

EXTRACCIÓN DEL CIFRADO

C: EUPRS SNLAI TEONC EJDSI EEEPO SMTON

/// Figura 4. Esquema de funcionamiento del cifrado en bloque ///////////////////////////////////////////////

Transformación inicial

Operaciones criptográficasn vueltas Algoritmo de

expansión de clave

Transformación final

1) Transformación inicial; 2) función criptográfica iterada varias veces (vueltas de cifrado); 3) transformación final; 4) algoritmo de expansión de clave, que a partir de la clave inicial introducida por el usuario permite generar material de clave para utilizar en todas las vueltas.

Page 37: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

36 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.4 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

ritmo es la longitud de la clave utilizada. Cuando un criptoa-nalista no puede encontrar fallos en el algoritmo, siem-pre le queda recurrir a un ata-que de fuerza bruta. Se trata de un método sin elegancia, que no ataca el algoritmo en sí, sino que busca exhaustiva-mente todos los posibles va-lores de la clave hasta dar con la correcta.

Hoy en día se estima que cla-ves de 128 bits de longitud o más garantizarán la seguridad por muchos años. De hecho, algunos algoritmos permiten seleccionar a voluntad la lon-gitud de la clave, como el ac-tual estándar de cifrado AES, basado en el algoritmo cripto-gráfico Rijndael.

Por consiguiente, si el diseño es robusto y la longitud de la clave es suficientemente larga, podemos considerar que el al-goritmo es seguro.

Números aleatorios para elegir buenas claves de ci-fradoElegir la clave de cifrado es un asunto muy importante. La clave debe ser perfectamente aleatoria. Ahora bien, los orde-nadores son máquinas deter-ministas incapaces de gene-rar números al azar. Una de las soluciones consiste en uti-lizar fuentes de entropía físi-cas, como por ejemplo regis-trar los movimientos de ratón

nozca la semilla podrá regene-rar la secuencia.

Hay dos tipos de algorit-mos de criptografía simé-tricaExisten dos grandes familias de algoritmos simétricos o de clave secreta. Los algoritmos de cifrado en bloque y los al-goritmos de cifrado en flujo.

En el caso de los algoritmos de cifrado en bloque, prime-ro se divide el mensaje origi-nal en bloques de un tamaño determinado. Cada bloque se cifra siempre de la misma ma-nera e independientemente de todos los demás. Por su par-te, los algoritmos de cifrado en flujo funcionan de forma muy

diferente, representada en la figura 5.

Como sería muy complicado hacer llegar al destinatario una clave tan larga como el men-saje, en la práctica lo que se hace es una pequeña trampa: en lugar de generar aleatoria-mente toda la clave, se gene-ra una pequeña semilla a par-tir de la cual, mediante alguno de los algoritmos determinis-tas de generación de números pseudoaleatorios ya mencio-nados, se genera la secuencia cifrante con la que se mezcla el texto en claro.

Los cifradores en bloque re-sultan inadecuados en aque-llas aplicaciones en las que la

1) Se genera una clave aleatoria tan larga como el mensaje que se desea cifrar; 2) se mezcla el mensaje con la clave, generándose así el texto cifrado, típicamente la suma módulo dos bit a bit (operación lógica XOR); 3) para recuperar el mensaje original, basta con volver a sumar la clave con el texto cifrado.

Clave Clave

Algoritmo determinista

Texto claro

Algoritmo determinista

Texto claro

Texto cifrado

Secuencia cifrante

si si

ci ci

mi mi

EMISOR RECEPTOR

/// Figura 5. Esquema de funcionamiento del cifrado en flujo /////////////////////////////////////////////////

del usuario, sus pulsaciones de teclas, y otras fuentes se-mejantes. Estas secuencias, además de ser muy difíciles de crear, no pueden reproducir-se: nunca generará dos veces la misma secuencia aleatoria.

Para aquellas situaciones en que hiciera falta repetirlas, se crean las secuencias pseu-doaleatorias. En este caso, se generan usando algorit-mos deterministas, los cuales a partir de una semilla inicial son capaces de generar se-cuencias de bits que se com-portan estadísticamente como si hubieran sido generadas por generadores verdaderamente aleatorios. Cualquiera que co-

Page 38: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 37

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TECNOLOGÍAS DE LA INFORMACIÓN 02.4

información a cifrar no esté disponible en su totalidad, si-no a retazos, como, por ejem-plo, en las conversaciones te-lefónicas, ya que un bloque no puede cifrarse hasta que están disponibles todos sus bits.

Los cifradores en flujo no pre-sentan este problema, pues-to que cifran bit a bit la infor-mación a medida que les llega. De hecho, se suelen realizar por hardware, lo que hace que sean extremadamente rápi-dos y se los prefiera en aque-llas aplicaciones en las que pri-ma la velocidad.

La criptografía de clave pú-blica soluciona el problema de la distribución de clavesUna vez cifrado un mensaje con la clave secreta, surge una nue-va dificultad: ¿cómo enviarle al destinatario la clave secreta utili-zada para cifrar el mensaje?

Por eso a la criptografía de cla-ve pública se le llama también asimétrica, cuyo funciona-miento se ha representado en la figura 6. Si cifras un mensaje con la clave pública no podrás descifrarlo usando esa mis-ma clave pública. Necesitarás usar la correspondiente clave privada. Lo que cifras con una clave, debes descifrarlo con la otra.

También puede cifrarse con la clave privada. Si cifras algo con tu clave privada, enton-ces cualquiera que conozca tu clave pública podrá desci-frarlo. Cifrar un mensaje con tu clave privada equivale a fir-marlo porque nadie más que el poseedor de la clave privada podría haber cifrado ese men-saje. Cuando cifras algo con tu clave privada estás demos-trando tu autoría: sólo tú pue-des cifrarlo, por lo tanto, has

tenido que ser tú quien lo ci-fró. Eso es lo que se llama au-tenticación.

Y cualquiera puede descifrar-lo usando tu clave pública. Lo que equivale a verificar la fir-ma. Por eso es tan importan-te que tu clave privada sea pri-vada y nunca la conozca nadie más que tú. En la práctica, de-bido a que los algoritmos de cifrado asimétrico son muy lentos, no suelen usarse para cifrar todo el mensaje, sino un resumen muy corto del mis-mo calculado gracias a funcio-nes hash (función unidireccio-nal de resumen que reduce el mensaje de partida a un valor de menor longitud, de forma que éste sirve como represen-tación compacta del mensaje original).

La pareja de claves debería guardarse de forma segura, por ejemplo en una tarjeta inteligen-te, como el DNI electrónico.

Las firmas electrónicas y los certificados digitales solucionan el problema de la confianza¿Cómo saber si la clave públi-ca de un usuario es en realidad la suya y no la de un atacante que la ha sustituido por la suya propia? Se trata de un proble-ma de confianza. Igual que se vio lo difícil que resulta distri-buir claves secretas de mane-ra segura, es igualmente difí-cil distribuir claves públicas de

/// Figura 6. Funcionamiento del cifrado asimétrico ////////////////////////////////////////////////////////////

Funcionamiento del cifrado asimétrico: Se utilizan dos claves diferentes para cifrar y descifrar: una conocida por todo el mundo y otra, sólo por su propietario.

Texto claro

EMISOR RECEPTOR

Clave pública

Clave privada

Texto claro Cifrar Texto cifrado Descifrar

Se trata del mayor problema al que históricamente se ha en-frentado la criptografía, cono-cido como problema de dis-tribución de la clave. ¿De qué sirve utilizar el mejor algorit-mo de cifrado del mundo si no puede compartirse la clave con el destinatario del mensa-je? Durante siglos la criptogra-fía se ha enfrentado con poco éxito a este problema, has-ta que en la década de 1970 los criptógrafos Diffie y Hell-man inventaron la criptografía de clave pública.

En esta forma de criptografía se dispone de dos claves: una es pública y por tanto conoci-da por todo el mundo y la otra es privada y conocida sola-mente por su poseedor. Aun-que cualquiera puede cifrar usando la clave pública, sólo el que posee la correspondiente clave privada podrá descifrar.

Page 39: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

38 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

02.4 TECNOLOGÍAS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

manera fiable. Hoy en día se ha resuelto al menos parcial-mente usando las firmas elec-trónicas y los certificados digi-tales.

En principio, bastaría con ci-frar un documento con la clave privada para obtener una firma digital segura, puesto que na-die excepto el poseedor de la clave privada puede hacerlo. Posteriormente, cualquier per-sona podría descifrarlo con su clave pública, demostrándo-se así la identidad del firman-te. En la práctica, debido a que los algoritmos de clave pública

requieren mucho tiempo para cifrar documentos largos, los protocolos de firma digital se implementan junto con funcio-nes hash, de manera que en vez de firmar un documento, se firma un resumen del mis-mo. Este mecanismo implica el cifrado, mediante la clave privada del emisor, del resu-men de los datos, los cuales serán transferidos junto con el mensaje. Los pasos del proto-colo aparecen representados en la figura 7.

De esta forma se ofrecen con-juntamente los servicios de:

blema evidente de confianza: ¿cómo tener certeza de que la clave pública de un usuario corresponde realmente a ese individuo y no ha sido falsifi-cada por otro?, ¿por qué fiar-se de esa clave pública antes de confiarle algún secreto?, ¿quién verifica la identidad del poseedor de la clave pública?

Todas estas preguntas en-cuentran su respuesta en la figura de los certificados di-gitales. Estos contienen tu clave pública y un conjunto de datos (nombre, DNI, di-rección de correo electróni-co, etc.), todo ello firmado por una autoridad de certifi-cación, encargada de verifi-car la validez de la informa-ción. Es precisamente esta firma lo que proporciona con-fianza a quien recibe el certi-ficado de que la clave pública que contiene este en realidad corresponde a la persona cu-yos atributos aparecen tam-bién en el mismo.

Gracias a los certificados di-gitales, las firmas electrónicas y el cifrado, podemos hoy en día realizar transacciones se-guras a través de Internet y del móvil, sabemos si un sitio web es en realidad el autén-tico y no una suplantación y podemos enviar y recibir co-rreos electrónicos cifrados y firmados. Ninguna de estas maravillas sería posible sin la criptografía.

1) no repudio, ya que nadie ex-cepto tú podría haber firmado el documento; 2) autentica-ción, ya que si el documento viene firmado por ti, se puede estar seguro de tu identidad, dado que solo tú has podido firmarlo; y 3) integridad del do-cumento, ya que en caso de ser modificado, resultaría im-posible hacerlo de forma tal que se generase la misma fun-ción de resumen que había si-do firmada.

A la vista de este esquema de funcionamiento de las firmas digitales, se plantea un pro-

/// Figura 7. Proceso de firma electrónica ///////////////////////////////////////////////////////////////////////

EMISOR RECEPTOR

1

2

3

5

6

4

Mensaje Mensaje

Hash

Cifrar KPriv

KPub

Firma

Firma

Descifrar Hash

H2H1

1) Generas un resumen del documento; 2) cifras el resumen con tu clave privada, firmando por tanto el documento, ya que nadie excepto tú conoce dicha clave privada y por lo tanto solamente tú podrías haber realizado la operación de cifrado; 3) envías el documento junto con el resumen firmado al destinatario; 4) este genera un resumen del documento recibido de ti, usando la misma función hash; 5) después descifra el resumen firmado con tu clave pública, que, como su nombre indica, es conocida por todos; y 6) si el resumen firmado coincide con el resumen que él ha generado, la firma es válida.

Page 40: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Hoy es un díaque recordará siempre

Todos recordamos cómo fue nuestro primer día de trabajo. Seguramente ese día nada pudo borrarnos la sonrisa del rostro.

Igual que a Eugenia. Porque ella es una de los miles de personas con dificultades especiales que han conseguido una oportunidad laboral, gracias a las más de 17.000 empresas que colaboran con el programa Incorpora de la Obra Social ”la Caixa”.

Gracias a miles de empresarios, un día normal puede ser un gran día.

Tú eres la Estrella

Obra Social ”la Caixa” • El alma de ”la Caixa” www.laCaixa.es/ObraSocial

Page 41: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

03Nuevos espacios de la información

Page 42: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios
Page 43: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

42 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.1 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Acceso abierto: ¿qué es y por qué?Por acceso abierto se conoce la iniciativa que persigue poner la literatura científica y acadé-mica a libre disposición en la Red, asegurando el derecho de poder acceder sin restric-ciones al conocimiento científi-co. El acceso abierto, gratuito y permanente a los resultados de

Tiempo para nuevos modelos de comunicación y difusión de la ciencia

Las autoras analizan la evolución y consecuencias que tiene el acceso abierto, gratuito y permanente a los resultados de la investigación científica. Así, el modelo de comunicación científica, basado en un sistema editorial, preocupado más por los beneficios económicos que por el valor social de la ciencia y su difusión, está en entredicho.

la investigación, empezó sien-do una iniciativa avant la lettre impulsada por los propios in-vestigadores a favor de un in-tercambio más ágil, eficiente y democrático de información científica hace ya dos décadas, con la aparición de arXiv.

En 2002, se reúnen en Buda-pest bajo los auspicios de la

Open Society Institute varias instituciones y elaboran la pri-mera declaración formal a fa-vor del Open Access. Le su-ceden las declaraciones de Bethesda (Junio 2003) y Ber-lín (Octubre 2003) en la mis-ma línea y sobre el mismo sustrato. Declaraciones su-cesivas de este tipo eviden-cian la fase de fuerte ex-

pansión del movimiento del acceso abierto.

Se cuestiona el monopolio de las grandes editoriales sobre la distribución y explotación de la información científica, la di-visión informacional generada entre instituciones y países (di�gital divide) y las barreras que supone para un modelo efi-

Agnès Ponsati (1) Isabel Bernal (2)

(1) Unidad de Recursos de Información Científica para la Investigación (CSIC) (2) Oficina Técnica Digital (CSIC)

Page 44: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 43

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.1

Agnès Ponsati

Licenciada en Filología Hispánica por la Universidad de Barcelona (1986) y Diplo-mada en Biblioteconomía y Documentación por la misma Universidad (1987), es la directora de la Unidad de Recursos de Información Científica para la Investiga-ción del Consejo Superior de Investigaciones Científicas (1994).

Ha publicado varios artículos (http://digital.csic.es) sobre la gestión técnica de catálogos colectivos informatizados en entornos distribuidos y la coordinación y gestión de servicios bibliotecarios en el ámbito de las bibliotecas especializadas/científicas. Asimismo, ha participado en proyectos de ámbito nacional y europeo (http://www.csic.es/cbic/cooper.htm) relacionados con la informatización de co-lecciones documentales, sistemas de conversión de catálogos, protocolos bi-bliográficos, metabuscadores y la puesta en valor de colecciones patrimoniales, mediante la aplicación de las nuevas tecnologías a los sistemas de información.

Presidió la Comisión de Bibliotecas especializadas del Consejo de Cooperación Bibliotecaria del Ministerio de Cultura, durante el periodo 2008-2010.

Isabel Bernal

Licenciada en Historia por la Universidad de Sevilla, Master en Biblioteconomía y Documentación en la Escuela de la Biblioteca Vaticana (Roma) y Master en Eco-nomía y Relaciones Internacionales en la John Hopkins University (Washington, DC). Desde enero de 2010 es la responsable de Digital.CSIC, el repositorio ins-titucional del CSIC.

Con anterioridad, trabajó durante cinco años en EIFL, organización internacional que promueve el acceso a recursos electrónicos de investigación en países en desarrollo y en transición, y en la en Comisión Europea.

Ha escrito diversos artículos sobre el acceso abierto a la investigación, acceso a la información y cooperación al desarrollo, consorcios de bibliotecas, e histo-ria de los libros.

Agnès Ponsati.

Isabel Bernal.

caz y transparente de comu-nicación científica. Los facto-res que propician la aparición del movimiento son variados: la denominada «crisis de las revistas», que se gesta como consecuencia de los incre-mentos exorbitantes de pre-cios; la falta de competencia; la situación monopolística del mercado editorial y la crisis de permisos debida a las restric-ciones editoriales ( tecnológi-cas y legales).

Bajo el modelo imperante, las instituciones no pueden ga-rantizar el acceso a toda la in-formación científica que se produce y que en gran parte fi-nancian y generan, o a la que generan sus homólogos. Pa-radójicamente, la tecnología permitiría un acceso mayor e inmediato si el escenario edi-torial fuera otro. Ello pone de manifiesto que el modelo de comunicación científica, ba-sado en un sistema editorial

preocupado más por los be-neficios económicos que por el valor social de la ciencia y su difusión, está, si no en crisis, sí en entredicho.

El acceso abierto se ha con-solidado como un canal de comunicación científica que pone en tela de juicio varios cimientos fundamentales del sistema editorial predominan-te y cataliza transformaciones revolucionarias.

Las estrategiasCon todo, el movimiento no pretende socavar el mercado sino presentarle alternativa a través de dos vías:

1. La publicación en abier-to de revistas de calidad que cuenten con un comité de selección.

2. Un sistema de «auto-ar-chivo» de la producción científica de los investigado-res en repositorios institucio-nales o temáticos.

Son estrategias complemen-tarias y no competitivas. Per-siguen facilitar y mejorar el ac-ceso a la información científica y su difusión. El movimiento no debe entenderse como un sistema de «autoedición» ni como uno que elimine o sus-tituya el modelo tradicional de la revisión entre pares. Tam-poco como un sistema de co-municación científica de se-gunda fila ni un sistema que busque abaratar el coste de publicar.

El acceso abierto es cons-tructivo, no deconstructivo (no busca eliminar revistas comerciales, pero sí acrecen-tar el acceso a contenidos científicos); no es sinónimo de acceso universal (ya que sigue habiendo barreras ins-titucionales, lingüísticas, pa-ra discapacitados, de conec-tividad, etc). En definitiva, el

Page 45: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

44 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.1 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Open Access (OA) persigue un nuevo modelo de acceso pero no es un modelo de ne-gocio.

Ambas vías aportan beneficios importantes para las institucio-nes que las promueven:

1. Contribuyen a devolver a la sociedad un bien común: la ciencia que financia.

2. Consiguen una mayor di-fusión-más impacto de sus investigaciones.

3. Aseguran la preservación a largo plazo de los conteni-dos generados.

4. Ayudan a los gestores a tener un mayor control de las publicaciones científicas pro-ducidas.

5. Los repositorios permiten disponer en línea la produc-ción de sus investigadores y estandarizar los currícula.

6. Más lectores conducen a una mayor explotación de los

resultados científicos, más citaciones facilitando así fu-turas financiaciones.

7. Aumentan la percepción social del valor de la investi-gación.

8. A mayor percepción so-cial, mayor perfil político pa-ra la investigación científica.

9. Los repositorios ayudan a las agencias de financiación y a los investigadores a localizar re-sultados en su área de interés.

10. El ciclo de la comunica-ción científica se acelera y los resultados son difundidos y leídos mucho antes.

11. El acceso abierto abo-ga por que los investiga-dores hagan un uso más consciente de sus dere-chos de autor.

Repositorios institucionalesMuchas instituciones científi-cas y académicas han crea-do repositorios instituciona-les. También los fomentan las agencias de financiación pa-ra garantizar una amplia difu-sión de los resultados de los proyectos que subvencio-nan, siempre con la finalidad de crear sitios donde alber-gar, organizar, difundir y pre-servar la producción científica que generan o financian. Para ello utilizan la tecnología que permite una rápida propaga-ción en la Red de sus conteni-dos mediante el harvesteo de grandes recolectores y moto-res de búsqueda de recursos científicos.

Los beneficios derivados de los repositorios institucionales son muchos si reciben un apo-yo explícito. Hoy existen 2.000 repositorios abiertos en el mun-do. Proyectos pilotos hace una década, se han convertido en plataformas consolidadas por las que las instituciones de in-vestigación difunden al exterior su producción.

Página de inicio del repositorio institucional del CSIC.

Page 46: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 45

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.1

Los repositorios ofrecen nue-vas funciones, añadiendo al acceso abierto herramien-tas que custodian, gestionan y analizan la ciencia institucio-nal. Recientemente, los or-ganismos de investigación y universidades están creando plataformas propias que re-cogen, describen y evalúan su producción científica. En-lazar el repositorio con estos sistemas internos resulta fun-damental para relacionar las actividades de gestión, eva-luación, difusión y publicación de la producción institucional. Actividades que hasta hace poco se concebían indepen-dientes y no interconectadas.

Publicar en abierto: la vía do-radaLa otra estrategia del acceso abierto se basa en el fomento por las instituciones de la edi-ción de revistas científicas en abierto, o en la publicación por parte de sus autores en revis-tas abiertas. Modalidad de pu-blicación que puede estar a su vez financiada por las institu-

ciones a las que pertenecen los autores.

Ejemplo de ello lo encontra-mos en nuevas iniciativas edi-toriales como las revistas de PLoS o las del BioMed Central (acceso abierto dorado) o en revistas tradicionales de sus-cripción que ofrecen la publi-cación inmediata en abierto tras el pago de una cuota por parte del autor/institución (el acceso abierto híbrido).

Va creciendo el número de instituciones y agencias de fi-nanciación con un fondo es-pecial para pagar esas cuotas a nivel institucional, conside-rando el coste de publicación en abierto como parte inte-gral de los presupuestos de investigación.

Mandatos, políticas y direc-tivas: el acceso abierto en las estrategias de investi-gaciónSe observa también mayor sensibilización hacia la impor-tancia del acceso abierto a los

resultados de la investigación financiada con fondos públi-cos. Bajo esta óptica, la divul-gación científica adquiere un mayor relieve y unos objeti-vos más ambiciosos, amplian-do los canales por los que las instituciones pueden realizar la transferencia del conocimiento que producen a la sociedad.

Estudios de la Comisión Eu-ropea revelan el escaso ac-ceso a las publicaciones de los resultados de investiga-ción pública por parte de las pequeñas y medianas empre-sas y los efectos negativos en la innovación y el desarro-llo tecnológico. Otros, como Implementation of Medical Research in Clinical Practice (2011) de la European Scien-ce Foundation, destacan la necesidad de traspasar más y mejor a hospitales los re-sultados de investigaciones biomédicas realizadas por instituciones científicas y uni-versidades.

La transferencia de conoci-miento, según la Organiza-ción Mundial de la Propiedad Intelectual (OMPI), implica la captura, organización y el in-tercambio de conocimiento explícito y tácito e incluye ac-tividades comerciales y no co-merciales. El movimiento del acceso abierto demanda así una mayor transparencia en la transferencia de los resultados científicos, actividad que debe

En definitiva, el Open Access (OA) persigue un nuevo modelo de acceso pero no es un modelo de negocio

Símbolo internacional del movimiento del acceso abierto.

Page 47: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

46 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.1 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

entenderse más allá de la me-ra patentación de resultados.

El acceso abierto a los resul-tados de la investigación tam-bién tiene implicaciones direc-tas en el desarrollo económico y la innovación. La Agenda Digi-tal Europea considera el acce-so a la información, a la investi-gación y a los datos científicos puros esencial para garantizar la competitividad de la Unión Eu-ropea. Neelie Kroes, su vicepre-sidenta, pronunció un histórico discurso en esta línea (http://bi-bliotecas.csic.es/documents/docnoticias/kroes_challenge_open_access_spanish.pdf), en diciembre de 2010.

Mandatos: acceso abierto y copyrightEl espaldarazo para la consoli-dación de los repositorios ins-titucionales es el desarrollo de un mandato institucional que requiera el depósito en el re-positorio de una copia de au-tor de los trabajos producidos. Diversos estudios confirman que el depósito voluntario no supera el 15% de lo producido de media al año, mientras que cuando se implantan manda-tos la ratio sube al 63% de las publicaciones.

Hay más de 130 manda-tos institucionales de acce-so abierto en el mundo. Des-tacan los de las universidades de Harvard y de Princeton por el apoyo unánime de su comu-

que le hayan sido aceptados para publicación». Tal depósito deberá realizarse en reposito-rios no más tarde de 12 meses de la publicación oficial.

El papel de las agencias fi-nanciadorasEl acceso abierto se ha con-vertido en elemento clave en el diseño de nuevas estrategias de muchas agencias financia-doras. Requiriendo este tipo de acceso a las publicaciones y datos que derivan de los pro-yectos que financian, apues-tan por una mayor transpa-rencia social de la ciencia que sostienen. Este discurso es especialmente relevante para las agencias públicas ya que añade un componente ético al garantizar el acceso gratuito a recursos que de otra manera quedarían alojados únicamen-te tras costosas plataformas de suscripción.

Entre los pioneros, destacan las políticas de acceso abier-to de los National Institutes of Health (NIH) de Estados Uni-dos (2007) y del Wellcome Trust del Reino Unido (2006).

El acceso abierto en leyes y disposiciones legalesCada vez son más los gobier-nos que promulgan leyes pa-ra la difusión en abierto de las investigaciones que financian.

Así, en España, desde el 2008 han aparecido leyes y norma-

tivas, como la directiva de la Comunidad de Madrid (2008) y la nueva ley de la Ciencia, el logro más importante. Su ar-tículo 37 Difusión en acceso abierto es un paso adelan-te muy importante al mencio-nar, además, la posibilidad de ligar la evaluación de la pro-ductividad científica de las ad-ministraciones públicas a la difusión en abierto del cono-cimiento que generan.

Europa, coordinación en po-lítica de acceso abierto entre los Consejos de Investigación en EuropaEUROHORCS, el European Research Council (ERC) y la Comisión Europea fomen-tan iniciativas para concien-ciar sobre el deber de hacer accesible al público los resul-tados de investigaciones fi-nanciadas por los contribu-yentes, a diseñar políticas comunes que marquen pro-cedimientos a cumplir por los consejos de investigación y a desarrollar infraestructu-ras para divulgar este cono-cimiento.

El ERC publicó en 2007 una política de acceso abierto por la que se requiere el de-pósito en repositorios de las copias de autor de las publi-caciones y de los datos pu-ros resultantes de proyectos que financian. El VII Progra-ma Marco de la Comisión Eu-ropea mantiene desde finales

nidad científica y por su valen-tía al abordar el espinoso te-ma del copyright, abogando por la no transferencia exclusi-va de derechos de explotación a los editores por los efectos negativos sobre las posibilida-des futuras y diversas de ex-plotación y reutilización del co-nocimiento. Este es un debate abierto con importantes impli-caciones para las instituciones públicas creadoras de conoci-miento y ciencia.

En España, dos leyes recientes abordan la transferencia de re-sultados de la actividad inves-tigadora y la titularidad de los derechos patrimoniales del co-nocimiento generado. El ar-tículo 54 de la ley de Econo-mía Sostenible, en vigor desde marzo de 2011, subraya que «los resultados de las activida�des de investigación, desarrollo e innovación a las que se refie�re el artículo anterior, así como el derecho a solicitar los títulos de propiedad industrial ade�cuados para su protección ju�rídica pertenecerán a las enti�dades cuyos investigadores los hayan obtenido en el ejerci�cio de las funciones que les son propias»; el artículo 37 de la ley de la Ciencia prevé que «el personal de investigación cu�ya actividad investigadora es�té financiada mayoritariamente con fondos de los Presupues�tos Generales del Estado hará pública una versión digital de la versión final de los contenidos

Page 48: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 47

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.1

de 2008 un proyecto piloto de acceso abierto que afecta a la difusión del 20% de sus proyectos y que extenderá probablemente al 100% de los proyectos bajo el VIII PM a partir de 2013.

EUROHORCS y la European Science Foundation llevan años trabajando en la imple-mentación de una hoja de ru-ta para el avance coordina-do del acceso abierto en el Espacio Europeo de Investi-gación.

Acceso abierto en EspañaEl acceso abierto se ha con-cretado en la adhesión de muchas universidades e instituciones científicas a la Declaración de Berlín, la creación de un número sig-nificativo de repositorios ins-titucionales, entre los que destacan los de la Universi-dad Autónoma de Barcelo-na, el de la Universidad Po-litécnica de Cataluña y el del CSIC, según el Ranking We�bometrics de Repositorios, y la creación del recolector de la producción españo-la disponible en los reposito-rios existentes (RECOLEC-TA). Algunas universidades tienen mandatos institucio-nales y otras han empeza-do a considerar la oportuni-dad de financiar, aunque aún de forma muy tibia, los cos-tes de publicación en acce-so abierto.

Organisation for Scientific Re-search, CNRS, Max Planck Society), una falta de compro-miso a nivel de instituciones y

país más firme y decidida. Se-guramente, la nueva ley de la Ciencia y las directivas euro-peas, y las que están por lle-

Portal de la Comisión Europea sobre todas sus iniciativas para implementar el acceso abierto a los resultados de los proyectos de investigación que financia.

Sin embargo, se observa, con respecto a otras instituciones científicas europeas (UK Re-search Councils, Netherlands

Page 49: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

48 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.1 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

gar, contribuirán a reforzar la estrategia nacional.

Un nuevo escenario, ¿nue-vas reglas de juego?El acceso abierto está trans-formando la realidad cotidiana de las instituciones afectando a cuestiones tan relevantes, como los modelos de nego-ciación de recursos de infor-mación, los sistemas de eva-luación y la gestión de los derechos de explotación de resultados.

Nuevos modelos de negocia-ción de información científicaExiste un buen número de re-vistas científicas de calidad en abierto o sujetas al acceso abierto híbrido. Pero la publi-cación gratuita de contenidos científicos en las mismas tie-ne siempre un coste, que re-cae sobre la institución de los autores que publican, y no so-bre los lectores. Esto está su-poniendo una alteración del modelo tradicional de contra-tación de recursos de infor-mación basado en el paradig-ma «la biblioteca-institución paga» para su consulta, al nuevo paradigma, «el autor-institución paga» para su di-fusión en abierto. Por ello, la negociación de cuotas institu-cionales de acceso abierto ha pasado a formar parte de los contratos con editores, como una cláusula adicional, que fi-ja cómo hacer frente al pago de las publicaciones que los

autores de una determinada institución publican bajo es-ta modalidad. Las institucio-nes más comprometidas con el acceso abierto ya están considerando que los presu-puestos de investigación de-ben contemplar partidas pa-ra costear la publicación de la ciencia que producen en abierto.

Se están introduciendo tam-bién cambios en los modelos de licencia editorial: se trata de la llamada «cláusula verde» por la que se exige a los edito-res el depósito en el reposito-rio institucional de los borrado-res revisados de los artículos de los autores institucionales publicados en sus títulos.

Nuevos modelos de evalua-ción científicaEl acceso abierto ha entrado en el debate sobre la vigen-cia del modelo de evaluación científica sustentado casi en exclusiva en el Journal Impact Factor (JIF). Surgen voces crí-ticas sobre la adecuación del JIF para evaluar la productivi-dad y excelencia de los inves-tigadores, a lo que se unen críticas a la profusión de pu-blicaciones científicas, resul-tado del modelo de evalua-ción imperante y de la validez del peer review actual. El Co-mité de Ciencia y Tecnología en el Reino Unido ha aborda-do ambas cuestiones, abo-gando por sistemas de revi-sión por pares más acordes con la realidad, y cita como posible modelo alternativo el de PLOS One, subrayando además la conveniencia de que los datos puros de ca-rácter científico, salvo excep-ciones, sean accesibles pú-blicamente.

Otros criterios de evaluación han ido abriéndose paso, co-

mo el Journal Usage Factor, o criterios cualitativos, como el impacto socioeconómico de los resultados de la inves-tigación y la verdadera trans-ferencia de conocimiento, que permite acceder a tales resul-tados en su totalidad sin tener que pagar por ello una segun-da vez.

Más y más instituciones cien-tíficas y universidades, espe-cialmente en el ámbito an-glosajón, están diseñando nuevos modelos de evalua-ción y financiación de proyec-tos científicos, enriquecien-do los criterios y los niveles de impacto en consideración. Entre los nuevos criterios aparece la exigencia de que la producción en evaluación se haya difundido en abierto o que el repositorio institucio-nal sea el canal de envío de los trabajos para ser evalua-dos. Un ejemplo exitoso del nuevo enfoque es la Universi-dad de Liège.

Para terminar, destacamos nuevos planteamientos para estimar el rendimiento eco-nómico de la producción y comunicación científica; es-tudios como Economic  im�pl icat ions of a l ternat ive scholarly publishing models (2009) calculan los costes, beneficios y oportunidades que ofrecería la transición ha-cia un modelo de acceso al-ternativo.

La otra estrategia del acceso abierto se basa en el fomento por las instituciones de la edición de revistas científicas en abierto

Page 50: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios
Page 51: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

50 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.2 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

«Aquí el tigre y el tártaro»La ilusión de disponer en una sola obra de todo el saber de una época (o de todo lo que se conoce sobre un determina-do tema) es tentadora por dos aspectos. Por una parte, tran-quiliza pensar que la totalidad del saber es abarcable... aun-que sea en una obra de dece-nas de volúmenes. Y por otra, también es agradable pensar que es posible acceder inme-

La aportación digital al universo de las enciclopedias

El autor nos conduce por la historia de la enciclopedia moderna, que nace en el siglo XVII, hasta la revolución que supuso el lanzamiento de la Wikipedia, en el año 2001, una obra en la Web creada con la colaboración de voluntarios y cuyo contenido es libremente reutilizable.

diata y directamente a cual-quiera de sus aspectos.

La enciclopedia moderna na-ce en el siglo XVII, aunque hay obras precursoras, que no se llamaban todavía «enciclope-dias». Las recopilaciones me-dievales, que se abren con obras como las Etimologías de Isidoro de Sevilla (siglo VI), no tenían, desde luego, la pre-tensión de hacer accesible el

saber a cualquier persona. Se trataba más bien, en una épo-ca de difícil acceso a las fuen-tes, de compendiar diversas materias para uso de los es-tudiosos. La organización in-terna era temática, porque la mentalidad medieval no ad-mitía la arbitrariedad del orden alfabético. Pero era sencilla-mente inadmisible que Altis�simus, el Altísimo, uno de los atributos divinos, no figurara

antes de Abyssus, el Abismo, o infierno...

El choque conceptual que su-puso el descubrimiento del nuevo continente americano provocó la redacción de obras que por primera vez observa-ban el mundo, en vez de co-piar las preexistentes. Fray Bernardino de Sahagún es-cribió en 1540 una obra en-ciclopédica organizada temá-

José Antonio Millán

Lingüista y editor, tradicional y digital

* Todos los epígrafes de este artículo provienen de «Al adquirir una enciclopedia», poema de J. L. Borges.

Page 52: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 51

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.2

José Antonio Millán

Lingüista y editor, tradicional y digital. Como director editorial de Taurus Edicio-nes publicó la versión española de la Enciclopedia del lenguaje, de David Crystal. En 1995 creó, junto con Rafael Millán, la primera versión en CD-ROM del Diccio�nario de la lengua de la Real Academia.

Durante muchos años ha ejercido la crítica de obras lexicográficas en El País: parte de su labor está recopilada en http://jamillan.com/dicciona.htm.

En su tarea de analista y crítico de la emergente edición digital (que se compen-dia en su blog: http://librosybitios.com) ha tratado en numerosas ocasiones las posibilidades y realizaciones del soporte electrónico para la publicación de infor-mación y el acceso a ella.

José Antonio Millán.

ticamente, la Historia general de las cosas de Nueva Espa�ña, para uso de sus colegas misioneros. Y describió la len-gua, historia y costumbres de los aztecas, su territorio, fau-na, botánica... Para encare-cer la utilidad de la obra, expli-có: «es para redimir mil canas, porque con harto menos tra-bajo de lo que aquí me cues-ta, podrán los que quisieren saber nuevas de sus antigua-llas, y todo el lenguaje de esta gente mexicana». Este ha sido siempre el objeto de las obras de consulta: que se pueda al-canzar el saber con menos es-fuerzo del que costaría recopi-larlo personalmente.

«Aquí la escrupulosa tipo-grafía y el azul de los ma-res»Pero las obras enciclopédicas escritas por una sola persona tenían sus días contados, por la constante extensión de los conocimientos humanos. En 1680 murió el jesuita alemán y autor polígrafo Athanasius Kircher, que una reciente obra sobre su figura bautiza justa-mente como «el último hom-bre que lo supo todo».

Las enciclopedias modernas son de elaboración colecti-va, aunque las colaboracio-nes no siempre suelen firmar-se. Además están divididas en entradas, que se clasifican no temática, sino alfabética-mente. Para la cohesión en-

tre los distintos artículos, y por la economía de conteni-dos, se hace uso de remisio-nes internas.

La famosa Encyclopédie fran-cesa (1751-1772) surgió del éxi-to de una enciclopedia inglesa aparecida pocos años antes, cuya licencia de traducción se compró. Pero cuando Diderot y D’Alembert fueron nombrados directores, el proyecto se am-plió notablemente, hasta cons-tituir una obra en 17 volúmenes. El lugar que la Encyclopédie ha logrado en la Historia proviene de su impacto ideológico, aun-que al tiempo supuso un impor-tante salto en la calidad y exten-sión de este tipo de obras.

La Encyclopédie añadía un elemento tradicional de las obras de consulta (al menos desde Isidoro de Sevilla): las ilustraciones, pero en relación a obras anteriores aumen-taron en cantidad y calidad. Después de los volúmenes de texto se publicaron 11 más

de láminas, elaboradas con una función didáctica que ya no se separaría nunca de es-tas obras. Baste el ejemplo de los distintos talleres donde se desempeñaban oficios, como el de impresor o el de luthier.

«Aquí la vasta enciclopedia de Brockhaus»La edad de oro de las enciclo-pedias en papel culmina con una obra española, la Enciclo�pedia Universal Ilustrada Euro�peo Americana (1908-1933), conocida como «la Espasa» por el apellido de su editor. También aquí se partió de una obra anterior: se compró la li-cencia en exclusiva de famo-sas obras alemanas, la Broc-khaus y la Dreyer, incluyendo los derechos de un numeroso conjunto de fotografías, gra-bados y láminas en color, pero la acogida del público y la am-bición del editor superaron los límites iniciales.

Este gran proyecto enciclopé-dico fue apareciendo a razón

de tres volúmenes por año, pero en 1914 la salida de nue-vos tomos se detuvo, por fal-ta de suministro de la parte de ilustraciones, que se imprimía en Alemania, ... y para esperar el resultado de la Gran Guerra, que tendría indudables conse-cuencias en la cartografía y en los artículos de Historia.

En esta época de informacio-nes instantáneas y actualiza-ción inmediata resulta difícil comprender qué podía signi-ficar poner al día una obra en papel. Cuando existían enci-clopedias impresas (hasta ha-ce pocos años), al hacer una nueva edición había que incor-porar hechos de la actualidad, personas que habían destaca-do por algún motivo, y nuevos conceptos (muchos del cam-po de la ciencia y de la téc-nica). Pero una de las tareas clave era matar personas, co-mo se decía en el argot edito-rial: añadir la fecha de la muer-te en las entradas de quienes en la última edición aún figura-

Page 53: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

52 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.2 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

ban como vivos y habían deja-do de serlo.

«Aquí los muchos y carga-dos volúmenes»La Enciclopedia Espasa creció hasta ser, según ciertos cri-terios, la mayor enciclopedia

en papel existente. Su núcleo fundamental eran 70 volúme-nes, pero con los numerosos apéndices que fue necesario publicar llegaron hasta 117. Y es que uno de los mayo-res condicionantes de las en-ciclopedias en papel era que

en el momento de su publica-ción quedaban cerradas. Pa-ra recoger lo que había ocu-rrido después se compilaban anexos, que reunían los cam-bios que se habían producido desde la anterior edición. Pe-ro eso obligaba al consultan-te de un tema a mirar el artí-culo principal, ¡y luego todos y cada uno de los apéndices, a ver si había habido noveda-des! Una solución parcial era editar un tomo de Índices que indicara en qué distintos volú-menes estaba lo que se quería consultar...

Las enciclopedias en papel fueron elementos clave que no faltaron en las instituciones (bi-bliotecas, ateneos) y más tar-de en los hogares de España y de otros muchos países. Pe-ro en la década de 1990 co-menzó la competencia digi-tal, en forma de CD-ROM, que proporcionaban una obra de consulta básicamente muy similar a las prexistentes en papel, con la adición de ani-maciones y vídeos. Las remi-siones internas adoptaron la forma de saltos hipertextua-les, que permitían ir fácilmente a la entrada señalada. Pero es-tas capacidades no se utiliza-ron, por lo general, para crear una estructura más rica que la de las obras en papel. Ade-más, seguían siendo obras autocontenidas: desde ha-cía siglos las entradas conte-nían bibliografía (la Espasa usó

cinco millones de referencias), pero tuvo que pasar tiempo, y desarrollarse la Internet, para que las enciclopedias digitales comenzaran a hacer uso de los enlaces a contenidos aje-nos que estaban en la Web.

Las obras digitales abrían dos posibilidades clave. Una era buscar en el interior de los textos, con lo que se po-día localizar algo que no figu-raba como entrada principal: por ejemplo, buscar Rigoletto y encontrar esta ópera en el artículo dedicado a Verdi. En muchas de estas obras elec-trónicas también se podía buscar con operadores lógi-cos: entradas que contuvie-ran la palabra Martín y Lutero, pero no King. Y la otra posi-bilidad fue copiar y reutilizar fragmentos del texto, o inclu-so imágenes.

Podría pensarse que la redac-ción de una obra enciclopédi-ca en CD-ROM, o luego en la Web, donde la extensión no conlleva gastos de papel, li-beró a las entradas de la tira-nía de una longitud limitada, pero esto no es exactamen-te así: las obras del pasado tenían a veces entradas ab-surdamente largas (así en la Espasa, donde los colabora-dores cobraban por página), y para una obra de consulta con frecuencia lo mejor no es extenderse en detalles, sino precisar.

Portada de la Encyclopédie, editada por Diderot y D’Alembert en el siglo XVIII. / Foto: Wikipedia.

Page 54: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 53

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.2

«Aquí la dilatada misce-lánea que sabe más que cualquier hombre»Pero la mayor revolución de las enciclopedias empeza-ría en enero del 2001, cuan-do se lanzó la Wikipedia, una obra en la Web creada con la colaboración de voluntarios, y cuyo contenido era libremente reutilizable. En el 2005, la ver-sión en inglés ya tenía mayor extensión que la Espasa. En la actualidad contiene más de 20 millones de entradas, entre las 282 lenguas en que exis-te, creadas por más de 31 mi-llones de usuarios registrados.

La revolución que supuso la Wikipedia tiene varias facetas, pero entre ellas no figura su es-tructura: es básicamente co-mo una enciclopedia del XVIII, todo lo más con las adiciones multimedia de las obras en CD-ROM de la década de 1990. Pero, como nadie ignora, sus entradas pueden ser redacta-das y corregidas por cualquier usuario. Hay una comunidad de voluntarios (que responden al nombre, bastante inadecua-do, de «bibliotecarios») que ve-lan por que se cumplan las nor-mas de redacción, que a su vez se han ido fijando en un largo proceso de discusión y bús-queda de consenso.

A lo largo del tiempo ha ha-bido cuestiones muy debati-das, como la posibilidad de edición por parte de usuarios

«Aquí el error y la verdad»Contra lo que todos habrían pensado, una enciclopedia escrita y corregida por per-sonas que no son necesaria-mente especialistas ha conse-guido un nivel de calidad muy aceptable. Los expertos en obras en colaboración aluden a la «acción del enjambre», el hecho innegable de que mu-chos ojos ven más que unos pocos. De hecho un estudio ha demostrado una clara co-rrelación entre calidad de una entrada y el número de inter-venciones (correcciones o adiciones) que se le han prac-ticado.

La controversia sobre la fiabi-lidad de la Wikipedia ha sido una constante, pero ha habi-do hitos importantes, como cuando en el 2005 un artícu-lo de la revista Nature com-paró una serie de entradas científicas de la edición in-

glesa con las equivalentes de la Britannica (la enciclopedia de referencia en el ámbito an-glosajón), y salía mejor para-da la Wikipedia. Hay que ad-vertir que, como es lógico, no siempre la labor de los redac-tores o editores de las enci-clopedias en papel ha sido escrupulosa, y que por tan-to no tiene mucho sentido a priori ni considerar perfectas a unas ni demonizar a otras. De todas formas, ha habido diversos intentos de crear enciclopedias colaborativas con control de expertos, co-mo Citizendium.

Con la difusión del acceso a la Web, y la disponibilidad in-mediata de contenidos muy diversos (y especialmente la Wikipedia), enciclopedias que llevaban décadas fun-cionando se encontraron an-te una competencia inespe-rada. Muchas respondieron pasándose también a la Web, bajo distintas modalidades de explotación, mientras mante-nían su edición en papel o in-cluso en CD-ROM. Uno de los casos más famosos es la Bri�tannica, que da acceso a par-te de sus entradas gratis y a otras por su sistema de sus-cripción.

Pero la influencia de la Wiki�pedia también se ha hecho notar: hay enciclopedias clá-sicas que se han abierto a la participación de voluntarios;

no registrados (que se permi-te, aunque el sistema guar-da la dirección IP desde don-de se colaboró), o el hecho de que se blinden a la edición determinados artículos que despiertan controversia. Una cuestión que creó un gran de-bate fue el propio ámbito de la Wikipedia: ¿deberían permitir-se solo entradas del tipo de las que habría en una enciclope-dia clásica?, ¿o –dado que no hay límites, como en el papel– cabría cualquier entrada sobre cualquier tema; por ejemplo: sobre todos y cada uno de los personajes de Pokemon? La opción que triunfó al final fue la más tradicional.

Pero la auténtica clave de la Wikipedia es que tiene una li-cencia abierta de reutilización (que se inspira en un meca-nismo análogo al que se usa-ba en la creación de software): cualquier parte de su conteni-do puede reutilizarse de cual-quier manera, incluso comer-cialmente. Esto ha propiciado la labor de los voluntarios que colaboran en ella: su obra se va a difundir por todos los medios. Unos serán de pago, como el libro con parte de la versión ale-mana que comercializó la edi-torial Bertelsmann, pero otros ayudarán de forma gratuita a los más necesitados, como la edición en DVD que el Ministe-rio argentino de Educación ha difundido para acceso off line en escuelas de todo el país.

Pero la mayor revolución de las enciclopedias empezaría en enero del 2001, cuando se lanzó la Wikipedia

Page 55: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

54 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.2 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

eso sí, bajo el filtro de sus editores. Este es el caso de la Gran Enciclopèdia Catala�na y de la enciclopedia La�rousse en Francia. Pero hay que recordar que la colabora-ción de los lectores no es al-go que se inventara la Wikipe�dia, sino que es una tradición del mundo del saber, y muy especialmente desde la Ilus-tración. En la introducción al tomo II de lo que fue la prime-ra enciclopedia mexicana, el Diccionario universal de his�toria y de geografía (México, 1853), leemos: «Invitamos for-malmente a todos los amantes de la ilustracion, para que nos ayuden con sus producciones. Con que una persona en cada Estado, en cada ciudad impor-tante dedicara algunos ratos de ocio a estas tareas, a vuelta de corto tiempo tendríamos tal su-ma de datos, que bastarían pa-ra formar una interesante com-pilacion».

«Aquí la memoria del tiem-po y los laberintos del tiem-po»El procedimiento que se ha seguido para la redacción de muchas entradas de enciclo-pedia ha sido por un lado ver qué decían sobre el mismo te-ma las obras de consulta an-teriores (lo que ha contribuido a perpetuar errores), y por otro acudir a artículos o libros. En el universo digital hay dispo-nible una masa inconmensu-rable de materiales de todo ti-

nas, países, etc., incluyendo elementos gráficos. Mientras que una fotografía o un vídeo serán sencillamente localiza-dos y reutilizados, un sistema experto podría generar gráfi-cos ad hoc, por ejemplo: his-togramas con la evolución de la población de un país com-parado con otro, o mapas de una región que reflejen el índi-ce de paro en cada zona. Ya hay aplicaciones que recopilan informaciones y que transfor-man datos crudos en gráficos, como WolframAlpha.

¿Qué panorama crea esto para las enciclopedias del fu-turo? Podríamos pensar en un continuum digital del que forman parte digitalizaciones de los libros existentes (a lo Google Books), más bases de datos con artículos cien-tíficos, más bibliotecas vir-tuales, más hemerotecas de

prensa, más aportaciones de los usuarios (tipo la Wiki�pedia), más contenidos mis-celáneos. Ante una pregunta concreta, un agente inteli-gente, al que llamaremos En�ciclopedia, reúne y evalúa in-formaciones y por fin redacta un texto acompañado de ele-mentos multimedia.

Un sistema así tendría infor-mación perennemente actua-lizada, podría indicar la proce-dencia de todos y cada una de los datos que aporta, y elabo-raría entradas con la extensión y estructura que fijaran sus pa-rámetros. Si consultantes de a pie y expertos en las distin-tas materias califican la ade-cuación y precisión de sus respuestas, el agente podría aprender con el uso.

Así, de los portentosos sabios del pasado, cuya mente com-pendiaba todo el saber de la época, de los ejércitos de au-tores y correctores de las más grandes enciclopedias en pa-pel y digitales, podríamos lle-gar a sutiles conjuntos de al-goritmos, retroalimentados por humanos, que, como di-ría Bernardino de Sahagún, echan la «red corredera» en el océano del saber digital, para conseguir, por otros medios, lo que ofrecía un prospecto de la Espasa en los años 30: «Necesidad de los tiempos es el saber. Saber pronto y de todo».

po (textos, imágenes, audios, videos): ¿podría existir un sis-tema automático que los re-copilara y los ordenara en un discurso coherente? Un pro-yecto así ampliaría realmen-te el radio de la enciclopedia clásica, porque daría acce-so no solo a los temas que se ha previsto que existan, sino a cualquier otro. Implementarlo tendría mucho de sistema ex�perto conocedor de un tema, pero también dependería del avance que haya experimen-tado la llamada web semánti�ca (aquella que sabe qué es lo que contiene), para poder ex-traer mejor la información de diversas fuentes.

Ya hay algunos prototipos de sistemas que, partiendo de datos más o menos estructu-rados, son capaces de crear algo parecido a entradas de una enciclopedia sobre perso-

La Enciclopedia Espasa creció hasta convertirse en la mayor enciclopedia en papel existente. / Foto: Wikipedia.

Page 56: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 55

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.3

Internet es un fiel reflejo de la sociedad actual. En la Red podemos encontrar ya de

todo: comercio, ocio, cultu-ra, política y, por supuesto, ciencia. Información que ofre-ce cualquiera, desde cual-quier parte del mundo, y todo ello a una velocidad impen-sable hace solo unos años. Internet es un medio de co-municación y un soporte de información, construido físi-camente como una red de re-des. Una red que permite co-nectar recursos, tanto físicos

La Internet del futuro y la I+D

La introducción en Internet de nuevas tecnologías, como dispositivos móviles de cuarta generación, sensores o redes de muy alta capacidad, abren un nuevo horizonte de posibilidades al desarrollo científico.

(instrumentos, repositorios o sistemas de procesamiento de información) como lógicos (programas, bases de datos o analizadores).

La introducción de la Web (World Wide Web) en 1990 produjo un cambio fundamen-tal. La Web nació como una aplicación más de los científi-cos y para los científicos. En concreto, para los investiga-dores del CERN (Organización Europea de Investigación Nu-clear), que necesitaban com-

partir información científi-ca textual de forma sencilla y flexible. Pero con la introduc-ción de la información gráfica la idea creció muy rápidamen-te, sobrepasando todos los lí-mites previstos y provocando la expansión de Internet a toda la sociedad.

Después de 20 años, el mo-delo esta totalmente integra-do en nuestro quehacer diario y ya hay una generación pa-ra la que juega un papel esen-cial en su vida cotidiana, de ahí

que se hable de «la sociedad de la información». En todas las áreas la creación, almace-namiento, control, transpor-te o difusión de la información tiene ahora una importancia estratégica enorme y es uno de los sectores económicos fundamentales en los países desarrollados porque contri-buye decisivamente a mejo-rar la productividad y permite acceder a mercados más am-plios. Al ser el instrumento fun-damental de comunicación de ámbito mundial, se ha conver-

Tomás de Miguel

RedIRIS

Page 57: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

56 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.3 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Tomás de Miguel

Doctor Ingeniero de Telecomunicación de la Universidad Politécnica de Madrid (1987) y director de la Red Académica y de investigación Española RedIRIS des-de 2005. Anteriormente ha sido profesor en la E.T.S.I de Telecomunicación de la UPM, donde ha impartido cursos de Informática y Comunicaciones y ha de-sarrollado su actividad investigadora en el Departamento de Ingeniería de Sis-temas Telemáticos (DIT). Hasta su incorporación a RedIRIS fue responsable de los servicios de Informática y Comunicaciones de la E.T.S.I. Telecomunicación UPM, contribuyendo al despliegue de la red local de alta velocidad y el desarro-llo de servicios a través de Internet.

Tomás de Miguel.

mo en el caso de Wikipedia o de YouTube, una compañía que existe desde hace pocos años y ahora reproduce tres mil millones de vídeos al día. Pero, con todo, el ejemplo más relevante es el de las re-des sociales (Web 2.0), como Facebook, Tuenti, LinkedIn o SecondLife. Eso no quita pa-ra que puedan existir también servicios basados en esos mismos estándares con los que desarrollar aplicaciones por las que se pueda cobrar por su uso como, por ejem-plo, Amazon o AppleStore. La clave está en que todas las opciones son posibles.

Además, cada vez es mas fre-cuente transferir imágenes, ví-deos e incluso comunicacio-nes telefónicas y de televisión, lo que hace crecer mucho el tráfico por la Red. A nivel pro-fesional se ha incrementado espectacularmente la utiliza-ción de Internet en los nego-cios, desplegándose intranets

y extranets para sus operacio-nes del día a día. Esto ha per-mitido colaborar de forma mu-cho más flexible y al mismo tiempo reducir costes, gene-rándose demanda de nuevos servicios que requieren más ancho de banda.

La Internet móvilAunque todavía la mayoría de los usuarios acceden a In-ternet en su oficina o en ca-sa desde un PC fijo, esto está cambiando muy rápidamente. Uno de los factores que van a suponer un mayor impacto en Internet para los próximos años empieza a ser la forma en que los usuarios acceden a la Red.

Cada vez se utiliza una mayor variedad de dispositivos, des-de el PC portátil al netbook y, más recientemente, los smart-smart-phones y los tablets, que inte- y los tablets, que inte-raccionan con otros usuarios de muy diversas formas, des-de la tradicional conexión tele-

fónica o los SMS a los chats, las redes sociales o la vi-deoconferencia.

La posibilidad de disponer de conexión a Internet en el mó-vil permite al usuario estar co-nectado permanentemen-te esté donde esté. Es decir, estar siempre presente en In-ternet. En estos momentos el 57% de los usuarios que dis-ponen de conexión se relacio-nan más a través de Internet que en la vida real y los jóve-nes de entre 8 y 18 años invier-ten una media de siete horas y media al día entre ver la televi-sión, los videojuegos o acce-diendo a Internet a través del móvil. En España el número de teléfonos móviles (51 millo-nes) ya supone más del doble del número de teléfonos fijos (unos 20 millones).

Mientras aumenta su núme-ro, el coste de los dispositi-vos continúa bajando de pre-cio y de peso, al tiempo que la potencia, la flexibilidad de uso y la autonomía aumentan. Se calcula que en menos de una década habrá 50.000 millones de dispositivos conectados a Internet, en lo que será una auténtica sociedad global pre-sente en la Red.

Este proceso de mejora no ha terminado en absoluto. Aun-que el acceso a Internet es po-sible con las actuales redes 3G o WiFi, ya está en marcha

tido en un recurso público del que dependen empresas, ad-ministraciones y personas en general.

Desde su creación se ha con-vertido en el más poderoso instrumento de colaboración disponible para el científico, porque ofrece los cauces más ágiles y flexibles para compar-tir información.

El factor clave para conse-guirlo ha sido la aceptación de estándares abiertos co-mo HTML, HTTP y sobre todo IP, que es el protocolo funda-mental de Internet. Los están-dares abiertos han permitido que fabricantes, proveedores y consumidores puedan uti-lizar las mismas tecnologías sin coste e, incluso, contri-buir a mejorarlas proponiendo modificaciones a los están-dares. Esto no es válido so-lamente para las tecnologías de comunicaciones, también se aplica a la información, co-

Page 58: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 57

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.3

la cuarta generación de redes móviles (basada en LTE o Wi-Max), con la que es posible disponer de velocidades de conexión similares a las de los terminales fijos actuales.

Las posibilidades que ofre-ce la movilidad de los dispo-sitivos a los investigadores son infinitas. Además de po-

der acceder a los datos de un experimento en tiempo real desde cualquier parte y com-partir los resultados inmedia-tamente con otros colegas, también permite manipular instrumentos o controlar va-rios experimentos a la vez, sin necesidad que tener que estar delante de cada uno de ellos.

ser la incorporación de ciertos dispositivos, como sensores y actuadores, con presencia en la Red, y que interactuarán unos con otros.

Se trata de incluir pequeños ordenadores en los objetos cotidianos (casas, coches, electrodomésticos o inclu-so sobre el cuerpo humano).

Galicia

Asturias CantabriaP. Vasco

Navarra

AragónCataluña

Valencia

Andalucía

Extremadura

Castilla-La Mancha

Castilla y León

Madrid

Portugal

Islas Canarias

Murcia

La Rioja

Islas Baleares

Mapa de la RedIRIS.

La Internet de las cosasInternet comenzó con la co-nexión de equipos informá-ticos especializados. Más adelante se pasó a conec-tar los ordenadores centrales con equipos de usuario y to-dos ellos entre si. Sin embar-go para los próximos años el factor dominante de la rápi-da evolución tecnológica va a

Page 59: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

58 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.3 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

El primer efecto de esta globalización es la posibilidad de disponer de plataformas integradas de servicios que, con pequeñas diferencias, serán útiles a cualquier usuario

Pronto estos dispositivos se harán más pequeños, consu-mirán menos energía y serán mucho más baratos y enton-ces Internet crecerá rápida-mente en cientos de miles de millones de nuevos agentes. Cada uno de esos pequeños agentes estará siempre co-nectado y recogiendo, trans-mitiéndo o gestionando la in-formación de forma inmediata. Gracias a esa información me-jorará la calidad de vida y se reducirán los costes en los ne-gocios, el transporte, la sa-lud o la energía, al poder pro-porcionar servicios a medida, muy ajustados a las necesida-des de cada usuario.

Donde primero se empieza a manifestar este cambio es en el terreno de la experimenta-ción. Los científicos disponen de dispositivos que, distribui-dos por el laboratorio o por el entorno que se desea inves-tigar, permiten obtener mu-cha más información que an-tes, mucho más completa y en mucho menos tiempo.

Los primeros campos donde se va a desarrollar la Internet de las cosas son en la experimen-tación de fenómenos naturales en entornos peligrosos (como zonas volcánicas) o en los que el observador puede alterar la observación con su presencia.

Un buen ejemplo de ello es el proyecto LifeWatch que con-

siste en una infraestructura tecnológica para obtener da-tos de biodiversidad conec-tando estaciones biológicas situadas en diferentes partes de Europa. Cada parque dis-pone de una red de senso-res que envían su información a través de redes inalámbri-cas a una estación que reco-ge y procesa todos los datos de manera que el biólogo tie-ne a su alcance toda la infor-mación en tiempo real y pue-de analizarla y compartirla con sus colaboradores, estén don-de estén.

No todos estos dispositivos entregarán directamente la in-formación para que pueda ser procesada por humanos. La verdadera revolución de la In-ternet de las cosas está en la comunicación máquina a má-quina. La forma de incremen-tar sensiblemente la eficiencia y ofrecer mejores oportunida-des es desarrollar la comu-nicación y el procesamiento de información entre máqui-nas, que gestionen informa-ción por sí solas sin interven-ción humana. De esa forma se podrá procesar mucha más in-formación y presentar al usua-rio final una información mu-cho más elaborada.

Un factor clave para conse-guir que el nuevo enjambre de dispositivos pueda acce-der a la Red es que cada uno pueda identificarse de un mo-

do único. El actual protoco-lo de Internet (IPv4) solo per-mite identificar 4.000 millones de elementos de red diferen-tes y todas esas identificacio-nes ya están asignadas o en proceso de asignación. Para hacer posible la Internet de la cosas es necesario disponer de muchos más identificado-res (direcciones IP). Por eso se desarrolló hace unos años un nuevo protocolo (IPv6) con el que es posible asignar trillo-nes de direcciones por perso-na. En total hasta 3,4 x 1038 di-recciones para todo Internet. IPv6 está totalmente operativo y todos los PCs lo incorporan desde hace años, pero al ser incompatible con el tradicional IPv4 su despliegue efectivo es todavía reducido. Se espera que con el agotamiento, cada vez más próximo, de las direc-ciones IPv4, se acelere su uso efectivo en los próximos años.

La Internet en la nubeEl aumento de las comunica-ciones de máquina a máquina, la introducción de sofisticados dispositivos móviles capaces de procesar mucha informa-ción, pero con poca o nula ca-pacidad de almacenamiento, y el aumento masivo del volu-men de datos a manipular han llevado a desarrollar el concep-to de virtualización de infraes-tructuras y servicios o com-putación en la nube (Cloud Computing). Consiste en des-plegar una infraestructura que

Page 60: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 59

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NUEVOS ESPACIOS DE LA INFORMACIÓN 03.3

permita almacenar, procesar y recuperar información des-de cualquier parte de Internet y que pueda valer para cualquier comunidad de usuarios.

El primer efecto de esta glo-balización es la posibilidad de disponer de plataformas inte-gradas de servicios que, con pequeñas diferencias, serán útiles a cualquier usuario. Un buen ejemplo es la experien-cia de Apple, que ha desple-gado una plataforma (Apple-Store) y un modelo de negocio para el que cualquier desarro-llador puede crear nuevos ser-vicios, creando un mercado único para todos los usuarios con independencia de su área de interés. Apple también ha dando lugar a una nube (iClo-ud) en la que los usuarios pue-den tener sus aplicaciones y contenidos.

La virtualización permite des-plegar una plataforma (una nu-be) específica y diferente para cada comunidad de usuarios, pero utilizando las mismas tec-nologías y compartiendo los mismos recursos básicos. Sur-ge un nuevo sector económico para proporcionar plataformas de servicios comunes a nume-rosas comunidades de usua-rios cuyo objetivo es optimizar globalmente el uso de recursos.

Además, este modelo permite ajustar mucho más el consu-mo y la demanda. Solo es ne-

cesario pagar por los recursos consumidos, en vez de por los recursos adquiridos, sean usados o no. Por ejemplo, en una red de supercomputación grid cada usuario reserva los recursos que necesita para su cálculo durante un periodo de tiempo. Después esos mis-mos recursos estarán dispo-nibles para usuarios de cual-quier otra organización.

La convergencia entre las tec-nologías web y la virtualización va a ser la base para idear la nueva generación de servicios para Internet, lo que se cono-ce como la Internet del futuro (FI). Será el medio para poder superar muchas de las barre-ras actuales. Por ejemplo, en la investigación médica los datos sanitarios solo pueden ser manipulados por profesio-nales del centro al que perte-necen los enfermos. También los datos sobre energía so-lo pueden ser empleados por las compañías eléctricas. En la Internet del futuro todos esos datos podrán ser reutilizados, con las debidas autorizacio-nes, en muchos otros contex-tos, generando un ecosistema de servicios en el que se acce-derá a un volumen inmenso de datos de forma ágil y persona-lizada para cada usuario.

Redes de alta capacidadEl modelo de computación en la nube se basa en la exis-tencia de redes de transporte

muy potentes con inteligencia de red avanzada y capacidad para compartir y extraer va-lores de los datos existentes. Gran parte de las comunica-ciones entre clientes y servi-dor, que ahora se llevan a ca-bo localmente en un domicilio o una empresa, van a conver-tirse en comunicaciones glo-bales con la nube.

El desarrollo tecnológico y el aumento en el uso de la Red reduce los costes de las co-municaciones y, en conse-cuencia, favorece el desarro-llo de nuevos servicios que utilizan cada vez más capaci-dad de la Red, lo que obliga de nuevo a los operadores de te-lecomunicaciones a aumen-tar la capacidad de sus redes troncales.

En 2006 se estimó que se intercambiaron 161.000 millo-nes de GigaBytes en Internet. En 2010 el tráfico se ha mul-tiplicado por seis, hasta los 988.000 millones de GigaB-ytes. Este ciclo constante de más capacidad, que genera nuevos servicios, que consu-men mas recursos, se ha ve-nido sucediendo durante dos décadas y no parece que va-ya a cambiar en los próximos años.

En España, cuando se creo RedIRIS (Red Académica y de Investigación Española) en 1988, la velocidad en cada en-

Gran parte de las comunicaciones entre clientes y servidor, que ahora se llevan a cabo localmente en un domicilio o una empresa, van a convertirse en comunicaciones globales con la nube

Page 61: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

60 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

03.3 NUEVOS ESPACIOS DE LA INFORMACIÓN |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

lace que componía la Red era de 9,6Kbps. En 2011, con la nueva RedIRIS-NOVA ca-da enlace de la Red permite, con la tecnología que se es-tá desplegando actualmen-te, decenas de canales a una velocidad de 10Gbps, lo que supone 80 millones de veces más rápida.

Para poder seguir creciendo en esta proporción es nece-sario utilizar la tecnología de fibra óptica, que se refiere al medio, y la tecnología aso-ciada a la transmisión de in-formación, como pulsos de luz a lo largo de un filamen-to de vidrio o de plástico o fi-bra. La fibra óptica transporta mucha más información que un cable convencional de co-bre, no está sujeta a interfe-rencias electromagnéticas y permite cubrir distancias mu-cho mayores sin necesidad de regenerar la señal, de ahí que desde hace años se utili-ce masivamente para las co-municaciones transcontinen-tales y que ya se empiece a utilizar en la conexión a Inter-net de cada domicilio (FTTH – fiber to the home).

La nueva generación de re-des ópticas está empezando a explotar realmente las capa-cidades de comunicación de los cables ópticos. Cada hi-lo de fibra soporta hasta 128 canales ópticos con las tec-nologías actuales, y cada ca-

nal óptico suele ser de hasta 10Gbps. Pero ya existen ca-nales de 40Gbps, 100Gbps y hasta 1.000Gbps. Ello supone que las posibilidades de creci-miento para el futuro son toda-vía mucho mayores.

ConclusiónEl entorno de las redes aca-démicas para la investigación y el aprendizaje va a experi-mentar un cambio profundo en los próximos años. La in-troducción de las nuevas tec-nologías de la Internet del futu-ro va a producir cambios en la naturaleza del proceso científi-co y en la forma de entender el aprendizaje.

Aunque no es posible cono-cer en detalle como se van a concretar esos cambios y no es descartable que aparez-can otras tecnologías. Ciertas áreas, como las relacionadas con los dispositivos móviles, los sensores o las redes de al-ta capacidad, van a ser sin du-da claves en la configuración del escenario que se perfila para la próxima década.

Los primeros demandantes de esas nuevas tecnologías son las grandes instituciones y proyectos científicos, como CERN, EGI, PRACE o ITER, que despliegan poderosos instrumentos científicos sobre los que trabajan miles de in-vestigadores distribuidos por todo el mundo. Esto ya exige

potentes redes de comunica-ciones para mover, almacenar y procesar enormes volúme-nes de datos.

En algún caso la Red va in-cluso a formar parte del ins-trumento científico, como en el proyecto eVLBI para la ob-servación de objetos celestes sincronizando gran número de radiotelescopios ubicados en distintas partes de la Tierra con un centro que se encuen-tra en Holanda (JIVE). En este proyecto, la red de datos es un elemento del instrumento vir-tual formado por la red de te-lescopios.

La Internet en general y las re-des académicas en particular han evolucionado desde un puro medio de transporte de datos a un entorno de comu-nidades globales que compar-ten recursos y objetivos.

La Internet del futuro va a per-mitir introducir nuevas formas de colaboración, va a ofre-cer muchas más posibilida-des a los investigadores, que van a poder disponer de más medios y más datos para sus investigaciones y van a te-ner mucha más facilidad para compartirlos con sus colegas en cualquier parte del mun-do. Las oportunidades que se ofrecen para el futuro son in-mensas y en muchos aspec-tos difíciles de imaginar en es-tos momentos.

El entorno de las redes académicas para la investigación y el aprendizaje va a experimentar un cambio profundo en los próximos años

Page 62: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

La Fundación BBVA tiene como objetivo central de su actividad el apoyo a la investigación científica de excelencia, la música, la creación artística y literaria y las humanidades. La ciencia, la tecnología, la música y el arte, así como su estudio académico en el marco de las disciplinas humanísticas, forman hoy un espacio continuo, convergiendo en el modelado de la cultura y la sensibilidad del presente.

La Fundación BBVA impulsa el conocimiento a través de programas propios, abarcando proyectos de investigación, formación avanzada, y difusión a la sociedad de los resultados de la investigación y la creación. Entre las áreas de atención preferente destacan el medio ambiente (biodiversidad, cambio climático), la biomedicina, las ciencias básicas y la tecnología, economía y sociedad, música clásica y contemporánea, literatura, artes plásticas y humanidades.

La Fundación BBVA reconoce también, a través de distintas familias de premios, las realizaciones de investigadores y artistas. Los Premios Fundación BBVA Fronteras del Conocimiento, desarrollados en colaboración con el CSIC y actualmente en su tercera edición, distinguen a escala internacional contribuciones particularmente sobresalientes, capaces de desplazar de manera significativa el ámbito de lo conocido en los ocho ámbitos siguientes: Ciencias Básicas (Física, Química, Matemáticas), Biomedicina, Ecología y Biología de la Conservación, Tecnologías de la Información y la Comunicación, Economía, Finanzas y Gestión de Empresas, Música Contemporánea, Cambio Climático, y Cooperación al Desarrollo.

Con esas actuaciones, la Fundación BBVA desarrolla un principio central del Grupo BBVA: trabajar por un futuro mejor para las personas, mediante el impulso continuo del conocimiento y la innovación.

www.fbbva.es

Ciencia y humanidades

Page 63: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

04Efectos sociales

de las tecnologías de la información

Page 64: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios
Page 65: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

64 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

04.1 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Las redes sociales se ca-racterizan por adap-tar de forma no exclusi-

va la navegabilidad de la Red a los contenidos vinculados a la lista de contactos socia-les declarados previamente. Su extensión a los dispositi-vos de comunicación móviles ha hecho del individuo conec�tado el centro de todo el sis-tema. Algunas de las conse-cuencias de este fenómeno son el consumo líquido o ins-

Los cambios culturales provocados por el software socialLas «redes sociales», entendidas aquí como social networking sites o aplicaciones sociales, han pasado a formar parte de la experiencia cotidiana de millones de personas en todo el mundo y están provocando profundos cambios culturales a escala global.

tantáneo de contenidos bre-ves y desechables como for-ma habitual de aprendizaje y acción, la supersocialización o la atención a crecientes flu-jos de requerimientos socia-les redundantes que requie-ren intervención del usuario y el aumento del potencial de movilización de comunidades instantáneas en tiempos de crisis. Por último, el concep-to de privacidad necesita ser repensado.

La expresión «redes socia-les» ha pasado en poco tiem-po a formar parte del lenguaje cotidiano en todos los idio-mas escritos del Planeta en su acepción de social networking sites, social software o social applications. Esto es así por la inmensa presión comercial ejercida por empresas y me-dios de comunicación en todo el mundo, una presión parale-la al desarrollo de tecnologías de comunicación móviles cen-

tradas en el consumidor indi-vidual.

La razón de esta monumental inversión es muy sencilla: me-diante esta tecnología «social» es posible aumentar el consu-mo de productos, contenidos y servicios (incluidos los pro-pios de la comunicación). Ni más ni menos. La retórica del «2.0», que ensalza la participa-ción decisiva de los otrora pa-sivos receptores, la horizonta-

José Luis Molina

EgoLab-Grafo y Universitat Autònoma de Barcelona

Page 66: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 65

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.1

José Luis Molina

Profesor titular de antropología social de la Universitat Autònoma de Barcelona y actualmente delegado del Vicerrector de Trasferencia Social y Cultural de es-ta universidad. Ha sido profesor invitado de la Universidad Nacional Autónoma de México (Laboratorio de Redes) y de la University of Florida (Departamento de Antropología). Experto en redes sociales, es el impulsor de la lista Redes (www.redes-sociales.net) y de la revista Hispana para el Análisis de Redes Sociales (http://revista-redes.rediris.es). Su campo de investigación es el estudio compa-rativo de las redes personales y de comunidades locales. Lidera el grupo de in-vestigación EgoLab-Grafo (www.egolab.cat). Forma parte del comité de ética de investigación animal y humana de la UAB y de la comisión de ética de la Interna-tional Network for Social Network Analysis.

José Luis Molina.

lidad de las comunicaciones y la emergencia de una llamada «inteligencia colectiva», con-tribuye a legitimar este nuevo avance del «capitalismo infor-macional» que diría Castells: la mercantilización de (al menos parte de) las relaciones socia-les. Las consecuencias cultu-rales son innegables.

Veamos cómo hemos llegado hasta aquí y qué nos depara el futuro próximo.

El estudio de las «redes socia-les», esto es, de los patrones de interacción entre personas o entidades tiene más de me-dio siglo de existencia. Psicó-logos, antropólogos, matemá-ticos, sociólogos, entre otros, recogieron sistemáticamente relaciones sociales e intenta-ron incorporarlas en sus mo-

delos analíticos para tratar de comprender y explicar mejor diversos problemas de investi-gación, como por ejemplo la di-fusión de ideas o conductas, la movilización colectiva o el apo-yo social, entre otros muchos. De todas estas contribuciones cabe destacar una que ha si-do clave para entender el de-sarrollo de estas plataformas y tecnologías: los estudios de Milgram y sus colaboradores sobre «Un Mundo Pequeño».

En 1967, Stanley Milgram se preguntaba cómo era posible encontrar tan frecuentemen-te conocidos en común entre personas desconocidas. Para ello partió de los estudios rea-lizados en el Massachusetts Institute of Technology (MIT) por Pool y Kochen, los cuales habían intentado estimar el ta-

maño medio de las redes per-sonales, el cual evaluaron en unas 500 personas. Así y to-do –se preguntaba Milgram–en un país de 200 millones de habitantes como Estados Uni-dos, ¿qué probabilidades rea-les había de que se produjese ese fenómeno? Con 680 dóla-res que le proporcionó la Uni-versidad de Harvard inició un experimento que ha pasado a ser universalmente famoso: hacer llegar un mensaje a un destinatario del cual solamen-te se conocen algunos datos a través exclusivamente de co�nocidos. Para ello eligió dos localidades alejadas en un pri-mer estudio exploratorio, Kan-sas y Cambridge (USA). En un segundo estudio más am-bicioso repitió el experimento en Boston y Nebraska. En este reclutó voluntarios con anun-

cios en prensa y les pidió que hiciesen llegar una carta a un desconocido corredor de bol-sa de Boston a través de sus cadenas de contactos. Es in-teresante señalar que 217 de las 296 personas de partida enviaron el documento y que 64 consiguieron su objetivo (un sorprendente 29%). Las cadenas de contactos que lo-graron llegar al destinatario te-nían una longitud media de 5,2 pasos. Por tanto, entre dos personas tomadas al azar era posible encontrar una cadena de contactos que las uniese con esa longitud media. De ahí la famosa expresión «6 grados de separación» (bueno, 5,2 de hecho). Sucesivos estudios confirmaron este hallazgo. Así pues, quedaba empíricamente demostrado el aforismo de «el mundo es un pañuelo».

Page 67: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

66 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

04.1 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Otra cuestión era qué estructu-ras sociales hacían posible es-te fenómeno. Duncan Watts re-tomó el problema en los años 90 y encontró una sencilla ex-plicación: aunque las estructu-ras sociales son básicamente locales y redundantes, exis-ten unas pocas personas, los hubs o brokers, que conectan esos subgrupos de forma que todo el sistema acaba tenien-do un diámetro muy pequeño (esto es, el camino más largo

entre dos puntos cualesquie-ra es muy corto). Estas perso-nas suelen ser de rango social elevado. De hecho, esta carac-terística de un mundo peque-ño no solamente es propia de los sistemas sociales sino de todos los sistemas complejos como las redes de ordenado-res, los sistemas neuronales, las citas científicas, los siste-mas de transporte, ecosiste-mas y un larguísimo etcétera. De ahí la expresión del físico

Barabasi y otros de la «Ciencia de las redes».

Pues bien, las primeras plata-formas de social networking se pusieron en marcha con el ob-jetivo de hacer visible las cade-nas de contactos que de otra forma quedaban ocultas y, de esta forma, aprovechar al máxi-mo el potencial de la red social. Dicho y hecho. El primer So�cial Networking Site (SNS) fue lanzado en 1997 con el sinto-

mático nombre de sixdegrees.com. Aunque este sitio tuvo pocos años de vida, a partir de ese momento los SNS fueron ganando terreno y extendién-dose por todo el mundo, espe-cialmente a partir del éxito inu-sitado de Facebook.

Y es que Facebook merece una atención especial. Lan-zado en 2004 para estudian-tes universitarios, en 2005 se abrió a un público más amplio

http://www.vincos.it/wp-content/uploads/2011/06/WMSN0611-1024.png Fuente: Google Trends for Websites/AlexaCréditos: Vicenzo Cosenza – www.vincos.it Licencia: CC-BY-NC

Facebook V Kontakte Odnoklassniki Draugiem Hyves Zing Mixi

Orkut QZone

/// Figura 1. Mapa mundial de las redes sociales (junio de 2011) ///////////////////////////////////////////////////////////////////////////////////

Page 68: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 67

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.1

y desde entonces no ha pa-rado de crecer, teniendo en la actualidad más de 800 mi-llones de usuarios. Facebo-ok se caracteriza por su ca-rácter generalista mientras que otros SNS se especializan profesionalmente (Linkedin, Xing, Visible Path, Academia) o por intereses compartidos. En cualquier caso el elemen-to clave de esta revolución cul-tural es la declaración de con�tactos asociados a un perfil individual como base de la na�vegabilidad en Internet. Así, esta característica se ha ex-portado a los sitios centra-dos en fotografías (Flickr), vi-deos (Youtube), Bookmarks (Delicious), música (Last.FM) o microblogs (Twitter). Los SNS se están implementando en universidades y corporacio-nes como parte de sus intra-nets y ya son parte del «nuevo sistema operativo social», si-guiendo la expresión del próxi-mo libro de Lee Rainie y Barry Well man, que caracteriza y ca-racterizará nuestras vidas en un futuro próximo. Veamos al-gunas de sus consecuencias.

Individualización de las tecnologías (y de la cultura)No hace mucho llamábamos por teléfono a un número o a un lugar. Recuerdo una confe-rencia de un representante de Telefónica hacia el año 1990 en una escuela de negocios, anunciando que en el futuro los números serían persona-

les. Los asistentes nos mira-mos con una sonrisa cómpli-ce de incredulidad. Hoy día, si nos enterrasen con ajuar, co-mo en la Prehistoria, sin duda pediríamos que nos enterra-sen con nuestro Smartphone. Estos dispositivos hacen de todo, incluso mantener con-versaciones orales en tiempo real (llamar por teléfono, va-ya). Y lo que es más importan-te, permiten la conexión con Internet o, lo que es lo mismo, la producción, el consumo y

la comunicación de conteni-dos siguiendo (aunque no ex-clusivamente) los contactos sociales.

Las consecuencias culturales son formidables: el individuo aparece como la entidad natu-ral sobre la que gira todo el sis-tema, la inmediatez del acce-so acostumbra a un consumo líquido, de usar y tirar, en tiem-po real de contenidos breves y ligeros; se refuerza la oralidad como elemento comunicati-

Ajuar de los enterramientos del futuro. / Autora: Maria Ángela Petrizzo.

Los recursos cognitivos disponibles para la socialización son limitados y se reparten entre las interacciones, de forma que a más tamaño de la Red le corresponde menos valor emocional disponible para cada contacto

Page 69: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

68 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

04.1 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

vo, uno de los elementos de la «supersocialización» que ve-remos más tarde y se delega en la tecnología la gestión de gran parte de las relaciones sociales.

El concepto de «individuo» es un lugar común en la cultura oc-cidental y el desarrollo del capi-talismo. Sin embargo, conviene recordar que la historia del Pla-neta es mucho más amplia que la de la globalización y que en multitud de sistemas culturales los individuos no eran entida-des per se, sino que las perso-nas formaban parte de grupos que les conferían parte de sus identidades sociales. Pero esta historia ha desaparecido o está próxima a desaparecer: el indi�viduo conectado (siguiendo de nuevo a Wellman) es el nuevo actor social por excelencia.

SupersocializaciónLos individuos conectados es-tán continuamente atentos a grandes flujos de información, atendiendo a normas de eti-queta cada vez más difíciles de satisfacer (como seguir a quien te sigue, o aceptar a quien te in-vita, o dejar un comentario inge-nioso a alguien que te ha citado en algún espacio) y revisando los mensajes que las compa-ñías emiten automáticamente para avisar de la disponibilidad de comunicaciones. El resul-tado es la supersocialización: la inversión de cada vez más tiempo en interacciones socia-

les redundantes. Igualmente, la cultura de la inmediatez lleva a usar la conversación telefónica como mecanismo de coordina-ción de lo que en otro momen-to sería simplemente respetar la puntualidad. Esta neoorali-dad explica el éxito de la tele-fonía celular en todo el mundo pues se aproxima a un com-portamiento natural como es el habla, pero digitalizada, trans-formada y reconstruida a tra-vés de complejas infraestruc-turas de comunicaciones. No es de extrañar que el mercado más importante de los teléfo-nos celulares sea precisamente el de las personas analfabetas. Ahora bien, lo que antes conte-nía la carta, o el telegrama, aho-ra se puede hacer oralmente y en tiempo real. Y con una dife-rencia muy importante: las car-tas y los telegramas no exigen dedicar al menos un 30% del tiempo de la interacción a inter-cambiar educadamente infor-maciones sobre la situación de cada uno y los suyos.

Ahora bien, esta supersocia-lización no significa que haya cambiado de manera significa-tiva la estructura de las redes personales. Las redes perso-nales tienen dos grandes ca-racterísticas relacionadas. La primera es que se configuran con un núcleo de lazos fuertes, entre 5 y 15 aproximadamente, que cambia poco con el tiem-po, y una periferia muy variable de lazos débiles, que cambia

más rápidamente. La segunda es que la localización geográfi-ca de esos contactos es glocal, es decir, una mayoría viven cer-ca y un número reducido de los contactos activos puede es-tar disperso por todo el mun-do. Con la supersocialización aumentan rápidamente los la-zos débiles pero no la estructu-ra centro-periferia comentada ni la distribución geográfica de los contactos activos. Esto es así por dos razones. La primera es porque los recursos cogniti-vos disponibles para la sociali-zación son limitados y se repar-ten entre las interacciones, de forma que a más tamaño de la Red le corresponde menos va-lor emocional disponible para cada contacto. Dicho de otro modo: disponer de un «millón de amigos» en Facebook im-plica que cada «amigo» tiene asignado un valor emocional cero (o algo muy próximo a ce-ro). La segunda consiste en el hecho de que los SNS (incluso Twitter) suelen hacer más den-sa la comunicación entre redes sociales preexistentes (sin ce-rrarse a nuevos contactos), por lo que el fenómeno de la gloca-lidad se repite.

Esto nos lleva a la tercera ca-racterística: las posibilidades de movilización.

MovilizaciónLa desafortunada denomina-ción «Primavera Árabe» (una traslación de la «Primavera

El éxito de la telefonía celular en todo el mundo se aproxima a un comportamiento natural como es el habla, pero digitalizada, transformada y reconstruida a través de complejas infraestructuras de comunicaciones

Page 70: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 69

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.1

de Praga») para referirse a los movimientos revolucionarios experimentados en los esta-dos árabes en el 2011 se aso-cia a Twitter y a los smartpho�nes: los activistas informaban en tiempo real de los aconteci-mientos haciendo competen-cia a la propaganda de cada régimen emitida por los me-dios de comunicación con-vencionales. El fenómeno no es nuevo y no se explica sola-mente por la disponibilidad de telecomunicaciones perso-nales en tiempo real, aunque hay que reconocer que las fa-cilitan: la reducción de la dis-tancia social y de los umbrales de movilización espontánea en momentos de crisis.

El estudio del BIFI de la Univer-sidad de Zaragoza sobre el in-tercambio de mensajes en el movimiento del 15-M (15m.bifi.es) pone de manifiesto la dinámica que se produce en estos fenómenos. En momen-tos de crisis los contactos dé-biles dejan pasar tanta infor-mación y credibilidad como lo hacen los contactos fuer-tes en circunstancias norma-les, emerge un sentimiento de solidaridad colectiva temporal y aumenta el número de co-nocidos de cada persona que manifiestan una conducta de-terminada (como, por ejemplo, acampar en la Puerta del Sol de Madrid) con lo que se pre-cipita, por influencia social, la adopción de esta nueva con-

ducta en cascada. Aunque es-te fenómeno es bien conocido (de hecho es el fenómeno que se produce en una multitud), el uso de estas tecnologías so-ciales lo acelera. No es de ex-trañar que en países tan im-portantes como China, Twitter no sea operativo y que los Go-biernos se interesen por con-trolar los mensajes de Black-berry entre otros operadores.

Y esto nos lleva al tema final: la redefinición del concepto de privacidad.

Privacidad Los Estados han recogido his-tóricamente información sobre sus pobladores. Aunque el se-creto estadístico apareció en España en fecha tan temprana como el siglo XVIII con el Cen-so de Floridablanca, podemos

decir que de forma sistemática los datos recogidos por los es-tados han acabado en empre-sas que han usado esta infor-mación de forma comercial, ya sea por procesos de privatiza-ción, triquiñuelas legales, des-cuidos, simple robo u otros. Pues bien, con la irrupción de Internet y de las tecnologías sociales podemos decir que el proceso se ha invertido: son las empresas comerciales las que disponen de toda nuestra vi-da registrada. La posición geo-gráfica en cada momento que emite nuestro celular, el con-tenido de los mensajes, la ho-ra exacta, los destinatarios con los que estamos conectados, las conversaciones privadas, en fin, todo. Y lo más importan-te, de forma voluntaria. En es-tas circunstancias hay autores que sugieren que la única so-lución es hacerlo todo público, renunciar a la privacidad, como el mecanismo más eficiente para evitar la comercialización de la información personal. Pe-ro quizás lo más importante no es la accesibilidad a la informa-ción personal sino las tecnolo-gías que la hacen significativa. Y esas tecnologías hace tiem-po que están disponibles.

Hace falta una nueva cultura de la información que nos per-mita navegar en este océano para el que sin duda ya no sir-ven las viejas cartas marinas que nos enseñaron nuestros mayores.

Egipto, abril 2011. / Foto: cedida por el autor.

Page 71: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

70 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

04.2 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

El nuevo artesanadoLa Revolución Industrial afec-tó profunda y ampliamente al trabajador artesano. La indus-tria le despojó, con el maqui-nismo, de sus medios de pro-ducción; también de su lugar, pues el trabajo ya no se hacía en el hogar sino en una nave industrial; y de su tiempo, que dejó de ser flexible y organiza-do por el propio trabajador se-gún las tareas pendientes, pa-

La recuperación de prácticas sociales en la Red

El mundo digital, virtual, especular y reticular que comienza a habitar entre nosotros muestra, entre otros interesantes fenómenos, la tendencia a recuperar y reinterpretar actividades que podrían parecer ajenas a un mundo tecnológico. El autor señala cinco aspectos que reflejan esta migración insospechada al espacio digital.

ra convertirse en un horario impuesto y uniforme.

Cuando este despojo parecía irreversible, el mundo digital abre una corriente contraria: cada vez hay más posibilida-des para que se establezcan nuevos artesanos. Sus medios ya no serán el torno, el yunque o el banco, sino un artefacto electrónico, un computador, con el que se pueden realizar

muchas tareas, además de hacer al trabajador, por la Red, ubicuo. Así que también recu-pera su lugar, ya que no nece-sita ir a un local, sino estar en la Red, y la Red es un espacio sin lugares (ese es el gran fe-nómeno de un mundo en red) en el que, por tanto, se dan las propiedades de la ubicuidad y la deslocalización. Y, por úl-timo, liberado de tener que ir no tiene entonces que llegar a

una hora y estar un tiempo: el tiempo vuelve a ser blando, sin la rigidez del horario, acomo-dable a la voluntad del traba-jador y a las tareas que asuma.

Estos nuevos artesanos no trabajan con la arcilla, el hierro, la madera o el cuero, sino con la información. Todas las acti-vidades que tengan como ma-teria prima la información son susceptibles de este cambio.

Antonio Rodríguez de las Heras

Universidad Carlos III de Madrid

Page 72: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 71

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.2

Antonio Rodríguez de las Heras

Catedrático y director del Instituto de Cultura y Tecnología de la Universidad Car-los III de Madrid, en la que ha sido Decano de la Facultad de Humanidades, Co-municación y Documentación. Sus estudios se centran en las transformaciones que la tecnología produce en la cultura y en la educación. Ha dirigido el Labora-torio EducaRed de Formación Avanzada. Profesor en la Sorbona y en Paris VIII-Saint Denis. Premio Fundesco de Ensayo con el ljbro Navegar por la información. Sus publicaciones disponibles en la Red están en www.rodriguezdelasheras.es. twitter.com/ARdelasH.

Antonio Rodríguez de las Heras.

Esta resaca posindustrial se intensificará posiblemente en los próximos años como con-secuencia de la trastornado-ra crisis económica. Se está produciendo, por la necesi-dad, un significativo cambio en la mentalidad de las socie-dades hasta ahora privilegia-das: los jóvenes ya no aspi-ran como el más satisfactorio remate de sus estudios a in-gresar en una gran empresa o en una administración públi-ca, pues la vulnerabilidad de estos empleos es cada vez más elevada. Por otro lado, pero amplificando este cam-bio de aprecio, poco a poco van brotando en las nuevas generaciones otros valores, como el del tiempo, y no sólo el del dinero, que no se com-paginan con la alienación que produce el trabajo por cuenta ajena en un sistema capitalis-ta insaciable.

Hasta ahora, el nada apeteci-ble trabajo freelance, se veía como una opción para cuan-do no había otro remedio, y en general no era valorado socialmente. Hoy, en este es-cenario de devastación de lo establecido que presenta la crisis, nuevas formas profe-sionales, nuevas actividades, nuevas relaciones laborales, nuevos modelos de negocio se están gestando. Lo que hasta estos años críticos se interpretaba como un traba-jo precario perderá esa consi-deración, pero no por confor-mismo fatalista, sino por otros valores, y porque este espa-cio sin lugares que es la Red permite formas nuevas im-practicables en nuestro espa-cio natural.

Modelos de negocio insoste-nibles con una plantilla fija, con unos locales para albergarla,

tendrán viabilidad si encuen-tran la proporción adecuada entre su presencia de este la-do y del otro de la pantalla, en-tre los empleados en las tareas in situ y los nuevos artesanos deslocalizados en la Red.

La conciencia de pertenencia al sistema capitalista y su vi-sión cambiarán por otras pers-pectivas y experiencias que dará esta nueva organización de las relaciones laborales. Así que un profundo e impre-visible cambio social subyace bajo esta transformación que trae el mundo en red.

Internet va por barriosLa Red es un mundo virtual, y por ser virtual es también es-pecular; es decir, nos refleja-mos en ese mundo como si fuera un espejo. Es un espe-jo borroso, aún las imágenes son muy imprecisas, pero el proceso hacia la nitidez es im-parable.

Muchas personas se inquietan ante esta característica de la Red. Les parece que amena-za su intimidad, ven este tras-vase de datos digitales sobre su identidad y sus actividades como la amenaza de un totali-tarismo orwelliano. Pero es in-evitable: vamos dejando rastro en la Red, ya no de huellas ni de células muertas con nues-tro ADN, sino de ceros y unos. Estas trazas no implican so-lo la utilización maligna de un

Hoy, en este escenario de devastación de lo establecido que presenta la crisis, nuevas formas profesionales, nuevas actividades, nuevas relaciones laborales, nuevos modelos de negocio se están gestando

Page 73: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

72 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

04.2 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Gran Hermano; con ellas se puede construir un perfil.

Se recurre con frecuencia a la metáfora de la megalópolis pa-ra hacer ver la Red, lo que hay al otro lado de la pantalla. Es-ta representación de algo tan abstracto es útil también para entender la función que tiene el hecho de que se evolucione hacia un espejo cada vez más nítido en el que se pueda reco-nocer nuestra imagen. Cuan-do se llega a una gran ciudad la impresión envolvente es de exceso y de desorientación:

hay demasiadas cosas, de-masiados estímulos. Nos sen-tiremos bien instalados en ella, ciudadanos y no sólo visitan-tes, cuando hayamos contor-neado nuestro barrio. En el barrio, un espacio cotidiano y humanizado abierto a la totali-dad de la gran ciudad, vamos a las tiendas que conocemos, y en ellas nos conocen, nos cruzamos con personas que volvemos a ver, hay vecindad, hay saludos... Cuando deja-mos este espacio abierto, pe-ro próximo, nos engulle la gran ciudad.

mo un barrio en donde cono-cemos y nos conocen, donde sabemos en qué sitio están las cosas, y éstas se encuentran próximas, sin tener que de-pender de un taxi. No por ello estamos encerrados, ni nues-tro mundo urbano es limita-do: toda la megalópolis está a nuestro alcance.

La evolución de la Red en los próximos años se medirá, en-tre otras características, por su especularidad. La panta-lla se parecerá más a un espe-jo de azogue. Veremos nues-tra imagen fiel al otro lado de la pantalla. Esto permitirá que al ser reconocidos nos envuel-va el entorno que nos convie-ne, el que necesitamos. Nos sentiremos así en un barrio, el nuestro, de la gran ciudad. Y esto no será óbice para que preservemos nuestra intimi-dad, como ahora lo hacemos, en los momentos que consi-deremos oportunos. El barrio no habrá desaparecido en el mundo digital.

Pero ahora esta evolución per-turba. Mantenemos aún frente al espacio digital los escrúpu-los y el recelo propios de un lu-gar al que acabamos de llegar; no lo controlamos aún y todo se nos presenta amenazador. Creamos fantasmas.

Bajar a la plazaEn el espacio urbano la plaza ha sido desde sus orígenes lugar

Cúpula del British Museum de Londres. / Foto: Antonio Rodríguez de las Heras.

Igual sucede en la Red. Es de-masiado grande. Google es una compañía de taxis que nos conduce a cualquier pun-to de la urbe. Dependemos de estos taxis como el recién lle-gado, e incluso no podemos evitar cierta desconfianza de si nos lleva por el camino co-rrecto. Después de unos años en que el papel de un busca-dor como el de Google ha re-sultado imprescindible, es ya el momento de sentirnos más cómodos y mejor integrados en la Red: se tiene que hacer a nuestra medida, ofrecerse co-

Page 74: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 73

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.2

de encuentro, de intercambio y de comunicación. La invasión de las calles por el automóvil y la invasión de los hogares por la información audiovisual contra-jeron la afluencia a la plaza, que se convirtió en lugar de paso, sin las funciones de antes.

Con el mundo digital se ha realizado una operación ur-banística virtual extraordina-riamente sugerente. Se han demolido estrechas calles por donde sólo se podía pasar (sería la Web 1.0) y ha apare-cido una amplia plaza. La gra-ta sorpresa es que la gente ha comenzado a ir a esta plaza, hasta alcanzar la efervescen-cia y vitalidad de las plazas de antaño. Se forman incon-tables corrillos en los que se habla de lo divino y de lo hu-mano. Se puede observar el comportamiento de los corri-llos, que, como si fueran re-molinos, continuamente se dividen, se agrupan, crecen, menguan...

Quienes poseen los espacios cerrados en donde se habla desde el púlpito, la tribuna, la cátedra, el escenario, miran con recelo esta efervescencia de la plaza. Dicen que de ahí sólo brota trivialidad y ruido. Pero lo que desprecian como ruido es rumor. Y en ocasiones ese rumor se hace inteligible: es el fenómeno de la emergen-cia; lo que brota de abajo y no se dicta, por tanto, desde arri-

ba, desde la tribuna, la cáte-dra, el púlpito, el escenario...

Las redes sociales están mos-trando la fuerza transformado-ra que tiene en la Red lo pe-queño y abierto frente a lo grande y cerrado, las nuevas posibilidades de recuperar la comunicación en una socie-dad conformada hasta ahora por unos medios destinados a la información de masas.

Estamos sólo al comienzo de este fenómeno. Pasados las desconfianzas y los despre-cios, superado el desconoci-miento que los soporta, una po-derosa forma de comunicación mediada por la tecnología abrirá una época de transformaciones quizá mayor (eso sería lo con-veniente) que las que abrieron otras mediaciones técnicas co-mo la imprenta y lo audiovisual.

Entre la oralidad y la escri-turaHace unos años se discutía si el soporte digital favorecería más a la cultura escrita o a la audiovisual. Ambas se dispu-taban la hegemonía; una por secular, y hasta entonces do-minante; y otra por expansiva y atrayente. Para la escritura, el soporte digital proporcio-naba capacidades imposibles sobre papel; pero a la hora de la lectura la necesidad de un artefacto con una pantalla electrónica, en vez de un libro códice, dificultaba su acepta-

ción. En cambio, para la co-municación audiovisual la pan-talla era su espacio propio. El empeño por encontrar un ar-tefacto de lectura ergonómico ha dado su fruto y ahora tan-to una cultura como la otra tie-nen su oportunidad en la Red.

Pues bien, cuando parecía que todo iba a seguir como hasta ahora, pero con más potencia, es decir, la cultura impresa y la audiovisual repartiéndose pre-sencia e influencia en la socie-dad tecnológica, la oralidad reaparece. La cultura oral fue reducida por la hegemonía de la escrita, que se impuso como cultura superior; pero con la di-gitalidad tiene una interesante reinterpretación.

La oralidad supone un aquí y un ahora. Es decir, coinciden-cia en un lugar y en un mo-mento. La escritura tiene dos lugares (el del escritor y el del lector) y dos momentos (cuan-do se escribe y cuando se lee), por tanto hay un allí (distancia) y un entonces (asincronía). Su-cede lo mismo si es un regis-tro audiovisual. Además en la comunicación audiovisual se puede dar, y decimos enton-ces que es en directo, un allí y un ahora; en este caso, emi-sor y receptor no se encuen-tran en un mismo lugar, pero sí están en el mismo momento.

En una red social, en esta nue-va plaza, en los corrillos que se

La Red es un mundo virtual, y por ser virtual es también especular; es decir, nos reflejamos en ese mundo como si fuera un espejo

Page 75: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

74 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

04.2 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

forman se da una comunicación que ya no es allí (dos lugares) ni aquí (coincidencia), sino ahí. La especularidad del espacio digi-tal coloca una imagen nuestra al otro lado de la pantalla, y ahí se encuentra con las imágenes especulares de otras personas. Por tanto, dos personas no es-tán en los extremos de un ca-nal de comunicación, sino que se encuentran dentro de un es-pacio de comunicación, el digi-tal, merced al desdoblamiento que el espejo produce.

En cuanto a la coincidencia o no temporal, es interesan-te observar que en la red so-cial no se da ni el entonces ni el ahora, sino el ahora dilatado. Lo que se habla en un corrillo no es tan efímero como en una conversación oral, pero tam-poco persiste como sobre el papel, el celuloide o la cinta magnética: dura unas horas, pocas, y se desvanece igual que la palabra en el aire.

No se podría adelantar hace pocos años que con un sopor-te tan resistente como el digital se optara por una comunica-ción tan poco persistente, casi como la oral. Y esto es lo que hace que la evolución de la di-gitalidad, entendida como es-ta forma nueva de comunica-ción, resulte tan interesante de observar.

En las redes sociales, hay una comunicación que se aproxima

más a la oralidad que a la escri-tura, por lo que prácticas pro-pias de la comunicación oral se están recuperando y reinter-pretando en el espacio digital.

El arte de la memoriaAntes de la imprenta, un méto-do mnemotécnico tuvo un de-sarrollo importantísimo. El ar-te de la memoria se basaba en saber crear imágenes y lugares para colocar en sus detalles las palabras. Figuras, edificios, in-cluso ciudades, y luego figuras geométricas y sus combina-ciones y rotaciones absorbían las palabras y las contenían en sus elementos. Al recorrer con la vista o con la imagina-ción estas imágenes y lugares brotaban de nuevo las pala-bras. El método se basaba en la fuerza de retención que tie-nen las imágenes y los lugares en nuestra memoria. Por tanto, las palabras, mucho más difí-ciles de retener, se refugiaban contra el olvido bajo los deta-lles de las imágenes y lugares imaginados.

Esta práctica mnemotécni-ca pierde utilidad con la llega-da del libro impreso y la abun-dancia de papel para retener las palabras. Parecía que con-tinuaría entonces tan solo co-mo objeto de estudio de es-pecialistas. Pero la digitalidad recupera el arte de la memoria.

La escritura ha migrado del papel al soporte digital. To-

do el patrimonio libresco es-tará sobre el nuevo soporte, y ya se publica para una lec-tura en un artefacto electróni-co y no en un libro códice. Sin embargo, se sigue escribien-do como si se hiciera sobre papel y para ser leído en la pá-gina de un libro. Hemos acep-tado el nuevo soporte, pero no nos hemos desprendido aún plenamente de las dos dimen-siones de la hoja ni compren-dido que en el soporte digital la escritura es en tres dimensio-nes. Por consiguiente, la escri-tura supone también plegar el texto (hipertexto) y no sólo ex-tenderlo por la superficie de la hoja. Y si pliego hábilmen-te un texto se crea como en el papel, por el arte de la papiro-flexia, una figura. Debajo de los detalles de esa imagen es-tarán las palabras, igual que en el arte de la memoria. El saber plegar un texto bajo los ele-mentos de una imagen, crear, por tanto, la imagen oportuna para que contenga el texto es una práctica de escritura nue-va muy atractiva, pues explo-ra los caminos por donde irá la escritura y la lectura cuando ya no se hacen sobre el papel. El arte de la memoria secular y abandonado puede tomar ahora el nombre de nemóti-ca. Se reinterpreta así ante las nuevas instancias y las nuevas posibilidades que abre el mun-do digital. Estamos en los ini-cios, pero es una llamada irre-sistible a la creatividad.

Las redes sociales están mostrando la fuerza transformadora que tiene en la Red lo pequeño y abierto frente a lo grande y cerrado

Page 76: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 75

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.3

La aceptación y el uso masivo de la telefonía móvil, las redes socia­

les y las tecnologías cola­borativas propias de la Web 2.0 han facilitado, en los úl­timos años, el surgimien­to de formas participativas y descentralizadas de ges­tión de las crisis y emergen­cias derivadas de catástro­fes naturales, conflictos o guerras abiertas. Con ello se abren vías inéditas a la participación ciudadana y, de este modo, nuevos ac­tores se incorporan a la

Móviles, mapas, satélites y redes sociales: gestión de crisis 2.0

La Web 2.0 ha propiciado la participación de los ciudadanos en la gestión de las crisis y emergencias. La colaboración entre voluntarios on line y organizaciones humanitarias es cada vez más frecuente.

escena, sumando sus es­fuerzos a los de las organi­zaciones públicas y priva­das dedicadas a responder a emergencias o proporcio­nar ayuda humanitaria. Se trata—y utilizo aquí la eti­queta al uso– del nuevo pa­radigma denominado «gestión de crisis 2.0». Un ejemplo, en este sentido, lo proporciona el terremoto de Haití de ene­ro de 2010: pocas horas des­pués del seísmo, algunos es­tudiantes de la Universidad de Tufts en Boston instalaron en uno de sus servidores la plata­

forma de código abierto Ush­ahidi (un software desarrollado por primera vez en Kenia) pa­ra localizar en un mapa on line los informes que ciudadanos afectados por el desastre en­viaban por medio de SMS a un número corto establecido para la emergencia. La mayoría de mensajes recibidos estaban escritos en francés criollo y, antes de aparecer en el mapa –creado simultáneamente por voluntarios de OpenStreet­Map–, eran traducidos al in­glés por hablantes de aquella lengua, también voluntarios,

distribuidos por todo el mun­do. En consecuencia, los equi­pos de primeros auxilios y las organizaciones humanitarias que operaban sobre el terreno tenían acceso a peticiones de ayuda casi en tiempo real, pro­porcionadas por los propios afectados e inmediatamente traducidas y localizadas en un mapa por centenares de vo­luntarios. Tras Haití vino el te­rremoto de Chile, después los incendios de Rusia en el vera­no de 2010 y posteriormente el desastre nuclear en Japón. En todos estos casos volunta­

Marta Poblet

Universitat Autònoma de Barcelona

Page 77: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

76 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

04.3 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

(e.g. Sahana, Tomnod, etc.), ha impulsado a su vez el desarro­llo de un nuevo dominio marca­damente pluridisciplinar: el de­nominado crisis mapping. De forma aproximativa, el crisis mapping o mapeo de crisis con­siste en un conjunto organizado de tareas relacionadas con la búsqueda, agregación, geolo­calización y análisis de informa­ción o de datos procedentes de fuentes múltiples: tecnologías móviles, redes sociales, medios de comunicación, organismos oficiales, etc. ¿Qué caracterís­ticas definen el crisis mapping? ¿Qué ventajas ofrece y cuáles

2.0, no hay duda de que es­tas han alentado el fenóme­no del crowdsourcing. Hoy en día los aficionados a la astro­nomía pueden colaborar con los científicos en la identifica­ción y clasificación de galaxias (www.galaxyzoo.org) y los en­tusiastas de los juegos con­tribuir a descifrar la estructura completa de una proteína del virus del SIDA (http://fold.it), por citar ejemplos conocidos. En el caso que nos ocupa, las distintas tareas del crisis map�map�ping pueden distribuirse entre individuos o grupos de volun­tarios diversos: unos monito­rizan fuentes de información, otros se ocupan de digitalizar mapas, buscar coordenadas o proyectar distintas capas de información en dichos mapas. Además, y en función del even­to, emergencia, crisis o conflic­to que es objeto de mapeo, re­sulta igualmente esencial la tarea de extracción de estadís­ticas, patrones o datos elabo­

son los riesgos y límites? ¿Qué efectos ha tenido o puede tener en un futuro? Trataré de dar al­gunas respuestas orientativas a continuación.

Características del crisis mappingColaboración descentraliza�da en red: el crisis mapping se basa en el principio del crowdsourcing. La noción de crowdsourcing fue acuñada por Howe en 2006 para des­cribir la división de un con­junto de tareas o microtareas entre un grupo generalmen­te amplio e indefinido de per­sonas que acuden a la convo­catoria (abierta o limitada). Las distintas versiones de la Wi�kipedia constituyen un ejem­plo paradigmático de crowd�sourcing en la Red. Y, si bien es cierto que el crowdsourcing como principio o método exis­tía antes de la aparición de In­ternet y la posterior irrupción de las tecnologías de la Web

Marta Poblet

Directora del Instituto de Derecho y Tecnología de la Universidad Autónoma de Barcelona, Investigadora ICREA, coordinadora de equipos de Standby Task For­ce (SBTF) y miembro de la red internacional de Crisis Mappers. Es Doctora en Derecho por la Universidad de Stanford (2002) y Master en International Legal Studies por la misma universidad (2000).

Es profesora del Máster Internacional en Resolución de Conflictos de la Univer­sitat Oberta de Catalunya (UOC). Sus ámbitos de investigación son las tecno­logías aplicadas al derecho, los sistemas judiciales y la gestión y resolución de conflictos y tiene más de 30 publicaciones internacionales en estos dominios. Asimismo, es consultora de proyectos internacionales relacionados con la tec­nología y el derecho.

Marta Poblet.

rios on line, plataformas y ma­pas se pusieron al servicio de quienes coordinaban la res­puesta.

En tan solo dos años, el soft­ware de Ushahidi en sus dis­tintas versiones ha sido utiliza­do ya en miles de ocasiones para hacer frente a las situacio­nes más variadas: terremotos, incendios, vertidos tóxicos, tor­mentas de nieve, inundaciones, observación de procesos elec­torales, violaciones de derechos humanos, etc. Tal profusión de iniciativas, basadas en estas y otras herramientas de software

Page 78: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 77

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.3

rados que den valor añadido a los procesos de agregación anteriores. En el Libya Crisis Map, el mapa auspiciado por la Oficina de Naciones Unidas para la Coordinación de Asun­tos Humanitarios (UNOCHA) para dar soporte a las opera­ciones de ayuda humanitaria en el citado país, un equipo de analistas del grupo de volun­tarios de Standby Task Force (SBTF) se encargó de producir informes sucesivos que sinteti­zaban patrones de eventos, ti­pos de emergencias, áreas más afectadas por la violencia, etc. Asimismo, hay que tener en cuenta que el crowdsour�cing se produce en dos niveles distintos, esto es, en el origen de la información que se pro­cesa (SMS o correos electróni­cos, noticias de medios de co­municación, posts en Twitter o Facebook, videos de Youtube, fotos en Flickr, etc.) y también en la distribución de las tareas que este procesamiento de in­formación desencadena.

Procesamiento de informa�ción a tiempo real. Las redes sociales se caracterizan por la inmediatez de los conteni­dos que los usuarios produ­cen, y ese mismo rasgo pue­de trasladarse al mapping on line de crisis y conflictos. Inclu­so cuando, a consecuencia de un desastre de origen natural, o como resultado de la censu­ra impuesta por un Estado, In­ternet deja de estar disponible,

los teléfonos fijos, las radios lo­cales y los SMS (las redes de telefonía móvil –y, en particular, la funcionalidad de los mensa­jes cortos– suelen restablecer­se antes que Internet) pueden tener un papel decisivo en el procesamiento rápido de la in­formación. Cuando el régimen de Mubarak, en Egipto, decidió bloquear Internet y las redes móviles, el servicio Speak­to­Twitter, diseñado conjuntamen­te por los ingenieros de Google y Twitter, ponía a disposición de los usuarios de telefonía fija la grabación de mensajes de voz para su inmediata transcripción en Twitter.

Crowdfeeding. Los princi­pales destinatarios de la in­formación agregada y pos­teriormente categorizada en los procedimientos de crisis map ping suelen ser las or­ganizaciones que solicita­ron directamente su activa­ción (UNOCHA en el caso de Libia, el Science for Humans Rights Program de Amnistía Internacional USA en el ca­so de Siria, etc.). Sin embar­go, los mapas de crisis tienen a veces la capacidad de co­nectar a los ciudadanos con los propios ciudadanos. La posibilidad de facilitar dicha conexión es tanto más valio­sa cuando a menudo quienes ofrecen los primeros auxi­lios a las víctimas en una si­tuación de crisis son otros ciudadanos, especialmen­

te cuando las organizacio­nes que operan sobre el te­rreno se ven desbordadas. Los mapas de crisis, en defi­nitiva, no sólo pueden ayudar a establecer estas conexio­nes sino que además amplían el mismo concepto de vecin­dad: quienes escuchan y lo­calizan los mensajes de ayu­da pueden no ser los vecinos del barrio, pero puede ser una comunidad de vecinos digita­les. Patrick Meier –cofunda­dor de la red internacional de Crisis Mappers– denomina crowdfeeding a esta capaci­dad de vecindad on line que ofrecen algunas instancias de crisis mapping.

Ventajas, riesgos y límitesLa integración de tecnologías que supone la gestión de de­sastres 2.0 y el crisis mapping en particular ofrece sin duda al­gunas ventajas evidentes. Las más destacadas son: (i) la in­mediatez; (ii) la continuidad en las tareas –si los voluntarios que participan en la iniciativa traba­jan en distintas zonas horarias del planeta los mapas registran actividad sin interrupción duran­te las veinticuatro horas del día y siete días por semana– y (iii) la flexibilidad en los protocolos, puesto que las tareas se distri­buyen y evolucionan en función de la dinámica y las necesida­des de la situación (o, dicho de otro modo, los mapas de crisis evolucionan con la propia crisis). La visualización de la informa­

Las redes sociales se caracterizan por la inmediatez de los contenidos que los usuarios producen, y ese mismo rasgo puede trasladarse al mapping on line de crisis y conflictos

Page 79: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

78 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

04.3 EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

ción agregada, además, puede permitir la detección de patro­nes que, aunque sólo consti­tuyan indicios, susciten nuevos análisis a emprender o hipótesis de trabajo a verificar.

A pesar de todo ello, la ex­periencia acumulada en el mapeo de crisis sugiere que existen, como mínimo, tres ámbitos que conllevan algu­nos riesgos a tener en cuenta.

En primer lugar, la necesidad de establecer mecanismos estandarizados de verifica­ción de la información que se recoge, se agrega y se publica en un mapa: ¿es posible verifi­car toda la información que se extrae de las redes sociales? ¿Pueden considerarse distin­tos niveles de fiabilidad? ¿Có­mo ha de intentar verificarse dicha información en cada ni­vel? ¿Cómo distinguir, en de­

finitiva, la información veraz del rumor, la propaganda o la desinformación? Si bien es cierto que los grupos y orga­nizaciones que se dedican al crisis mapping están conside­rando la elaboración de están­dares comunes, la verificación de los informes ha sido has­ta ahora una tarea ad hoc en cada iniciativa, con protoco­los distintos en cada caso y sujeta al debate y a la discu­sión en foros y conferencias. El segundo aspecto a consi­derar es la calidad de la infor­mación que se procesa. Aquí se plantean cuestiones del ti­po: ¿cómo disminuir el ruido o la redundancia? ¿Cómo fil­trar, de entre la multiplicidad de flujos informativos, lo que constituye información rele­vante para los destinatarios o usuarios finales de un mapa? Aunque ya hay herramientas de software que permiten fil­trar la información –e.g. Swif­triver– los filtros actuales son el resultado de la monitoriza­ción manual de las fuentes, ya que son los propios volunta­rios quienes acaban por iden­tificar, a partir de la experien­cia adquirida, los contenidos más relevantes.

Finalmente, hay que destacar los aspectos éticos, de priva­cidad y seguridad asociados a las prácticas de crisis map�ping. Es importante distinguir aquí entre las crisis que se de­rivan de catástrofes natura­El Libya Crisis Map fue auspiciado por la Oficina de Naciones Unidas para la Coordinación de Asuntos Humanitarios (UNOCHA).

Es necesario establecer mecanismos estandarizados de verificación de la información que se recoge

Page 80: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 79

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| EFECTOS SOCIALES DE LAS TECNOLOGÍAS DE LA INFORMACIÓN 04.3

les y las que son el resultado de la violencia o los conflictos armados. Aunque en ambos casos debe prevalecer el prin­cipio de no causar daño algu­no y la adopción de las medi­das de seguridad y privacidad oportunas, cuando se trata de contextos violentos la ne­cesidad de protección puede llegar a ser todavía más acu­ciante. A pesar de que la infor­mación que los mapas agre­gan es pública, el hecho de localizarla y divulgarla en el contexto de un mapa de cri­sis puede comprometer gra­vemente la seguridad de quie­nes inicialmente la publicaron en las redes sociales. Es por ello por lo que algunas inicia­tivas han optado por la ano­nimización de los datos y la protección de los mapas con claves de usuario, publican­do una segunda versión del mapa con información limita­da. En casos extremos en que los estándares de seguridad no pudieran garantizarse (por ejemplo, cuando divulgar lo­calizaciones de incidentes vio­lentos pudiera suscitar suce­sivos ataques a la población) se plantearía incluso la misma oportunidad de emprender un proyecto de mapping.

EfectosIniciativas como la del terre­moto de Haití o la del Libya Crisis Map han sido acogidas con gran interés entre las or­ganizaciones internacionales

de ayuda humanitaria y han sido objeto de análisis y re­flexión en foros académicos y profesionales. La colabora­ción entre redes de volunta­rios on line y organizaciones humanitarias en la gestión de las crisis es cada vez más fre­cuente, y ello amplía sin du­da el abanico de herramien­tas y estrategias disponibles. Además, ya no es inusual ver en las conferencias interna­cionales de crisis mapping a responsables de la coordina­ción de emergencias locales, nacionales e internacionales ofrecer su experiencia y explo­rar las mejores vías de colabo­ración. Las nuevas formas de cooperación entre ciudada­nos, grupos y organizacio­nes dedicadas a la gestión de emergencias y crisis ofrecen infinidad de posibilidades. En noviembre de 2011, un grupo de 180 voluntarios de diver­sas procedencias analizaron un total de 3.909 imágenes por satélite del corredor hu­manitario de Afgooye en So­malia; en tan sólo cinco días marcaron con 253.711 eti­quetas los distintos tipos de refugios provisionales localiza­dos en esa zona de difícil ac­ceso para poder proporcionar al Alto Comisionado para los Refugiados de Naciones Uni­das (UNHCR) una estimación de la población allí desplaza­da. Los resultados obtenidos, además, van a compararse con los que ofrecen los algo­

Iniciativas como la del terremoto de Haití o la del Libya Crisis Map han sido acogidas con gran interés entre las organizaciones internacionales de ayuda humanitaria

ritmos de detección automá­tica de refugios que el Joint Research Center en Ispra (Ita­lia) ha aplicado sobre las mis­mas imágenes, para así ver cómo pueden mejorarse tan­to los procesos manuales de detección como los automáti­cos. En cualquier caso, el des­pliegue de tal fuerza de trabajo voluntario durante 120 horas ininterrumpidas difícilmente está al alcance de ningún or­ganismo internacional, y es ahí donde la cooperación y el crowdsourcing ofrecen un va­lor añadido. Las capacidades de unos y otros se ven refor­zadas.

Aún así, la gestión 2.0 de las crisis carece todavía de indi­cadores y pruebas suficientes que permitan evaluar su impac­to real y su eficacia con respec­to a las estrategias operacio­nales al uso. Queda mucho por hacer y desarrollar en cuanto a estrategias, métodos, proto­colos, formación y evaluación. Lo que sí parece fuera de du­da es la irreversibilidad del pro­ceso. Las tecnologías facilitan que, en ocasiones, sean los ciudadanos los primeros en emitir una alerta de emergen­cia o crisis, y permiten también que otros ciudadanos sean los primeros en escuchar y, a ve­ces, en responder. Con todas sus ventajas e inconvenientes, la gestión de crisis 2.0 es otra muestra de las nuevas vecin­dades digitales.

Page 81: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

05Tribuna

Page 82: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios
Page 83: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

82 | LYCHNOS | Nº 7 | Cuadernos de la Fundación General CSIC

05 TRIBUNA ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

Hacia una sociedad más tecnológica e innovadoraJuan Junquera Secretario de Estado de Telecomunicaciones y para la Sociedad de la Información. Ministerio de Ciencia e Innovación

Hoy en día las tecnologías de la in-formación y la comunicación cons-tituyen una palanca básica para

avanzar en la senda del crecimiento, la in-novación, la productividad y el empleo de calidad.

España cuenta con numerosas empre-sas del sector de las nuevas tecnologías punteras a nivel global, que aumentan además cada año su presencia interna-cional en campos, como la sanidad en red, la televisión digital, las infraestructu-ras de telecomunicaciones, las redes in-teligentes, la banca y la administración electrónica.

La apuesta por las tecnologías de la in-formación y la comunicación es, además, una garantía para el desarrollo de la so-ciedad en su conjunto. Asimismo, consti-tuyen una herramienta de enorme utilidad para la reducción de las emisiones de ga-ses de efecto invernadero y son la mejor opción para la construcción de un nuevo modelo económico basado en la compe-titividad y en la sostenibilidad.

Las nuevas tecnologías también fomen-tan la innovación, la cual se traduce en un impacto de carácter multidimensional, li-gado a la mejora de la productividad, al ahorro de costes, a las mejoras en los ni-veles de calidad, a una mayor variedad de servicios y a una mayor capacidad de creación de empleo cualificado.

Se confirma, por tanto, que la innova-ción es una necesidad básica para la su-pervivencia empresarial en el medio y lar-go plazo, ya que permite interpretar y dar respuesta a las demandas del merca-do, al mismo tiempo que genera venta-jas competitivas.

A lo largo de los últimos años se han al-canzado grandes éxitos en el ámbito de la sociedad de la información, tanto a ni-vel nacional como internacional. A día de hoy, la cobertura de banda ancha es de las más altas del mundo, asimismo, se ha doblado el número de internautas desde 2004 y España es líder mundial en implan-tación del DNI electrónico. Se ha reduci-do considerablemente la distancia con los

El objetivo del Plan Avanza es el desarrollo de la sociedad de la información en España, asegurando el crecimiento económico y social de sus regiones y su convergencia con el resto de Europa

Page 84: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 7 | LYCHNOS | 83

|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| TRIBUNA 05

países más avanzados de Europa y se es-tán dando grandes pasos en el desarro-llo de servicios tecnológicos avanzados.

En este sentido, el Plan Avanza ha teni-do una gran importancia y gracias a él se puede considerar que España es hoy una sociedad en red y que cuenta con la ca-pacidad para posicionarse como líder del desarrollo de la sociedad de la información.

El objetivo del Plan Avanza es el desarrollo de la sociedad de la información en Espa-ña, asegurando el crecimiento económico y social de sus regiones y su convergencia con el resto de Europa. Es la expresión del compromiso del Gobierno español con la promoción de las TIC y está diseñado para redefinir nuestro modelo productivo.

Destacan algunos de los principales lo-gros en el fomento de la sociedad de la in-formación en España por parte de las Ad-ministraciones públicas:

•  El despliegue de la TDT ha logrado una cobertura del 98,8%, en una im-plantación récord que comenzó en no-viembre de 2005.

•  La población internauta ha pasado de 11,7 millones en 2003 a más de 27 millones actuales.

•  El DNI electrónico es una iniciativa que se inició en abril de 2006 y, en tan sólo en cinco años, existen más de 25 millo-nes de DNI electrónicos expedidos.

•  El Plan Avanza ha financiado desde su creación en el año 2006 un total de 3.107 proyectos de I+D+i en empresas, habiendo movilizado un total de más de 4.086,03 M€ solo en este concepto.

En enero de 2010, España accedió a la presidencia de turno de la Unión Europea y se le encargó a la Secretaría de Esta-do de Telecomunicaciones y para la So-ciedad de la Información la labor de co-ordinación de las posiciones e iniciativas de los distintos Gobiernos europeos, ejer-ciendo un papel de liderazgo en la gene-ración de avances tanto legislativos como de otra índole, en el seno de la Unión Eu-ropea. Asimismo, se han tenido presen-tes en todo momento las necesidades de la industria TIC.

Se ha aprovechado al máximo la Presi-dencia de la Unión Europea para impul-sar el desarrollo del sector de las tecnolo-gías de la información y la comunicación como motor de la innovación y la calidad de vida en Europa.

En este periodo fue aprobada la Agenda Digital para Europa, que marca las líneas a seguir para la estrategia de desarrollo de las TIC en todo el continente entre los años 2010 y 2020.

Estos son solo algunos de los logros con-seguidos por el conjunto de las Adminis-traciones públicas en el ámbito de la inno-vación y las nuevas tecnologías. Muestran la cantidad y magnitud de los trabajos lle-vados a cabo en todo el periodo.

La sociedad debe mantenerse firme en el compromiso con la innovación, especial-mente la vinculada a las TIC, redoblando esfuerzos para lograr entre todos avanzar hacia una sociedad más tecnológica e in-novadora, en definitiva, hacia una socie-dad mejor.

Juan Junquera.

A día de hoy, la cobertura de banda ancha es de las más altas del mundo, asimismo, se ha doblado el número de internautas desde 2004 y España es líder mundial en implantación del DNI electrónico

Page 85: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

06Noticias

Page 86: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios
Page 87: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

86 | LYCHNOS | Nº 6 | Cuadernos de la Fundación General CSIC

06 NOTICIAS |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||

La convocatoria de Proyectos Cero 2011 en Envejecimiento de la Fundación General CSIC, impulsada por la Obra Social «la Caixa» y apoyada por el CSIC, se ha resuelto con la concesión de cinco proyectos de investigación en el ámbito de los estudios psicosociales y tecnológicos orientados a me-jorar la calidad de vida de las personas mayores. La Obra Social «la Caixa» aportará un millón de euros para el desa-rrollo de estas investigaciones:

•  «Worthplay. Videojuegos para el envejecimiento posi-tivo», dirigido por Josep Blat, Universitat Pompeu Fabra .

Resolución de Proyectos Cero en Envejecimiento •  «Aplicación de sistemas Brain Computer Interface (BCI) al entrenamiento cogni-tivo y al control domótico para prevenir los efectos del enve-jecimiento», dirigido por Ro-berto Hornero Sánchez, Uni-versidad de Valladolid.

•  «Las pensiones y la educa-ción: efectos combinados en la redistribución inter e intrage-neracional», dirigido por Con-cepció Patxot Cardoner, Uni-versidad de Barcelona .

•  «Envejecimiento activo, ciu-dadanía y participación: va-loración de las aspiraciones, necesidades y estrategias aso-

ciadas a la autonomía y empo-deramiento de viejas y nuevas generaciones de personas ma-yores en España», dirigido por Joan Subirats Humet, Univer-sidad Autónoma de Barcelona.

•  «Biomateriales para mo-dular la inflamación produci-da por la degeneración ma-cular asociada a la edad (BIODMAE)», dirigido por Eva Chinarro Martín, Instituto de Cerámica y Vidrio (ICV-CSIC).

Más información: http://www.fgcsic.es/envejecimiento

Workshop FGCSIC ¿Cómo medimos la ciencia?El 20 de septiembre, en Caixa-Form Madrid, tuvo lugar el se-gundo Workshop FGCSIC pro-gramado para el año 2011. La jornada, con el título de «¿Có-mo medimos la ciencia?», se centró en las métricas de la pro-ducción científico-técnica. Ja-vier Rey Campos y José Luis de Miguel Antón, director y subdi-rector de la Fundación, Ramón López de Mántaras (CSIC),

Itziar Laka (UPV), Carles Mi-ravitlles (CSIC), Isidro F. Agui-llo (CSIC) y Alonso Rodríguez (UPM) fueron los ponentes. Vic-

toria Ley, directora de la ANEP, moderó la mesa redonda.El workshop, retransmitido por vídeo streaming, está accesi-ble para todos los interesados en los canales de la Fundación:

www.fgcsic.es/comunicacion/galeria_multimedia

www.youtube.com/fgcsic

vimeopro.com/fgcsic/workshop-como-medimos-la-ciencia

Conferencia EmTechEl Palacio de Ferias y Conferen-cias de Málaga acogió duran-te los días 26 y 27 de octubre la Conferencia EmTech, evento anual de referencia de la revis-ta Technology Review del Mas-sachusetts Institute of Techno-logy (MIT), patrocinada entre otras entidades por la FGCSIC.Durante su celebración se en-tregaron los TR35 Spain, ga-lardones otorgados por la re-vista Technology Review a diez jóvenes científicos e innovado-res menores de 35 años. El panel de jueces designó «TR35 innovador del año» a Pau García Milà (24 años) por anticipar el concepto de alma-cenamiento virtual y «TR35 in-novador solidario del año» a Teresa Gonzalo (33 años) por desarrollar nanotecnología co-mercial para prevenir el conta-gio del VIH. Entre los galardo-nados, Francisco Javier Cazorla y Manuel Moliner trabajan en el CSIC, y Nuria González se for-mó en esta Institución. El MIT lleva 12 años otorgan-do estos galardones en EEUU. Esta es la primera vez que se entregan en España.

La Fundación General CSIC ha participado en la Jornada «Green Cars 2011: proyectos en marcha», con la presenta-

ción del Informe sobre la I+D en energía y automoción que está elaborando la Unidad de Análisis de FGCSIC.

El objetivo de la jornada, cele-brada el 5 de octubre en Va-lladolid, fue mostrar las acti-vidades en el ámbito de las

tecnologías limpias y la movili-dad sostenible y, en concreto, en las áreas de actuación de la iniciativa Europea Green Cars.

Jornada Green Cars 2011

Page 88: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cuadernos de la Fundación General CSIC | Nº 6 | LYCHNOS | 87

||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| NOTICIAS 06

¿Qué es la planificación estraté-gica en la I+D? ¿Cómo definir los objetivos? ¿Con qué ejemplos contamos? A estas y otras pre-guntas se dieron respuesta en el Workshop sobre Planificación Estratégica en la I+D organizado por la FGCSIC el 14 de noviem-bre en CaixaForum Madrid. Teoría y debate se sucedieron en esta jornada en la que la di-rectora de la Unidad de Estrate-gias de la FGCSIC, María Sanz, expuso las bases del modelo FGCSIC de planificación estra-tégica de la I+D, y que contó, además, con la participación de Joan Cortadellas, Lluis Rovira, José Luis Marco, Belén Gutié-rrez y Víctor Rodrigo.

Reunión del Patronato de la Fundación General CSICEn la sede central del Conse-jo Superior de Investigacio-nes Científicas, el 29 de no-viembre de 2011, se celebró la reunión del Patronato de la Fundación General CSIC. Los

patronos han renovado su apoyo a la Fundación, apro-bando el Plan de Actuación 2012 presentado por Javier Rey Campos, director general de esta entidad.

Workshop sobre Planificación Estratégica en la I+D

La jornada fue retransmitida por vídeo streaming y seguida por más de 200 personas. Las ponencias están disponibles en los canales de la Fundación:

www.fgcsic.es/comunicacion/galeria_multimedia

www.youtube.com/fgcsic

vimeopro.com/fgcsic/planificacion-estrategica-en-la-id

Un marroquí y una española, ganadores de la Carrera Internacional de la CienciaLos atletas Vanessa Veiga y Mo-hammed Blal se han proclama-do ganadores de la XXXI Carre-ra Internacional de la Ciencia, organizada por el CSIC y pa-trocinada, entre otras institucio-nes, por la Fundación General CSIC. En la prueba, disputada el domingo 16 de octubre en Madrid, participaron 7.200 co-rredores que recorrieron 10 ki-lómetros homologados con ini-cio y final en la sede central del Consejo Superior de Investiga-ciones Científicas.

II Concurso CPAN

El Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN), en colabo-ración con la Fundación Ge-neral CSIC, ha concedido los premios de su segundo con-curso de divulgación científi-ca, una iniciativa que recono-ce la producción de material divulgativo en estas áreas de la Física.

El acto de entrega de es-tos galardones tuvo lugar en el marco de las III Jornadas CPAN, celebradas del 2 al 4 de noviembre en Barcelona.

Más información: www.i-cpan.es http://www.i-cpan.es/concurso2/ganadores.php

La Fundación General CSIC organizó el 25 de octubre en el Real Jardín Botánico de Ma-drid uno de los seis workshops previstos en el marco del ac-tual proyecto europeo Trend-Chart de monitoreo de las po-líticas de innovación. La reunión de trabajo se cen-tró en revisar la recopilación y análisis de información en po-líticas de investigación y de in-novación.

Proyecto europeo TrendChart

Page 89: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios
Page 90: Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre ... · Cuadernos de la Fundación General CSIC / Diciembre 2011 ... Tecnologías de la información 40 Nuevos espacios

Cua

der

nos

de

la F

und

ació

n G

ener

al C

SIC

/ D

icie

mb

re 2

011

Cuadernos de la Fundación General CSIC / Nº 7 / Diciembre 2011 / Publicación trimestral / Precio: 9 euros

07

||||||||||||||||||||

4Introducción

12Tecnologías de la información

40Nuevos espacios de la información

62Efectos sociales