revista computacion y tecnologia 1ra edicion

74
Año 1 - Número 1 Septiembre-Diciembre 2010 Revista Científica y de Divulgación de la Dependencia de Educación Superior Área Ciencias de la Información de la Universidad Autónoma del Carmen

Upload: jose-luis-chi-mendez

Post on 07-Mar-2016

229 views

Category:

Documents


3 download

DESCRIPTION

Revista Computacion y Tecnologia 1ra Edicion II Congreso Nacional y I Congreso Internacional de Computación e Informática 2010

TRANSCRIPT

Page 1: Revista Computacion y Tecnologia 1ra Edicion

Año 1 - Número 1 Septiembre-Diciembre 2010

Revista Científica y de Divulgación de la Dependencia de Educación Superior Área Ciencias de la Información de la Universidad Autónoma del Carmen

Page 2: Revista Computacion y Tecnologia 1ra Edicion
Page 3: Revista Computacion y Tecnologia 1ra Edicion

UNIVERSIDAD AUTÓNOMA DEL CARMEN

Comité Editorial

Editores Asociados

Sergio Augusto López PeñaRector

Benjamín Tass HerreraEditor y Coordinador Editorial

Andrés Edgardo Salazar DzibSecretario General

Ernesto Bautista ThompsonAndres Soto Villaverde

Gustavo Verduzco Reyes

Elvia Elvira Moralez TurrubiatesJosé Ángel Pérez RejónJuan Carlos Canto Rodríguez

María de los Ángeles Buenabad AriasCoordinadora de la DES-DACI

Juan Manuel CarrilloCoordinador de Extensión Universitaria

Melenie Guzmán OcampoDirectora de Difusión Cultural

Any Naholi Dorantes EchevarríaFomento Editorial y Diseño

Leticia Pérez RomeroLogística

Octubre - D

iciembre de 2010

IDirectorio

Page 4: Revista Computacion y Tecnologia 1ra Edicion

Consejo Editorial Internacional

COMPUTACIÓN Y TECNOLOGÍA, Año 1, No. 1, septiembre – diciembre 2010, es una pub-licación cuatrimestral editada por la Dependencia de Educación Superior Área Ciencias de la Información de la Universidad Autónoma del Carmen, Calle 56 No. 4 por Av. Concordia, Colonia Benito Juárez Ciudad del Carmen, Campeche, México. www.cienciaytecnologia.un-acar.mx. Editor responsable: Benjamín Tass Herrera. Reservas de derecho al Uso Exclusivo No. 04-2009-101309494200-203. ISSN (en trámite). Responsable de la última actualización de esta publicación electrónica: DES-DACI, Benjamín Tass Herrera.

Oct

ubre

- D

icie

mbr

e de

201

0IIDirectorio

Nombre Organización País

Jesús Serrano University of Castilla-La Mancha SpainHermilo Sánchez Cruz Benemérita Universidad Autónoma de Aguascalientes MéxicoAbdiel E. Cáceres Universidad Juárez Autónoma de Tabasco MéxicoJesús Ezequiel Molinar Solís Universidad Autónoma del Estado de México MéxicoCristina Puente Águeda Universidad Pontificia Comillas SpainAndrés Díaz Valladares Universidad de Montemorelos MéxicoHéctor Jiménez Universidad Autónoma Metropolitana MéxicoMiguel-Ángel Sicilia University of Alcalá Spain

La Revista Computación y Tecnología (CYT), se concibe como una revista electrónica cuyo objetivo es el de recopilar y dar a conocer las experiencias y conocimientos científicos de investigadores jóvenes y experimentados en el campo de estudio de las ciencias de la in-formación. En ella se seleccionan los trabajos que abordan temas desde las bases teóricas de la información y la computación, así como su aplicación en sistemas y entornos com-putacionales. Eso nos compromete a dar a conocer a la comunidad nacional e internacio-nal avances científicos y tecnológicos significativos en áreas como Ingeniería de Software, Bases de Datos, E-learning y Tecnología Educativa, Inteligencia Artificial, Bioinformática, Aprendizaje de Máquina, Robótica y Visión, Sistemas y Tecnologías de la Información, Redes y Sistemas Distribuidos, Procesamiento Distribuido y Paralelo, Interacción Humano Computadora, Multimedia y Realidad Virtual, Arquitectura de Computadoras, Lenguajes y Autómatas, Teoría de la Computación, Graficación, Agentes, Teoría de Sistemas, Ofimática, Agentes, entre otros.

El contenido de los trabajos que aquí se presentan es responsabilidad exclusiva de sus autores y no necesariamente refleja la postura del editor de la publicación. Se concede permiso para copiar partes de esta publicación para su uso personal o académico, siempre y cuando se dé crédito a los autores de los trabajos y a la publicación misma.

Responsibility for the accuracy of all statements in each paper, rest solely with the authors and do not necessarily reflect the position of editor of the publication. Permission is granted to copy portions of the publication for personal use and for the use of the students provi-ding credit is given to the authors and publication.

Esta obra fue realizada en octubre de 2010, en las instalaciones del Centro de Tecnologías de Información, Dependencia de Educación Superior Área Ciencias de la Información de la Universidad Autónoma del Carmen.

Page 5: Revista Computacion y Tecnologia 1ra Edicion

1

8

20

34

43

59

67

II Congreso Nacional y I Congreso Internacional de Computación e Informática

Modelo Difuso basado en Sinonimia para Recuperar Información

Introducción a la computación (Libro de: Jorge Vasconcelos Santillana)

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

El daño de los equipos de cómputo al medio ambiente

Estudio de variantes de Evolución Diferencial por cruza discreta y aritmética

Análisis de la Dinámica del Tráfico de Red en el Puerto 110 con Técnicas No Lineales e Informacionales

2. Sección Noticias y Eventos

Artículos de Investigación

Comentarios a Escritos

Artículos Resúmen de Tesis

Artículos de Divulgación

Octubre - D

iciembre de 2010

III Contenido

Page 6: Revista Computacion y Tecnologia 1ra Edicion

Recientes informes indican que las publicaciones escritas en la categoría de revistas empleadas para diseminar la investigación datan del siglo VII; no obstante, de este periodo a la fecha hemos sido testigos de la aparición de una importante producción de contenidos y productos que repre-

sentan costos para las bibliotecas, los suscriptores y, al parecer, esto dificulta la distribución o adquisición.

La solución parece ser hallada en las publicaciones electrónicas a través de medios digitales como el Internet. Esta recién aparecida alternativa de difusión ofrece nuevos beneficios tanto a editores como a sus lectores, entre las cuales se encuentran: reducción de costos, en la medida en que ahorran los gastos de impresión; eficiencia, por cuanto disminuye el tiempo destinado a la edición y corrección de pruebas de imprenta, es más fácil de almacenar ya que no requiere de mayor espacio, es decir, en ella se fusionan eficiencia, rapidez e inmediatez, características que se van haciendo cada vez más imprescindibles para garantizar los requerimientos de los procesos de la divulgación del conocimiento.

Con la seguridad de continuar con las tendencias que apuntan hacia la informatización de la sociedad, en donde los procesos editoriales están incluidos, hoy ponemos a su disposición una alternativa más para difundir y dar a conocer los avances en el amplio espectro de las ciencias computacionales y las tecnologías que la soportan; esto es posible gracias a la penetración y al uso cada vez mayor de las computadoras personales y de los dispositivos móviles que permiten a los lectores el poder acceder a los artículos científicos desde su escritorio u otro espacio.

La publicación de la revista Computación y Tecnología es una realidad. Y nace con el firme propósito de alcanzar tanto a las nueva generaciones de jóvenes que crecieron en contacto directo con los nuevas tecnologías de información y comunicación y a quienes les resulta mucho más familiar emplear un teclado y un mouse y leer en una pantalla, que hojear un libro o una revista sacados de un stand. Por lo tanto, de-seamos en este nuevo comienzo, que Ciencia y Tecnología constituya un valioso, eficaz, racional y con-temporáneo instrumento de comunicación científica, cuyo origen y propósito radican en propiciar también la consolidación de los cuerpos académicos, para dejar constancia del interés y avance que en materia computacional se abordan en el seno de nuestra Dependencia de Educación Superior-Área Ciencias de la Información (Des-Daci), la Universidas Autónoma del Carmen (Unacar)y el mosaico de Instituciones de Educación Superior e investigación en el país y el extranjero; es decir, hoy nos sumamos de manera firme y duradera mediante este aporte editorial con las comunidades científicas y universitarias en el concierto regional, nacional e internacional.

Los Editores

Oct

ubre

- D

icie

mbr

e de

201

0IV

Editorial

Page 7: Revista Computacion y Tecnologia 1ra Edicion

1

Artículo Técnico

II Congreso Nacional y I Congreso Internacional de Computación e Informática

Fue entonces que la comisión involucrada también ad-mitió el reto de organizar el Segundo Congreso de Com-putación e Informática. Pero también, dicha comisión de trabajo asumió el desafío de superar la versión 2009.

Es así como se tomó la decisión no sólo de ofrecer el Segundo Congreso Nacional en 2010, sino de impulsarlo a Primer Congreso Internacional de Computación e Infor-

mática. Aquí se decidió renovar el equipo de trabajo que se encar-garía de difundir y dar a conocer el magno evento académico ha-cia la comunidad uni-versitaria, pero abrirlo también a nivel interna-cional en las universi-dades, institutos y cen-tros de estudios.

La comisión de trabajo quedó conformada bajo el liderazgo de la maes-tra Judith Santiago Pé-

rez, y, en apoyo, los maestros Ricardo Barrera Cámara, Fernando Enrique Sánchez Martínez, José Alonso Pérez Cruz, Benjamín Tass Herrera, Gustavo Verduzco Reyes, entre otros.

El Segundo Congreso Nacional y Primer Congreso Inter-nacional de Computación e Informática 2010 fue progra-mado para los días 8, 9 y 10 de septiembre.

La difusión del evento fue a tal grado motivacional que a pocos meses de acercarse, se tenía un registro de más de ochenta trabajos o artículos de investigación, de los cuáles sólo se aceptaron 50. Esos se incluyeron en un

Se conformó una comisión de trabajo liderada por los profe-sores Ricardo Barrera Cámara y Benjamín Tass Herrera, re-forzada por los maestros Fernando Sánchez Martínez, José Alonso Pérez Cruz, Carlos de la Cruz Dorantes y Gustavo Verduzco Reyes.

También es merecido remarcar el apoyo del rector de la Unacar, Sergio Augusto López Peña, quién en ese entonces iniciaba su administración.

El conaci 2009 fue progra-mado para los días 9, 10 y 11 de septiembre. Como parte de él se programa-ron y desarrollaron confe-rencias, talleres, cursos. Ponencias magistrales a cargo de reconocidos in-vestigadores de diferentes instituciones del país, como la doctora Excelente Toledo, del Laboratorio Nacional de Informática Avanzada (Lania); Dr. Luis Enri-que Sucar, del Institu-to Nacional de Astrofísica, Óptica y Electrónica (inaoe); Dr. Juan Gabriel González Serna, del Centro Nacio-nal de Investigación y Desarrollo Tecnológico (ceniDet), Cuernavaca, Morelos-México; Dr. Ezequiel Molinar So-lís, de la Universidad Autónoma del Estado De México.

Se aceptaron ciertos números de artículos que fueron publi-cados en un libro con registro isbn. Fue tal el éxito y parti-cipación de alumnos, maestros y comunidad interesada en conocer sobre la tecnología, así como de foráneos, que en el evento de clausura el rector Sergio Augusto López Peña hizo el compromiso de impulsar y apoyar el conaci para el 2010.

A iniciativa de maestros y con el impulso de autoridades universitarias, en el 2009 fue posible que se llevara a cabo el Primer Congreso Nacional de Computación e Informática (conaci). Desde el 2008 iniciaron las gestiones por parte de los maestros y del entonces coordinador de la Dependencia Académica de Ciencias de la Información (Des-Daci), el

ingeniero Fidel Franco Cocón Pinto.

Por: Antonia Selenne Jiménez Sánchez

Octubre - D

iciembre de 2010

Eventos

Page 8: Revista Computacion y Tecnologia 1ra Edicion

2

Artículo Técnico

libro electrónico con registro isbn. La aportación fue de varias universidades del país e incluso del extranjero.

De manera general, para este segundo conaci se programa-ron cinco conferencias magistrales, tres conferencias técnicas y 26 ponencias con temas diversos de áreas de las ciencias de la información. La coordinación del programa contempló que las conferencias magistrales y técnicas serían dictadas en el Aula Magna, mientras que las ponencias se llevarían a cabo en tres sedes: Sala Audiovisual de la Biblioteca, Sala Interactiva ubicada en la Biblioteca, y la Sala Audiovisual del Campus Principal.

Y el día cero llegó. El 8 de septiembre se cumplió el objetivo de reunir a investigadores, académicos, profesionistas, es-tudiantes y público en general con un mismo interés en los avances científicos y tecnológicos en el ámbito de las cien-cias computacionales, al inaugurar el Segundo Congreso Nacional y Primer Congreso Internacional de Computación e Informática.

La inauguración de este magno evento de la Des-Daci fue a las 10:00 horas. El presídium se distinguió con la presencia del rector de la Unacar, maestro Sergio Augusto López Peña; en representación del gobernador del estado Fernando Or-tega Bernes, estuvo el subsecretario de Innovación Guber-namental, David Puc Ruiz; Carlos Arturo Figueroa Balam, en representación del secretario de Educación del Estado, Fran-cisco Ortiz Betancourt; Manuela Balán Chi, en representación de la presidenta municipal, Araceli Escalante Jasso. Asimis-mo, la presidenta de la Asociación Nacional de Instituciones de Educación en Tecnologías de la Información (aniei), María de Lourdes Sánchez Guerrero; el secretario General de la Unacar, Andrés Salazar Dzib; y la coordinadora de la Des-Daci, María de los Ángeles Buenabad Arias.

Buenabad Arias dio la bienvenida a los presentes. Inició su discurso haciendo alusión al esfuerzo y trabajo en equipo de los organizadores del conaci 2010. Exhortó a todos los pre-sentes a hacer suyo este evento, a aprovechar la jornada de actividades que seguramente les dejará el enriquecimiento de las nuevas tendencias de tecnología e información.

El maestro López Peña, por su parte se refirió al evento como la oportunidad para los jóvenes estudiantes de es-tar en contacto con personas expertas en las tecnologías; mencionó que con las nuevas tecnologías es posible estar en contacto, tener acceso a muchos sitios e incluso esta-blecer vínculos con miles de personas de manera instantá-nea. Hizo un llamado a los jóvenes a usar la tecnología con responsabilidad, a darle un sentido diferente y responsable.

En su turno, la presidenta de la aniei, María de Lourdes Sánchez Guerrero, inauguró oficialmente el evento. En el uso de la palabra, invitó a los estudiantes a aprovechar este espacio ya que en su escenario se presentaban personali-dades, investigadores y temas de suma importancia que les darían una visión a su futuro.

Después de la inauguración, inició la conferencia magistral titulada Estado actual de los estándares internacionales de ingeniería de software, dictada por el doctor Marcelo Jen-kins. Además de compartir con alumnos este tema de inte-rés, también se reunió con profesores de la Des-Daci con el objetivo de entablar una relación entre ambas universida-des que beneficien a estudiantes y a catedráticos.

En específico indicó que durante este acercamiento se plati-có acerca de la posibilidad de establecer un convenio entre

II Congreso Nacional y I Congreso Internacional de Computación e Informática

Oct

ubre

- D

icie

mbr

e de

201

0

Eventos

Page 9: Revista Computacion y Tecnologia 1ra Edicion

3

Artículo Técnico

la Unacar y la Universidad de Costa Rica, de modo que los alumnos puedan hacer movilidad, servicio social, y los maestros conformen líneas de investigación y redes de colaboración. Jenkins aseguró que en unos meses podría verse concretada una firma del convenio.

En el marco del conaci 2010, la Exposición Tecnológica fue fundamental. Los estudiantes a través de ella tuvieron la oportu-nidad de informarse y conocer las innovaciones en tecnología que existen en el momento.

El maestro de la Des-Daci, José Alonso Pérez Cruz, estuvo encargado de la coordinación de la Exposición Tecnológica. Él explicó que es indispensable que las empresas que prestan servicios informáticos se den a conocer a los estudiantes, y estos a su vez tengan información de las nuevas innovaciones tecnológicas.

La Exposición Tecnológica fue instalada en el lobby de la Biblioteca Universitaria. En ella participaron dos empresas que dan

II Congreso Nacional y I Congreso Internacional de Computación e Informática

Octubre - D

iciembre de 2010

Eventos

Page 10: Revista Computacion y Tecnologia 1ra Edicion

4II Congreso Nacional y I Congreso Internacional de Computación e Informática

servicios informáticos en equipos y/o software, y una librería de la localidad. Como parte complementaria se llevaron a cabo cursos en los que participaron maestros y alumnos de la citada dependencia académica interesados en conocer y actualizarse sobre temas diversos de tecnologías, computa-ción e informática.

La maestra Patricia Zavaleta Carrillo fue la encargada de coordinar los cursos. Ella explicó que en gran medida se debió a la disposición de los conferencistas magistrales, ya que accedieron a compartir sus conocimientos e impartir los cursos y talleres. Además del curso que ofreció el ponente

Parys Guzmán Sánchez, de México, Sisco en las Telecomu-nicaciones, los otros dos cursos se titularon: Aseguramiento de la calidad en el desarrollo de software y Programación relacionada a la recuperación de la información en internet, impartidas por Marcelo Jenkins y Jesús Serrano Guerrero, respectivamente.

Por último, la maestra Zavaleta Carrillo expresó que el tiempo que los ponentes dedicaron a los cursos fue un espacio va-lioso, ya que –remarcó- no estaban programados dentro del programa de conferencias magistrales, técnicas y ponencias del conaci 2010.

El conaci 2010 fue un éxito. Las cinco conferencias magis-trales, las tres conferencias técnicas y las 26 ponencias, con-taron con la participación de los estudiantes y de un público externo interesado en conocer las temáticas actuales de la tecnología. Llenó y rebasó las expectativas que de él se te-nían.

En la clausura estuvieron el rector Sergio Augusto López Peña; el secretario general, Andrés Salazar Dzib; el diputado federal, Oscar Rosas González; la coordinadora de la Des-Daci, María de los Ángeles Buenabad Arias; la coordinadora general del conaci 2010, Judith Santiago Pérez; el excoordi-nador de la Des-Daci, Fidel Franco Cocón Pinto, quien ocupó un lugar de honor en el presídium, en calidad de invitado, por ser el principal impulsor del nacimiento del congreso.

Buenabad Arias expresó que fue un gusto rendir cuentas fa-vorables a tan altas expectativas que la comunidad univer-sitaria depósito en este evento. Se tuvo 792 participantes, destacándose la presencia de instituciones como el conaLep, preparatoria “Ignacio Rodríguez Galván”, Preparatoria Cam-pus II, además de representaciones de los estados de Yuca-tán, Campeche, Tabasco y Veracruz.

Instituciones que participaron con ponencias: Centro de In-vestigación en Computación ipn; Escuela Superior de Cóm-puto; Instituto Tecnológico de Apizaco; Instituto Tecnológico de Ciudad Victoria; Instituto Tecnológico de Celaya; Instituto Tecnológico de Nuevo León; Instituto Tecnológico y de Es-tudios Superiores de Monterrey; Universidad Autónoma de

Oct

ubre

- D

icie

mbr

e de

201

0

Eventos

Page 11: Revista Computacion y Tecnologia 1ra Edicion

5

Artículo TécnicoII Congreso Nacional y I Congreso Internacional de Computación e Informática

Baja California Sur; Universidad Autónoma de Yucatán; Universidad Autónoma del Carmen; Universidad de la Sierra Juárez; Universidad del Caribe; Universidad del Papaloapan; Universidad Politécnica de Sinaloa; Universidad Tecnológica de la Mix-teca y Universidad Tecnológica del Usumacinta.

Los patrocinadores del evento fueron nueve empresas de diversos giros ubicadas en Ciudad del Carmen. La clausura oficial del conaci 2010 estuvo a cargo del rector de la Unacar.

Octubre - D

iciembre de 2010

Eventos

Page 12: Revista Computacion y Tecnologia 1ra Edicion
Page 13: Revista Computacion y Tecnologia 1ra Edicion

Artículos Arbitrados

Investigación

Sección

Page 14: Revista Computacion y Tecnologia 1ra Edicion

Investigación8

Modelo Difuso basado en Sinonimia para Recuperar Información

IRetrieval Information With a Diffuse Model based in synonymyJavier Daniel Peralta Azuara, Andrés Soto Villaverde, Gustavo Verduzco Reyes.

Universidad Autónoma del Carmen, C. 56 No. 4 Esq. Avenida Concordia Col. Benito Juárez C.P. 24180, 01 (938)-3811018 Ext. 1007, Ciudad del Carmen, Campeche, México

[email protected], [email protected], [email protected]

E n este trabajo se presentan los resultados de la im-plementación de un método para la Recuperación de Información contenida en documentos en

Lenguaje Natural basándose en medir la similitud entre palabras (sinónimos) y dar un peso al concepto asociado, con el fin de representar a los documentos, no por tér-minos sino por el concepto al que se refieren. El trabajo comprendió la implementación del método basado en los sinónimos, así como del método tradicional basado en la conocida métrica TF–IDF. Se muestran los resultados de los experimentos parciales realizados con 1998 documen-tos de la colección CLEF, indexando un total de 352,640 palabras. Dichos resultados han mostrado hasta el mo-mento que el método basado en los sinónimos permite recuperar todos los documentos recuperados mediante el método basado en términos (TF–IDF), obteniendo, en el 62% de los experimentos, otros documentos relevantes más, no recuperados por el método tradicional.

D eterminar el peso de los términos es un impor-tante tema de investigación en los sistemas de recuperación de información. Diferentes té-

rminos tienen diferentes grados de importancia en el documento, un indicador importante por ejemplo es el peso del término (term weight) y se asocia a cada tér-mino indexado. Dos componentes principales afectan la importancia de un término, la frecuencia con que apa-rece el término (tf ) en el documento y la frecuencia in-versa del documento (idf ). Sin embargo, estos métodos pueden no ser lo suficiente efectivos desde un punto de vista humano, dado que devuelven muchos documen-tos poco relevantes. Como resultado, la efectividad de la recuperación no es lo suficientemente buena. En este trabajo se presentan los resultados de la implement-ación de un método nuevo para la recuperación de in-

T his paper introduces the results obtained with the implementation of a fuzzy model for Infor-mation Retrieval based on synonymy. The model

refers to measuring the degree of similarity between syn-onymous terms and to assign a weight to the concept as-sociated with them. This way, the model tries to measure whether a document refers to a certain concept or not. In this sense the implemented model is compared with the traditional method based on measuring just the presence of terms, and using the well known TF – IDF metric. The method based on TF – IDF metric was also implemented. The experiments were done with 1998 documents from the CLEF corpus, and 352,640 terms were indexed. Re-sults show that the method based on synonymy retrieved in each experiment conducted, all the documents re-trieved by the traditional method. Even more, in 62% of the experiments the synonymy based method overtakes the traditional one.

RESUMEN ABSTRACT

1. Introducción

Palabras Clave: Recuperación de Información, TF–IDF, mod-elos difusos basados en conceptos, sinonimia.

Keywords: Information Retrieval, TF – IDF, fuzzy model based on concepts, synonymy.

formación basado en las técnicas de encontrar similitud entre las palabras (sinónimos) y dar un peso al concepto a las que estas están asociados, con el fin de representar a los documentos, no por términos solamente, sino por el concepto que tienen dentro de él. En el trabajo se par-te de la premisa siguiente: si, en un mismo documento, se hace referencia a varias palabras o términos que son sinónimos entre sí, las cuales por tanto comparten un mismo significado o concepto, entonces es probable que el documento trate o esté relacionado con dicho con-cepto. Si medimos la presencia de cada una de los tér-minos sinónimos entre sí, el grado de presencia de los mismos nos debe dar una medida del grado de presencia del concepto asociado a dichos sinónimos. El trabajo se basa fundamentalmente en los modelos al respecto plan-teados por A. Soto et al (2008). El resto de este escrito está organizado de la siguiente manera. En la sección 2, se remarca la importancia de recuperar información en la Web. En la sección 3, se explica a grandes rasgos como

Artículo recibido el 11 de Junio del 2010 Artículo aceptado el 20 de Agosto del 2010

Oct

ubre

- D

icie

mbr

e de

201

0

Page 15: Revista Computacion y Tecnologia 1ra Edicion

Investigación9

Modelos Difusos para la Recuperación de Información

2. Recuperación de Información en la Web

está constituido un sistema de Recuperación de Infor-mación. En la sección 4, se explica más a detalle el mod-elo vectorial. En la sección 5, se habla del modelo difuso propuesto para recuperar información. En la sección 6, se presenta la implementación computacional de estos métodos. En la sección 7, se muestran los resultados ob-tenidos hasta el momento, y en la sección 8 se ofrecen las conclusiones.

L a Web (World Wide Web) crece más rápido que su capacidad para detectar sus cambios. Sus con-exiones son dinámicas y muchas de ellas quedan

obsoletas sin ser nunca actualizadas. Según un informe de la consultora internacional IDC y el fabricante de sistemas de almacenamiento EMC1 , en 2006, la canti-dad de información digital creada, capturada y replicada

fue de 1,288 x 1018 bits, esto es 161 exabytes o 161 bil-lones de gigabytes (1 gigabyte = 1000 megabytes). Esto es más de lo generado en los 5000 años anteriores. El contenido de la Web es hoy de varios billones de mega-bytes de texto, imágenes, audio y video. Para aprovechar esta gran base de datos no estructurada, es importante poder buscar información en ella, adaptándose al creci-miento continuo de la Web.

La recuperación de información, (IR: Information Re-trieval en inglés), es la rama científica que se ocupa de la búsqueda de información en documentos, ya sea me-diante búsqueda directamente dentro de los mismos o sobre los mismos o a través de metadatos que describan dichos documentos. O también la búsqueda en bases de datos relacionales, ya sea a través de internet, intranet, para textos, imágenes, sonido o datos de otras caracter-ísticas, de manera pertinente y relevante.

Ilustración 1 Total de sitios activos en la Web desde 1995 hasta el 2009

1 http://www.emc.com/collateral/analyst-reports/expanding-digital-idc-white-paper.pdf

Octubre - D

iciembre de 2010

Page 16: Revista Computacion y Tecnologia 1ra Edicion

Investigación10

Tabla 1 Estadísticas Mundiales sobre InternetPoblación total (2010) 6,845,609,960No. de usuarios de Internet (2000) 360,985,492No. de usuarios de Internet (2010) 1,966,514,816% (usuarios / población total) 28.7 %Crecimiento 2000-2010 444.8 %

Buscar información en la Web implica enfrentarse con una serie de problemas [Baeza Yates, 2000] de distinto tipo, los cuales pueden ser intrínsecos a los datos o a los usuarios. Los primeros son: datos distribuidos en muchas computadoras y plataformas distintas. La to-pología de la red no está predefinida, ni bien definida. Los datos son volátiles y muchas páginas aparecen y desaparecen diariamente. La información en la Web es poco estructurada, heterogénea en formato, contenido y calidad y, en muchos casos, duplicada y redundante. Muchos suponen que una página Web es lógicamente un documento, lo que no es siempre cierto. Hay docu-mentos que pueden estar en muchas páginas y hay pá-ginas con varios documentos (por ejemplo, resúmenes de los artículos de una revista). Con respecto a los usuarios tenemos dos problemas básicos: el problema de expresar y precisar la consulta de forma que esta se corresponda adecuadamente con lo que queremos recu-perar y el problema de cómo manejar la gran cantidad de documentos (miles, cientos de miles e inclusive mil-lones) recuperados, muchos de los cuales pueden ser a su vez muy grandes, extensos, lo cual complica aún más el recuperar la información deseada, la cual puede es-tar dispersa a través de todo el documento. Muchos de estos problemas no tienen solución técnica y otros no tienen solución como la diversidad cultural.

3. Estructura de los Sistemas de Recuperación de Información

4. Modelo Vectorial para la Recuperación de InformaciónU n motor de búsqueda o sencillamente un bus-

cador es un software o sistema informático para buscar información en la Web, el cual bus-

ca ficheros almacenados en servidores web gracias a su web crawler o web robot. Dicho robot es un programa que inspecciona las páginas Web de forma metódica. A medida que las inspecciona, crea un descriptor de las pá-ginas visitadas para poderlas indexar y recuperar de una

manera eficiente cuando se pida información sobre al-gún tema. Para realizar una búsqueda, el usuario realiza una consulta de la información indizada mediante una serie de palabras que caracterizan de alguna forma los documentos que desea recuperar. Las palabras indica-das por el usuario indican la dirección en la cual debe realizarse la búsqueda. El resultado de la búsqueda es un listado de direcciones Web en los que se mencionan temas relacionados con las palabras clave buscadas.

Ilustración 2 Estructura típica de un sistema IR.

La cantidad de documentos que devuelve el buscador es habitualmente muy grande por lo cual resulta conveni-ente que los documentos estén organizados por priori-dades, según estos se correspondan, en mayor o menor grado, con la consulta realizada por el usuario. Para ello el buscador debe asociarle a cada documento una pun-tuación que refleje de alguna manera el grado de cor-respondencia con la consulta planteada. En general, la forma habitual de realizar una consulta a través de uno de estos buscadores como Google o Yahoo es indicando una lista formada por varios términos o palabras, sin ningún conector (e.g. operador booleano) entre ellas.

L os modelos de recuperación de información son considerados el corazón del sistema, ya que, estos determinan como se realizara la representación

de los documentos, y que formato tendrá el lenguaje de

Modelos Difusos para la Recuperación de InformaciónO

ctub

re -

Dic

iem

bre

de 2

010

Page 17: Revista Computacion y Tecnologia 1ra Edicion

Investigación11

consulta, además de definir la función de búsqueda.

En particular, este modelo se utiliza para capturar la im-portancia relativa de los términos en un documento. La representación de un conjunto de documentos como un vector es llamado modelo espacial vectorial y es funda-mental para las operaciones de recuperar información. El texto es representado con un vector de términos. Los términos son típicamente palabras o frases. Si las palabras son términos, entonces cada palabra en el vo-cabulario se vuelve una dimensión independiente en el vector espacial. Para asignar un score numérico a un documento en correspondencia a una consulta, el mod-elo mide la similitud entre el vector de la consulta y el vector del documento. La similitud de los vectores no es inherente del modelo. Típicamente, el ángulo entre los dos vectores es usado como una medida de divergencia entre los vectores y el coseno del ángulo es usado como una similitud numérica. Un mecanismo de puntuación plausible para los docu-mentos sería, por tanto, en función del número de tér-minos que se corresponden entre los términos que apa-recen en la consulta (tqi) y los términos que aparecen en cada documento (tdj): a mayor cantidad de correspon-dencias entre unos y otros términos, mayor será la pun-tuación que obtenga el documento para dicha consulta. Suponiendo que la consulta consta de un solo término t los documentos recuperados obtendrán mayor puntu-ación (i.e. serán más relevantes) en la medida que más veces aparezcan en los mismos el término t. Como una forma de determinar dicha puntuación, la métrica más habitual [Manning et al, 2008] se define a través de la frecuencia con que aparece el término ti en el documen-to dj y se denota como tfi,j (term frequency).

�=

kjk

jiji n

ntf

,

,, (1)

(2)

(3)

donde ni,j es el número de ocurrencias del término ti en el documento dj y el denominador es la suma del núme-ro de ocurrencias de todos los términos en el documen-to dj.

De acuerdo con este criterio, todos los términos se consideran con la misma importancia para determinar la relevancia en una consulta. Sin embargo, ciertos té-rminos pueden tener poca o ninguna importancia con este objetivo. Por ejemplo, si tenemos una colección de documentos sobre la industria automovilística, la palabra auto debe aparecer en prácticamente todos los documentos, lo cual reduce su importancia en dicha colección. Para resolver dicha situación, se introduce un factor denominado IDF (Inverse Document Frequen-cy), el cual se define como:

{}dtdD

idfi

i �=

:log

La combinación de ambos factores, denominada tf - idf es la métrica más empleada para determinar el nivel de relevancia de los documentos con respecto a un consul-ta determinada.

ijiji idftfidftf �=� ,,

Teniendo en cuenta que se requiere comparar los docu-mentos entre sí y que no todos los documentos tienen las mismas palabras, se acostumbra utilizar un vocabu-lario o diccionario base, el cual supuestamente contiene todas las palabras requeridas. Si un término determina-do del vocabulario no aparece en un documento dado,

Modelos Difusos para la Recuperación de Información

Octubre - D

iciembre de 2010

Page 18: Revista Computacion y Tecnologia 1ra Edicion

Investigación12

su valor tf – idf se tomará igual a cero (0).

Llegados a este punto, podemos representar cada docu-mento mediante un vector de valores tf – idf que indique para cada término en el documento su correspondiente valor según la ecuación 3. Para determinar la puntu-ación de un documento determinado con respecto a la consulta del usuario, se suma el valor tf – idf de cada uno de los términos de la consulta que aparece en el vector que representa el documento en cuestión.

Para calcular el grado de similitud entre documentos se utilizará la conocida medida de similitud basada en la función coseno:

( ) ÷÷�

����

×

×=

ba

baba XX

XXXXsim cos, (4)

(5)

5. Modelo Difuso basado en el uso de Sinónimos y Polisemia

A utores como Ricarte and Gomide (2001) y Baeza-Yates and Ribeiro Neto (1999) plantean que las búsquedas utilizando métodos basados

en aspectos lexicográficos deben incorporar los aspec-tos conceptuales de los documentos ya que estos refle-jan de mejor manera el significado que reside en dichos documentos en correspondencia con la consulta del us-uario. Por esta razón, en el presente trabajo se busca me-dir la presencia de los aspectos conceptuales existentes en los documentos, utilizando para ello, los conjuntos de sinónimos (i.e. synsets) definidos en el diccionario WordNet, teniendo en cuenta que cada synset tiene asociado un significado o concepto determinado.

FIS-CRM (Fuzzy Interrelations and Synonymy Con-ceptual Representation Model) [Garcés et al, 2002; Oli-vas et al, 2003] es una metodología orientada a medir la utilización de conceptos en documentos en lenguaje natural mediante diccionarios de sinónimos, la cual pu-

ede considerarse una variación del modelo espacio vec-torial (VSM Vector Space Model). En el trabajo antes citado de Garcés et al, el diccionario utilizado, desar-rollado por S. Fernández [Fernandez, 2001; Fernandez et al, 2002], brindaba el grado de sinonimia entre pares de términos sinónimos utilizando un enfoque borroso (fuzzy). Dicho diccionario se encuentra implementado en Prolog a partir del Diccionario Avanzado de Sinóni-mos y Antónimos de la Lengua Española de Blecua (1997), el cual incluye alrededor de 27mil términos.

Posteriormente, en FASPIR [Soto et al, 2008] se intro-ducen nuevas fórmulas borrosas (fuzzy) para cuantificar el grado de sinonimia y polisemia entre palabras y apr-ovechar estos valores para medir el grado de presencia en documentos de los conceptos o significados asocia-dos.

En dicho trabajo, la relación de sinonimia entre dos tér-minos t1, t2 de un vocabulario determinado V se define como una relación difusa (fuzzy) que expresa el grado relativo de sinonimia entre ambos términos:

()()()()1

2121,

tMtMtM

ttS�

=

Si tomamos por ejemplo las palabras auto y automobile en inglés, ambas comparten un significado común de acuerdo con el diccionario WordNet [Miller, 1995]:

“a motor vehicle with four wheels; usually pro-pelled by an internal combustion engine”

Pero automobile tiene aún otro significado; como verbo significa también:

“to travel in an automobile”.

Por tanto, dichas palabras no son términos totalmente equivalentes sino similares, pues no comparten todos sus significados. Desde el punto de vista de la fórmula

Modelos Difusos para la Recuperación de InformaciónO

ctub

re -

Dic

iem

bre

de 2

010

Page 19: Revista Computacion y Tecnologia 1ra Edicion

Investigación13

(6)

(7)

(8)

(9)

5, S(auto, automobile) = 1 ya que auto comparte todos sus significados con automobile. Sin embargo, S(automobile, auto) = 0.5, lo cual se debe a que automobile solo com-parte con auto un 50% de sus significados, por tanto el grado de sinonimia de automobile con auto es solo de un 50%.

Teniendo en cuenta que el número de significados que tiene un término juega un gran papel en este modelo se definen dos índices difusos (fuzzy). Por una parte, se define el índice de polisemia de un término Ip, el cual refleja el grado de polisemia de un término t a partir del número de significados Nm(t) que tiene asociados. Si t es término fuerte (i.e. strong, con un solo significado) entonces Nm(t) = 1 y Ip(t) = 0, es decir que no es poli-sémico en absoluto. En la medida que t tenga asociados más significados, el índice de polisemia crece, acercán-dose al valor límite de 1. Por tanto, a mayor fuerza del término el índice da cero (0) y a mayor debilidad da uno (1).

()()()()1

2121,

tMtMtM

ttS�

=

Teniendo en cuenta que esta interpretación puede re-sultar confusa para algunos, se introduce el índice de fortaleza de un término t como el inverso del índice an-terior:

()()()()1

2121,

tMtMtM

ttS�

=

De forma que si t es término fuerte (i.e. strong, con un solo significado) entonces Nm(t) = 1 y IF(t) = 1, es decir que alcanza la fortaleza máxima. En la medida que t tenga asociados más significados, Nm(t) crece y IF(t) decrece, acercándose al valor límite de 0. Por tanto, a

mayor fuerza del término el índice da uno (1) y a mayor debilidad da cero (0).

Al igual que en FIS-CRM, aún cuando un cierto térmi-no no aparezca en un documento se le puede adjudicar cierto grado de presencia a partir de los sinónimos del mismo que aparezcan en el documento. La idea básica de este enfoque es que, si en un documento aparecen repetidos varios términos que son sinónimos entre sí, el concepto que comparten dichos términos (i.e. me-diante el cual son sinónimos) aparece reflejado de la misma manera. Para medir la presencia de un determi-nado concepto ci en un documento dj se tiene en cuenta el número de veces que aparecen en el documento cada uno de los términos que comparten dicho significado o concepto. La fórmula, según se plantea en [Soto et al, 2008], empleada para medir el grado de presencia de un concepto en un documento es:

Donde T(m) representa el conjunto de términos que comparten el significado m, Nm(t) indica el número de significados del término t, nij indica el número de ocurrencias del término ti en el documento Dj , n*j es el número total de términos en Dj. En el caso de los térmi-nos polisémicos (i.e. con varios significados) se elegirá como interpretación del término, aquel significado que reciba un mayor peso, es decir que tenga mayor valor Cfj.

Definiremos Fi , j según la fórmula que aparece a continu-ación, el cual representa el factor o peso de la influencia del término ti en función del número de significados o interpretaciones Nm(ti) que tenga.

()()()()1

2121,

tMtMtM

ttS�

=

Modelos Difusos para la Recuperación de Información

Octubre - D

iciembre de 2010

()()j

mTt imij

j ntN

nmCf i

*

)(1

��

÷÷�

����

�×

=

Page 20: Revista Computacion y Tecnologia 1ra Edicion

Investigación14

Modelos Difusos para la Recuperación de Información

Por tanto, si en un documento Dj el termino ti no apa-rece, entonces ni ,j = 0 => Fij = 0.

Supongamos ahora que se tiene un documento Dj dado, el cual consta de (n*j =) 320 términos, de los cuales

termino ni ,j Nm Fi , j

car 20 5 20/5 = 4automobile 15 2 15/2 = 7.5

auto 10 1 10/1 = 10

y los demás términos vinculados con car no aparecen => el Fij correspondiente es cero (0). Por tanto (ver Ilustración 3)

Cfj(m3) = 1/n*j (4 + 7.5 + 10) = 1/320 (4 + 7.5 + 10) = 21.5 / 320

Mientras que

Cfj(m1) = 1/n*j (4) = 1/320 (4) = 4 / 320

Suponiendo que en la consulta original Q aparece el ter-mino t = car, los significados asociados a dicho término serán priorizados. Dado que los términos auto y auto-mobile que son sinónimos de car según m3 y aparecen en el documento y los otros términos como góndola, railcar, etc no aparecen consideraremos el documento responde a la consulta realizada.

Ilustración 3 Ejemplo relacionando palabras con significados

Teniendo en cuenta que se requiere comparar los docu-mentos entre sí y que los documentos hacen referencia a términos diferentes y, por tanto, a conceptos diferentes, se requiere utilizar un vocabulario o diccionario base, el cual supuestamente contiene todos los términos y con-ceptos requeridos. Si un término o concepto determina-do del vocabulario no aparece en un documento dado, su valor tf – idf se tomará igual a cero (0).

Al igual que se hizo con la métrica tf – idf, podemos rep-resentar cada documento mediante un vector de valores Cf j para todos los significados o conceptos referenciados en el mismo. Con estas nuevas fórmulas borrosas, el pro-ceso planteado en FIS-CRM se simplifica grandemente. Por otro lado, en FASPIR se utiliza el diccionario Word-Net [Fellbaum 1998] como base de datos léxica para las relaciones de sinonimia en lengua inglesa.

6. Implementación del Modelo Propuesto

P ara la implementación del modelo propuesto se partió de los modelos vectoriales anteriormente descritos. Teniendo en cuenta que los vectores

que representan los documentos tienen gran cantidad de coeficientes nulos (valor cero), se determinó utilizar una implementación del tipo COO (Coordinate list, lis-ta de coordenadas), la cual es el formato tradicional uti-lizado por el lenguaje MATLAB para el almacenamien-to de matrices dispersas (sparse). El formato COO almacena una lista de triplos (fila, columna, valor) para representar los coeficientes de la matriz.

En el caso que nos ocupa dichos triplos estarán forma-dos por (término, documento, valor), los cuales estarán ordenados, primero según el término, lo cual facilita la búsqueda de un término en la lista, y después ordena-dos de mayor a menor según el valor.

Oct

ubre

- D

icie

mbr

e de

201

0

Page 21: Revista Computacion y Tecnologia 1ra Edicion

Investigación15

Modelos Difusos para la Recuperación de Información

Ilustración 4 Estructura relacional de la tabla de índice.

Para poder implementar el modelo basado en sinóni-mos, se requiere conocer el número de veces que apa-rece cada término en cada documento de acuerdo con la ecuación 5 vista anteriormente. Para ello se creó una tabla de índices invertida con entradas del tipo COO, como se explicó anteriormente, denominada Indexa-do1 (ver Ilustración 4). En dicha tabla se almacena para cada término el número de veces que aparece en cada documento y se agrega además un campo con el valor tf – idf correspondiente según la ecuación 3.

En lugar de almacenar en la tabla de índices largas ca-denas de caracteres con los nombres de los ficheros y de los términos, se utilizaron códigos numéricos que, a manera de identificadores únicos o llaves externas (external keywords), permiten identificar de manera biunívoca cada término y cada documento. Para ello se implementó una tabla de Documentos y una tabla lexi-cográfica o tabla de Palabras (ver Ilustración 3). En la tabla lexicográfica se tiene una entrada por cada término aceptado, donde se almacena la cadena de car-acteres que conforma el término, así como un campo

numérico que actúa como identificador único del tér-mino. La tabla de Palabras almacena todos los términos existentes en el vocabulario de WORDNET. En la ver-sión 3 de este diccionario se ha almacenado un total de 155287 palabras incluyendo sustantivos, verbos, adver-bios y adjetivos.

Por otra parte, la tabla de Documentos tiene un formato similar a la de Palabras, solo que se agregan dos campos más: uno que indica el número total de términos que tiene el documento y otro que indica el número total de conceptos del documento.

Para implementar el modelo basado en sinónimos se requiere una tabla con los diferentes significados o con-ceptos aceptados para cada uno de los términos del vo-cabulario, la cual se denominó Glosario. Dicha tabla al-macena todos los conceptos existentes en el vocabulario WORDNET, para un total de 166422 conceptos dife-rentes. Igual que en la tabla Palabras, a cada concepto se le agregó un identificador numérico.

2 MATLAB at MathWorks http://www.mathworks.com/products/matlab/

Octubre - D

iciembre de 2010

Page 22: Revista Computacion y Tecnologia 1ra Edicion

Investigación16

La siguiente tabla que se requirió para implementar el modelo basado en sinónimos es la tabla de Sinónimos, la cual indica, por medio de los correspondientes iden-tificadores únicos, qué palabra está relacionada con cuál concepto. Lógicamente, una misma palabra puede apa-recer repetida varias veces en dicha tabla, tantas como significados diferentes tenga. Y viceversa, un concepto o significado puede aparecer repetido varias veces, tantas como sinónimos compartan dicho significado.

La tabla de índices denominada Indexado2 tiene una estructura similar a la tabla Indexado1, solo que en In-dexado2 se almacenan conceptos en lugar de palabras, así como el documento en el cual aparecen reflejados dichos conceptos, el número de veces que aparece cada concepto y la frecuencia del mismo.

Para construir la tabla de Indexado1 se realizó un trata-miento especial al texto contenido en los documentos, el cual se describe a continuación:

1. Remover las palabras que no aporten significado. Para ello se investigó qué palabras podían considerarse en esta categoría, encontrando que las interjecciones, prep-osiciones, pronombres, artículos, etc. debían ser exclu-idas del tratamiento posterior por su extremado uso. En el algoritmo que se diseño para identificar y contabilizar las palabras en los textos, se hizo un modulo que exclu-yera dichas palabras, atendiendo así al esquema de TF-IDF en cuanto a eliminar las palabras que virtualmente ocurren en todos los documentos y que, por ende, son menos importantes.

2. Normalizar las palabras. Los signos de puntuación y otros como los acentos pueden constituir un problema para la creación del índice. Muchas veces se encontraron palabras que parecieran idénticas, pero no lo eran por que unas tenían acentos y otras tenían otros signos que eran inservibles para el alcance del proyecto. Por ello el algoritmo, cada vez que se identifica una palabra, la nor-maliza.

3. Extraer la raíz de las palabras (Stemming): Este ha sido uno de los aspectos más complicados de la imple-mentación, ya que muchas palabras como los verbos aparecen conjugadas en diferentes tiempos, por lo cual

tienden a considerarse como palabras diferentes. Lo mismo sucede con los sustantivos en plural y singular. Si tratamos de simplificar esto extrayendo la raíz de las pal-abras de acuerdo con el proceso de stemming, entonces las raíces obtenidas no corresponden con las palabras que aparecen en el diccionario. Y peor aún, palabras diferentes con significados diferentes, aunque cercanos, comparten la misma raíz, pero no los mismos concep-tos.

4. Contabilizar palabras. Una vez hecho lo anterior, ya se puede contabilizar cada una de las palabras del docu-mento, así como saber cuantas palabras tiene el mismo en total.

5. Calcular la frecuencia de las palabras Para calcular la frecuencia de cada palabra se divide el número de veces que se repite entre el total de palabras que contenga el documento. Después de hacer todos estos cálculos, se ingresan a la tabla de Indexado1.

6. Calcular la frecuencia de los conceptos Para calcular la frecuencia de cada concepto se requiere, para cada pa-labra que aparece en el documento, determinar cuáles conceptos tiene asociados. Luego para cada uno de di-chos conceptos, se determina cuantas veces se repite en dicho documento, cada uno de los sinónimos asociados. De los múltiples conceptos asociados a una palabra se elije como concepto predominante en el documento, aquel que reciba mayor puntaje y a ese concepto se le asocia todo el grado de presencia del concepto determi-nado según la ecuación 5.

7. Resultados

Se han implementado las estrategias de búsqueda propuestas para la recuperación de información en una PC Pentium 4 utilizando la plataforma

Java. Se procesaron 1998 documentos de la colección de CLEF, indexando un total de 352,640 palabras. Cada ar-chivo consta de varias partes, incluyendo identificador numérico, titulo, nombres de los autores y resumen. La creación del indexado se realizó según lo descrito en la sección de implementación, y fue la que se utilizó para extraer las palabras de los documentos señalados.

Modelos Difusos para la Recuperación de InformaciónO

ctub

re -

Dic

iem

bre

de 2

010

Page 23: Revista Computacion y Tecnologia 1ra Edicion

Investigación17

En la primera columna de la Tabla 2 se muestran diez consultas de un total de 100, las cuales fueron realiza-das con ayuda del sistema, el cual dio como resultado en cada caso una lista de documentos recuperados. Los valores de la columna Búsqueda por Término y Búsque-da por Sinónimo fueron calculados usando los métodos propuestos en la sección de implementación.

Consultas Búsqueda por Sinónimo Búsqueda por SinónimoAmérica 97 655

Film 74 94

businnes 264 609

information 126 156

engineering 47 87

genetic 7 23

economic 101 112

computer 43 44

automobile 2 181

music 110 146

phone 46 110

Tabla 2 Valores recuperados en las pruebas realizadas

Si denotamos

• CBT(P): conjunto de documentos recuperados medi-ante el método de búsqueda por término a partir de una consulta sobre la palabra P

• CBS(P): conjunto de documentos recuperados medi-ante el método de búsqueda por sinónimos a partir de una consulta sobre la palabra P

Del análisis de los resultados obtenidos de los 100 ex-perimentos se concluyó que:

1. Cardinal de CBS(P) ≥ Cardinal de CBT(P) para todas las palabras con las que se experimentó, es decir que, la cantidad de documentos recuperados mediante el método de búsqueda por sinónimos (BS) siempre fue mayor o igual que la cantidad obtenida por el método basado en términos (BT).

2. En el 62% de los casos, es decir en la mayoría de los casos, Cardinal de CBS(P) > Cardinal de CBT(P), es decir que, la cantidad de documentos recuperados me-diante el método de búsqueda por sinónimos (BS) fue mayor que la cantidad obtenida por el método basado en términos (BT).

3. En el 38% restante, Cardinal de CBS(P) = Cardinal de CBT(P) ambos métodos coincidieron

4. Es de destacar que,

a. en ningún caso, Cardinal de CBS(P) < Cardinal de CBT(P), el método basado en términos sobre pasó al basado en sinónimos.

b. en todos los caso, CBT(P) CBS(P), el método ba-sado en los sinónimos recupera, al menos, los mismos documentos que recupera el método basado en los tér-minos más otros más

8. Conclusiones

E n el presente trabajo se presentan los resultados obtenidos hasta el momento en la evaluación de un método que busca medir la presencia de

los aspectos conceptuales existentes en los documentos mediante la sinonimia, dado que los conjuntos de tér-minos sinónimos tienen asociado un significado o con-cepto determinado. En el trabajo se parte de la premisa siguiente: si, en un mismo documento, se hace referen-cia a varios términos que son sinónimos entre sí, dichos términos comparten un mismo significado o concepto, entonces es probable que el documento trate o esté rela-cionado con dicho concepto.

Como parte del trabajo se han implementado tanto el método basado en términos tradicional, el cual se basa en la métrica TF – IDF y el método basado en sinóni-mos, cuya implementación se describe brevemente en las secciones anteriores. Se llevó a cabo la creación de la tabla de índices por términos y por sinónimos con parte de la colección CLEF, así como la implementación de

Modelos Difusos para la Recuperación de Información

Octubre - D

iciembre de 2010

Page 24: Revista Computacion y Tecnologia 1ra Edicion

Investigación18

la búsqueda por términos (BT) y por sinónimos (BS). Los resultados obtenidos con el método basado en sinónimos se han comparado con los resultados obteni-dos mediante el método basado en la métrica TF – IDF, aplicados ambos a la colección CLEF. Los resultados muestran que, después de aplicar ambos métodos a 1998 documentos de la colección, indexando un total de 352,640 palabras, en todos los experimentos realiza-dos:

1) el método basado en sinónimos recuperó, en todos los experimentos realizados, al menos los mismos docu-mentos que recupera el método basado en frecuencia de términos y, en general, otros más.

2) en 62% de los casos el método basado en sinónimos recuperó mayor cantidad de documentos que el basado en frecuencia de términos.

Aunque el método propuesto aun se encuentra en fase de experimentación los resultados son bastante alenta-dores y promisorios hasta el momento.

En el futuro inmediato se prevé aplicar ambos méto-dos a toda la colección CLEF y experimentar con otras colecciones como Reuters. Posteriormente se pretende probar otros mecanismos de recuperación basados en conceptos.

Modelos Difusos para la Recuperación de InformaciónO

ctub

re -

Dic

iem

bre

de 2

010

Page 25: Revista Computacion y Tecnologia 1ra Edicion

Investigación19

Referencias

Baeza Yates, R., “Untangling the Skein” versión actual-izada de Desenredando la madeja. NOVATICA, edición Especial 25 aniversario, 145, pags. 72-77, may.-jun. 2000.Baeza-Yates, R., Ribeiro Neto, B., “Modern Information Retrieval”, Addison-Wesley-Longman Publishers, ACM Press, New York, 1999.Blecua, J.M., “Diccionario Avanzado de Sinónimos y Antónimos de la Lengua Española”, Diccionarios de len-gua española Vox, Barcelona, pp 647, 1997.Fellbaum, C., “WordNet: An Electronic Lexical Data-base”. Cambridge, MA: MIT Press, 1998.Fernandez, S., “Una contribución al procesamiento au-tomático de la sinonimia utilizando Prolog”, Ph.D. the-sis, Santiago de Compostela University, Spain, pp 358, 2001.Fernandez, S., Grana, J., Sobrino, A., “A Spanish e-dic-tionary of synonyms as a fuzzy tool for information re-trieval”, In Actas de las I Jornadas de Tratamiento y Re-cuperación de Información, JOTRI 2002, León, Spain, 2002.Garcés, P.J., Olivas, J.A., Romero, F.P., “FIS-CRM: A Representation Model Based on Fuzzy Interrelations for Internet Search”, ICAI-02, pp 219-224, 2002.Manning, C.D., Raghavan, P., and Schütze, H., “Intro-duction to Information Retrieval”, Cambridge Univer-sity Press, 2008.Miller, G.A., “WordNet: A Lexical Database for Eng-lish”. Communications of the ACM Vol. 38, No. 11: 39-41, 1995.Ricarte, I., Gomide, F., “A reference model for intelli-gent information search”. Proceedings of the BISC Int. Workshop on Fuzzy Logic and the Internet, pp 80-85, 2001Olivas, J.A., Garces, P.J., Romero, F.P., “An application of the FIS-CRM model to the FISS metasearcher: Us-ing fuzzy synonymy and fuzzy generality for represent-ing concepts in documents”. Int. J. Approx. Reasoning 34, (2-3), pp 201-219, 2003.

Soto, A., Olivas, J.A. and Prieto, M.E., “Fuzzy Approach of Synonymy and Polysemy for Information Retrieval”, Granular Computing: at the Junction of Rough Sets and Fuzzy Sets, Studies in Fuzziness and Soft Computing, Volume 224/2008, 179-198, 2008.

Modelos Difusos para la Recuperación de Información

Octubre - D

iciembre de 2010

Page 26: Revista Computacion y Tecnologia 1ra Edicion

Investigación20

Estudio de variantes de Evolución Diferencial por cruza dis-creta y aritmética

Study of differential evolution variants for discrete and arithmetic crossing

Pérez Rejón José Ángel1, Gómez Ramón Rubí del Carmen1, Canto Rodríguez Juan Carlos1, Pérez Crúz Damaris1

1 Universidad Autónoma del Carmen { [email protected], [email protected], [email protected], [email protected] }

L os algoritmos evolutivos se han convertido en una opción viable para resolver problemas comple-jos de búsqueda, principalmente problemas de

optimización. La Evolución Diferencial (ED) es el al-goritmo evolutivo mas reciente (propuesto en 1995) y ha demostrado tener un desempeño muy competitivo en problemas de optimización numérica. Con base en una revisión de la literatura especializada se ha notado que no se cuenta con estudios que permitan conocer cual(es) variante(s) de ED, en sus versiones originales, son más adecuadas para resolver problemas de optimización en espacios restringidos. La tendencia actual por parte de los investigadores es tomar una variante (sin un estudio previo) y modificarla agregando otros mecanismos y re-solver problemas de prueba. En este trabajo se propone realizar un estudio para analizar el desempeño de vari-antes de ED en sus versiones originales en problemas de optimización con restricciones. Se contempla analizar cuatro variantes de ED para determinar cuáles proveen el mejor desempeño al resolver un conjunto de funciones de prueba.

E volución Diferencial (ED) es uno de los algorit-mos evolutivos más recientes, nació en 1994 de los intentos de Price y Storn por resolver el prob-

lema polinomial Chebychev. Al siguiente año estos dos autores propusieron ED en [7] para la optimización de funciones no lineales y no diferenciables sobre espacios continuos.

El algoritmo de ED es un método de búsqueda directa y estocástica, que ha demostrado ser efectivo, eficien-te y robusto [7] en una gran variedad de aplicaciones como el aprendizaje de una red neuronal [2], diseño de un filtro-IIR [6], la optimización aerodinámica [8] y

E volutionary algorithms have become a viable op-tion for solving complex search problems, espe-cially optimization problems. Differential Evolu-

tion (DE) is the recent evolutionary algorithm (proposed in 1995) and has demonstrated a very competitive per-formance in numerical optimization problems. Based on a review of the specialized literature has noted that not counted with studies which show that (s) variant (s) of DE, in their original versions, are more suitable for solv-ing optimization problems constrained spaces. The pres-ent tendency by researchers is taking a variant (without a previus study) and modify it by adding other mecha-nisms and solving problems of test. This paper approach a study to analyze the performance of variants of ED in their original versions in constrained optimization prob-lems. Is intended to analyze four variants of ED to deter-mine which provide the best performance by solving a set of test functions.

RESUMEN ABSTRACT

1. Introducción

Palabras Clave:Evolución Diferencial, variantes, funciones de prueba, parámetros de control y medidas estadísticas.

Keywords: Information Retrieval, TF – IDF, fuzzy model based on concepts, synonymy.

otras encontradas en [3,9]. ED cuenta con un número de características importantes las cuales lo hacen atrac-tivo para resolver problemas de optimización global, entre ellas se destacan las siguientes: tiene la capacidad de manejar funciones objetivo no diferenciables, no lin-eales y multimodales, suele converger al óptimo, utiliza pocos parámetros de control, etc. [5].

2. Descripción del algoritmo de ED

E l algoritmo de Evolución Diferencial maneja dos poblaciones diferentes dentro del proceso de optimización: la población primaria y una po-

blación secundaria. La primera almacena la población actual, que a su vez se genera al inicio de manera aleato-

Artículo recibido el 11 de Junio del 2010 Artículo aceptado el 20 de Agosto del 2010

Oct

ubre

- D

icie

mbr

e de

201

0

Page 27: Revista Computacion y Tecnologia 1ra Edicion

Investigación21

ria, y la población secundaria almacena a los individuos que resultan exitosos en el proceso de selección. La rep-resentación gráfica de ambas poblaciones se muestra en la figura 1.

Como primer paso del algoritmo de ED, se genera alea-toriamente la población inicial, donde los vectores están uniformemente distribuidos en el espacio de búsqueda dentro de los límites definidos.

Una vez inicializada la población, ED utiliza la mutación y la recombinación para producir un solo vector hijo (trial) por cada vector de la población. Para la gener-ación del vector hijo se requiere primero llevar a cabo el proceso de mutación, el cual consiste en: a) Seleccionar aleatoriamente tres vectores diferentes entre sí, b) Se restan dos de ellos, a la diferencia se aplica un peso dado por un factor “F” y por último d) Se suma la diferencia escalada al tercer vector; de esta manera se crea un vec-tor llamado vector de mutación.

La figura 2 muestra gráficamente el proceso de mu-tación. El factor escalar FЄ[0,1] es un número real posi-tivo que escala el vector de diferencia. La mutación en ED es el principal mecanismo para generar nuevas direc-ciones de búsqueda.

Posteriormente, se hace la cruza o recombinación entre el vector padre y el vector de mutación con el propósito de generar un vector hijo. Cr Є [0,1] controla la canti-dad de variables de decisión (parámetros) que se copian del vector de mutación al vector hijo.

La cruza intercambia información entre los vectores participantes con el propósito de buscar una mejor solu-ción en el espacio de búsqueda.

Todos los vectores de la población serán seleccionados sólo una vez como padre sin depender del valor de la función objetivo (valor de aptitud). Después de obtener el vector hijo, éste se evalúa en la función objetivo del problema y se compara con el vector padre con base en su valor de la función objetivo, y el mejor pasa a for-mar parte a la población de la siguiente generación. Si el vector padre todavía es mejor, éste es conservado en la siguiente generación.En ED el proceso de mutación, de recombinación y de

selección es repetido hasta que llegue a un criterio de terminación especificado por el usuario, en este caso nos referimos al número máximo de generaciones (iteracio-nes) Gmax.

3. Variantes de ED

E n la literatura especializada encontramos dife-rentes variantes de ED propuestas por Price y Storn, que dependen del tipo de problema al

que se aplique. Entre ellas se destacan las siguientes: rand/1/bin, rand/1/exp, best/1/bin, best/1/exp, cur-rent-to-rand/1, current-to-best/1, current-to-rand/1/bin y current-to-rand/1/exp [5].

Estas variantes se distinguen por la manera que se lleva a cabo el proceso de mutación y de recombinación. Con la intención de brindar una descripción más clara de cada variante, en este trabajo se propone una clasificación de las variantes con respecto al tipo de recombinación (cruza) que utilizan:

a) Recombinación discreta: consiste en copiar directa-mente al vector hijo las variables de decisión del vector de mutación o del vector padre. Esta recombinación o cruza es utilizada por las siguientes variantes: rand/1/bin, rand/1/exp, best/1/bin y best/1/exp.

La nomenclatura de estas cuatro variantes es la siguien-te DE/x/y/z, donde DE indica que estamos trabajando con el Algoritmo de Evolución Diferencial, “x” repre-senta la forma en la que es elegido el vector base, que puede ser aleatoriamente “rand” o aquel vector con el mejor valor de la función objetivo en la generación ac-tual “best”, “y” es el número de pares de vectores para el cálculo de las diferencias y finalmente “z” representa el tipo de recombinación.

A su vez la recombinación discreta se clasifica en dos tipos: binomial y exponencial. Si se utiliza la cruza bino-mial (“bin”) las variables de decisión del vector de mu-tación son copiados en el vector hijo si el valor de randj es menor al valor “Cr”, en caso contrario, se copian del vector padre, esta comparación se realiza para todas las variables. En la cruza exponencial (“exp”) las variables del vector de mutación se copian en el vector hijo mien-

EEstudio de variantes de Evolución Diferencial por cruza discreta y aritmética

Octubre - D

iciembre de 2010

Page 28: Revista Computacion y Tecnologia 1ra Edicion

Investigación22

Figura 1. Diagrama de la versión original de ED.

Estudio de variantes de Evolución Diferencial por cruza discreta y aritméticaO

ctub

re -

Dic

iem

bre

de 2

010

Page 29: Revista Computacion y Tecnologia 1ra Edicion

Investigación23

Figura 2. Esquema del operador de mutación del algoritmo de Evolución Diferencial

tras que el valor de randj sea menor al valor del pará-metro “Cr”, pero una vez que randj supere al valor de Cr, la variable actual y el resto de las variables se copian del vector padre. La figura 3 ilustra un ejemplo de la manera como opera la cruza binomial y la cruza exponencial.

De estas cuatro variantes, la rand/1/bin es la versión original del algoritmo de Evolución Diferencial y la más popular.

b) Recombinación aritmética: genera al vector hijo me-diante una combinación lineal entre el vector padre y el vector base, el cual puede ser elegido aleatoriamente “rand” o bien, aquel con el mejor valor de la función ob-jetivo en la generación actual “best”. Para esta cruza no se usa el parámetro “Cr”. Las variantes current-to-rand y current-to-best utilizan este tipo de cruza. El término current indica que al vector actual también conocido como padre se le va sumar las diferencias escaladas. Además introducen un coeficiente real K Є[0,1] respon-sable del nivel de combinación que ocurre entre el vec-tor padre (target) y el vector base. F es el responsable de escalar a los vectores de diferencias. Véase la figura 4.

c) Las variantes current-to-rand/p/bin y la current-to-rand/p/exp manejan al mismo tiempo los dos tipos de recombinación descritos anteriormente (recombi-nación discreta y la aritmética).

EEstudio de variantes de Evolución Diferencial por cruza discreta y aritmética

Octubre - D

iciembre de 2010

Page 30: Revista Computacion y Tecnologia 1ra Edicion

Investigación24

Figura 3. (a)Cruza binomial (b)Cruza exponencial asumiendo jrand=0

Figura 4. Esquema del proceso de mutación y de recombinación de la variante current-to-rand

Estudio de variantes de Evolución Diferencial por cruza discreta y aritméticaO

ctub

re -

Dic

iem

bre

de 2

010

Page 31: Revista Computacion y Tecnologia 1ra Edicion

Investigación25

Parámetros ValorNp = Tamaño de la población 90Gmax = Número máximo de generaciones 5556

Cr = Probabilidad de Cruza 1.0

F = Factor escalar 0.9

K = Parámetro de la cruza aritmética 0.9

Tabla 1. Parámetros de control utilizado por el Algoritmo de ED

4. Estudio Comparativo de las variantes de ED

E l estudio propuesto en este trabajo consta de la comparación de cuatro variantes de Evolución Diferencial empleando 24 funciones de prue-

bas para evaluar el desempeño de cada una de ellas y en términos de resultados estadísticos poder determinar cuáles son las que presenta un mejor desempeño gen-eral.

Las variantes de ED consideradas para la primera fase son: rand/1/bin, best/1/bin, current-to-rand/1 y por último current-to-best/1. Se omitieron las variantes rand/1/exp y best/1/exp porque, para eliminar la in-fluencia de parámetros contemplados en este estudio se decidió fijar el valor de Cr a 1,0 lo que ocasiona que la variante rand/1/exp opere equivalentemente como la rand/1/bin, esto ocurre igual con la best/1/exp. Tam-bién se eliminaron las dos últimas variantes (current-to-rand/1/bin y current-to-rand/exp), pues se consid-eró como elemento de comparación a las variantes que manejan un solo tipo de recombinación y ellas combi-nan los dos tipos de cruza en un solo operador.

Para llevar a cabo las pruebas se fijó el número total de evaluaciones de la función objetivo a 500,040. También se fijaron los valores de los parámetros NP, Gmax, F, Cr y K, los valores de dichos parámetros son mostrados en la tabla 1, se empleó un conjunto de funciones de prue-ba estándar encontradas en la literatura especializada (Véase en la siguiente sección) para evaluar el desempe-ño de las principales variantes de Evolución Diferencial. Por cada variante y función se efectuaron 30 corridas (cada corrida con diferente semilla inicial).

Las restricciones de igualdad se transformaron en restricciones de desigualdad con una tolerancia de ε=0.0001 y para el manejo de restricciones se usaron las reglas de factibilidad introducida por Deb [1], las cu-ales son las siguientes: a) De dos soluciones factibles, se elige a la que tenga mejor valor de la función objetivo, b) De dos soluciones no factibles, se selecciona la que tenga la menor suma de violación de las restricciones, c) De dos soluciones, factible y no factible, se elige la solución factible

5. Funciones de prueba

L as 24 funciones de pruebas que se emplearon, propuestas en [4], tienen diferentes característi-cas tales como el tipo de función objetivo (lin-

eal, no lineal, cuadrática, etc.), el tipo y número de re-stricciones (igualdad y desigualdad), así como también el número de variables de decisión del problema. En la tabla 2 se muestran a detalle las características de cada una de las funciones.

EEstudio de variantes de Evolución Diferencial por cruza discreta y aritmética

Octubre - D

iciembre de 2010

Page 32: Revista Computacion y Tecnologia 1ra Edicion

Investigación26

Función n Tipo de función p DL DN IL IN αg01 13 cuadrática 0.0111 % 9 0 0 0 6g02 20 no lineal 99.9971 % 0 2 0 0 1g03 10 polinomial 0.0000 % 0 0 0 1 1g04 5 cuadrática 52.1230 % 0 6 0 2 2g05 4 cúbica 0.0000 % 2 0 0 3 3g06 2 cúbica 0.0066 % 0 2 0 0 2g07 10 cuadrática 0.0003 % 3 5 0 0 6

g08 2 no lineal 0.8560 % 0 2 0 0 0g09 7 polinomial 0.5121 % 0 4 0 0 2g10 8 lineal 0.0010 % 3 3 0 0 6g11 2 cuadrática 0.000 % 0 0 0 1 1g12 3 cuadrática 4.7713 % 0 1 0 0 0g13 5 no lineal 0.0000 % 0 0 0 3 3g14 10 no lineal 0.0000 % 0 0 3 0 3g15 3 cuadrática 0.0000 % 0 0 1 1 2g16 5 no lineal 0.0204 % 4 34 0 0 4g17 6 no lineal 0.0000 % 0 0 0 4 4g18 9 cuadrática 0.0000 % 0 13 0 0 6g19 15 no lineal 33.4761 % 0 5 0 0 0g20 24 lineal 0.0000 % 0 6 2 12 16g21 7 lineal 0.0000 % 0 1 0 5 6g22 22 lineal 0.0000 % 0 1 8 11 19g23 9 lineal 0.0000 % 0 2 3 1 6g24 2 lineal 79.6556 % 0 2 0 0 2

Tabla 2. Funciones encontradas en la literatura especializada, n es el número de variables de decisión, p = |F|/|S| es el radio estimado entre la región factible y el espacio de búsqueda, es DL es el número de restricciones de desigual-dad lineal, DN número de restricciones de desigualdad no lineal, IL número de restricciones de igualdad lineal, LN número de restricciones de igualdad no lineal, a es el número de restricciones activas en el valor óptimo global

A los resultados obtenidos de las 30 corridas por cada variante-problema se aplicaron medidas estadísticas para determinar cuál variante al-

canza de manera consistente el óptimo en la mayor cantidad de problemas.Las medidas estadísticas que se emplearon son: el mejor (indica la mejor solución en-contrada), el peor (la peor solución encontrada), la me-dia, la mediana y la desviación estándar. (Véase la tabla 3).

En la tabla 3 se observa que para la función g01 las vari-antes rand/1/bin y current-to-rand llegan al óptimo

6. Resultados y análisis

global. En la función g02 todas las variantes proporcio-nan soluciones factibles pero las variantes rand/1/bin y current-to-rand/1 son las únicas que llegan a la solución óptima, en g03 también todas las variantes generan so-luciones factibles, pero la que llegó a la solución óptima es la variante best/1/bin, en g04 todas llegaron al valor óptimo, en g05 solo se aproximan a la solución óptima las variantes rand/1/bin y current-to-rand. En g06, la variante current-to-best/1 se aproxima al óptimo en la mayoría de las corridas. Sin embargo, el resto de las vari-antes llegan a converger al óptimo en las treinta corridas (cuando el valor de la desviación estándar es 0).

Estudio de variantes de Evolución Diferencial por cruza discreta y aritméticaO

ctub

re -

Dic

iem

bre

de 2

010

Page 33: Revista Computacion y Tecnologia 1ra Edicion

Investigación27

Para las funciones g07, g08, g09, g10, g11 y g12 todas las variantes llegan a la solución óptima de manera muy consistente y en la función g07 todas llegan a converger al óptimo en las 30 corridas (Desviación estándar de 0) se observa en la tabla 4.

Se observa en la tabla 5 que para la función g13 la cur-rent-to-rand/1 no llegó al óptimo pero en cambio el resto si logró alcanzarlo, en g14 nada más las variantes rand/1/bin y current-to-rand/1 llegan al óptimo, en

g15 y g16 todas las variantes llegan alcanzar el óptimo, en g17 la variante rand/1/bin es la que se aproxima más al óptimo y por último en g18 todas llegan a la solución óptima.

En g19 todas la variantes se aproximan al valor óptimo, en g21 nada más se aproximan al valor óptimo las vari-antes rand/1/bin y current-to-rand/1, en g23 las vari-antes rand/1/bin y current-to-rand/1 llegan al óptimo y en g24 todas llegan al óptimo de manera consistente.

EEstudio de variantes de Evolución Diferencial por cruza discreta y aritmética

Octubre - D

iciembre de 2010

Page 34: Revista Computacion y Tecnologia 1ra Edicion

Investigación28

Tabla 3. Resultados estadísticos correspondientes a las 30 ejecuciones de cada variante para las funciones g01, g02, g03, g04, g05 y g06. El valor remarcado en negritas indica el valor óptimo global es decir la mejor solución conocida y las celdas que contienen un guión horizontal indican que no se logró obtener soluciones factibles en las 30 corridas.

g01

g02

g03

g04

g05

g06

Rand/1/bin Best/1/bin Current-to-rand/1 Current-to-best/1

Óptimo -15 -15 -15 -15

Mejor -15 - 15 -

Peor -14.999951 - -14.999998 -Media -14.9999946 - -14.9999996 -

mediana -14.999998 - -15 -

Desv. estándar 9.97 E.06 - 7.28 E.07 -

Óptimo 0.803619 0.803619 0.803619 0.803619

Mejor 0.803608 0.751132 0.803618 0.773191

Peor 0.714626 0.28762 0.746902 0.540258

Media 0.77291897 0.61232043 0.79236963 0.6772676

mediana 0.784534 0.612947 0.79274 0.704288

Desv. estándar 0.02861662 0.08491737 0.01252134 0.06767884

Óptimo 1 1 1 1Mejor 0.40623 1 0.400828 1

Peor 0.007327 0.825392 0.000013 0.702469

Media 0.148079 0.99077 0.0547435 0.98630805mediana 0.121313 1 0.015214 1Desv. estándar 0.11822676 0.04127291 0.08591928 0.0650357

Óptimo -30665.539 -30665.539 -30665.539 -30665.539Mejor -30665.5387 -30665.5387 -30665.5387 -30665.5387

Peor -30665.5387 -30665.5387 -30665.5387 -30665.5387Media -30665.5387 -30665.5387 -30665.5387 -30665.5387mediana -30665.5387 -30665.5387 -30665.5387 -30665.5387Desv. estándar 2.22 E-11 2.22 E-11 2.22 E-11 2.22 E-11

Óptimo 5126.4981 5126.4981 5126.4981 5126.4981

Mejor 5126.49671 - 5126.49671 -Peor 5126.49671 - 5300.25062 -Media 5126.49671 - 5136.50715 -

mediana 5126.49671 - 5126.49671 -Desv. estándar 1.85 E-12 - 36.3450352 -

Óptimo -6961.81388 -6961.81388 -6961.81388 -6961.81388Mejor -6961.81388 -6961.81388 -6961.81388 -6961.81388Peor -6961.81388 -6961.81388 -6961.81388 -4898.64301Media -6961.81388 -6961.81388 -6961.81388 -6961.81388mediana -6961.81388 -6961.81388 -6961.81388 -6961.81388Desv. estándar 0 0 0 568.149718

Funciones Medidas

Estudio de variantes de Evolución Diferencial por cruza discreta y aritméticaO

ctub

re -

Dic

iem

bre

de 2

010

Page 35: Revista Computacion y Tecnologia 1ra Edicion

Investigación29

Tabla 4. Resultados estadísticos correspondientes de 30 ejecuciones de cada variante para las funciones g07, g08, g09, g10, g11 y g12. El valor remarcado en negritas indica el valor óptimo global es decir la mejor solución conocida y las celdas que contienen un guión horizontal indican que no se logró obtener soluciones factibles en las 30 corridas.

g07

g08

g09

g10

g11

g12

Rand/1/bin Best/1/bin Current-to-rand/1 Current-to-best/1

Óptimo 24.306 24.306 24.306 24.306

Mejor 24.306 24.306 24.306 24.306

Peor 24.306 24.306 24.306 24.306Media 24.306 24.306 24.306 24.306

mediana 24.306 24.306 24.306 24.306

Desv. estándar 0 0 0 0

Óptimo 0.096 0.096 0.096 0.096

Mejor 0.096 0.096 0.096 0.096

Peor 0.096 0.096 0.096 0.096

Media 0.096 0.096 0.096 0.096

mediana 0.096 0.096 0.096 0.096

Desv. estándar 4.230 E-17 4.230 E-17 4.230 E-17 4.230 E-17

Óptimo 680.630 680.630 680.630 680.630Mejor 680.630 680.630 680.630 680.630

Peor 680.630 680.630 680.630 680.630

Media 680.630 680.630 680.630 680.630mediana 680.630 680.630 680.630 680.630Desv. estándar 1.160 E-13 1.160 E-13 1.160 E-13 1.160 E-13

Óptimo 7049.331 7049.331 7049.331 7049.331Mejor 7049.331 7049.331 7049.331 7049.331

Peor 7049.331 7049.331 7049.331 7049.331Media 7049.331 7049.331 7049.331 7049.331mediana 7049.331 7049.331 7049.331 7049.331Desv. estándar 4.630 E-12 0.000 E+00 4.630 E-12 1.890 E-12

Óptimo 0.750 0.750 0.750 0.750

Mejor 0.750 0.750 0.750 0.750Peor 0.750 0.750 0.750 0.750Media 0.750 0.750 0.750 0.750

mediana 0.750 0.750 0.750 0.750Desv. estándar 1.130 E-16 1.130 E-16 6.573 E-02 8.228 E-02

Óptimo 1 1 1 1Mejor 1 1 1 1Peor 0.990 1 0.990 0.993Media 0.995 1 0.998 1mediana 0.993 1 1 1Desv. estándar 3.864 E-03 1.580 E-06 3.364 E-03 1.205 E-03

Funciones Medidas

EEstudio de variantes de Evolución Diferencial por cruza discreta y aritmética

Octubre - D

iciembre de 2010

Page 36: Revista Computacion y Tecnologia 1ra Edicion

Investigación30

Tabla 5. Resultados estadísticos correspondientes de 30 ejecuciones de cada variante para las funciones g13, g14, g15, g16, g17 y g18. El valor remarcado en negritas indica el valor óptimo global es decir la mejor solución conocida y las celdas que contienen un guión horizontal indican que no se logró obtener soluciones factibles en las 30 corridas.

g13

g14

g15

g16

g17

g18

Rand/1/bin Best/1/bin Current-to-rand/1 Current-to-best/1

Óptimo 0.054 0.054 0.054 0.054Mejor 0.054 0.054 0.441 0.054

Peor 0.439 0.054 1 0.955Media 0.239 0.054 0.929 0.141

mediana 0.439 0.054 0.980 0.054

Desv. estándar 1.816 E-01 1.331 E-01 1.469 E-01 2.101 E-01

Óptimo -47.751 -47.751 -47.751 -47.751

Mejor -17.765 - -17.765 -

Peor -17.765 - -17.765 -

Media -17.765 - -17.765 -

mediana -17.765 - -17.765 -

Desv. estándar 7.230 E-15 - 7.230 E-15 -

Óptimo 961.715 961.715 961.715 961.715Mejor 961.715 961.715 961.715 961.715

Peor 961.715 961.715 961.715 961.715

Media 961.715 961.715 963.621 961.715mediana 961.715 961.715 961.876 961.715Desv. estándar 2.310 E-13 2.310 E-13 4.069 E-01 2.310 E-13

Óptimo 1.905 1.905 1.905 1.905Mejor 1.915 1.915 1.915 1.915

Peor 1.915 1.915 1.915 1.915Media 1.915 1.915 1.915 1.915mediana 1.915 1.915 1.915 1.915Desv. estándar 9.030 E-16 9.030 E-16 9.030 E-16 9.030 E-16

Óptimo 8853.539 8853.539 8853.539 8853.539

Mejor 8927.589 8853.540 8927.598 8853.540Peor 8939.130 8853.540 8942.875 8853.540Media 8910.085 8853.540 8916.104 8853.540

mediana 8927.598 8853.540 8928.683 8853.540Desv. estándar 3.475 E+01 5.550 E-12 3.190 E+01 5.550 E-12

Óptimo 0.866 0.866 0.866 0.866Mejor 0.853 0.851 0.853 0.853Peor 0.853 0.855 0.853 0.853Media 0.853 0.853 0.853 0.853mediana 0.853 0.855 0.853 0.853Desv. estándar 1.830 E-07 2.516 E-04 7.140 E-06 1.710 E-06

Funciones Medidas

Estudio de variantes de Evolución Diferencial por cruza discreta y aritméticaO

ctub

re -

Dic

iem

bre

de 2

010

Page 37: Revista Computacion y Tecnologia 1ra Edicion

Investigación31

Tabla 6. Resultados estadísticos correspondientes de 30 ejecuciones de cada variante para las funciones g19, g20, g21, g22, g23 y g24. El valor remarcado en negritas indica el valor óptimo global es decir la mejor solución conocida y las celdas que contienen un guión horizontal indican que no se logró obtener soluciones factibles en las 30 corridas.

g19

g20

g21

g22

g23

g24

Rand/1/bin Best/1/bin Current-to-rand/1 Current-to-best/1

Óptimo -32.386 -32.386 -32.386 -32.386Mejor -29.879 -29.842 -29.850 -29.842

Peor -29.846 -29.842 -29.844 -29.842Media -29.855 -29.842 -29.845 -29.842

mediana -29.855 -29.842 -29.845 -29.842

Desv. estándar 6.930 E-03 1.799 E-02 1.476 E-03 3.610 E-15

Óptimo 0.0967 0.0967 0.0967 0.0967

Mejor - - - -

Peor - - - -

Media - - - -

mediana - - - -

Desv. estándar - - - -

Óptimo 193.778 193.778 193.778 193.778Mejor 193.725 - 193.725 -

Peor 324.703 - 324.703 -

Media 237.384 - 215.554 -mediana 193.725 - 193.725 -Desv. estándar 6.280 E+01 - 4.965 E+01 -

Óptimo 12812.5 12812.5 12812.5 12812.5Mejor - - - -

Peor - - - -Media - - - -mediana - - - -Desv. estándar - - - -

Óptimo -400.055 -400.055 -400.055 -400.055

Mejor -400.055 - -400.055 -Peor -399.864 - -364.927 -Media -400.047 - -397.579 -

mediana -400.054 - -400.048 -Desv. estándar 3.474 E-02 - 7.716 E+00 -

Óptimo -5.508 -5.508 -5.508 -5.508Mejor -5.508 -5.508 -5.508 -5.508Peor -5.508 -5.508 -5.508 -5.508Media -5.508 -5.508 -5.508 -5.508mediana -5.508 -5.508 -5.508 -5.508Desv. estándar 2.710 E-15 2.710 E-15 2.710 E-15 2.710 E-15

Funciones Medidas

EEstudio de variantes de Evolución Diferencial por cruza discreta y aritmética

Octubre - D

iciembre de 2010

Page 38: Revista Computacion y Tecnologia 1ra Edicion

Investigación32

6 Resultados y análisis7. Discusión de resultados

L a variante rand/1/bin llegó al óptimo en 14 fun-ciones (Véase la tabla 7). En dos funciones (g06 y g07) obtuvo valor cero en la desviación están-

dar. Presentó valores menores de desviaciones estándar en 5 funciones (g03, g05, g11, g18 y g23). La variante best/1/bin llegó a soluciones óptimas en 12 funciones. En las funciones g06 y g07 obtuvo en la desviación es-tándar un valor de cero.

Presento en 4 funciones valores menores de desviacio-nes estándar (g10, g12, g13 y g19). La variante current-to-rand/1 logró en 13 funciones llegar al óptimo. Pre-sentó valores menores en la desviación estándar en 5 funciones (g01, g02, g17, g19 y g21) y en dos funciones obtuvo valor cero en la desviación estándar (g06 y g07).

La variante current-to-best/1 en 12 funciones llegó al valor óptimo. Nada más en la función g07 obtuvo valor cero en la desviación estándar.

Con base a las discusiones, se concluye que las variantes rand/1/bin (cruza discreta) y current-to-rand/1 con cruza aritmética son las que proporcionan con mayor regularidad en las 30 corridas soluciones factibles, óp-timas o cercanas al óptimo a los problemas, excepto en g20 y g22. Esto quiere decir que las variantes “rand” pa-recen tener mejor desempeño que las “best” en prob-lemas con restricciones.

6 Resultados y análisis8. Conclusiones y trabajos futuros

C on base en los resultados obtenidos se con-cluye lo siguiente: Las variantes “rand” son mejores que las variantes “best”, debido a que

las variantes “rand” generan direcciones de búsqueda de individuos escogidos aleatoriamente; entonces los resultados sugieren que es más conveniente generar di-versas direcciones desde diferentes puntos del espacio de búsqueda que desde el mejor individuo para el aso de espacios restringidos. Por lo tanto, resultaron ser mejores las variantes rand/1/bin, rand/1/exp (vari-

antes a la rotación) y current-to-rand/1 (invariante a la rotación).

Como trabajos futuros se tienen los siguientes:

• Analizar el funcionamiento de las variantes que tu-vieron en este trabajo un mejor desempeño en prob-lemas con restricciones, con respecto a los parámet-ros F y Np.

• Comparar las variantes de ED en problemas del mundo real.

• Estudiar el efecto de incrementar el número de pares de vectores de diferencias en las variantes de ED.

Estudio de variantes de Evolución Diferencial por cruza discreta y aritméticaO

ctub

re -

Dic

iem

bre

de 2

010

Page 39: Revista Computacion y Tecnologia 1ra Edicion

Investigación33

Referencias

1. Kalyanmoy Deb. An Efficient Constraint Handling Method for Genetic Algorithms. Computer Methods in Applied Mechanics and Engineering, 186(2/4):311-338, 2000.2. Ilonen J., Kamarainen J.K., and Lampinen J. Differen-tial evolution training algorithm for feed-forward neu-ral networks. In: Neural Processing Letters, 7:93-105, 2003.3. Price K., Storn R., and Lampinen J. Differential Evo-lution - A Practical Approach to Global Optimization. Springer-Verlag, 2006.4. J. J. Liang, T. P. Runarsson, E. Mezura Montes, M. Clerc, P. N. Suganthan, C. A. Coello Coello, and K. Deb. Problem definitions and evaluation criteria for the cec 2006 special session on constrained real-parameter optimization. [Online] Available:http://www.ntu.edu.sg/home/EPNsugan,20.8.2007, September 2006.5. Kenneth V. Price. An Introduction to Differential Evolution. In David Corne, Marco Dorigo, and Fred Glover, editors, New Ideas in Optimization, pages 79-108. Mc Graw-Hill, UK, 1999.

EEstudio de variantes de Evolución Diferencial por cruza discreta y aritmética

Octubre - D

iciembre de 2010

Page 40: Revista Computacion y Tecnologia 1ra Edicion

Investigación34

Análisis de la Dinámica del Tráfico de Red en el Puerto 110 con Técnicas No Lineales e Informacionales

Analysis of Network Traffic Dynamics in Port 110 with Non Linear and Informational Techniques

Ernesto Bautista-Thompson1, Carlos De la Cruz-Dorantes1, Gustavo Verduzco-Reyes1 y María Elena Morales-Cuellar1

1 Centro de Tecnologías de la Información, DES-DACI, Universidad Autónoma del Carmen, Avenida 56 Número 4,C.P. 24180 Ciudad del Carmen, Campeche, México

{ebautista, cdelacruz, gverduzco}@pampano.unacar.mx, [email protected]

L a aplicación de técnicas de monitoreo en tráfico de redes de computadoras es importante ya que nos permite detectar fallas tales como: el mal fun-

cionamiento de una interfaz de red, la detección de in-trusos, virus o software malicioso entre algunas de las problemáticas que pueden presentarse. Para lograr un buen monitoreo del tráfico, es importante entender la dinámica de una red e identificar los patrones caracter-ísticos de posibles cuellos de botella en el tráfico de da-tos, fallas por intrusos no deseados en la red, entre otras situaciones que afectan el rendimiento de la misma. En el presente trabajo, mediante la aplicación de técnicas no lineales e informacionales, se caracterizaron las dinámi-cas para cuatro variables: tiempo de aceptación del ser-vidor a conexión de cliente (ACK), tiempo de recepción y respuesta del servidor a la solicitud del cliente (SYN), tiempo inicial para el procesamiento de un paquete (IT) y longitud temporal de un paquete (DP); que correspon-den al tráfico en el puerto 110 de la red LAN en la DES-DACI de la UNACAR. Las técnicas aplicadas permitier-on realizar un análisis desde una perspectiva de sistemas dinámicos no lineales (Densidad de la Serie y Embebido Constante), así como un análisis desde el punto de vista informacional con las técnicas de Autocorrelación, En-tropía Condicional e Información Mutua siendo posible visualizar y analizar comportamientos locales y globales de estas variables características del tráfico en el puerto 110 (servicio de correo electrónico).

L as amplias infraestructuras de red actuales y los grandes volúmenes de información que viajan a través de ellas han propiciado el nacimiento de

una nueva área de estudio cuya función primordial es la búsqueda de nuevas formas de gestionar, controlar o identificar hechos o eventos que alteran los patrones normales del funcionamiento de las redes. Por ello se

T he application of techniques for monitoring the traffic in computer networks is important be-cause allows the detection of failures such as: mal

functioning of a network interface, intrusion detection, virus or malicious software among others problems that can occur. In order to achieve good traffic monitoring, is important to understand the dynamics of a network and identified the characteristic patterns of possible bottle-necks in data traffic, failures for non desired intruders on the network, among others situations that affect the per-formance of the network. In the present work, with the application of non linear and informational techniques, we characterized the dynamics of four variables: time of acceptance of server to client connection (ACK), time of reception and response of the server to the client request (SYN), initial time for processing of a package (IT), and temporal length of a package (DP); that corresponds to the traffic in the port 110 from the LAN network of the DES-DACI UNACAR. The applied techniques allowed an analysis from a perspective of non linear dynamical systems (Density of a Series, Constant Embedded), and also as an analysis from the informational point of view with the techniques of Autocorrelation, Conditional En-tropy and Mutual Information; in this way was possible to visualize and analyze local and global behaviors for these variables that characterize the traffic in the port 110 (e-mail service).

RESUMEN ABSTRACT

1. Introducción

Palabras Clave: Tráfico de Red, Monitoreo, Sistemas Dinámi-cos.

Keywords: Network Traffic, Monitoring, Dynamical Sys-tems.hace necesario el monitoreo permanente del tráfico de red mediante el uso de técnicas que ayuden a detectar fallas que pueden ser propiciadas por distintos factores tales como intrusos, virus, errores en las interfaces de red de los usuarios o software malicioso por mencio-nar algunos ejemplos[1]. Nuestro interés es explorar la utilidad de diferentes técnicas de análisis de señales, en particular aquellas utilizadas en el estudio de sistemas dinámicos no lineales, para el análisis, caracterización y

Artículo recibido el 10 de Junio del 2010 Artículo aceptado el 20 de Agosto del 2010

Oct

ubre

- D

icie

mbr

e de

201

0

Page 41: Revista Computacion y Tecnologia 1ra Edicion

Investigación35

2. Generación de los Datos sobre el Tráfico de Red

visualización de la dinámica del tráfico de redes. En el presente trabajo se hace un análisis con técnicas no lin-eales (Densidad de la Serie, Embebido Constante) e in-formacionales (Autocorrelación, Entropía Condicional, Información Mutua) de segmentos de datos de trafico de red producto del monitoreo del trafico generado para el puerto 110 de la red de la Universidad Autónoma del Carmen (UNACAR). En las siguientes secciones se ex-plica la metodología experimental utilizada para la gen-eración de los datos analizados, se describen los funda-mentos y características de las técnicas empleadas para finalmente presentar los resultados y las conclusiones del trabajo.

U n conjunto de datos del tráfico de red corre-spondientes al Puerto 110 (E-mail) fueron generados en base al monitoreo de la red LAN

de la DES-DACI de la Universidad Autónoma del Car-men (UNACAR), esta red posee una topología de tipo estrella. El monitoreo del puerto fue realizado con la herramienta de software tcpdump en combinación con un script en Perl llamado gdumps.pl utilizado en la con-figuración de los parámetros iniciales de cada sesión de monitoreo, las variables que fueron monitoreadas son: dirección IP del servidor, dirección IP del cliente, número de paquetes procesados por el servidor y por el cliente, tamaño de los paquetes procesados por el servi-dor y por el cliente, tiempo de aceptación del servidor a conexión de cliente (ACK), tiempo de recepción y respuesta del servidor a la solicitud del cliente (SYN), tiempo inicial para el procesamiento de un paquete (IT) y longitud temporal de un paquete (DP) [2].

El “sniffer” para el puerto 110 estuvo activo durante 3 días para la recolección de los datos. Los datos genera-dos fueron filtrados con un script en Perl (desplega2.pl) diseñado con el fin de eliminar los registros correspon-dientes a conexiones incompletas [3]. Con los datos fil-trados se seleccionaron cuatro variables a las cuales se les aplicaron una serie de técnicas que caracterizan el comportamiento de las variables en base a propiedades de no linealidad e informacionales dichas propiedades se describen en la Tabla 1. De esta forma se obtuvieron

dos conjuntos de datos a partir de las cuatro variables seleccionadas, los datos obtenidos directamente del monitoreo de la red y los datos obtenidos a partir de las propiedades no lineales e informacionales de estas mis-mas variables [4].

Consultas Búsqueda por Sinónimo Búsqueda por SinónimoDTS Densidad de la Serie Calcula densidad local en

espacio de estado de la serie de tiempo

EMB Embebido Con-stante

Reconstrucción de la dinámi-ca de una serie de tiempo

ACF Autocorrelación Búsqueda de patrones repetiti-vos dentro de una señal

CCE Entropía Condicio-nal

Relación funcional entre con-juntos de datos

AIM Información Mutua Información compartida entre conjuntos de datos

Tabla 1. Descripción de propiedades no lineales e informacionales obtenidas para las variables ACK, SYN, IT y DP.realizadas

Del primer conjunto de datos, se seleccionaron los datos correspondientes a la evolución de las variables ACK, SYN, IT y DP, la Fig. 1 muestra un aspecto de uno de los archivos con los datos de entrada que fueron analizados.

Figura 1. Vista de los datos monitoreados correspondientes a las variables ACK y SYN

Análisis de la Dinámica del Tráfico de Red en el Puerto 110 con Técnicas No Lineales e Informacionales

Octubre - D

iciembre de 2010

Page 42: Revista Computacion y Tecnologia 1ra Edicion

Investigación36

E l segundo conjunto de datos corresponde a la se-rie de propiedades no lineales e informacionales que caracterizan el comportamiento dinámico

de las variables ACK, SYN, IT y DP. Ejemplos de los resultados de la aplicación de estas técnicas se muestran en la Fig. 2.

L os sistemas no lineales son mucho más difíciles de analizar y a menudo presentan un fenóme-no conocido como caos, con comportamientos

totalmente impredecibles. Las técnicas de análisis no lineal consideran a los sistemas no lineales como siste-mas caóticos capaces de producir un comportamiento irregular de los datos a partir de un sistema de ecuacio-nes deterministas. Este comportamiento irregular es interpretado como ruido por los métodos de análisis lineal (por ejemplo técnicas estadísticas). Las técnicas de análisis no lineal se pueden agrupar en las siguientes categorías: reconstrucción del espacio fase, dimensio-nes, exponentes de Lyapunov, análisis de recurrencia. [5, 6, 7]. La teoría de la información fundada a partir del trabajo de Claude E. Shannon sobre el análisis de er-rores en paquetes de datos en telecomunicaciones [8], permite cuantificar el contenido de información que una

Figura 1. Gráficas correspondientes a la propiedad informacional de Auto correlación (ver definición en tabla 1) obtenida a partir de la variable ACK y SYN.

3. Técnicas no Lineales e Informacionales 3.1 Densidad de la Serie

3.2 Embebido Constante

señal o paquete de datos posee esto mediante el análisis de diferentes definiciones de entropía e información (técnicas informacionales). Las diferentes técnicas fuer-on aplicadas a las variables del tráfico de red mediante el software para análisis no lineal de señales NLyzer [9]. A continuación se describen las diferentes técnicas utiliza-das en el presente trabajo de investigación.

Calcula la densidad local en el espacio de estados de la serie de tiempo, al recorrer una trayectoria en dicho espacio. La construcción de atractores en el espacio de estados utilizando valores de retardo temporal (embe-bido) aplicados a la serie de tiempo, pueden utilizarse para extraer información de la dinámica del sistema que representa dicha serie de tiempo. Es de interés el obtener conocimiento de las dependencias temporales manifestadas en el espacio fase del sistema, una trayec-toria del sistema visita regiones de diferente densidad de estados durante su evolución temporal. Estas densi-dades se aproximan numéricamente y se calculan como una función del tiempo [9].

Una serie de tiempo de múltiples dimensiones se pu-ede construir a partir de una serie de tiempo de una dimensión por el método de los retardos temporales. La construcción de atractores en el espacio de estados es probablemente el método más común de análisis de

Análisis de la Dinámica del Tráfico de Red en el Puerto 110 con Técnicas No Lineales e Informacionales

Oct

ubre

- D

icie

mbr

e de

201

0

Page 43: Revista Computacion y Tecnologia 1ra Edicion

Investigación37

4. Resultados e Interpretación

3.3 Autocorrelación

3.5 Información Mutua

3.4 Entropía Condicional

series temporales no lineales [9]. Con el llamado pro-cedimiento de embebido la dinámica del sistema que genera la serie de tiempo puede ser reconstruido. Los puntos de la trayectoria yacen en el atractor construido de la siguiente manera:

(1)

(2)

(3)

(4)

Donde X (t) son los nuevos puntos de vectores, x (t) es un punto de muestreo de datos en el tiempo t, T es una constante de retardo de tiempo y n es la dimensión de embebido

Podemos señalar que la auto correlación es una her-ramienta matemática utilizada en el procesamiento de señales, la cual se define como la correlación cruzada de la señal consigo misma. La función de auto correl-ación resulta de gran utilidad para encontrar patrones repetitivos dentro de una señal. En el procesamiento de señales dicha herramienta proporciona información so-bre las periodicidades de la señal y sus frecuencias car-acterísticas [9, 10].

Donde X e Y son valores de la serie de tiempo o señal separados por un desplazamiento T, E es el valor espe-rado y σ es la desviación estándar.

La entropía condicional especifica la cantidad de infor-mación que es adquirida por la medición de una vari-able, (representativa de un conjunto de datos), y a sabi-endas de otro conjunto de datos [9, 10]. Es muy útil si uno quiere saber si existe una relación funcional entre dos conjuntos de datos. Puede ser aproximada por con-ocer el número de vecinos más cercanos dentro de una distancia épsilon, su ecuación es:

Que es la probabilidad de un valor y dado el valor x. La dirección de la entropía condicional depende si cambia el sentido de x e y, y el valor calculado será diferente, lo que muestra cual flujo de datos es una función de otro

La información mutua I(X,Y) es la cantidad de infor-mación que se comparte entre dos conjuntos de datos.

Donde P (X) y P(Y) son las probabilidades de medir un valor de datos X o Y, y P (X, Y) es la probabilidad de conjunto al medir X e Y al mismo tiempo. Un bajo valor de la información mutua muestra que existe muy poca información común entre los conjuntos de datos. Un valor normalizado 1 muestra que los conjuntos de datos son iguales. La auto información mutua (AIM) toma copias con retardo temporal de un conjunto de datos para la misma señal como el segundo conjunto a comparar (se puede ampliar a mayores dimensiones).

El primer mínimo de la AIM es el valor preferido para la construcción de un atractor de series de tiempo, cu-ando uno está interesado en coordenadas independien-tes [9,10].

D espués del análisis de los datos de trafico de red con los técnicas no lineales e informacionales se generaron una serie de graficas donde se en-

cuentran los resultados de aplicar estas técnicas a las se-ñales de ACK, SYN, IT y DP. En las graficas se muestran diferencias y similitudes entre las señales según sea la técnica con la que fue analizada la señal. A continuación se presentan como ejemplo los resultados obtenidos para la variable ACK tras aplicar las técnicas menciona-das.

Análisis de la Dinámica del Tráfico de Red en el Puerto 110 con Técnicas No Lineales e Informacionales

Octubre - D

iciembre de 2010

Page 44: Revista Computacion y Tecnologia 1ra Edicion

Investigación38

En la Fig. 3, se muestra el comportamiento de la densi-dad de estados de la variable ACK en el espacio de esta-dos de la serie, esto se muestra a lo largo de la evolución de la señal, en este caso se observan regiones de mayor densidad de estados y regiones de mínimos en la densi-dad de estados, lo anterior permite analizar la dinámica del comportamiento de la variable ACK, por ejemplo asociándolo con cambios en la actividad del tráfico cor-respondiente a ACK.

4.1 Densidad de la Serie

4.2 Embebido Constante

4.3 Autocorrelación

4.4 Entropía Condicional

Figura 3. Gráfica de Densidad de la Serie (ver definición en tabla 1), datos no muestreados ACK.

Fig. 5. Gráfica de Auto correlación (ver definición en tabla 1), datos no muestreados ACK.

Figura 4. Gráfica de Embebido Constante (ver definición en tabla 1) de los datos no muestreados ACK valor 3 en Dimen-

sión y Tiempo.

Muestra una proyección de la dinámica del sistema en el espacio fase, entre más pequeña la separación hay mas estados repetitivos, se dice que una señal es determinis-ta solo cuando hay concentración de estados similares o repetitivos, como el caso que se muestra a continuación en la Fig. 4.

En la Autocorrelación se compara la señal con ella misma, es decir que cada dato es relacionado consigo mismo y con los demás datos que conformar la señal, el desplazamiento indica cada cuanto están correlaciona-dos los datos en cuanto a su comportamiento. En la Fig. 5 se muestra un comportamiento similar de máximos de correlación aproximadamente cada 100 datos.

Usada frecuentemente en Telemática, nos dice la canti-dad de información que se tiene en la variable, cuanta de la información está en buen estado y cuando fue dañada parte de ella. La interpretación de la gráfica es la siguien-te: un valor de entropía condicional de cero indica que toda la información relativa a la señal está disponible, es el caso para un retardo de cero como se muestra en la Fig. 6, a mayor retardo es decir a mayor separación entre los datos, la entropía muestra máximos y míni-mos, muy cerca del retardo con valor 10 se observa que la entropía tiene un valor de uno, esto indica que no hay información relacionada entre los datos con un retardo o separación de 10 unidades, y entonces se dice que son independientes entre sí.

Análisis de la Dinámica del Tráfico de Red en el Puerto 110 con Técnicas No Lineales e Informacionales

Oct

ubre

- D

icie

mbr

e de

201

0

Page 45: Revista Computacion y Tecnologia 1ra Edicion

Investigación39

4.5 Información Mutua 4.6 Comparación de Propiedades de las Variables

Fig. 6. Gráfica de Entropía Condicional (ver definición tabla 1) de datos ACK no muestreados.

Fig. 7. Gráfica de Información Mutua (ver definición en tabla 1), datos ACK no muestreados.

Fig. 8. Comparación de patrones de la propiedad EMB (ver de-scripción en tabla 1) para las cuatro variables.

A lo largo de una señal se pueden presentar máximos y mínimos de información, este comportamiento nos muestra una dinámica compleja en cuanto a la relación de los datos, en la Fig. 7 se muestra un ejemplo de esto, dicha gráfica modela la cantidad de información mutua que comparten los datos, de una señal, espaciados por una escala.

A lo largo de una señal se pueden presentar máximos y mínimos de información, este comportamiento nos muestra una dinámica compleja en cuanto a la relación de los datos, en la Fig. 7 se muestra un ejemplo de esto, dicha gráfica modela la cantidad de información mutua que comparten los datos, de una señal, espaciados por una escala.

Análisis de la Dinámica del Tráfico de Red en el Puerto 110 con Técnicas No Lineales e Informacionales

Octubre - D

iciembre de 2010

Page 46: Revista Computacion y Tecnologia 1ra Edicion

Investigación40

PropiedadVariable de Red

ACK SYN IT DP

DTSMáximos y Mín-imos de Densi-

dad Estados

Dominan Máximos de Densidad de Estados

Dominan Mínimos de Densidad de Estados, Picos de Máximos de Densidad

de Estados

Dominan Máximos de Densi-dad de Estados

EMBConcentración

de Estados: De-terminismo

Trayectorias muy Disper-sas: Alta Aleatoriedad

Trayectorias Agrupadas cubren el Espa-cio Fase: Complejidad

Trayectorias Dispersas: Alea-toriedad

ACFMáximos de Correlación

cada 100 Datos

Distribución Uniforme de Máximos de Correlación

Comportamiento Decreciente de Cor-relación

Máximos de Correlación cada 50 Datos

CCE

Retardo 10 Máx-imo: Máxima

Independencia entre Datos

Retardo 7 Máximo: Máxima Independencia

entre Datos

Retardo 9 Máximo: Máxima Indepen-dencia entre Datos

Retardo 3 Máximo: Máxima Independencia entre Datos

AIM

Oscilación de Máximos y

Mínimos de Información

Fuerte Oscilación de Máximos y Mínimos de

Información

Comportamiento Oscilatorio Decreci-ente de Información

Oscilación de Máximos y Mínimos de Información:

Cuasi Periódico

Tabla 2. Comparación de las propiedades no lineales e informacionales obtenidas para las variables ACK, SYN, IT y DP.

5. Conclusiones

E n este trabajo se analizo la dinámica de cuatro se-ñales correspondientes a variables que caracteri-zan el trafico de red en el puerto 110 (servicio

de correo electrónico), utilizando técnicas no lineales: Densidad de Serie, Embebido Constante; y técnicas informacionales: Autocorrelación, Entropía Condi-cional e Información Mutua. Estas técnicas además de complementarse nos proporcionan dos perspectivas la de sistemas dinámicos y la informacional. Las técnicas nos permiten identificar patrones dinámicos del trá-fico en redes expresados en el comportamiento de las propiedades analizadas para las diferentes variables, en dos vertientes: global (patrones de las propiedades) y local (cambios observables al visualizar la evolución de una propiedad), la visualización de la evolución de las

propiedades permite detectar conductas anómalas o sin-gulares que están asociadas a cambios ocurridos en el tráfico de red.

Análisis de la Dinámica del Tráfico de Red en el Puerto 110 con Técnicas No Lineales e Informacionales

Oct

ubre

- D

icie

mbr

e de

201

0

Page 47: Revista Computacion y Tecnologia 1ra Edicion

Investigación41

Referencias

1. Bejtlich, R.: The Tao of Network Security Monitor-ing. Addison-Wesley, U.S.A. (2004)2. García Avilés, O.: Análisis Comparativo con Técnicas No Lineales y Estadísticas, de Segmentos de Datos de Tráfico de Red, Tesis de Especialidad en Redes. Univer-sidad Autónoma del Carmen, México (2007)3. De la Cruz Dorantes, C. R.: Detección de Anormali-dades en Redes LAN mediante la Implementación de un PCA, Tesis de Maestría en Informática. Universidad Autónoma del Carmen, México (2004)4. Morales Cuellar, M. E.: Análisis de datos del puerto 110 con descomposición de señales y técnicas no lin-eales, Tesis de Ingeniería en Computación. Universidad Autónoma del Carmen, México (2010)5. H. Kantz y T. Schreiber, Nonlinear Time Series Anal-ysis, Cambridge University Press, Cambridge, 20006. R.M.A Urbach, Footprints of Chaos in the Markets, Financial Times- Prentice Hall, London, 20007. G.P. Williams, Chaos Theory Tamed, Josep Henry Press, Washington, 1997 8. C. E. Shannon, A Mathematical Theory of Commu-nication, Bell System Technical Journal, Vol 27, pp 379-423, 623-656, July, October, 19489. Institute of Applied Physics, NLyzer, Nonlinear Analysis in Real Time, TU Darmstadt, Germany10. J.R. Pierce, an Introduction to Information Theory: Symbols, Signals and Noise, Dover Publications, New York, 1980

Análisis de la Dinámica del Tráfico de Red en el Puerto 110 con Técnicas No Lineales e Informacionales

Octubre - D

iciembre de 2010

Page 48: Revista Computacion y Tecnologia 1ra Edicion

Resumen deTesis

Artículos Arbitrados

Sección

Page 49: Revista Computacion y Tecnologia 1ra Edicion

43

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Integration Framework of the Usability to Rational Unified Process

Pérez Rejón José Ángel1, { [email protected], }

P ropuesta de integración de la Usabilidad en un proceso de desarrollo particular, como es el Pro-ceso Unificado de Desarrollo de Software (RUP).

Esta integración parte de la selección de técnicas de Inter-acción Humano Computadora (IHC) que cumplen con los requisitos de: estar dirigido a un proceso centrado en el usuario, considerar de forma adecuada a los usuarios y sus tareas, permitir el conocimiento multidisciplinar, contemplar un enfoque de desarrollo iterativo, que son características que distinguen a RUP. Para la definición del marco de integración se trabajó en cuatro pasos: 1) análisis de las técnicas de Usabilidad existentes, 2) análi-sis de los modelos del Proceso Unificado de Desarrollo Software, 3) comparación de las coincidencias de las téc-nicas de Usabilidad y los modelos del Proceso Unificado de Desarrollo Software y 4) selección y clasificación de las técnicas de Usabilidad.

D esde finales de los 60’s, la Ingeniería de Soft-ware (IS) ha venido cobrando paulatinamete una mayor relevancia dentro del mundo profe-

sional del desarrollo de aplicaciones software. La IS, al igual que otras ingenierías, debe trabajar con elementos gerenciales y humanos, además de los elementos téc-nicos propios. Sin embargo, a diferencia de otras ingeni-erías, su producto, “el software”, es inmaterial.

El Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) define, el término software “como la suma total de los programas de computadora, procedimientos, reglas, la docu-mentación asociada y los datos que pertenecen a un sistema de cómputo” [1]. El desarrollo de software no puede, por tanto, ser manejado y controlado como otros procesos

P roposal of integration of the Usability in a devel-opment process of particular, as it is the Rational Unified Process (RUP). This integration part of

the selection of techniques of Human Computer Interac-tion (HCI) that satisfies the requirements: is directed to a process centered in the user, to consider of form adapted to the users and his tasks, to allow the multi-disciplinary knowledge, to contemplate an approach of iterative development, that are characteristics that distin-guish to RUP. For the definition of the integration frame-work one worked in four steps: 1) analysis of the existing techniques of Usability, 2) analyses of the models of the Rational Unified Process, 3) comparison of the coinci-dences of the techniques of Usability and the models of the Rational Unified Process and 4) selection and clas-sification of the techniques of Usability.

RESUMEN ABSTRACT

1. Introducción

Palabras Clave: Usabilidad, Interacción Humano Computa-dora, Proceso Unificado de Desarrollo de Software, Ingeni-ería de Software.

Keywords: Usability, Human Computer Interaction, Ratio-nal Unified Process, Software Engineering.

para productos físicos. El desarrollo de software es una actividad compleja por naturaleza.

Los sistemas grandes son tan complejos que resulta deli-cado para cualquier individuo recordar los detalles de cada aspecto del proyecto, es decir, para su realización se debe trabajar en grupo, se necesitan técnicas más formales de especificación y diseño que permitan una comunicación más clara y menos ambigua entre los in-tegrantes del equipo; es por ello, que debe documen-tarse apropiadamente cada etapa del proyecto y realizar pruebas exhaustivas, y es esencial una cuidadosa admin-istración [2], ya que cada organización cuenta con su propio proceso de software, que puede estar explícita-mente definido o no, y que los desarrolladores siguen con mayor o menor grado de constancia. El área de pro-ceso de software sustenta que un proceso definido ex-plícitamente y mejorado de forma continua logrará un mejor producto; es decir, defiende que el empleo de un

Artículo recibido el 23 de Junio del 2010 Artículo aceptado el 27 de Agosto del 2010

Octubre - D

iciembre de 2010

Resumen

Page 50: Revista Computacion y Tecnologia 1ra Edicion

44

2 Propuestabuen proceso de desarrollo conlleva a la obtención de un producto software de buena calidad.

Si nos planteamos qué significa obtener un producto de buena calidad, podemos tomar la definición de Hum-phrey de calidad de software: “alcanzar niveles excelentes de adecuación para el uso” [3] (según cita en [4]). Así, para evaluar la calidad del software es preciso comprender el propósito para el cual el sistema se va a usar; por tanto, la calidad no es una medida del software aislado, sino que es una medida que tiene en cuenta la relación en-tre el producto y su dominio de aplicación. En el soft-ware, en ocasiones no está definido con precisión el dominio en el que va a ser utilizado, construyéndose de esta forma sistemas software con un nivel de calidad insuficiente para el dominio de aplicación. El usuario es una parte esencial de tal dominio de aplicación, por lo que la Usabilidad es un componente básico de la calidad del software. Esta visión de la Usabilidad como atributo de calidad no es novedosa, puesto que, a pesar de que no existe un conjunto aceptado de atributos críticos de calidad software, la Usabilidad ha estado presente como atributo en descomposiciones de calidad del software desde los años 70’s [5] [6]. Por tanto, la Usabilidad se reconoce como atributo de calidad del software [9] [10] [11].

La Usabilidad permite que los costos y tiempos de de-sarrollo puedan ser reducidos evitando el sobre diseño y reduciendo el número de cambios posteriores requeri-dos en el producto. Además los sistemas que son fáciles de usar requieren menos entrenamiento, menos soporte para el usuario y menos mantenimiento. En concreto, los sistemas que mejor se ajustan a las necesidades del usuario mejoran la productividad y la calidad de las ac-ciones y las decisiones. Los sistemas que no son fiables suponen pérdidas en los tiempos de manejo y no son explotados en su totalidad en la medida en que el us-uario pierde interés en el manejo de las características avanzadas del sistema, que en algunos casos podrían no utilizarse nunca. Es por ello, que la Usabilidad debe ser considerada en todo momento, desde el inicio del pro-ceso de desarrollo hasta las últimas acciones antes de liberar el sistema o servicio a los usuarios.

E l objetivo de este trabajo es el Marco de Inte-gración de la Usabilidad en el Proceso de De-sarrollo de Software [7] y particularizarlo a un

proceso especifico, el RUP [8]. La propuesta fue hecha en 4 pasos y no en 5 como Ferré [7], debido a que ésta propuesta está particularizado al RUP [8] y no es nec-esario las vistas. Por lo tanto, la propuesta se reduce a 4 pasos como se muestra en la Fig. 1:Analizar las técnicas del Marco de Integración de la Us-abilidad en el Proceso de Desarrollo Software [7].

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Oct

ubre

- D

icie

mbr

e de

201

0

Resumen

Page 51: Revista Computacion y Tecnologia 1ra Edicion

45

Analizar los modelos del RUP [8], desglosandolos y profundizando en sus etapas, conocer que está dirigido por casos de uso, ser un proceso centrado en el usuario y ser iterativo, entre otros puntos como los flujos de tra-bajo, actividades, artefactos, roles, etc., además de ob-servar diversos modelos que nos permitieran realizar la comparación con las técnicas de IHC, analizando car-acterísticas, criterios, así como similitudes en la imple-mentación.

2.1 Paso 1

2.1 Paso 2

2.3 Paso 3

Comparar las técnicas del Marco de Integración de la Usabilidad en el Proceso de Desarrollo Software y las del RUP [8] para obtener las técnicas que coincidan.

Para esto se revisaron los criterios de eliminación de téc-nicas tomados en cuenta por Ferré [7] (participación de los usuarios, necesidad de formación, aplicabilidad gen-

Figura 1. Técnicas del Marco de Integración de la Usabilidad al Proceso Unificado Racional de Desarrollo Software

eral, cercanía a la IS, grado de aportación de Usabilidad frente al esfuerzo, representatividad), para participar en su proceso de desarrollo de software. Siguiendo esta metodología se determinó implementarlos en su forma original, además de agregar como criterios nuestros, que las características de uso e implantación fuera similar a los modelos de RUP [8] permitiendo quedarnos con las técnicas que logren la integración a nuestra propuesta.

Para establecer la prioridad entre técnicas de una forma ordenada, se valoró cada técnica según un conjunto de criterios que se describen a continuación. El valor asig-nado a cada criterio para cada técnica se asocia en la Tabla 1.

Dentro del RUP [8], encontramos las siguientes co-incidencias con respecto al proceso de desarrollo de software, como son: que algunos tienen nombres, car-acterísticas, y realizan implementaciones similares, los criterios permiten implementarlos en un proceso itera-tivo, aplicabilidad en una gran variedad de proyectos, además de su cercanía a la IS (véase Tabla 2).

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Analizar las técnicas del Marco de Integración de la Us-abilidad en el Proceso de Desarrollo Software [7].

Octubre - D

iciembre de 2010

Resumen

Page 52: Revista Computacion y Tecnologia 1ra Edicion

46

Tabla 1. Características más destacadas de las técnicas del Proceso de Desarrollo de Software

Técnica P. U. Necesidad de Formación

Aplicabilidad Cercanía a la IS

Aportación / Esfuerzo

Representa-tividad

Val. Total

Card Sorting Sí Bajo Alto Medio Alto 3 Muy útil

Casos de Uso Esenciales No Medio Alto Alto Alto 1 Muy útil

Escenarios y Storyboards Sí Medio Medio Bajo Alto 3 Muy útil

Especificaciones de Usabilidad No Medio Medio Medio Alto 4 Muy útil

Inspecciones No Medio Alto Medio Alto 4 Muy útil

Personas No Medio Medio Medio Alto 3 Muy útil

Prototipos de Papel Sí Bajo Alto Alto Alto 3 Muy útil

Retroalimentación del Usuario Sí Bajo Alto Alto Alto 3 Muy útil

Cuestionarios, Entrevistas y Encuestas Sí Medio Alto Medio Medio 3 Útil

Diagramas de Transición de Estados de la Interfaz No Bajo Alto Alto Medio 2 Útil

Escenarios de Tareas Sí Medio Medio Medio Alto 1 Útil

Guía de Estilo del Producto No Alto Medio Medio Medio 1 Útil

HTA No Medio Medio Alto Medio 1 Útil

Investigación Contextual Sí Alto Medio Medio Alto 3 Útil

Mapa de Navegación No Medio Alto Alto Medio 1 Útil

Mapa de Roles de Usuario No Bajo Medio Alto Medio 1 Útil

Medición del Rendimiento Sí Medio Medio Medio Medio 3 Útil

Modelo del Contenido de la Interfaz No Medio Alto Medio Medio 1 Útil

Observación Etnográfica No Alto Medio Medio Medio 2 Útil

Organización de la Ayuda según Casos de Uso No Medio Medio Alto Medio 1 Útil

Perfiles de Usuario No Alto Alto Alto Alto 5 Útil

Recorrido Cognitivo No Alto Medio Medio Medio 4 Útil

Recorrido Pluralístico Sí Bajo Medio Medio Medio 4 Útil

Registro del Uso No Alto Medio Alto Medio 5 Útil

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Oct

ubre

- D

icie

mbr

e de

201

0

Resumen

Page 53: Revista Computacion y Tecnologia 1ra Edicion

47

Tabla 2. Coincidencia de Técnicas

Proceso unificado de desarrollo de software Proceso de desarrollo de software (técnicas de Usabilidad)

Modelo de Casos de Uso del Negocio Card Sorting,

Escenarios y Storyboards,

Especificaciones de Usabilidad,

HTA,

Investigación Contextual,

Observación Etnográfica,

Personas

Modelo del Dominio Card Sorting,

Personas

Diagrama de Casos de Uso Casos de Uso Esenciales,

Escenarios de Tareas

Casos de Uso (Roles) Mapa de Roles de Usuario

Casos de Uso (Actores) Perfiles de Usuario

Prototipos de Interfaz de Usuario Card Sorting,

Inspecciones,

Medición del Rendimiento,

Prototipos de Papel,

Recorrido Cognitivo,

Recorrido Pluralístico

Diagramas de Estado Diagrama de Transición de Estados de la Interfaz

Modelos del Diseño Guía de Estilo del Producto,

Mapas de Navegación,

Modelo del Contenido de la Interfaz

Modelo de Análisis Cuestionario, Entrevistas y Encuestas

Modelo de Pruebas Organización de la Ayuda según Casos de Uso,

2.3.1 Características de las técnicas de Us-abilidad con respecto a RUP

• Card Sorting vs Modelo de Casos de Uso del Nego-cio:

Card Sorting es una técnica participativa con necesidad de formación baja, y sencilla de aplicar. Permite conocer el mapa mental del usuario acerca del dominio de apli-cación. Proporciona una mejora de la Usabilidad frente

al esfuerzo invertido. Resulta útil cuando se dispone ya de una información sobre el dominio. Ayuda al Modelo de Casos de Uso del Negocio, al permitir comprender la lógica que maneja el usuario, obteniéndose una repre-sentación estructurada de la información, ayuda como herramienta para la deducción y análisis de requisitos. Además el Modelo de Casos de Uso del Negocio de for-ma similar permite conocer del usuario la descripción del proceso del negocio de una empresa en los Casos de Uso.

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Octubre - D

iciembre de 2010

Resumen

Page 54: Revista Computacion y Tecnologia 1ra Edicion

48

• Escenarios y Storyboards vs Modelo de Casos de Uso del Negocio:

La técnica de Escenarios y Storyboards no es cercana a la IS (valor bajo), pues requiere imaginar el futuro sistema y su contexto a un nivel de detallado para su uso concreto, lo cual no suele realizarse en la IS. Apropiada para sistemas con un alto carácter innovador, o cuando el cliente tiene dificultades para expresar claramente qué necesita, es sencilla de aplicar, aunque requiere de una formación de cierta extensión por no tratarse de un tipo de técnica habitual en la IS, cuando su aplicación es pertinente, la mejora en Usabilidad conseguida es im-portante. Además, ayuda al Modelo de Casos de Uso del Negocio cuando se está intentando transmitir a todas las partes implicadas; el tipo de sistema que se quiere construir, los Escenarios y Storyboards ayudan a cen-trar la narración de cómo va a ser el sistema en usuarios concretos que realizan tareas específicas. Esta técnica se puede combinar con la de Personas para conseguir una mejor definición del tipo de sistema que se va a constru-ir, para quién va destinado, y qué necesidades pretende cubrir. Los detalles que añaden a una visión general sir-ven para centrar las discusiones de negociación de req-uisitos, para evitar que las discusiones se mantengan a un nivel abstracto que imposibilite a clientes y usuarios participar. La técnica permitirá mejorar la obtención de información con respecto a los usuarios ya que el aplicar está técnica ayudará en el Modelo de Casos de uso del Negocio, que es vital para la descripción del mismo.

• Especificaciones de Usabilidad vs Modelo de Casos de Uso del Negocio:

La técnica de Especificaciones de Usabilidad requiere una formación y experiencia en Usabilidad consider-able, por lo que implica conocimiento de ¿qué objetivos son alcanzables con un costo razonable?, por esta razón la técnica tiene un valor alto de necesidad de formación. La técnica es aplicable a aquellos problemas en los que sea factible conocer al principio del desarrollo las tareas que se quieren soportar, en tanto el sistema no se base en tareas de un usuario en un entorno de oficina, por que la técnica no es tan válida, por ello, en el criterio de aplica-bilidad general tiene un valor medio. Las Especificacio-nes de Usabilidad, en cuantos requisitos no-funcionales, son cercanas a la IS, pero incluyen al usuario en los ob-

jetivos a establecer. Así, los conocimientos requeridos para el establecimiento de las especificaciones son muy distintos a los que maneja habitualmente un ingeniero de software, por tanto, el valor de cercanía a la IS es me-dio. Finalmente, el grado de aportación/esfuerzo es alto en cuanto son una herramienta muy útil para conocer el nivel de Usabilidad que se desea alcanzar, y poder esta-blecer cuán lejos se está de dicho nivel, a pesar de que el esfuerzo que supone establecerlas sí puede ser alto. Ayuda al Modelo de Casos de Uso del Negocio, por que es un objetivo de Usabilidad que se establece para el producto de software a obtener. Pero debe ser veri-ficable para que pueda servir como guía para conocer si el proyecto está avanzando en la dirección estableci-da inicialmente, en el marco de un desarrollo iterativo. Además, incluir especificaciones de Usabilidad en los documentos de Especificación de Requisitos introduce la Usabilidad como uno más entre los aspectos que pu-eden ser establecidos cuantitativamente y por adelanta-do, evitando de esta forma que se perciba la Usabilidad como un valor cambiante que depende del observador.

• HTA vs Modelo de Casos de Uso del Negocio:

La técnica HTA tiene una necesidad de formación me-dia, puesto que, a pesar de tratarse de notaciones relati-vamente simples, requieren una forma de pensar en el problema a modelar, que requiere cierto entrenamiento para poder realizarla con perspectivas de éxito. HTA se basa en la copia de cómo se realizan las tareas habitual-mente, por lo que es apropiada a proyectos de informa-tización de tareas; cercana a la IS por basarse en gran medida en el modelado. Tiene un proceso detallado de aplicación que hace la técnica más costosa de aplicar, con una contribución de Usabilidad. Puesto que las tares de modelado son comunes en la IS, tiene un valor alto de cercanía a la IS. Además, en el Modelo de Casos de Uso del Negocio la técnica HTA resulta útil para estructurar la información observada acerca de cómo el usuario or-ganiza las tareas que usualmente lleva a cabo en su tra-bajo. Por tanto, el uso de esta técnica puede complemen-tar los esfuerzos de deducción y análisis de requisitos cuando se trata de un sistema que pretende dar soporte al usuario en la realización de sus tareas habituales de trabajo.

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Oct

ubre

- D

icie

mbr

e de

201

0

Resumen

Page 55: Revista Computacion y Tecnologia 1ra Edicion

49

• Investigación Contextual vs Modelo de Casos de Uso del Negocio:

La Investigación Contextual requiere una disponibili-dad alta en la organización cliente, pues requiere un usu-ario representativo para aplicar la técnica. La formación para poderse aplicar adecuadamente es considerable, y la aportación de Usabilidad que puede realizar es alta.

En el Modelo de Casos de Uso del Negocio, la técnica de Investigación Contextual ayuda por estar estrechamente relacionada con las tareas de deducción de requisitos en lo referente al estudio de los usuarios y de las tareas que realizan habitualmente. Además, su uso está indicado para aquellos proyectos de desarrollo en los que se tiene la posibilidad de tratar directamente con usuarios rep-resentativos, dispuestos a colaborar en la tarea común de aclarar cómo realizan sus tareas habituales. Con esta técnica se consigue una comprensión más profunda de las necesidades del usuario que con las tradicionales entrevistas, debido a que los usuarios muchas veces no conocen conscientemente las razones que motivan sus actos de forma detallada.

• Observación Etnográfica vs Modelo de Casos de Uso del Negocio:

La Observación Etnográfica, adecuada cuando existe un alto grado de disponibilidad en la organización cliente. Requiere una formación extensa para poderse aplicar correctamente, pues requiere desarrollar las aptitudes de observación sin intervenir. Resulta relativamente compleja de aplicar, por lo que su aportación de Usabili-dad en comparación con el esfuerzo invertido es media.

En lo referente al Modelado de casos de Uso del Nego-cio, esta técnica permite la mejora de la Usabilidad, al estar estrechamente relacionada con las tareas de de-ducción de requisitos en lo referente al estudio de los usuarios y de las tareas que realizan habitualmente. Se trata de una técnica que complementa a una entrevista tradicional, puesto que permite conocer los datos sobre el comportamiento del usuario de primera mano, no a través de su visión posiblemente distorsionada por di-versos factores (timidez, deseo de causar una buena im-presión, etc.). Así mismo, es especialmente útil cuando se quiere adecuar el sistema software a desarrollar a la

cultura de la organización cliente.

• Personas vs Modelo de Casos de Uso del Negocio:

Útil cuando hay varios tipos de usuario, esta técnica re-quiere un cierto esfuerzo de aprendizaje y aplicación. El retorno en Usabilidad que se obtiene de su aplicación es considerable. La técnica requiere un esfuerzo consider-able de aplicación, pero su aporte en Usabilidad puede ser muy importante, y por lo tanto tiene un grado de aportación/esfuerzo alto. Está técnica requiere una for-mación de cierta consideración, por lo que su necesidad en este sentido es media. En cuanto a su valor de repre-sentatividad tiene un valor de tres.

Con respecto al Modelo de Casos de Uso del Negocio, esta técnica ayuda a sintetizar todos los datos de que se disponga sobre los usuarios previstos del sistema, en unos usuarios típicos que puedan usarse para alcanzar consenso en el equipo de desarrollo y para centrar las discusiones de diseño. Ayuda también a determinar qué es lo que el producto debe hacer, relacionado con las necesidades a satisfacer, por lo que puede contribuir a todo el proceso de análisis de requisitos. Al proveer un lenguaje común para referirse a los usuarios concretos del sistema, ayuda a alcanzar consenso en el equipo de desarrollo.

• Card Sorting vs Modelo del Dominio:

Como ya se mencionó Card Sorting, permite conocer el mapa mental del usuario acerca del dominio de apli-cación. Resulta útil cuando se dispone ya de infor-mación sobre el dominio, pero se quiere organizar dicha información según la estructura mental de los usuarios.

La técnica Card Sorting nos ayuda con respecto al Mod-elo del Dominio a conocer las “cosas” que existen o los eventos que suceden en el entorno en el que trabaja, dando una mejor especificación de requisitos, al aplicar la técnica con los usuarios.

• Personas vs Modelo del Dominio:

La técnica de Personas es útil para obtener posibles usuarios (personas), que aunque no correspondan con ningún usuario real sean representativas de cómo es un

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Octubre - D

iciembre de 2010

Resumen

Page 56: Revista Computacion y Tecnologia 1ra Edicion

50

usuario medio y cómo es la tarea típica que realiza. Su aplicabilidad general es media, por que no en todos los proyectos es necesario abordar el desarrollo de esta for-ma (es cercana a la IS).

En base al Modelo del Dominio, esta técnica puede ayu-dar a acordar un vocabulario común con los usuarios, permite un mejor modelado al comprender y describir las clases más importante dentro del contexto del siste-ma.

• Casos de Uso Esenciales vs Diagramas de Casos de Uso:

Cercana a la IS, puesto que se trata de unos casos de uso a un nivel mayor de abstracción. Tiene una necesidad de formación media, puesto que requiere una forma de pensar en el problema a modelar que requiere cierto en-trenamiento para poder realizarse con éxito. Por si fuera poco los Casos de Uso Esenciales son aplicables a todo tipo de proyectos, puesto que las tareas del usuario se deben considerar en todo proyecto (aplicabilidad alta), debido a que se trata de una de las bases del enfoque centrado en el usuario. En cuanto al grado de aportación frente al esfuerzo, tiene cierta dificultad en su aplicación y refinamiento, pero la mejora que puede aportar a la Usabilidad del sistema es alta, por lo que su valor es alto.

Esta técnica complementa el uso de la técnica de Casos de Uso de la IS, cuya utilización resulta muy habitual como parte de las actividades de análisis de los desar-rollos orientados a objetos. Desde un punto de vista centrado en el usuario, la técnica de Casos de Uso se suele aplicar de forma incorrecta. Esto es debido a que la elaboración de los Casos de Uso incluye una serie de decisiones que afectan a la Usabilidad, las cuales se to-man sin seguir ningún criterio referente a los objetivos del usuario. Los Casos de Uso Esenciales ofrecen un modo de centrar las decisiones de la interacción entre el usuario y el sistema en los objetivos del usuario en los pasos que realiza, y en cómo el sistema da soporte a la toma de las decisiones del usuario en cada paso, medi-ante las respuestas que va ofreciendo, por lo tanto es de gran ayuda a los Diagramas de Casos de Uso de RUP.

• Escenarios de Tareas vs Diagramas de Casos de Uso:

Útil cuando no están bien definidas las tareas que los usuarios medios van a realizar con el sistema. Necesaria una formación específica para su aplicación. Ayudan a centrarse en la Usabilidad del sistema, aunque su aporte no es tan alto como el de otras técnicas. Su aplicabilidad es general es media, cercana a la IS.

Esta técnica lleva a situaciones concretas conforme a lo especificado en los Diagramas de Casos de Uso. Ya que permite ilustrar las tareas más representativas de cada tipo de usuario, y así ayuda a alcanzar consenso en el equipo de desarrollo sobre cómo el sistema va a dar so-porte a las tareas del usuario. De esta forma, cumple un papel importante en el análisis de requisitos.

• Mapa de Roles de Usuario vs Casos de Uso (Roles):

Técnica relativamente sencilla por eso su necesidad de formación es baja, con un tipo de modelado como el ha-bitual en la IS. Aplicable cuando el número de tipos de usuario es alto y se pueden establecer relaciones entre ellos. Aporta la profundidad en el estudio del usuario necesaria para poder hacer aportes a la Usabilidad del sistema. La técnica es aplicable cuando el número de roles distintos es alto y se pueden establecer relaciones entre ellos, por lo que su aplicabilidad general es media. Además, no es costosa de aplicar, pero el aporte de Us-abilidad es reducido, ya que su valor para este criterio es medio.

Por tanto, los Roles de Casos de Uso ayudan cuando se tiene cierto número de tipos de usuarios potenciales del sistema, la estructuración de las relaciones entre los mis-mos mediante un Mapa de Roles de Usuario resulta útil para tener la vista general de usuarios del sistema. Este tipo de modelos que ofrecen una visión general son muy útiles en las tareas de negociación de requisitos, con el fin contrastar con todas las partes involucradas si se es-tán abordando los objetivos adecuados en cuanto a usu-arios previstos del sistema.

• Perfiles de Usuario vs Casos de Uso (Actores):Perfiles de Usuario es una técnica cercana a la IS, puesto que es una tarea de especificación y modelado, aplicable a un rango amplio de proyectos, que requiere cierto es-fuerzo de aprendizaje. Se trata de una técnica básica en

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Oct

ubre

- D

icie

mbr

e de

201

0

Resumen

Page 57: Revista Computacion y Tecnologia 1ra Edicion

51

cualquier desarrollo preocupado por la Usabilidad, por lo que su aporte en este sentido es muy importante. Los Perfiles de Usuario son necesarios en cualquier proyec-to, puesto que el conocimiento de los futuros usuarios del sistema es una de las bases del enfoque centrado en el usuario, por ello su aplicabilidad general es alta. Así como que la técnica es básica para la Usabilidad del sistema, aunque requiere cierto grado de esfuerzo su grado de aportación/esfuerzo es alto.

Por otra parte los Actores en los Casos de Uso, permiten la recopilación de información sobre los usuarios pre-vistos del sistema, con lo cual se convierte en un proceso sistemático mediante el uso de Perfiles de Usuario. Los distintos tipos de características que pueden resultar rel-evantes en un estudio de usuarios se detallan en la defin-ición de cada perfil. De esta forma, se centran los esfuer-zos de deducción en aquello que más útil puede resultar para el diseño de un sistema con un nivel de Usabilidad adecuado. Al estructurar la información sobre usuarios, el uso de esta técnica puede ayudar a los desarrolladores no familiarizados con el análisis de usuarios tal y como se realiza en la IHC, pues marca en un sentido amplio la información relevante sobre usuarios que deben recoger en sus tareas de deducción y análisis de requisitos.

• Card Sorting vs Prototipos de Interfaz de Usuario:

Aunado a lo que se mencionó anteriormente sobre la técnica de Card Sorting, también puede contribuir en el diseño de prototipos, pues la estructura de los menús puede establecerse basándose en la información obteni-da por medio de la aplicación de esta técnica.

• Inspecciones vs Prototipos de Interfaz de Usuario:

La técnica de Inspecciones requiere una formación pre-via de cierta importancia, que se puede aplicar a todo tipo de proyectos. Tipo de técnica común en la IS, aunque no en lo referente a la Usabilidad, pero puede realizar un aporte importante a la Usabilidad del sistema final.Ayudan a los Prototipos de Interfaz de Usuario no di-rectamente en su realización, aunque también tiene que ver con actividades de revisión de requisitos, se cen-tra principalmente en la validación de prototipos. Está centrada en un tema particular como es la adhesión a

estándares o a guías de diseño, o la consistencia del dis-eño de la interacción. Dada la importancia que tiene la elaboración de prototipos en las actividades de requi-sitos, con respecto al objetivo de conseguir productos software con alta Usabilidad, estas técnicas son especial-mente relevantes como parte de la validación de requi-sitos.

• Medición del Rendimiento vs Prototipos de la Inter-faz de Usuario:

La Medición del Rendimiento, es una técnica con una necesidad de formación media, puesto que tiene su mecánica que hay que aprender y requieren cierto en-trenamiento, pero no de forma excesiva. Su aplicabili-dad es media en el caso de la Medición del Rendimiento, debido a que se centran en la medición del rendimiento, el cual puede no ser especialmente relevante en cier-tos proyectos. Su cercanía a la IS es media, porque sin tratarse de técnicas completamente ajenas, sí que supo-nen un complemento a lo que habitualmente se realiza en el marco de la IS. El grado de esfuerzo es de cierta entidad en la Medición del Rendimiento; mientras que el aporte de Usabilidad en la técnica es igualmente im-portante. Por tanto, tiene un grado medio de aportación frente a esfuerzo.

Por ellos, con vistas a que el resultado del test de Us-abilidad sea lo más objetivo posible, esta variante mide la eficiencia en uso de cada participante en su uso del sistema. De esta forma, se obtienen valores cuantitati-vos que reflejan la Usabilidad del sistema en lo referente al atributo de eficiencia en uso. Por tanto, esta variante se aplica cuando se dispone de un prototipo suficiente-mente completo como para permitir un uso del mismo al participante, y cuando la eficiencia en uso es uno de los atributos de Usabilidad relevantes.

• Prototipos de Papel vs Prototipos de Interfaz de Usu-ario:

Prototipos de Papel es una técnica sencilla, aplicable a todo tipo de proyectos, que no requiere una extensa for-mación. Son aplicables en todo tipo de proyectos (apli-cabilidad alto). El concepto de prototipado es cercano a la IS, a pesar de centrarse en prototipos con menor fidelidad al producto final que los prototipos habitu-

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Octubre - D

iciembre de 2010

Resumen

Page 58: Revista Computacion y Tecnologia 1ra Edicion

52

ales de la IS. El aporte a la Usabilidad del producto final es muy importante. Contribuye a la Usabilidad requi-riendo poco esfuerzo por ello su grado de aportación/esfuerzo es alto. Como parte de las reuniones de requisitos se pueden usar bosquejos a mano de la apariencia de la Interfaz de Usuario, o bien dibujos realizados por computadora mediante programas de dibujo. Este tipo de prototipos permiten transmitir al cliente la idea del sistema a con-struir que tiene el equipo, y poder así contrastar si se está trabajando en la dirección correcta. Frente a los prototipos que corren en un ordenador, cuentan con la ventaja de que el cliente no tiene la impresión de que el sistema está ya casi construido, puesto que la apari-encia de borrador transmite la idea de que aún queda mucho trabajo por desarrollar hasta llegar al producto fi-nal. A pesar de tratarse únicamente de dibujos en papel, este tipo de prototipos son útiles también para mostrar la dimensión interactiva del sistema. Así, un miembro del equipo puede cambiar entre distintos dibujos para mostrar al cliente qué se ve en cada momento según las acciones que tome el usuario, permitiendo de esta forma expresar de una forma fácilmente comprensible cómo se ha pensado que funcione la interacción. Por lo tanto, es de gran ayuda a los Prototipos de Interfaz de Usuario, al permitir realizar prototipos más sencillos, en menos tiempo a los usuarios.

• Recorrido Cognitivo vs Prototipos de Interfaz de Usuario:

El Recorrido Cognitivo es una técnica que requiere ten-er un conocimiento amplio de los aspectos cognitivos por lo que la necesidad de formación es alta. Se centra en el rendimiento de un usuario experto en condicio-nes óptimas de uso, por lo que su aplicabilidad se limita a las situaciones donde dicho tipo de usuarios es rele-vante (aplicabilidad media). Al estar centrada en aspec-tos cognitivos, no resulta especialmente cercana a la IS, aunque los recorridos sí son una técnica común en la IS, por lo que el valor para el criterio de cercanía a la IS es medio. La aportación de Usabilidad es importante, pero el costo de aplicación es alto, por lo que el grado de aportación frente al esfuerzo es medio.

Con respecto a los Prototipos de Interfaz de Usuario,

esta técnica permite validar un prototipo desde el punto de vista de las actividades cognitivas que se obliga a re-alizar al usuario. Por tanto, en lo referente a la Validación de Requisitos, está relacionada tanto con el Prototipado como con la validación de modelos, puesto que evalúa la calidad de un prototipo entendido como modelo de la interacción entre el usuario y el sistema. Además que permite buscar defectos en el software.

• Recorrido Pluralístico vs Prototipos de Interfaz de Usuario:

El Recorrido Pluralístico, es costoso por tratarse de una técnica de grupo y también el rendimiento que se ob-tiene es considerable, por lo que su grado de aportación frente a esfuerzo es medio. Es igualmente cercano a la IS por tratarse de un recorrido, pero con un enfoque dis-tinto, participativo, que no es habitual en la IS (cercanía media a la IS). Su aplicabilidad es más amplia, pero re-quiere que las partes involucradas estén abiertas a este tipo de técnicas, por lo que el nivel para este criterio es medio. Finalmente, las necesidades de formación son bajas, debido a que está pensada para ser aplicada por usuarios, y la organización de las sesiones de recorrido no requiere conocimientos extensos.

La técnica sirve para la validación, en tanto organiza las sesiones de revisión de requisitos (en la parte de los prototipos) en las que participan todas las partes involu-cradas. No persigue únicamente consignar la validez del prototipo desarrollado, sino que puede jugar un papel importante en la negociación de requisitos, puesto que contribuye a conseguir una sintonía entre todas las par-tes involucradas en el desarrollo.

Con respecto a los Prototipos de la Interfaz de Usuario, lo más destacado de esta técnica participativa es que permite que el usuario aprecie que los temas que más le importan son atendidos convenientemente, y que tam-bién perciba que el equipo de desarrollo comprende su visión del problema.

• Diagramas de Transición de Estados de la Interfaz vs Diagramas de Estado:

Puesto que los Diagramas de Transición de Estados son

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Oct

ubre

- D

icie

mbr

e de

201

0

Resumen

Page 59: Revista Computacion y Tecnologia 1ra Edicion

53

un modelo habitual de la IS, la formación requerida para la aplicación de esta técnica es baja. Es aplicable a pro-ductos con Interfaz de Usuarios Gráficas. La aportación en Usabilidad puede resultar importante, si bien su apli-cación puede requerir un esfuerzo igualmente impor-tante.

Esta técnica puede ser de utilidad al Diagrama de estado ya que proporciona una forma de modelar un tipo con-creto de Interfaz de Usuarios, aquellas basadas en dis-tintos modos, o bien aquellas basadas en un sistema de ventanas modal (únicamente se permite interactuar con la ventana activa en cada momento). Esta técnica puede ser de utilidad también en la confección de manuales de uso, puesto que permiten transmitir al usuario la lógica de la interacción con el sistema.

• Guía de Estilo del Producto vs Diagramas de Diseño:

La técnica de Guía de Estilo del Producto se puede considerar como de una cercanía de nivel medio a la IS, puesto que por una parte responde a la necesidad de especificar las reglas por las que se va a guiar el diseño (objetivo que no resulta ajeno a la IS), mientras que por otra parte, dichas reglas se ocupan de los elementos que forman parte de la Interfaz de Usuario. Por esta razón, consideramos que tiene un valor medio en cuanto a cer-canía a la IS. La elaboración de una Guía de Estilo del Producto requiere una experiencia amplia en temas de Usabilidad, por lo que consideramos que la necesidad de formación es alta. Una Guía de Estilo del Producto sólo se justifica en sistemas de cierta complejidad, espe-cialmente cuando se trata de una familia de productos, por lo que su aplicabilidad general es media. Se trata de una técnica muy costosa en esfuerzo, y lo obtenido en cuanto a mejora de Usabilidad es importante, pero no tanto como lo obtenido con otras técnicas, por lo que su grado de aportación/esfuerzo es medio.

El modelo y otra documentación de diseño sirven en cualquier desarrollo para asegurar una visión común en el equipo de desarrollo acerca de las decisiones de dis-eño, y para servir de base para futuras modificaciones y/o extensiones. La Guía de Estilo sirve para estos mis-mos fines, pero se refiere a todos los aspectos relativos al diseño de la interacción. Resulta especialmente útil cuando se quiere contar con equipos multidisciplinares

en los que hay desarrolladores con escasa experiencia previa en temas de IHC, puesto que la Guía de Estilo les marca la pauta a seguir en todo lo referente al diseño de la interacción.

• Mapa de Navegación vs Diagramas de Diseño:

El mapa de Navegación, es apropiada cuando la inter-faz se compone de distintos contextos o ventanas entre los cuales navega el usuario. Requiere una formación de cierta extensión, y su aplicación resulta compleja. Así, las posibles mejoras en Usabilidad son importantes, aunque requiere un esfuerzo igualmente importante.

Mejora en cuanto a los Diagramas de Diseño, ya que la técnica permite la representación de las posibilidades de navegación entre distintos contextos de interacción. La consistencia entre los distintos elementos que forman la Interfaz de Usuario es una de las características clave de cara a la Usabilidad. Mediante esta técnica se puede observar una visión general de la navegación entre los distintos espacios de interacción, lo cual permite apre-ciar las desviaciones del objetivo general de consistencia que puedan aparecer.

• Modelo del Contenido de la Interfaz vs Diagramas del Diseño:

Debido a la diferencia con técnicas habituales de la IS, el Modelo del Contenido de la Interfaz tiene una nece-sidad de formación media debido a su relativa compleji-dad. Es aplicable para el diseño de Interfaz de Usuarios gráficas. Requiere cierto esfuerzo su aplicación, pero los resultados en mejora de la Usabilidad son acordes con el esfuerzo invertido. Por tratarse de modelos que utilizan medios no habituales en la IS, tiene un valor medio de cercanía a la IS.

Esta técnica permite realizar las tareas de diseño de la in-teracción con una base gráfica que favorece la discusión de alternativas. Está indicada para Interfaz de Usuarios basadas en un sistema de ventanas con distintos espa-cios de interacción. Cubre el vacío existente en la IS en cuanto a Modelado de la Interfaz de Usuario.

• Cuestionarios, Entrevistas y Encuestas vs Modelo de Análisis:

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Octubre - D

iciembre de 2010

Resumen

Page 60: Revista Computacion y Tecnologia 1ra Edicion

54

Los Cuestionarios, Entrevistas y Encuestas tienen una aplicabilidad general alta, puesto que son útiles para todo tipo de proyectos. La necesidad de formación es importante sin resultar excesiva (nivel medio). Sí se manejan en cierta medida cuestionarios en la IS, por lo que hay cierta cercanía a la IS (nivel medio). El esfuerzo de elaboración, distribución y análisis de los cuestion-arios es considerable, sin embargo pueden reflejar un número importante de problemas de Usabilidad, por lo que el grado de aportación frente al esfuerzo es medio.

Resultan de utilidad para todo tipo de proyectos, requi-eren una cierta formación, mientras que el esfuerzo de aplicación es considerable por lo complejo del proceso de elaboración de cuestionarios, selección de partici-pantes y análisis de los resultados recogidos. En aport-ación de Usabilidad es importante, acorde con el esfuer-zo que requiere su aplicación. Esta técnica proporciona la información relativa a la satisfacción subjetiva del usuario, la cual nos ayuda en una mejor obtención de requisitos para el Modelo de Análisis. Ya que en las ent-revistas flexibles se puede obtener, además del valor de dicho atributo de Usabilidad, información acerca de las áreas del sistema con mayores deficiencias de Usabili-dad, o en las que es preciso trabajar con mayor prioridad debido a la importancia que tienen para el usuario.

• Organización de la Ayuda según Casos de Uso vs Modelo de Pruebas:

La técnica de Organización de los Casos de Uso según la Ayuda requiere cierta formación (necesidad de for-mación media), y puede aplicarse en sistemas en los que se pueden extraer un número limitado de Casos de Uso representativos (aplicabilidad general media). Al ba-sarse esta técnica en los casos de uso, tiene una cierta cercanía con la IS (nivel alto) y, aunque no resulta ex-cesivamente costosa su aplicación, los beneficios están al mismo nivel (grado de aportación/esfuerzo medio).

Los desarrolladores, cuando se les plantea el diseño de un subsistema de ayuda, a menudo no cuentan con nin-guna técnica que les permita abordar tal tarea de una for-ma organizada. La técnica de Organización de la Ayuda según Casos de Uso puede suplir tal carencia, ligando la estructura del subsistema de ayuda a los casos de uso, y

sirviendo de pauta al desarrollo de tal subsistema. Las fa-cilidades de ayuda, cuando no se elaboran en base a una pauta, corren el riesgo de convertirse en un repositorio de información al cual los usuarios acaban por no acudir por las dificultades para encontrar la información que se necesita en un determinado momento.

• Registro del Uso vs Modelo de Pruebas:

El Registro del Uso entronca con el uso de monitores software en la IS para medir la eficiencia, por lo que el nivel de cercanía a la IS es alto. De todas formas, se trata de una técnica relativamente compleja, por lo que requi-ere un nivel de formación alto. No es aplicable a todos los casos, en tanto únicamente es practicable cuando la organización cliente está dispuesta a que se recojan datos sobre el uso del sistema por parte de los usuarios finales (aplicabilidad media). El esfuerzo de establecimiento de los monitores software es alto, aunque aporta infor-mación valiosa de posibles puntos problemáticos de Us-abilidad, debido a que permite conocer en detalle el uso real de las distintas funcionalidades. Por esta razón el grado de aportación/esfuerzo es medio. La información que puede aportar es valiosa para la mejora de la Usabi-lidad del sistema.

El uso de esta técnica está íntimamente relacionado con el análisis de tareas realizado como parte de la deducción y análisis de requisitos. Puesto que se ha modelado cómo se espera que sea el uso dado al sistema, tener mecanis-mos de registro del uso real permite al equipo de desar-rollo observar las desviaciones entre el uso esperado y el real. Este tipo de información genera información obje-tiva y detallada sobre posibles problemas de Usabilidad, funcionalidades con menos uso del esperado, o patrones de interacción que se repiten y que llevan a errores del usuario.

• Retroalimentación del Usuario vs Modelo de Pruebas:

La Retroalimentación del Usuario puede ser de muchos tipos, pero las quejas del cliente/usuario en general son algo común para los ingenieros software, por lo que podemos considerar a esta técnica con un nivel alto de cercanía a la IS. La complejidad de la técnica puede vari-ar, pero en sus formas más comunes la necesidad de for-mación es baja. En todo tipo de proyectos se puede con-

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Oct

ubre

- D

icie

mbr

e de

201

0

Resumen

Page 61: Revista Computacion y Tecnologia 1ra Edicion

55

tar con la retroalimentación del usuario, por lo que su aplicabilidad general es alta. Finalmente, sí que resulta de gran utilidad para el descubrimiento de problemas de Usabilidad, y su costo es bajo, por lo que el nivel aport-ación/esfuerzo es alto.

En la técnica de Retroalimentación del Usuario, es el usuario quien, debido a algún problema o deficiencia en el sistema software que está usando, toma la iniciativa de acudir a la organización de desarrollo de software para informar del asunto. Cuando se cuenta con servicio de atención en línea o de ayuda, la información recopilada acerca de las consultas de los usuarios resulta de gran utilidad a la hora de identificar y priorizar los problemas de Usabilidad a tratar con mayor rapidez.Seleccionar y clasificar las actividades y técnicas que correspondan a las etapas del Proceso Unificado de De-sarrollo de Software.

2.4 Paso 4

Se seleccionaron las técnicas en base a las actividades que se realizan tanto en Usabilidad como con el proceso unificado de desarrollo de software. Además que los tér-minos manejados entre ellas no fueran tan dispares, en-

contrando 24 técnicas de IHC que coinciden.

Las técnicas de IHC fueron acomodadas conforme a la etapa correspondiente, donde mejor encaja de acuerdo a los modelos de RUP dependiendo del flujo de trabajo en el que se implemente como se muestra en la Tabla 4. Esto permite la selección de la técnica de Usabilidad correspondiente a los modelos de RUP y en cuanto a la etapa en la cual se quiere hacer uso de la técnica, evi-tando tener que hacer una búsqueda exhaustiva de las mismas.

Tabla 3. Técnicas de Usabilidad acomodadas en base a las etapas de RUP

Inicio Elaboración Construcción Transición

Card Sorting Casos de Uso Esenciales Diagrama de Transición de Estados de la Interfaz

Cuestionarios, Entrevistas y Encuestas

Escenarios de Tareas Escenarios de Tareas Guía de Estilo del Producto Inspecciones

Escenarios y Storyboards Investigación Contextual Inspecciones Medición del Rendimiento

Especificaciones de Usabilidad HTA Mapa de Navegación Modelo del Contenido de la Interfaz

HTA Mapa de Roles de Usuario Medición del Rendimiento Organización de la Ayuda según Casos de Uso

Investigación Contextual Perfiles de Usuario Modelo del Contenido de la Interfaz

Registro del Uso

Observación Etnográfica Prototipos de Papel Recorrido Cognitivo

Personas Recorrido Cognitivo Recorrido Pluralístico

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Octubre - D

iciembre de 2010

Resumen

Page 62: Revista Computacion y Tecnologia 1ra Edicion

56

3. Conclusiones

L a propuesta, de las 35 técnicas de Usabilidad de Ferré [7] y la integración se realizó en 4 pasos, análisis del marco de integración de la Usabili-

dad en el proceso de desarrollo de software, permitien-do obtener las técnicas consideradas como útiles para el desarrollo de software, análisis de RUP con la finalidad de conocer los modelos y flujos de trabajo, se realizó la selección de las coincidencias entre ambas técnicas, fi-nalmente se ubicarón las técnicas de acuerdo a las etapas que corresponden a RUP de la cual se encontraron 24 técnicas de Usabilidad que coinciden con 10 modelos de RUP.

En este trabajo se logro el Marco de Integración de la Usabilidad en el Proceso de Desarrollo de Software, ya que no existia un trabajo que integrara técnicas de IHC a una metodología en particular como el RUP; además de incorporar la Usabilidad en cada una de las etapas del ciclo de vida, en un ciclo iterativo, cumpliendo con el objetivo del trabajo. Un punto pendiente por realizar es probar la metodología en un caso real de desarrollo y verificar el grado de Usabilidad logrado al final del tra-bajo.

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Oct

ubre

- D

icie

mbr

e de

201

0

Resumen

Page 63: Revista Computacion y Tecnologia 1ra Edicion

57

1. Lewis G. 1994. “What is Software Engineering?” DataPro (4015). Feb 1994. pp. 1-10. Pontificia Univer-sidad Javeriana Ingeniería.2. R. S. Pressman. Ingeniería del Software: “Un enfoque práctico”. Quinta edición. Ed. McGraw-Hill, 2002. 640 págs.3. W. Humphrey. “Managing the software process”. Ad-dison-Wesley, 1989.4. IEEE Computer Society Professional Practices Committee. “Guide to the Software Engineering Body of Knowledge - 2004 Version”. IEEE Computer Soci-ety, Los Alamitos (CA), USA, 2004.5. B. Boehm. “Characteristics of Software Quality”. North Holland Publishing Co., 1978.6. J.A. McCall, P.K. Richards, G.F. Walters. “Fac-tors in Software Quality”. vol. 1, 2, and 3, AD/A-049-014/015/055, National Tech. Information Service, 1977.7. X. Ferré. “Marco de Integración de la Usabilidad en el Proceso de Desarrollo Software”, Tesis Doctoral, Universidad Politécnica de Madrid, 2005. 273 Págs.8. Jacobson, I., Booch, G., Rumbaugh, J. “The Unified Software Development Process”. Reading Boston, MA. Ed. Addison Wesley, 1999. 438 págs.9. ISO 13407. Human-Centered Design Processes for Interactive Systems. ISO, Geneva (Switzerland), 1999.10. J. Nielsen. “Usability Engineering”. Academic Pro-fessional Press, 1993. 358 págs.11. B. Shneiderman. “Designing the User Interface: Strategies for Effective Human-Computer Interaction”. 3rd edition. Ed. Addison Wesley, USA, 1998. 639 págs

Referencias

Marco de Integración de la Usabilidad al Proceso Unificado de Desarrollo de Software

Octubre - D

iciembre de 2010

Resumen

Page 64: Revista Computacion y Tecnologia 1ra Edicion

Divulgación

Artículos Arbitrados

Sección

Page 65: Revista Computacion y Tecnologia 1ra Edicion

59Divulgación

El daño de los equipos de cómputo al medio ambienteDamage computer equipment to the environment

José Alonso Pérez Cruz, Gustavo Verduzco Reyes, Ricardo Armando Barrera Cámara, Fernando Enrique Sánchez MartínezUniversidad Autónoma del Carmen. UNACAR

Calle 56 N°4, Col. Benito Juárez, C.P. 24180, Tel: 938381018 ext. 1506 Ciudad del Carmen, [email protected], [email protected], [email protected], [email protected]

E l desarrollo de la tecnología ha sido la evolución del planeta, esta va ligada directamente a la apar-ición de las computadoras y la capacidad que es-

tas han tenido para cambiar el ambiente que nos rodea a favor pero también en contra. Actualmente los equipos de última generación permiten realizar un sin número de tareas, donde los usuarios buscan siempre el dispositivo más elegante, sofisticado, de moda, el diferente o el que permita realizar las actividades necesarias de un día a día y esto generalmente nos lleva a una pregunta que pocas veces se hace ¿qué pasa cuando ese dispositivo llega al fi-nal de su vida útil?, ¿en dónde queda? Este trabajo busca presentar números y hechos de lo que ocurre con esos equipos y como afectan el medio ambiente.

P ara tener una visión de la cantidad de equipo de computo que queda obsoleto se debe de tener una noción de la cantidad de equipos que se

adquieren, el tiempo de vida que tienen y que se hace con ellos después que esta vida útil llega a su fin. Gen-eralmente los equipos electrónicos que se renuevan con más frecuencia son televisores, videocaseteras, estéreos, computadoras y celulares, con un promedio de 2.5 años para adquirir uno nuevo. De acuerdo con datos de la US Environmental Protection Agency (Agencia de Pro-tección Ambiental de Estados Unidos) este organismo indica que sólo en los Estados Unidos de America se “tiran” al año, sin el menor interés, 134.5 millones de computadoras por obsoletas, así como 348.9 millones de otro tipo de electrónicos. Además en todo el conti-

T he development of technology has been the evo-lution of the planet, this is linked directly to the advent of computers and the ability of these have

had to change the environment around us in favor but also against. Currently the art equipment allow a num-ber of tasks, where users search the device more elegant, sophisticated, fashion, allowing different or the carrying out of activities of daily life and this usually leads to a question that rarely is what happens when that device reaches the end of its life?, where is left? This paper aims to present numbers and facts of what happens with those teams and how they affect the environment.

RESUMEN ABSTRACT

1. Introducción

Palabras Clave: Equipo de cómputo, medio ambiente, reciclaje. Keywords: Computer equipment, environment, recycling.

nente Americano determina que el desecho anual es de 583.8 millones de unidades. Esto lleva a que se calcula que cada año en México se renuevan 2 millones de equi-pos de cómputo, y el precio de cada equipo nuevo oscila entre $9. 000 y $12,000 mil pesos. Estos números nos dan una dimensión de la cantidad de basura electrónica que se tiene actualmente y la que se va a tener a futuro, en México había en 2008 18.2 mil-lones de computadoras y 73.6 Millones de teléfonos ce-lulares. Si se toma en cuenta que estos los cambiamos cada 2.5 años en los próximos meses se estarán gener-ando aproximadamente 91.8 Millones de equipos elec-trónicos obsoletos. Actualmente la basura tecnológica se está convirtiendo en un serio problema tanto para países desarrollados como subdesarrollados. En México los procesos de reciclaje de equipos de cómputo son escasos, esto acarrea problemas que todavía no se al-canzan a dimensionar, debido a que no se tiene la su-

Artículo recibido el 8 de Junio del 2010 Artículo aceptado el 06 de Agosto del 2010

Octubre - D

iciembre de 2010

Page 66: Revista Computacion y Tecnologia 1ra Edicion

60Divulgación El daño de los equipos de cómputo al medio ambiente

2. Basura Computacional

3.Reciclaje Informático

ficiente información a cerca de la problemática actual, con los números mencionados se puede llegar a tener un claro panorama de las dimensiones que esto llegará a tener en unos cuantos años. El primer claro problema será la contaminación tóxica donde los daños directos se podrán observar tanto en los seres vivos como en el medio ambiente.El beneficio de tener procesos de reciclaje para los equi-pos de computo podrían evitar la contaminación de las fuentes de agua, la tierra y el aire. Además se puede de-terminar un proyecto donde se pueden reutilizar varios de los equipos obsoletos, o armar la mayor cantidad de equipos de características bajas, con el objetivo de hacer donaciones a escuelas rurales del estado de Campeche donde la capacidad de computo que necesitan para tra-bajar no es determinada con un conjunto de característi-cas en hardware poderosas y donde estos equipos se pu-eden desenvolver adecuadamente sin causar problemas pero resolviendo esta necesidad para las instituciones educativas.

L a basura computacional es un concepto que surge a raíz de los desperdicios y desechos de la indu-stria de la computación, y se refiere a cualquier

E l Reciclaje es una de las alternativas utilizadas para reducir el volumen de los residuos sólidos. Este proceso consiste en recuperar materiales

(reciclables) que fueron descartados y que pueden uti-lizarse para elaborar otros productos o el mismo. Ejem-plos de materiales reciclables son vidrio, metal, plástico, papel y cartón. Cuando el material o equipo informáti-co con el que trabajamos deja de funcionar o de ser útil, tenemos varias opciones para deshacernos de él La más habitual es depositarlo discretamente en el contenedor más cercano, o dejarlo directamente en la calle. Existen sin embargo dos alternativas mucho más ecológicas y amigables que la primera, el reciclaje y la donación. Cu-ando los equipos ya no funcionan o son tan sumamente viejos que no van a poder resultar de utilidad a nadie más, la mejor opción es optar por su reciclado (Ilus-tración 1).

computadora, accesorio, dispositivo periférico o con-sumible que se encuentra almacenado o en desuso, en la basura o en algún lugar. Estos pueden incluir tarjeta madre, impresoras, mouse, scanner, cartuchos de tintas vacías, mouse teclado, cable de alimentación.

Ilustración 1. Ciclo de vida de un equipo de computo

Oct

ubre

- D

icie

mbr

e de

201

0

Page 67: Revista Computacion y Tecnologia 1ra Edicion

61Divulgación

4. Métodos para Reciclaje

5. Desarrollo

• Separación en la Fuente: Separación en la fuente es la recuperación de los materiales reciclables en su punto de origen como por ejemplo: el hogar, comercio, indus-trias y escuelas. Estos materiales recuperados son lleva-dos a los centros de acopio y reciclaje correspondientes a sus categorías en donde los almacenan y algunos los preparan para ser procesado o exportados. Una de las ventajas de la separación en la fuente es que los materia-les reciclables recobrados no están contaminados al no estar mezclados con el resto de los residuos sólidos. Este método contribuye a reducir el volumen de los residuos sólidos que llega a los sistemas de relleno sanitario y por lo tanto alarga la vida útil de estos. Otra ventaja de este método es que disminuye los costos municipales de re-colección y disposición final de los residuos sólidos. El éxito de este método dependerá en gran medida, del de-sarrollo de programas educativos para concienciar sobre la importancia de cooperar implantando la estrategia del reciclaje en nuestro diario vivir.

• Separación Manual después del Recogido: La separa-ción manual de los residuos sólidos ocurre después de la recogida. Este método no es recomendado al presentar problemas de salud y seguridad porque los materiales a recuperarse ya se han mezclados con otros desechos contaminados.

• Separación Mecánica: La separación mecánica es la recuperación de materiales por medios mecánicos o electromecánicos después de la recogida. Algunos de estos sistemas de separación mecánica segregan todos lo materiales. Este método permite recobrar mayor can-tidad de residuos sólidos que los otros métodos manu-ales.

L os equipos de cómputo obsoletos y en general todos los equipos electrónicos existentes tienen el grave problema de ser creados con un conjun-

to de dispositivos que al entrar en contacto con el sol contaminan y envenenan el aire, el agua y la tierra. Estos equipos deben de ser reciclados para que esto no ocurra,

solo que no se tiene la cultura y se desconoce los efectos que producen al medio ambiente, se tratan como basura normal y estos llegan a los vertederos creando una con-taminación que se conoce como basura tóxica.

En nuestro país la dependencia encargada de verificar que estos equipos no lleguen a los basureros se llama SEMARNAP, y uno de los problemas para las empre-sas que generan desperdicios tecnológicos es encontrar otra compañía que se dedique al reciclaje y que tenga los permisos correspondientes para poder realizar esta actividad.

Los equipos de cómputo al ser construidos conjuntan varios elementos donde se contemplan aproximada-mente 9 sustancias químicas tóxicas, las cuales son:

Tabla 1. Sustancias Químicas Toxicas en los Equipos de Computoetapas de RUP

1 Plomo en tubos de rayo catódico y soldadura.

2 Arsénico en tubos de rayo catódico más antiguos.

3 Trióxido de antimonio como retardante de fuego.

4 Retardantes de flama polibromados en las cubiertas, cables y tableros de circuitos.

5 Selenio en los tableros de circuitos como rectificador de suministro de energía.

6 Cadmio en tableros de circuitos y semiconductores.

7 Cromo en el acero como anticorrosivo.

8 Cobalto en el acero para estructura y magnetividad.

9 Mercurio.

La contaminación de los equipos de cómputo tiene dos partes cuando la PC es construida y cuando termina la vida útil de la computadora. Al construir una PC hac-emos uso de plásticos en la tarjeta madre en la caja del CPU, monitor, mouse y teclado todos estos elementos están armados en su mayoría con plástico.En la mayoría de las computadoras hay acero, cromo, cadmio, mercurio, berilio, níquel, zinc, retardadores de flama bromados, cables, alambres, tubos de despliegue, materiales termoplásticos, mezclas de plásticos y mate-riales especiales como baterías, entre otros. Todos estos elementos resultan altamente contaminantes para el me-

El daño de los equipos de cómputo al medio ambienteO

ctubre - Diciem

bre de 2010

Page 68: Revista Computacion y Tecnologia 1ra Edicion

62Divulgación

6. Proyecto de Reciclaje de Basura Computacional de

Empresas y Sociedad

dioambiente y nocivos para la salud pública, según afir-man los expertos de Silicon Valley Toxics Coalition, un grupo de defensa del medioambiente. Entonces es nec-esario evitar que las computadoras terminen en rellenos sanitarios, sean incineradas o arrumbadas en los sótanos de los hogares.

Según la Agencia de Protección del Ambiente de EE.UU. (EPA), a partir de 2005 se ha guardado un volumen in-conmensurable de equipo electrónico que no se usa y pueden filtrar plomo, mercurio, arsénico, cadmio, ber-ilio y otras sustancias tóxicas en la tierra. Incluso si per-manece en áticos y sótanos indefinidamente, sin llegar nunca a un vertedero de residuos, esa solución tiene su propio efecto indirecto en el medio ambiente. Los estu-dios demuestran que casi 250 millones de computado-ras llegarán a ser obsoletas en los próximos cinco años Cerca del 70% de los metales pesados que contaminan los vertederos y basureros públicos provienen de apara-tos electrónicos que las personas desechan inadecuada-mente. El mercurio y el cobalto, por ejemplo, son tóxi-cos por inhalación, por contacto y por ingestión; y el cromo es tóxico por inhalación e ingestión. Todos estos compuestos químicos forman parte de las computado-ras y aparatos electrónicos que usamos a diario, y por supuesto que se transforman en un serio problema me-dioambiental cuando son tirados directamente a un ba-surero sin intentar recuperar sus componentes primero.De acuerdo con datos de la US Environmental Protec-tion Agency (Agencia de Protección Ambiental de Es-tados Unidos) indican que sólo en ese país se “tiran” al año, sin el menor interés, 134.5 millones de PC por obsoletas, así como 348.9 millones de otro tipo de elec-trónicos. En todo el continente, el desecho anual es de 583.8 millones de unidades.

cada aspecto del proyecto, es decir, para su realización se debe trabajar en grupo, se necesitan técnicas más formales de especificación y diseño que permitan una comunicación más clara y menos ambigua entre los in-tegrantes del equipo; es por ello, que debe documen-tarse apropiadamente cada etapa del proyecto y realizar pruebas exhaustivas, y es esencial una cuidadosa admin-istración [2], ya que cada organización cuenta con su propio proceso de software, que puede estar explícita-mente definido o no, y que los desarrolladores siguen con mayor o menor grado de constancia. El área de pro-

ceso de software sustenta que un proceso definido ex-plícitamente y mejorado de forma continua logrará un mejor producto; es decir, defiende que el empleo de un buen proceso de desarrollo conlleva a la obtención de un producto software de buena calidad.

E n Ciudad del Carmen, Campeche existen más de 50 empresas que le trabajan a PEMEX y que anualmente generan basura tecnológica. Actual-

mente, se desconoce cuáles de estas empresas cuentan con procesos de reciclaje para equipos de cómputo, cor-riendo el peligro de que muchos de estos dispositivos lleguen al basurero municipal en forma de basura nor-mal contaminando seriamente, ya que estos elementos cuentan con varias sustancias tóxicas. Como ya se ha expuesto, varias de estas sustancias son dañinas tanto para el ser humano como para el medio ambiente. Cabe mencionar que Ciudad del Carmen es una isla que se en-cuentra en la zona natural protegida “Laguna de Térmi-nos” y que el basurero municipal se encuentra cercano a la playa; además de que se tienen antecedentes de em-presas que tiran a la basura los equipos de cómputo por no contar con una política de reciclaje o porque simple-mente necesitan hacer espacio en sus bodegas sin pensar en el daño ecológico que causan a la isla.

Teniendo esta problemática se ha desarrollado un proyecto que busca generar una campaña de reciclaje computacional donde habrían dos etapas, la primera de ellas sería la recopilación de los equipos de computo ob-soletos de las empresas y de la comunidad en general, esta primera fase dirigida a las empresas llevaría a gen-erar un censo de las empresas que cuentan con residuos computacionales por medio de visitas directas donde se les aplicaría un breve cuestionario para conocer si cuen-tan con procesos de reciclaje y si están interesados en donar los equipos de computo obsoletos con que cuen-tan. Este proceso es complicado ya que la gran mayoría de las empresas tienen procesos internos de calidad los cuales determinan las bajas de equipos con un conjun-to de documentos tanto por parte de la empresa que dona como la que recibe, llevando a tener certificados

El daño de los equipos de cómputo al medio ambienteO

ctub

re -

Dic

iem

bre

de 2

010

Page 69: Revista Computacion y Tecnologia 1ra Edicion

63Divulgación

que las avalen, también se pueden encontrar empresas que si cuentan con procesos de reciclaje y quienes están en el proceso de buscar, aquí el proyecto puede ayudar proporcionando toda la información necesaria para dar de baja a los equipos de cómputo obsoletos y ser alma-cenados en la Universidad Autónoma del Carmen para que después sean enviados a una empresa recicladora la que disponga de estos equipos. Para concluir esta prim-era etapa se generaría una campaña para el público en general donde podrían llevar los equipos de cómputo en fechas determinadas al Centro de Tecnologías de Infor-mación de la DES DACI y de igual forma ser almacena-dos dentro de las instalaciones de la Universidad.

Estas dos fases deben ser apoyadas con una campaña de información promovidos por los medios de comu-nicación como son radio, periódico y televisión locales. Además de hacer un conjunto de trípticos para repartir en las fechas de las recepciones donde se describan los daños que causaría tanto almacenar en casa estos equi-pos obsoletos como tirarlos al basurero público. Esto úl-timo buscaría hacer conciencia en la población y buscar crear una cultura acerca de la basura computacional.

La segunda etapa esta determinada por una revisión de todo el equipo de computo recepcionado para verificar

sus condiciones, buscar rescatar la mayor cantidad de los mismos con la finalidad de contar con un conjunto de equipos funcionales que puedan ser donados a escuelas del estado de Campeche y cumplir con el propósito de apoyar a las mismas instituciones en los procesos de educación, donde la capacidad de computo no es la mayor virtud de los mismos pero pueden cumplir sin complicaciones con las tareas para las cuales pueden ser usados. Esto no se podría llevar a cabo sin tener el material humano que en este caso esta conformado por alumnos de las carreras de Ingeniería en Electrónica de la DES DAIT y de las carreras de Ingeniería en Sistemas Computacionales, Licenciatura en Informática e Ingeni-ería en Computación de la DES DACI de la Universidad Autónoma del Carmen. Otra forma de buscar un uso ad-ecuado a estos equipos rescatados en donarlos a los mis-mos alumnos de la Universidad que a veces no necesitan una capacidad de computo mayor al de un procesador de textos y otras tareas básicas pero que no pueden ad-quirir uno, ayudando a mejorar sus expectativas en una carrera universitaria. Esta última etapa tendría que estar regulada por algún mecanismo que asegure que el alum-no realmente necesita un equipo de computo.

Ilustración 2. Fases del Proyecto de Reciclaje Computacional

El daño de los equipos de cómputo al medio ambienteO

ctubre - Diciem

bre de 2010

Page 70: Revista Computacion y Tecnologia 1ra Edicion

64Divulgación

• Edad• Sexo• DES a la que pertenece

1. ¿Tiene usted algún equipo de cómputo? 2. ¿Qué tipo de equipo de computo tiene?3. ¿Cuántos años tiene con el equipo de cómputo?4. ¿Piensa comprar algún equipo de cómputo este año?5. ¿Qué hace con el equipo de computo cuando ya es obsoleto?6. ¿Sabe que el equipo de cómputo se recicla?7. ¿Tiene algún método para reciclar?8. ¿Sabe usted que el equipo de computo contamina el medio ambiente?

Esta información podrá servir para entender mejor que hacen las empresas con los equipos obsoletos y entender el porqué los estudiantes deben de tener una cultura computacional. Al haber aplicado los respectivos cues-tionarios se puede generar una base de datos donde se concentre esta información y buscar explotar esta infor-mación por medio de sistemas estadísticos que prueben que aunque este tema es poco relevante y no hay mucha gente que se preocupe por buscarle soluciones reales sino se busca un método para una solución el problema seguirá creciendo. Esto llevaría a buscar salidas poco pensadas, probadas y que realmente causen el beneficio que se quiere.

A la par de estas etapas se aplicaran dos cuestionarios que buscan recopilar información acerca de las empre-sas y de los estudiantes universitarios, el primero busca conocer si las empresas cuentan con procesos de recic-laje, si están interesadas en las donaciones de equipos de computo y si conocen de los daños que estas causan al medio ambiente.

Dentro del cuestionario que se elaboro para las empre-sas se tienen los siguientes datos:

• Nombre de la empresa• Dirección• Teléfono y extensión• Nombre del Contacto• Departamento al que pertenece el contacto• Correo Electrónico

Las preguntas que se conformaron para el cuestionario de empresas son las siguientes:

1. ¿Conoce los daños que causa los equipos de cóm-puto al medio ambiente??2. ¿Tiene implementado algún programa de reciclaje computacional en la empresa?3. ¿Cuenta con residuos electrónicos computacionales en la empresa??4. ¿Sabe aproximadamente la cantidad de residuos con que cuenta actualmente su empresa?5. ¿La empresa estaría interesada en eliminar el equipo de cómputo?6. ¿Conoce el tipo de apoyo prestaría la empresa para eliminar el equipo de cómputo?7. ¿Conoce el tiempo que tardaría la empresa en re-alizar los trámites correspondientes de las bajas de los equipos de cómputo??8. Anote una fecha en la que se podría visitar la em-presa.

Los cuestionarios a los estudiantes van enfocados con la finalidad de conocer la cultura que tienen a cerca del reciclaje y qué hacer con los dispositivos cuando con-cluyen su vida útil. El cuestionario tiene un encabezado conformado por 3 preguntas básicas e integra un total ocho preguntas donde busca obtener la información antes descrita, Las preguntas del cuestionario son las siguientes:

7. Conclusiones

E l desarrollar un proyecto que busque solucionar anticipadamente un problema real que en unos años será demasiado grande para buscar solu-

ciones sin contratiempos y de forma segura es factible, tener un método para el reciclaje computacional, tendrá un beneficio para la sociedad y el medio ambiente in-valuables; ya que las grandes cantidades de sustancias tóxicas que podrían haber ayudado a contaminar pu-eden ser contenidas y evitadas. En este proceso se pu-ede determinar que el proyecto se limita a una ciudad en especifico pero al concluir el rescate de los equipos de computo y los muchos beneficios que estos aportan se puede buscar crecer y replicarlo en otros lugares del es-tado ya que actualmente los equipos de computo obso-

El daño de los equipos de cómputo al medio ambienteO

ctub

re -

Dic

iem

bre

de 2

010

Page 71: Revista Computacion y Tecnologia 1ra Edicion

65Divulgación

letos o sus periféricos se encuentran en cualquier lugar donde seguramente habrá grandes resultados para evitar la contaminación de la tecnología actual.El proyecto de reciclaje computacional actualmente se encuentra en proceso de llevarse a cabo y de las dos fases que se han presentado se puede determinar que la primera esta por llegar a su fin, debido a que en estos días se llevara a cabo un maratón de reciclaje teniendo la finalidad de recolectar todo el equipo de computo que se pueda obtener y que las empresas quieran o puedan donar, dando paso a iniciar la segunda etapa, teniendo varios retos por definir, como son la cantidad de equipo de computo que se recibirá tanto por las empresas como por la comunidad, la cantidad de equipos que se podrán recuperar, la generación de una base de datos donde se pueda tener información de las empresas que tienen procesos de reciclaje internos, las que no cuentan con ello, las que están en la tarea de tener una normatividad y las que participaron con el proyecto del reciclaje com-putacional.

Por último, la misma base de datos nos proporcionara información para conocer la cultura de los estudiantes universitarios a cerca del reciclaje de equipo de compu-to y los daños que estos causan. Esto nos podría llevar a una tercera etapa donde se busque llevar el proyecto a procesos de generación de conciencia entre la comuni-dad y empresas y a tener un espacio permanente de re-cepción de equipo para su evaluación y reconstrucción o envío a la empresa de reciclaje. Los Beneficios ya se mencionaron, el trabajo que queda hacia delante es muy prometedor ya que muchos de es-tos equipos terminarían en el basurero municipal siendo un foco de contaminación tóxica que tarde o temprano empezará a sentir el daño tanto nuestro medio ambiente como los seres vivos.

El daño de los equipos de cómputo al medio ambienteO

ctubre - Diciem

bre de 2010

Page 72: Revista Computacion y Tecnologia 1ra Edicion

66Divulgación

[1] Asociación Mexicana de Internet (AMIPCI). Es-tudio AMIPCI 2010 de Hábitos de los Usuarios de In-ternet en México. URL: http://www.amipci.org.mx/estudios, 03/2010[2] Clarín.com. Basura tecnológica. Qué hacer con las computadoras viejas. Publicado: 10 de marzo de 2005. Consultado: marzo 2010. URL: http://www.clarin.com/diario/2005/03/10/conexiones/t-936181.htm[3] Israeldj.tk, Nos tiran la basura electrónica. Publicado: 29 de noviembre de 2006. Consulta-do: marzo 2010. URL: http://israeldj.wordpress.com/2006/11/29/nos-tiran-la-basura-electronica/[4] REMSA. Recicla Electrónicos México. URL: http://www.reciclaelectronicos.com/[5] Barbara, Hirtz. E- Basura. Basura electronic, gran amenaza para el medio ambiente. Programa de las Na-ciones Unidas para el Medio Ambiente (PNUMA). Publicado: 24 de febrero de 2010. Consultado: Mayo 2010. URL: http://www.zonacatastrofica.com/ba-sura-electronica-gran-amenaza-para-el-medio-ambi-ente.html[6] María Ovelar. India, el imperio de la basura elec-trónica, La segunda potencia tecnológica mundial es también el mayor estercolero computacional de la Tierra. CIBERPAIS. Publicado: 21 de enero de 2010. Consultado: Mayo 2010. URL: http://www.elpais.com/articulo/portada/India/imperio/basura/elec-tronica/elpepisupcib/20100121elpcibpor_1/Tes[7] Autoridad de Desperdicios sólidos, Reciclaje:Gobierno de Puerto Rico. Publicado: 21 de Mayo de 2010. URL: http://www.ads.gobierno.pr/secciones/reciclaje/

Referencias

El daño de los equipos de cómputo al medio ambienteO

ctub

re -

Dic

iem

bre

de 2

010

Page 73: Revista Computacion y Tecnologia 1ra Edicion

67

Introducción a la ComputaciónAutor: Jorge Vasconcelos SantillanaPublicaciones Cultural3ra. Reimpresión 1999

E n este libro podemos encontrar conceptos bási-cos sobre computación y programación en len-guaje Pascal. Es un libro de conocimiento gener-

al que introduce al lector al mundo de la computadora.

El contenido del libro es útil para los estudiantes de nuevo ingreso en el nivel superior, para los programas de estudio relacionados con computación o informáti-ca, dado que contiene información de conceptos bási-cos y terminología que es necesario manejar adecuada-mente para el buen desempeño académico. Éste libro abarca en su primera parte, temas de introducción a la computación y en su segunda, temas de introducción a la programación utilizando el lenguaje pascal.

El autor presenta de forma clara el modelo de Von Neu-mann que representa la arquitectura de la computadora, en donde se muestran las diferentes unidades que la conforman así como su interacción. Además, explica cómo se realiza el procesamiento de la información en la computadora.

Es necesario saber que la computadora trabaja con siste-mas numéricos para representar los datos y su sistema numérico base es el Sistema Binario, pero también ex-iste el Hexadecimal, Decimal y Octal, y su uso depend-erá de la aplicación. Lo que el usuario le proporciona a la computadora como dato es convertido a lo que lla-mamos código máquina, que es la forma en que la com-putadora digiere toda la información que le estamos tras¬mitiendo.

Parte esencial del contenido es la introducción a la res-olución de problemas a través de la computadora uti-lizando los Algoritmos (con pseudocódigo, diagrama de flujo y pruebas de escritorio) y su implementación en el lenguaje Pascal. Lo interesante es que para cada problema planteado, incluye el análisis de la situación (el problema en sí y la solución esperada) y el diseño de la estrategia a seguir para la solución (los datos con los que se cuenta y los pasos de la solución a implementar).

Cada capítulo incluye resumen y preguntas de repaso que pueden servir para evaluar el dominio del contenido por parte del lector. Es recomendable contestar las pre-

guntas para alcanzar una mejor asimilación de los temas.

Para el desarrollo de cada tema, el autor utiliza diferen-tes gráficos e ilustraciones que facilitan la comprensión del mismo, sobre todo para aquéllos que tienen un estilo de aprendizaje visual.

El libro es de fácil lectura y comprensión, lo que permite a un usuario novato entender su contenido; sobre todo, a aquél que empieza una formación en el área de la In-formática o Computación.

Autores: MC. Patricia Zavaleta Carrillo.

MC. Dámaris Pérez Cruz.

Comentarios a contenidos Comentarios

Octubre - D

iciembre de 2010

Page 74: Revista Computacion y Tecnologia 1ra Edicion