libro de resÚmenes - universidad santo tomás … · aplicación de un algoritmo de correlación...

126
ENCUENTRO DE SEMILLEROS DE INVESTIGACIÓN DE FACULTADES DE INGENIERÍA DE TELECOMUNICACIONES Y AFINES Estableciendo Redes de Investigación LIBRO DE RESÚMENES Número I

Upload: dophuc

Post on 28-Sep-2018

221 views

Category:

Documents


0 download

TRANSCRIPT

ENCUENTRO DE SEMILLEROS DE INVESTIGACIÓN DE

FACULTADES DE INGENIERÍA DE TELECOMUNICACIONES Y

AFINES

Estableciendo Redes de Investigación

LIBRO DE RESÚMENES

Número I

ENCUENTRO DE SEMILLEROS DE INVESTIGACIÓN DE

FACULTADES DE INGENIERÍA DE TELECOMUNICACIONES Y

AFINES

Estableciendo Redes de Investigación

LIBRO DE RESÚMENES

Medellín, 28 de mayo de 2015 Número I

UNIVERSIDAD SANTO TOMÁS SEDE MEDELLIN

Comité Académico: Ángela María Londoño Jaramillo, Camilo Andrés Flórez Velásquez, Guillermo

León Bolívar Ortiz.

Compiladores: Camilo Andrés Flórez Velásquez, Ángela María Londoño Jaramillo.

Universidad Santo Tomás, 2015.

Carrera 82 No. 77 BB 27

Medellín, Antioquia; Colombia.

Teléfono: (574) 2341034

www.ustamed.edu.co

ISSN 2500-7610 (En línea)

Contenido

Presentación 10

Herramientas informáticas para el aprendizaje y la Investigación. 13

Diseño e implementación de un sistema de comunicación silenciosa dual

basado en habla subvocal.

17

Diseño e implementación de un sistema para clasificación de caracteres

obtenidos de señales electroencefalográficas (EEG) aplicado en pacientes

con problemas de afasia motriz.

23

Ocultamiento de señales de voz en imágenes RGB por medio de la técnica

QIM.

28

Marcado de audio digital con imágenes binarias utilizando QIM. 35

Implementación de Sistemas de Radares análogo y digital experimentales de

bajo costo para estudios de detección de objetos.

39

Prototipo de una red GSM con el uso de OpenBTS y USRPs en el Campus

Cajicá de la Universidad Militar Nueva Granada.

47

Diseño y simulación de filtros Microstrip usando el software ADS. 52

Diseño y simulación de antenas Microstrip usando el software ADS. 57

Caracterización y documentación georreferenciada de la interferencia,

seguridad y el solapamiento de canales en sitios de libre acceso a Internet

para redes WiFi, en puntos críticos de la comuna 10 de Medellín

proponiendo una Metodología de medición.

62

Incidencia de la tecnología Li-Fi en el funcionamiento de equipos

electrónicos presentes en las instalaciones hospitalarias de la ciudad de

Medellín.

69

Vulnerabilidad con Wifislax. 73

Implementación de manejo de inventario por tecnología RFID. 78

Aplicación y uso de un repositorio de activos de software para el desarrollo

ágil de aplicaciones, caso de estudio: Triage de pacientes con riesgo

cardiovascular.

81

Desarrollo de una estación meteorológica de bajo costo. 88

Diseño e implementación de una aplicación de visión artificial para el conteo

de vehículos de transporte público (taxis) presentes en una intersección de

la ciudad de Medellín.

94

Aplicación de un algoritmo de correlación cruzada 2-D para la identificación

de placas vehiculares de automotores de servicio público.

99

Diseño e implementación de un sistema de visión artificial estereoscópica 103

para navegación robótica.

Desarrollo de un contenido digital interactivo con prácticas ágiles. Caso

aprendizaje en la formulación de hipótesis.

112

Sistema de información geográfica para la administración de bienes

inmuebles, aplicando los principios de la gestión del conocimiento territorial

– caso una central mayorista.

117

Generación de material didáctico para el uso de radios definidos por

software

122

Presentación

El día 28 de mayo de 2015, se ejecutó en las instalaciones de la Universidad Santo

Tomás, Sede Medellín el evento “Segundo Encuentro de Semilleros de Investigación de

Facultades de Ingeniería de Telecomunicaciones y Afines, USTAMED 2015”. Este encuentro

es una iniciativa concebida y organizada por la Facultad de Ingeniería de

Telecomunicaciones y la Unidad de Investigaciones de la Universidad Santo Tomás Sede

Medellín, que tiene por objetivo central “generar espacios para la divulgación científica de

los resultados de proyectos de investigación desarrollados en los semilleros de

investigación participantes, que sirvan como ejercicio de reflexión en el quehacer

científico en las áreas temáticas de las Ingenierías y las Ciencias Naturales; y para

promover el uso de estos resultados orientados hacia el desarrollo sostenible de la región

y el país.

Se resalta del evento II ESIFIT USTAMED 2015 la calidad y cantidad de las ponencias de

resultados de investigaciones socializadas por diversos semilleros de investigaciones del

país. Además se mostró al público participante el gran potencial que poseen nuestros

investigadores en el análisis juicioso y crítico de las diversas problemáticas que aquejan a

nuestras comunidades, así como la capacidad para generar propuestas y soluciones

ingeniosas que apoyan de forma contundente el desarrollo socioeconómico de la nación.

El presente libro es producto de los resúmenes que por su calidad y naturaleza de las

temáticas abordadas, merecen ser publicados para su posterior lectura de la comunidad

científica, y son todo un ejemplo de la enorme capacidad que poseen los investigadores

participantes en el campo de la investigación y el desarrollo.

En total se seleccionaron 20 resúmenes, discriminados en las siguientes áreas

temáticas:

5 resúmenes en el área de Comunicaciones Inalámbricas y Redes de Sensores.

4 resúmenes en el área de Antenas y Microondas.

3 resúmenes en el área de Sistemas e Informática.

3 resúmenes en el área de Visión Artificial.

2 resúmenes en el área de Comunicaciones Digitales (Seguridad).

2 resúmenes en el área de Bioelectrónica.

1 resumen en el área de Ciencias Exactas.

A nombre del comité organizador del II Encuentro de Semilleros de Investigación de

Facultades de Ingeniería de Telecomunicaciones y Afines, USTAMED 2015, extendemos

un cálido agradecimiento a todos los investigadores, miembros de los comités académico

y logístico, y al público asistente, por su aporte en la realización de tan importante evento

y esperamos que los resúmenes presentados en este libro sean del total interés para la

comunidad científica nacional.

13

Herramientas informáticas para el

aprendizaje y la Investigación

Cristian Camilo González Ramos 1[autor]

Juan Carlos Molina García 1[autor]

Resumen

Las capacidades para la investigación de los jóvenes universitarios se fortalecen a través de

la investigación misma y del aprender haciendo en un ambiente académico que favorezca la

búsqueda de soluciones a problemas del mundo real.

El ITM con su línea de investigación en Didáctica y ambientes de enseñanza de las Ciencias,

genera un espacio de participación dirigido a estudiantes interesados en profundizar sobre

temas relacionados con metodologías y herramientas para la investigación. En este sentido, el

Semillero de Didáctica y Medios de Aprendizaje de las Ciencias Básicas adscrito a la anterior

línea, se convierte en un espacio para concretar acciones de formación en investigación a

través talleres que apuntan al desarrollo de herramientas informáticas útiles tanto para el

aprendizaje, como para la Investigación.

De manera particular y mediante actividades de trabajo independiente realizadas a partir del

desarrollo de talleres dirigidos, se ha venido profundizando en el estudio del software Matlab y

sus potencialidades como una ayuda informática que favorece el mejoramiento académico de

los estudiantes. De manera puntual, se ha venido trabajando sobre los comandos, funciones y

estructuras de programación que provee esta herramienta para desarrollar modelos que

contrastan conceptos matemáticos con estructuras de visualización.

Como un resultado práctico de estas actividades, se presenta el diseño de una aplicación

para generar sólidos de revolución en el espacio tridimensional. El diseño de esta aplicación,

ha requerido el manejo de las estructuras matemáticas que definen la integral definida de una

función real a la vez que ha fomentado en los estudiantes habilidades para programar en este

software informático. En síntesis, estas actividades han permitido la apertura de espacios en

los que se favorecen las capacidades de los estudiantes para trabajar con una herramienta útil

y además válida en procesos de investigación científica.

Introducción

La investigación educativa en la actualidad tiene un carácter propio en la medida

que intenta resolver problemas prácticos educativos relacionados con la búsqueda de

un mejor desempeño académico de los estudiantes. Dentro de estos problemas

1 Facultad de Ciencias Exactas y Aplicadas, Semillero de Investigación Didácticas y medios de aprendizaje de las ciencias básicas,

Instituto Tecnológico Metropolitano, Medellín. Correo electrónico: [email protected]

14

prácticos, en el campo de las Ciencias, cabe mencionar aquellos relacionados con los

ambientes educativos y su incidencia en el desarrollo de habilidades para la

investigación. Lo anterior implica una transformación de las prácticas docentes en

relación a sus estrategias de enseñanza, para que éstas permitan cualificar los

procesos académicos de los estudiantes y con ello, acercarlos a procesos de

investigación.

Por esto se hace necesario fomentar el mejoramiento de la enseñanza para el

aprendizaje mediante la generación de espacios académicos que involucren de

manera más acentuada la participación de los estudiantes.

En la consolidación de estos propósitos, el semillero de Didáctica y medios de

aprendizaje de las Ciencias Básicas busca abrir espacios académicos de formación en

investigación para estudiantes interesados en desarrollar habilidades y competencias

que les permita hacer parte de equipos académicos con intereses investigativos en

distintas áreas del conocimiento. El trabajo, mediante la metodología de talleres y

actividades de trabajo independiente, ha posibilitado profundizar sobre las distintas

funciones que provee el Matlab como recurso didáctico de aprendizaje y herramienta

informática para la investigación (Gil, 2003). Es así como, se presenta una aplicación

diseñada en Matlab a través de una Interfaz gráfica de usuario que permite visualizar

el sólido de revolución que se obtiene de generar el área entre dos curvas alrededor

del eje x (Stewart J. 2008).

Marco Teórico

La educación superior debe garantizar una plataforma conceptual para la formación

del pensamiento crítico y el desarrollo de la sensibilidad de sujetos que han de

interactuar en los diversos contextos que favorecen el desarrollo humano, científico y

social. En nuestro medio son cuestionados los resultados que muestran los

indicadores que miden el desarrollo social y los avances en la productividad técnico-

científica, situación que pone en evidencia una baja competitividad, en especial, sobre

temas relacionados con procesos de investigación.

En Colombia, el interés por posicionar las actividades de ciencia y tecnología se

hace evidente con la implementación de políticas públicas que buscan ubicar la

investigación como un asunto clave en el desarrollo del país. Tal es el caso de la Ley

de Ciencia y Tecnología que busca fortalecer una cultura basada en la generación,

apropiación y divulgación del conocimiento a través de: la investigación científica, el

desarrollo tecnológico, la innovación y el aprendizaje permanente. En el mismo

sentido, el documento COMPES 2009 establece la Ciencia, la Tecnología y la

Innovación (CTeI) como un camino para el desarrollo que se fundamenta en el

incremento de la capacidad de la nación para producir y emplear el conocimiento

tecnológico y científico.

15

Por su parte, las Instituciones de Educación Superior deben promover los semilleros

de investigación como espacios para ejercer la libertad, la crítica académica, la

creatividad y la innovación (Oquendo, 2007). Los semilleros de investigación permiten

la participación de los estudiantes en la gestión de proyectos de investigación

mediante la apertura de espacios en los que se comprende que investigar es un

proceso unido a la formación donde se aprende a aprender y se descubre nuevo

conocimiento y métodos de aprendizaje (Torres, 2005). Las actividades desarrolladas

en el marco de la estrategia de semillero, propician la reflexión y el análisis entorno a

las tendencias didácticas y pedagógicas que docentes y estudiantes emplean en sus

quehaceres educativos de forma que se puedan buscar nuevos caminos que

resignifiquen los aprendizajes (Zapata G et al., 2012). En este sentido, se busca

contribuir a la generación de ambientes educativos favorables a través del desarrollo

de habilidades para la investigación que generen espacios de reflexión hacia la

construcción de alternativas de solución de los problemas en que intervienen los

ambientes educativos como factores que obstaculizan o favorecen la enseñanza y el

aprendizaje de las ciencias básicas y aplicadas.

El trabajo independiente direccionado a partir de estos procesos, ha sido concebido

como proceso didáctico a partir del cual se incide en la formación integral del

profesional. Es una propuesta para lograr aprender y enseñar en la sociedad del

conocimiento, a través del tránsito flexible del estudiante por su formación, tomando

en cuenta su vinculación con la práctica, el entorno y el uso de las tecnologías.

El trabajo colaborativo entre el profesor y el estudiante compromete a cada

miembro con la formación personalizada desde lo grupal, donde cada uno aporta

conocimientos en beneficio social, se constituyen ideas novedosas y a la vez

consecuente con la época; hace más viable, humano y esencial el proceso formativo

(Román & Herrera, 2010).

Metodología Empleada

En lo metodológico, el trabajo se ha desarrollado mediante estrategias de trabajo a

nivel grupal e individual. El trabajo en grupo se orienta a través de talleres, sesiones

de discusión, desarrollo de guías de actividades y demás actividades que favorezcan

el trabajo colaborativo. El trabajo individual se concreta en lectura y análisis de

documentos, generación de secuencias y articulación de funciones que siguen una

lógica de programación estructurada.

16

Resultados y Conclusiones

Los contextos de aprendizaje fundamentados en el desarrollo de aplicaciones con

herramientas informáticas, acercan al estudiante al dominio de conceptos y

procedimientos propios del área de Ciencias Básicas. En este sentido, los programas

computaciones como el Matlab permiten la configuración de herramientas para la

investigación que favorecen la experimentación y posibilitan que los estudiantes

participen del logro de conocimientos y de la apropiación de significados relacionados

con diversos objetos matemáticos

Referencias

Gil Rodriguez, M. (2003). Introducción rápida a Matlab y Simulink para Ciencia e Ingeniería. Madrid:

Ediciones Díaz de Santos.

Consejo Nacional de Política Económica y Social CONPES. (2009). Política Nacional de ciencia,

tecnología e innovación. Departamento Nacional de Planeación(DNP). República de

Colombia. Documento 3582: Bogotá.

Oquendo, S., (2007); Semilleros de investigación y desarrollo humano. En Avances en investigación

formativa. Volumen 2. RedCOLSI. Red Colombiana de Semilleros de Investigación

Román C. E. & Herrera R. J. (2010). Aprendizaje centrado en el trabajo independiente. Revista

Educación y educadores, 13(1), 91–106.

Stewart J. (2008). Cálculo trascendentes tempranas (Sexta ed). Mexico, Cengage Learning.

Torres, L., (2005); Para qué los semilleros de investigación. Revista Memorias. Recuperado el 29 de

abril de 2015 de

http://scholar.google.es/scholar?hl=es&q=Para+qu%C3%A9+los+semilleros+de+investigac

i%C3%B3n&btnG=&lr=

Zapata G., Dominguez J., Molina J.. (2012). Didáctica reflexiva en educación superior: Una mirada

desde el relato autobiográfico. Editorial académica española.

17

Diseño e implementación de un

sistema de comunicación silenciosa

dual basado en habla subvocal

José Daniel Ramírez Corzo 2[autor]

Luís Enrique Mendoza 2[autor]

Resumen

Con la realización de este proyecto se pretende mantener una conversación entre dos

personas sin que ninguna de ellas mueva los labios, siendo está una forma práctica de

telepatía denominada habla subvocal. Para ello se diseñará un dispositivo de captura,

amplificación y filtrado de las minúsculas señales eléctricas del habla subvocal provenientes

del nervio de la garganta que controlan el habla. Dichas señales son generadas al momento

hablar o leer silenciosamente, es decir cuando un lector imagina el sonido de una lectura tal y

como se lee, el cerebro en ese momento envía señales al sistema vocal incluso cuando se tiene

la boca cerrada. Al capturar y procesar estas señales electromiográficas mediante un protocolo

de comunicación serán enviadas a un ordenador que con ayuda de un software especializado

se implementará un algoritmo que analice los registros, los procese y extraiga las

características de palabras en el idioma español. Para así posteriormente mediante una

comunicación inalámbrica bidireccional punto a punto utilizando la tecnología Bluetooth que

ofrece una las ventajas de operar a una frecuencia libre y la capacidad de enlazar con otros

dispositivos de diferentes fabricantes, enviar esta información hacia un receptor que capture y

reconozca dichos patrones reenviando un recibido u okey, para así enlazar una comunicación.

Finalmente con la realización de este proyecto se pretende validar la robustez del sistema de

comunicación silenciosa con dos personas sin carencias en el habla.

Introducción

La idea de tener una conversación secreta que no se encuentre afectada por fuentes

externas de interferencia, que de prestaciones de privacidad y seguridad, es cambiar

el concepto de comunicación auditiva que se conoce hoy en día, Pensar en una forma

de comunicación que pueda solventar algunos de los problemas de personas que

padezcan parálisis en sus cuerdas bucales, niños con problemas para producir

sonidos del habla correctamente o con trastornos motrices o diplejías sería un gran

2 Programa de Ingeniería Electrónica, Semillero de Investigación en Ingeniería Biomédica y Telecomunicaciones, Universidad de

Pamplona, Pamplona (Norte de Santander). Correo electrónico: [email protected]

18

avance en la ingeniería y la ciencia. La necesidad de implementar un sistema de

comunicación silenciosa que permita mejorar la calidad de vida de las personas que

padezcan de alguna dificultad para comunicarse es una de muchas de las razones que

el habla subvocal se convierta en una tecnología aplicable a este y otros diversos

campos.

Marco Teórico

Los órganos que intervienen en el proceso del habla son los pulmones (que sirven

como reservorio de aire), la laringe (que es la fuente de la cualidad periódica del

estímulo de los sonidos “vocalizados”) y la faringe, la cavidad oral y la nasal y las

estructuras que incluyen (la lengua, los dientes y los labios), que modifican los

sonidos del habla que finalmente produce el hablante. La laringe, es la fuente de los

sonidos del habla y el resto del tracto vocal actúa como filtro que modula la energía

sonora de la fuente. La frecuencia de oscilaciones, que constituyen lavase de los

sonidos de la lengua hablada, varía de unos 100 a unos 400Hz, lo que depende del

sexo, el tamaño del cuerpo y la edad de la persona que habla [3].

El habla subvocal es el conjunto de las señales eléctricas que inervan los músculos

participes del proceso subvocalización refiriéndose principalmente al movimiento real

de los músculos asociados con el habla mencionados anterior mente, estas señales

eléctricas se presentan sin ser necesaria la producción física de sonido por parte del

individuo, lo cual se conoce como procesos de lectura y pensamiento silencioso. A

estas señales se le denominan señales electromiográficas (EMG) y son obtenidas en la

superficie de la laringe y las áreas sublinguales. La subvocalización es una parte

inherente de la lectura y la comprensión de las palabras, y las pruebas sugieren que

es imposible de eliminar. Inhibir el proceso de subvocalización puede llevar a daños

potenciales en la comprensión, el aprendizaje y la memorización [3].

Otro aspecto teórico importante a tener en cuenta durante el desarrollo del

proyecto, es la electromiografía. La electromiografía es el estudio de la actividad

eléctrica de los músculos del esqueleto. Proporciona información muy útil sobre su

estado fisiológico y el de los nervios que los activan. La Electromiografía (EMG) y las

pruebas de conducción nerviosa constituyen los métodos de electrodiagnóstico más

útiles en el estudio de la función motriz. Su valor diagnóstico presenta una serie de

cualidades:

- Objetividad elevada, especialmente si se hace uso de las técnicas

electromiográficas de carácter cuantitativo [4].

- Precocidad en el diagnóstico. Se manifiesta tanto en el diagnóstico

anatomopatológico, señalando la magnitud de la lesión (compresión, sección

afónica sección de nervio, etc), como en el diagnóstico topográfico,

19

pudiendo, en muchas ocasiones, concretar el asiento quité de la afección

(médula, raíz anterior, plexos nerviosos, troncos nerviosos, etc). [4].

- Rapidez en el pronóstico, dando cuenta de los primeros signos de

regeneración nerviosa antes de cualquier manifestación clínica. [4].

La calidad de la medición de la señal EMG del habla subvocal depende enormemente

de la preparación de la piel y el posicionamiento de los electrodos. La estrategia

principal de la implantación de los electrodos es la preparación de la piel para que

tenga una baja impedancia. Los amplificadores EMG son diseñados para niveles de

impedancia entre 5 y 50 KΩ. [3].

Debido al carácter no invasivo son usados los electrodos de superficie para capturar

el habla subvocal o para estudios electromiográficos. Además del beneficio del fácil

manejo, su limitación principal es que solo registran los músculos superficiales. Para

músculos más profundos, cubiertos por músculos o huesos, es necesario usar

electrodos de aguja. El inventario Europeo muestra que los electrodos circulares con

un diámetro de 10 mm son los más usados. Para configuraciones bipolares, en

general, el tamaño de electrodos debe ser lo suficientemente grande para poder

capturar un conjunto razonable de unidades de motoras, y lo suficientemente

pequeño para evitar la interferencia de otros músculos [3].

A partir de la captura de las señales electromiográficas, los amplificadores EMG

actúan como amplificadores diferenciales y su cualidad principal es la habilidad de

rechazar o eliminar la mayor cantidad de ruido. La amplificación diferencial detecta la

diferencia de potencial entre los electrodos y cancela las interferencias externas. La

señal EMG sin amplificar posee voltajes entre un µV y 2-3 mV. La señal generalmente

es amplificada por un factor menor a 500, cuando se usan preamplificadores, ó 1000,

cuando se usan cables pasivos. La impedancia de entrada de un amplificador debe

tener un valor por lo menos de 10 veces la impedancia propia del electrodo. El rango

de frecuencia de un amplificador EMG debe comenzar en 10Hz (pasa alto) y finalizar

en 500Hz (pasa bajo). [3].

A menudo existe la necesidad de implementar varios tipos de filtros, unos se

utilizan en el acondicionamiento de las propiedades de la señal EMG, implementando

filtros análogos, con la finalidad de extraer la señal en banda base que contiene la

información biométrica relevante y para eliminar algunos tipos de ruido eléctrico, y

otros en la digitalización de la señal para su posterior procesamiento. [3].

Prácticamente todos los análisis y aplicaciones de señales electromiográficas

superficiales (SEMG) se llevan a cabo mediante algoritmos implementados en

computadores. La naturaleza de estos algoritmos y de las computadoras requiere que

las señales sean expresadas en secuencias numéricas. EL proceso mediante el cual

las señales detectadas se convierten en estas secuencias numéricas "entendibles” por

20

las computadoras se llama conversión digital analógica. Las señales analógicas son

señales de tensión que son análogas a la señal física que representan. La amplitud de

estas señales varía continuamente a lo largo de su rango. El proceso de conversión

análoga-digital genera una secuencia de números, y cada número representa la

amplitud de la señal analógica en un determinado punto en el tiempo. La secuencia

de números resultante se llama una señal digital y la señal analógica es llamada señal

muestreada. [3].

Para la reconstrucción de cualquier señal análoga se debe muestrear al menos al

doble de su frecuencia. Esta regla se conoce como el Teorema de Nyquist. Violar el

Teorema de Nyquist conduce a una reconstrucción errónea de la señal, normalmente

se conoce como aliasing. El teorema de Nyquist es válido para todas las señales

analógicas.

Para la transferencia de las señales electromiográficas que hacen parte del habla

subvocal se pretende utilizar una tecnología inalámbrica como la Bluetooth, este

estándar emplea un radio modem de corto alcance orientado a aplicaciones de

comunicaciones móviles inalámbricas portables, con gran ahorro de energía eléctrica

y reducidas dimensiones físicas. Una red inalámbrica personal (WPAN) está en la

capacidad de manejar canales de comunicaciones sincrónicos orientados a servicios

telefónicos de voz, y soporta además canales de comunicaciones asincrónicas

orientadas al manejo de datos digitales. Las características técnicas mencionadas

facilitan la interconexión de una gran cantidad de aplicaciones y de equipos en una

WPAN, por ejemplo, un equipo de telefonía móvil puede emplear canales del tipo CSD

(circuito de datos conmutados) para transportar audio desde y para un receptor en el

encabezado, mientras se encuentra utilizando un canal packet - switched para

transferir datos con una computadora portátil. Una red inalámbrica personal opera

típicamente en la banda de los 2.4 GHz [5].

Metodología Empleada

En este proyecto se pretende realizar un dispositivo embebido de adquisición,

acondicionamiento codificación y procesamiento de las minúsculas señales eléctricas

provenientes del miembro de la garganta que controla el habla para así mantener una

conversación discreta entre dos personas sin que ninguna de ellas mueva los labios,

siendo está una forma práctica de telepatía denominada Habla Subvocal.

El Habla Subvocal se da principalmente en el cartílago tiroides, al momento hablar o

leer silenciosamente el cerebro envía señales eléctricas al sistema vocal incluso

cuando se tiene la boca cerrada. Estas señales serán registradas mediante

electromiografía no invasiva con electrodos superficiales de Cloruro de Plata(AgCl)

dispuestos en la superficie de la laringe en una configuración bipolar, teniendo el

21

electrodo de referencia atrás de la oreja y los electrodos de detección en la parte

izquierda inferior y derecha superior de la laringe, una vez ubicadas estas señales

electromiográficas, se procedió a desarrollar un dispositivo electrónico de

acondicionamiento y codificación de estas señales que constituido por varias etapas

que son:

Etapa de adaptación de impedancias la cual permitirá que no haya inversiones de

polaridad, cambios de la fase o de amplitud de la señal EMG. [2]

Etapa de pre - amplificación, que mediante el uso de un amplificador de

instrumentación que proporciona una salida amplificada con base a la diferencia entre

las dos entradas provenientes de los dos electrodos que previamente fueron

acoplados a un punto donde la señal EMG no fuese saturada. [2]

Etapa de amplificación usando un amplificador operacional configurado como

amplificador no inversor de ganancia constante, se amplificara la señal proveniente de

la etapa de pre - amplificación. [2]

Etapa de filtrado que mediante la implementación de un filtro activo Butterworth de

orden ocho diseñado para mejorar la relación señal/ruido de la señal EMG

proporcionando una señal con suficiente amplitud para ser digitalizada y enviada a

una tarjeta de desarrollo para el procesamiento con el fin de extraer y observar la

información relevante de las señales EMG provenientes de la laringe. [2]

Una vez acondicionada y codificada estas señales serán procesadas utilizando

técnicas avanzadas en procesamiento de señales como Support Vector Machine y

Deep Learning haciendo uso de la tarjeta de desarrollo Raspberry PI modelo B para el

procesado de los registros digitalizados de las señales EMG, extrayendo

características de palabras en el idioma español. Para así desarrollar una

comunicación inalámbrica bidireccional punto a punto usando tecnología Bluetooth

entre dos personas sin carencias del habla usando máximo 10 palabras, inicialmente

se reconocerán 7 palabras incursionando en tres campos donde el Habla Subvocal

ofrece soluciones como:

- Al momento de establecer una conversación. Reconociendo palabras como:

Hola y ¿Cómo está?

- Personas diplejías. Reconociendo palabras como: Tengo sed, Frio y abrir.

- Intercambio de información militar. Reconociendo palabras como: Intruso,

QAP (siglas que indican estamos en contacto).

22

Resultados y Conclusiones

Al concluir el proyecto en su totalidad, se espera plasmar las características

relevantes en la elección y criterio de componentes para las etapas de adquisición y

acondicionamiento de señales electromiográficas, implementar una tarjeta de

adquisición, acondicionamiento y codificación de señales electromiográficas del Habla

Subvocal.

Además se obtendrán los registros de señales electromiografías provenientes de las

cuerdas bucales en un sistema embebido Raspberry pi, y luego se procederá a extraer

los patrones más relevantes de palabras a partir de las señales electromiografías,

usando el entorno de programación Python y Maquinas de soporte vectorial.

Referencias

[1]. IEEE Explored digital library [En línea].

http://ieeexplore.ieee.org/search/searchresult.jsp?newsearch=true&queryText=SUBVOCAL+SPEECH

&x=42&y=20 [citado el 9 de junio del 2015]

[2]. Patrones electromiográficas del habla subvocal, registro y clasificación [EN LÍNEA]

http://www.uelbosque.edu.co/sites/default/files/publicaciones/revistas/revista_tecnologia/volume

n12_numero2/3Articulo_Rev-Tec-Num-2.pdf [citado el 9 de junio del 2015]

[3]. Jesús Peña Rodríguez, Adquisición y procesamiento de señales electromiográficas basadas en

habla subvocal diciembre de 2010

[4]. Instrumentación biomédica [En línea]

http://www.bioingenieria.edu.ar/academica/catedras/bioingenieria2/archivos/apuntes/tema%205%

20-%20electromiografia.pdf [citado el 9 de junio del 2015]

[5]. El estándar Bluetooth IEEE 802.15.1.[en línea]

http://catarina.udlap.mx/u_dl_a/tales/documentos/lem/archundia_p_fm/capitulo3.Pdf [citado el 9

de junio del 2015]

23

Diseño e implementación de un

sistema para clasificación de

caracteres obtenidos de señales

electroencefalográficas (EEG) aplicado

en pacientes con problemas de afasia

motriz

Germán Arley Portilla González 3[autor]

Luís Enrique Mendoza 3[autor]

Resumen

Este trabajo presenta una alternativa para la corrección de afasia motriz provocada por

accidentes cerebrovasculares, mediante toma de señales en puntos de acceso específicos sobre

la cabeza del paciente, que serán acondicionadas y llevadas a un sistema de filtrado digital,

donde se extraerán los parámetros a partir de los impulsos eléctricos neuronales, y luego se

clasificarán los patrones determinando el carácter que el paciente desee evocar o realizar. Las

afasias de tipo motriz causan en la persona problemas de tipo sicológico debido a la pérdida

del lenguaje, por consiguiente pueden entender lo que sé les dice, pero pierden la capacidad

para expresarse o emitir sonidos claros y asimilables por quien los oye, en muchos casos se

presenta una agrafia concomitante ,que se relaciona con la incapacidad expresar los

sentimientos escrito por , esta falla cerebral se presenta sobre el área de broca, donde se

manejan los impulsos aferentes de la articulación y modulación del lenguaje.

Introducción

Desde hace mucho tiempo ha existido un genuino interés por relacionar los

aspectos del lenguaje con la mente, el cerebro y el pensamiento. Los estudios

llevados a cabo por Broca, Wernicke y Lichtheim en la segunda mitad del siglo XIX

fueron fundamentales para establecer conexiones entre el lenguaje y el cerebro a

partir de dificultades en la codificación y decodificación del lenguaje manifestadas en

3 Programa de Ingeniería Electrónica, Semillero de Investigación en Ingeniería Biomédica y Telecomunicaciones, Universidad de

Pamplona, Pamplona (Norte de Santander). Correo electrónico: [email protected]

24

diferentes pacientes (Fernández, 1998). El lenguaje es una capacidad humana

específica que se manifiesta en forma de conducta observable consistente en signos

verbales o de otro tipo, como los gestuales y tiene una realidad mental, fisiológica,

psicológica y biológica (Alonso-Cortés, 2002).

El lenguaje es un proceso cognitivo complejo que gira, por un lado, en torno al

proceso de comprensión, definido como la capacidad de entender e interpretar el

lenguaje hablado y en el que intervienen factores cognitivos (atención, memoria,

percepción) involucrados para llegar a la interpretación de unidades macro y

microestructurales. Por otro lado, la producción, referida al proceso de programación

y realización de la acción de hablar. (Cummings, 2008).

Marco Teórico

La afasia es un trastorno de la función del lenguaje causado por una lesión cerebral.

La causa habitual es un accidente cerebrovascular producido por la oclusión vascular

de la arteria cerebral media izquierda. (Fitzgerald, 2012).

Durante el habla se observa actividad en varias áreas de la corteza, sobre todo en el

lóbulo frontal. No obstante existen dos áreas que están específicamente destinadas a

esta función. (Fitzgerald, 2012).

El paciente expresa las palabras y los verbos importantes, pero omite preposiciones

y conjunciones. Entiende lo que dicen otras personas y es consciente de que es

incapaz de hablar con fluidez. Habitualmente suele haber una agrafia concomitante

(incapacidad de expresar los pensamientos por escrito). Si la lesión afecta a una

cantidad considerable del territorio cortical de la arteria cerebral media, habrá una

debilidad motora de la cara derecha inferior y del miembro superior derecho. Como

los labios y la lengua se ven afectados en el lado derecho, el paciente también

presentara disartria (dificultad de articular el habla), por lo que articulara mal

determinadas silabas. (Fitzgerald, 2012).

La lateralidad manual a menudo determina el hemisferio dominante del control

motor. Lo normal es la dominancia del hemisferio izquierdo/mano derecha. Los

avances en la tecnología ecográfica han permitido observar el comportamiento motor

del feto y se han observado que la lateralidad manual se establece antes del

nacimiento a partir de la mano preferida utilizada para chupar el pulgar durante la

vida fetal. . (Fitzgerald, 2012).

En 1861, el patólogo francés Pierre Broca asignó la función motora del habla al giro

frontal inferior del lado izquierdo. La principal área ocupa las porciones opercular y

triangular del giro frontal inferior, correspondientes a las áreas 44 y 45 de Brodmann.

25

Ambas áreas son más grandes en el lado izquierdo en personas diestras. La principal

referencia del área de Broca es hacia las columnas celulares en las áreas de la cara y la

lengua de la corteza motora adyacente. (Fitzgerald, 2012).

Las lesiones que aplican en el área de broca a la afasia expresiva. Algunos

colaboradores opinan que la afasia expresiva requiere la lesión adicional del extremo

inferior al giro precental (Duane. Haines, 2012).

Desde su desarrollo inicial, el EEG sigue siendo la única herramienta para el estudio

de la función cortical y un valioso complemento del historial clínico, la exploración

física y la información obtenida en los estudios radiológicos. Cuando se colocan

pequeños electrodos de disco metálico en la superficie del cuero cabelludo, pueden

detectarse corrientes oscilatorias de 20-100 µV que se conocen como

electroencefalograma (EEG). Su origen es una consecuencia directa del efecto aditivo

de grupos de neuronas corticales piramidales que se organizan en columnas radiales

(dirigidas hacia el exterior). En este contexto, las columnas relevantes son las que

están situadas debajo de la superficie de los giros corticales. Como los potenciales de

membrana de estas columnas fluctúan, se desarrolla un dipolo eléctrico (áreas

adyacentes de carga opuesta), (Waxman, 2011).

Para un perfecto acople de las señales EEG con el sistema de adquisición se deben

ubicar unos electrodos los cuales poseen unas impedancias definidas, al ubicar dichos

electrodos deben ubicarse sobre el cuero cabelludo el cual debe estar preparado de

una forma específica sin grasas o polvo para que los voltajes que entreguen se

encuentren dentro del rango esperado. Los amplificadores EEG son diseñados para

niveles de impedancia entre 5 y 50 KΩ (Malmivuo).

El criterio más importante del proyecto es que no es invasivo, esto significa que los

electrodos para la adquisición de las señales se ubicaran sobre el cuero cabelludo,

dichos electrodos deben ser de uso EEG, en este caso electrodos de 10mm los cuales

poseen un recubrimiento en oro (Au) esto nos ayudara a evitar pérdidas por acope,

pero debemos adicionar un gel o pasta conductora y un adhesivo externo para que el

acople se dé de manera esperada, minimizando fallas por contactos al aire.

Por medio de la captura de señales electroencefalográficas, los amplificadores EEG

actúan como amplificadores diferenciales y su cualidad principal es la habilidad de

rechazar o eliminar la mayor cantidad de ruido. La amplificación diferencial detecta la

diferencia de potencial entre los electrodos y cancela las interferencias externas. La

señal EEG sin amplificar posee voltajes entre un µV y 500µ V. La señal generalmente

es amplificada por un factor a 500, menor cuando se usan preamplificadores, ó 1000,

cuando se usan cables pasivos. La impedancia de entrada de un amplificador debe

tener un valor por lo menos de 10 veces la impedancia propia del electrodo. El rango

de frecuencia de un amplificador EEG debe comenzar en 0.5Hz y finalizar en 10Hz.

26

Se deben implementar filtros, para lograr que las señales obtenidas del acople no

posean componentes de ruido que hagan que el sistema falle periódicamente por

esta razón se debe ubicar un filtro pasa baja y un filtro pasa alto para delimitar

nuestro espectro de señal EEG.

Metodología Empleada

La metodología empleada para la realización del sistema de clasificación de

caracteres debe cumplir con una serie de tareas que se ilustran a continuación:

- Estudio de bibliografía de señales electroencefalográficas

- Búsqueda de los sitios de interés para la ubicación de los electrodos

- Estudio del criterio de selección componentes

- Diseño de las etapas de adquisición, amplificación y transmisión de las

señales.

- Diseño de placas de circuitos para amplificación.

- Adquisición acondicionamiento y codificación.

- Diseño de los algoritmos para adquisición y filtrado

- Selección de técnicas de procesamiento.

- Obtención de patrones.

- Diseño de interfaz para la visualización de caracteres.

- Búsqueda del paciente para efectuar pruebas de pensamiento.

- Redacción y ajuste de la investigación.

- Redacción de artículo científico para publicar en medios nacionales o

internacionales.

Resultados y Conclusiones

Al finalizar la realización del presente trabajo de grado se pretende lograr estos

cinco resultados:

- Plasmar las características relevantes en la elección y criterio de

componentes para las etapas de adquisición y acondicionamiento de señales

electroencefalográficas.

- Implementar una tarjeta de adquisición, acondicionamiento y codificación de

señales electroencefalográficas.

- Diseñar e implementar un casco donde se ubicaran los electrodos en la

posición esperada.

- Trasmitir los caracteres a partir de señales EEG en una interfaz gráfica.

27

- Elaborar un artículo científico para su posterior publicación en una revista

indexada.

Referencias

Hausfeld, L. (2012). Pattern analysis of EEG responses to speech and voice: Influence of feature

grouping. NeuroImage, 3641–3651.

Thakor, n. (2012). IEEE lifesciences . Recuperado el 22 de 04 de 2015, de building brain machine

interfaces speech and comunication:

http://lifesciences.ieee.org/publications/newsletter/may-2012/103-building-brain-

machine-interfaces-speech-language-and-communication

Utianski, R. L. (2014). Cortical characterization of the perception of intelligible . Brain & Language,

48-54.

FitzGerald, M. J. (2012). Neuroanatomía clínica y neurociencia. España: Elsevier.

Haines, D. E. (2002). Principios de neurociencia. Elsevier.

Malmivuo, J. (s.f.). Bioelectromagnetism. Recuperado el 28 de 03 de 2015, de http://www.bem.fi/

Waxman, s. g. (2011). Neuroanatomia clinica. Mac Graw - Hill .

28

Ocultamiento de señales de voz en

imágenes RGB por medio de la

técnica QIM

Carlos Steven Vargas Hernández 4[autor]

Dora María Ballesteros Larrotta 4[autor]

Resumen

En este trabajo se oculta un audio en una imagen RGB por medio del método Quantization

Index Modulation (QIM), el cual puede ser aplicado tanto en esteganografía como en

WaterMarking. En este caso se ocultó información con fines esteganográficos. Para poder

aplicar el método de QIM, se escogió una imagen huésped con dimensiones de 256X256

(ancho por alto), y un audio con una duración de 1 segundo, frecuencia de muestreo de 8KHz y

8 bits/muestra. Una vez que ha ocultado el audio secreto en la imagen huésped, se comparó

esta última con la imagen stego por medio del coeficiente de correlación cuadrático (SPCC), por

medio de histogramas, y por medio del criterio de vecinos, con el fin de verificar la

transparencia de la imagen a transmitir.

Como un resultado práctico de estas actividades, se presenta el diseño de una aplicación

para generar sólidos de revolución en el espacio tridimensional. El diseño de esta aplicación,

ha requerido el manejo de las estructuras matemáticas que definen la integral definida de una

función real a la vez que ha fomentado en los estudiantes habilidades para programar en este

software informático. En síntesis, estas actividades han permitido la apertura de espacios en

los que se favorecen las capacidades de los estudiantes para trabajar con una herramienta útil

y además válida en procesos de investigación científica.

Introducción

El envió de información confidencial por medio de canales comerciales es un

problema real, ya que la información que es enviada puede ser interceptada

fácilmente. La esteganografía es una de las soluciones al problema mencionado, ya

que la información se oculta en datos que no son de carácter confidencial. Esta

información puede ser recuperada por el usuario que conoce la clave de extracción.

4 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Claude Shannon, Universidad Militar Nueva Granada,

Bogotá. Correo electrónico: [email protected]

29

Marco Teórico y Estado del Arte

La esteganografía es la práctica de ocultar o camuflar datos secretos en un

contenedor buscando imperceptibilidad. Este huésped puede ser una imagen, archivo

de audio o de vídeo. [2]

La palabra esteganografía proviene de las palabras griegas, “estegano” que significa

oculto y “grafía” que quiere decir escritura, de ahí que la palabra “esteganografía”

signifique “escritura oculta”. Los métodos esteganográficos deben satisfacer 3

condiciones [1]:

- Capacidad: es la cantidad de información que puede ser embebida en la

señal huésped sin afectar su calidad perceptual. [1]

- Transparencia: evalúa la similitud entre la imagen huésped y la imagen

stego. Idealmente, debe ser los más alta posible. [1]

- Robustez: es la capacidad que tiene la imagen stego para resistir ataques

pasivos de manipulación de señal, como filtrado y rotación. El objetivo es

que la información secreta permanezca dentro de la imagen stego después

de los ataques [1].

En el caso de la esteganografía de imágenes, se utiliza una imagen como señal

huésped, donde se oculta la información secreta. A la imagen huésped que ya tiene

embebidos los datos del mensaje secreto se le denomina imagen siego [3].

En [2] se presentan dos métodos esteganográficos de imágenes utilizando QIM en el

dominio de la transformada discreta del coseno (DCT). Los métodos propuestos

muestran una alta capacidad de ocultamiento y se conserva el comportamiento del

histograma.

En [3] se presenta un nuevo método esteganográfico donde se incrustan datos en

valores de error cuantizados, a través de QIM. Este nuevo método tiene un buen

equilibrio entre imperceptibilidad, capacidad de ocultamiento, y robustez. El método

aplicado tiene una alta calidad visual y una baja distorsión del histograma.

Metodología Empleada

Los pasos utilizados en el esquema propuesto se presentan a continuación:

a. Se lee la imagen huésped (figura 1) y el audio secreto (figura 2).

30

Figura 1. Imagen huésped. La imagen fue capturada del sitio web http://southpark.cc.com/.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

Figura 2. Audio secreto. La imagen fue elaborada por los autores.

b. Se convierte el archivo de audio a una cadena de valores binarios. Cada

muestra de la señal de voz se representa con 8 bits.

c. Se divide la imagen huésped a color en 3 bandas (R, G, B), las cuales se

presentan en las figuras 3, 4, y 5 respectivamente.

Figura 3. Banda R (Red). La imagen fue elaborada por los autores.

31

Figura 4. Banda G (Green). La imagen fue elaborada por los autores.

Figura 5. Banda B (Blue). La imagen fue elaborada por los autores.

d. Se escoge la banda R para ocultar el audio y se aplica el método QIM con pasos

(delta) de 5. Las ecuaciones utilizadas se presentan en la figura 6, escritas en el

entorno de Matlab.

Figura 6. Trozo del código empeado para aplicar el método QIM para ocultar datos. La imagen fue

elaborada por los autores.

Las posiciones de la imagen en las cuales se aplica la cuantización QIM se guardan

en una clave, la cual se utilizará en el módulo de extracción del mensaje secreto.

32

e. Con la banda R modificada, se vuelve a construir la imagen a color, la cual se

transmite y se conoce como imagen stego.

f. En el receptor se realiza el proceso de extracción del mensaje secreto, para lo

cual se utiliza la clave y la imagen stego. Se descompone la imagen stego en las tres

bandas y se selecciona la banda R. La extracción obedece a las ecuaciones que se

presentan en la Figura 7.

Figura 7. Fracción del programa mostrando la aplicación del método QIM para extraer datos. La

imagen fue elaborada por los autores.

g. Dado que la información obtenida en el paso anterior corresponde a bits, el

último paso consiste en convertir por grupos de 8 bits la información a decimal. De

esta forma se obtiene el archivo de voz recuperado.

Resultados y Conclusiones

a. En las figuras 8 y 9 se presentan los histogramas de la imagen host y la imagen

stego respectivamente. Se resalta que visualmente no se detecta un cambio en los

histogramas.

0

200

400

600

800

1000

1200

1400

1600

0 50 100 150 200 250

Figura 8. histograma imagen host. La imagen fue elaborada por los autores.

33

0

200

400

600

800

1000

1200

1400

1600

0 50 100 150 200 250

Figura 9. histograma imagen stego. La imagen fue elaborada por los autores.

b. Las figuras 10 y 11 presentan la señal de voz secreta y la recuperada. La

calidad de la señal recuperada es alta, ya que guarda una gran similitud con la señal

de voz original.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

Figura 10. Mensaje secreto. La imagen fue elaborada por los autores.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

Figura 11. Mensaje recuperado. La imagen fue elaborada por los autores.

c. Como criterio matemático, se evaluó el SPCC entre la imagen host y la imagen

stego, y entre el mensaje secreto original y el mensaje recuperado. Los resultados se

presentan en la Figura 12. Debido a que los valores son cercanos a 1, se puede

34

afirmar que la transparencia de la imagen stego es alta y la calidad de la señal de voz

recuperada es lo suficientemente buena.

Figura 12. SPCC. La imagen fue elaborada por los autores.

d. El segundo parámetro de evaluación utilizado es la distorsión de los vecinos.

Si la imagen stego sigue el comportamiento de la imagen host, la distorsión de los

vecinos será muy cercana a cero, en caso contrario este valor será alto. En la prueba

realizada se encontró que este valor es de 0.0087, lo que significa que la apariencia

global de la imagen stego es muy similar a la apariencia global de la imagen huésped.

Como conclusión principal se tiene que el método utilizado genera imágenes con

alta transparencia y permite la recuperación del contenido secreto con gran calidad.

Referencias

[1] Vimal, J., & Alex, A. M. (2014, 10-11 July 2014). Audio steganography using dual

randomness LSB method. Paper presented at the Control, Instrumentation, Communication and

Computational Technologies (ICCICCT), 2014 International Conference on.

[2] Noda, Hideki, Niimi, Michiharu, & Kawaguchi, Eiji. (2006). High-performance JPEG

steganography using quantization index modulation in DCT domain. Pattern Recognition

Letters, 27(5), 455-461. doi: http://dx.doi.org/10.1016/j.patrec.2005.09.008

[3] Izadinia, H., Sadeghi, F., & Rahmati, M. (2009, 8-10 March 2009). A New Steganographic

Method Using Quantization Index Modulation. Paper presented at the Computer and

Automation Engineering, 2009. ICCAE '09. International Conference on.

35

Marcado de audio digital con

imágenes binarias utilizando QIM

Érika Alexandra Pinto Castro 5[autor]

Dora María Ballesteros Larrotta 5[autor]

Resumen

En el presente documento se presenta una técnica para ocultar una marca correspondiente a

una imagen binaria en una señal de audio. El audio final no debe presentar distorsión evidente

en relación a la señal original y la marca debe ser robusta a algunos ataques de manipulación

de señal.

Introducción

Actualmente se presentan diferentes técnicas de ocultamiento de datos o

información como los canales adaptivos, el anonimato, la esteganografía y el marcado

de agua (watermarking). Dentro del marcado de agua se presentan dos alternativas: el

marcado de agua robusto y el marcado de agua frágil. Para el marcado de agua

robusto se encuentran dos aplicaciones: la huella digital y las marcas de agua, las

cuales se clasifican en marcas de agua visibles y marcas de agua no visibles [1].

En el análisis de una de las técnicas de marcado de agua, se pretende demostrar

que dicha técnica logra la imperceptibilidad necesaria al incrustar una imagen binaria

en una señal de audio y que además de ello la señal de audio original logra mantener

sus características principales sin presentar alguna degradación en ésta.

Marco Teórico

El marcado de agua o watermarking es la capacidad de incrustar información en una

señal huésped, esta información puede ser una imagen, un audio, una firma digital,

entre otros. Para realizar un sistema de watermarking en audio se tienen en cuenta

diferentes características, cada una de ellas puede variar dependiendo de la

importancia que presente dentro de una técnica o método de watermarking. Las

5 Programa de Ingeniería Electrónica, Semillero de Investigación Claude Shannon, Universidad Militar Nueva Granada, Bogotá.

Correo electrónico: [email protected]

36

principales características son imperceptibilidad, robustez y capacidad de

ocultamiento [1] [2].

La imperceptibilidad es uno de los principales requerimientos, ya que se quiere que

al ocultar una marca no se pierda la calidad de la señal de audio y no haya cambios

importantes en la información de la señal. Además la marca solo puede ser detectada

mediante procesos especiales [2].

La robustez es uno de los parámetros más complicados de implementar, ya que la

idea principal es que el marcado permanezca ante cualquier clase de ataques que se

puedan presentar al momento de que alguien ajeno a la señal de watermarking desee

eliminar o modificar la marca. Por lo general los ataques pasivos más comunes son:

compresión MP3, adición de ruido (AWGN), re-muestreo, re-cuantificación, filtrado

pasa-bajo, filtrado pasa-alto, amplificación, recorte de la señal, entre otros [2].

La capacidad de ocultamiento hace referencia a la cantidad de información que se

puede ocultar en una señal de audio. Dependiendo del tipo de señal de audio se

determina la máxima cantidad de datos de la marca [2].

La Técnica QIM (Quantization Index Modulation) es una técnica de ocultamiento de

información, la cual puede ser implementada tanto en esteganografía como en

marcado de agua, esta técnica se basa en ocultar datos binarios en un tipo de

información host o huésped. El ocultamiento de los datos se define por un delta o

pasos de cuantización dentro de la información huésped [3].

Metodología Empleada

Para el desarrollo del presente proyecto se decide utilizar el software Matlab en

donde se implementará el método QIM para ocultar una imagen binaria en un archivo

de audio. El programa se divide en tres etapas, la etapa de ocultamiento, la etapa de

extracción de la imagen y la etapa de prueba de robustez del método empleado.

La señal de audio a utilizar tiene una duración de 5 segundos, con una frecuencia

de muestreo de 44100Hz, la imagen a utilizar es una imagen a color de 256x256, la

cual es binarizada para realizar el proceso de watermarking.

Para el método de ocultamiento de la imagen, se debe descomponer la señal de

audio. Para ello se utiliza el método de la Transformada Discreta Wavelet (DWT), con

el fin de utilizar los coeficientes wavelet para ocultar la imagen, para este caso se

decide realizar tres niveles de descomposición y utilizar el tipo de familia Haar.

Para utilizar la técnica de QIM, se debe definir un delta que indica el valor de los

pasos que va a realizar la cuantización y seguir las diferentes ecuaciones utilizadas

para el proceso de ocultamiento.

37

Al tener oculta la imagen se reconstruye la señal de audio con la transformada

inversa de wavelet y de este forma analizar qué tanto se parece la señal de audio

original con respecto a la señal de audio marcada. Se utiliza el parámetro SPCC

(Squared Pearson Correlation Coefficient), y se guarda la señal de audio marcada en

un nuevo archivo de audio.

Teniendo el nuevo archivo de audio de la señal de audio marcada, se procede a

realizar la extracción de la imagen binaria. Para ello se aplica la DWT en este archivo

de audio con las mismas características que se utilizaron para el proceso de

incrustación, es decir, tres niveles de descomposición y el tipo de familia Haar.

Teniendo los coeficientes wavelet se procede a aplicar las ecuaciones QIM para la

extracción de la marca de agua (imagen binaria), con el fin de conocer si las

características de la imagen permanecen. Luego se reconstruye la imagen, para su

comparación con la imagen original.

Se realiza la adición de Ruido, con el fin de conocer que tan robusta es la técnica de

QIM. Para este caso se le adicionan números aleatorios del tamaño del vector de los

coeficientes wavelet para simular el ruido que se aplica a la señal de audio marcada.

Resultados y Conclusiones

El mejor resultados de SPCC para el caso de incrustación de la imagen, comparando

la señal de audio original, con la señal de audio marcada fue de 0.9984, indicando

que la señal marcada no era totalmente similar a la señal original, pero

perceptiblemente por el oído humano no se diferencia una de la otra. Para el caso de

recuperación de la imagen se logró un valor de SPCC de 0.9992 lo cual indica que

imagen original y la recuperada se parecían.

En la Figura 1 se puede observar la imagen original binarizada, y la imagen

recuperada al realizar la extracción.

Figura 1. Comparación Imagen Original – Imagen Recuperada. La imagen fue elaborada por los

autores.

38

El nivel de ruido que se le añade puede variar dependiendo de que tanto ruido se le

quiere agregar a la señal, teniendo en cuenta que si el nivel de ruido es mayor los

datos en la señal de audio original se ocultan o pierden valor, mientras que si el nivel

de ruido es menor es más sencillo recuperar la imagen incrustada.

En la Figura 2 se observan las imágenes recuperadas al adicionar el ruido, la imagen

mostrada a la izquierda no se recupera debido a que el nivel de ruido es mucho

mayor a la amplitud de la señal de audio, al ir disminuyendo el nivel de ruido se

aprecia la recuperación de la imagen.

Figura 2. Prueba de Robustez con Adición de Ruido. La imagen fue elaborada por los autores.

Referencias

[1] Martínez, Raúl; Nakano, Mariko, “Mejoras de los Métodos QIM mediante Códigos Turbo-

Hadamard para el Marcado de Agua en Audio Digital,” Escuela Superior de Ingeniería Mecánica y

Eléctrica Unidad Culhuacán, Instituto Politécnico Nacional. Junio 2007.

[2] Chauhan, S.P.S.; Rizvi, S.A.M., "A survey: Digital audio watermarking techniques and

applications," Computer and Communication Technology (ICCCT), 2013 4th International Conference

on, vol., no., pp.185, 192, 20-22 Sept. 2013.

[3] D. M. Ballesteros, “QIM (Quantization Index Modulation) ¿En qué consiste QIM?” 2014.

39

Implementación de Sistemas de

Radares análogo y digital

experimentales de bajo costo para

estudios de detección de objetos

José de Jesús Rúgeles Uribe 6[autor]

Luís Eduardo Quibano Alarcón 6[autor]

Resumen

El desarrollo de este proyecto tiene como finalidad analizar el fenómeno de propagación en

un sistema de radar el cual se basa en el efecto Doppler para su funcionamiento. El proyecto

pretende además replicar el sistema de radar analógico propuesto por el instituto tecnológico

de Massachusetts (MIT) que utiliza la técnica de onda continua modulada (FMCW), la cual

permite medir la posición y velocidad de un objeto en movimiento. Una vez implementado el

radar análogo, se procederá a construir un radar utilizando radio definido por software (SDR),

de modo tal que se puedan establecer diferencias entre estos dos sistemas, como lo es

máximo rango, numero de objetos a detectar y máxima velocidad.

Introducción

Las tecnologías de radar son utilizadas en entornos civiles como militares, en

aplicaciones como control de tráfico aéreo; medición de velocidad; análisis del clima;

imágenes SAR; sistemas de penetración terrestre, etc. El uso de este dispositivo ha

evolucionado gracias la integración dada por la electrónica en alta frecuencia y los

avances en las técnicas de procesamiento de señales.

En la academia a nivel mundial las tecnologías de radar generalmente hacen parte

de una formación especializada donde además de los análisis teóricos se realizan

simulaciones y pruebas de laboratorio. En el laboratorio Lincoln del Instituto

Tecnológico de Massachusetts (MIT) cuentan con un curso de radar (Charvat, Fenn &

Perry, 2012) donde los estudiantes además de estudiar los diferentes conceptos

teóricos, construyen un radar de bajo costo que les permite realizar mediciones y

experimentar en diferentes ambientes para posteriormente realizar el análisis de las

6 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Bogotá.

Correo electrónico: [email protected], [email protected]

40

señales en el aula. Los autores de este curso han mostrado que implementando esta

metodología incrementa el interés de los estudiantes hacia el área de la teoría

electromagnética y sus aplicaciones.

La evolución de la tecnología de radio definido por software ha impulsado el

desarrollo de avanzados sistemas de radio a un bajo costo. Un ejemplo claro de es la

librería de radar para GNU Radio desarrollada por Stefan Wunsch del Instituto de

Tecnología de Karlsruhe en Alemania (Wunsch, 2014).

Marco Teórico

Debido a los costos que se presenta para la implementación de un sistema de radar

varias empresas y universidades han creado varios sistemas de radar de bajo costo,

con el fin de poder observar y realizar experimentos en ambientes controlados de las

técnicas de funcionamiento de este sistema, aquellos sistemas son:

1) Quonset microwave

Esta empresa se encarga de comercializar un kit de demostración de sistemas de

radar ideal para un ambiente académico (www.quonsetmicrowave.com, 2015) con el

fin de aprender acerca de radares, dispone para configurarlo como radar CW, FMCW

y pulso.

2) Novelda Radar

El kit de desarrollo NVA-R661(Novelda, 2015) brinda la posibilidad de

implementar un sencillo sistema usando la de API RadarLib con un conector USB que

permite la integración de hardware y software, con el apoyo Matlab se pretende

realizar pruebas de concepto y demostraciones sobre radar de impulso

3) COM3LAB Course

El kit ofrecido por COM3LAB (Leybold-shop.com, 2015) consta de un sistema

monostático la cual permite realizar pruebas en objetos como lo es la distancia,

medidas del retardo de la señal, seguimiento de objetos y representación de

objetos en movimiento.

4) Naugra TM

El sistema de radar ofrecido por esta empresa permite demostrar los principios

del efecto doppler de las señales reflejadas cuando un objeto se encuentra en

movimiento, permite la observación y medidas usando el software ofrecido, el

sistema de radar opera en la banda X, contiene una antena parabólica la cual

garantiza un haz estrecho y reducir el clutter (Educationaldidactictrainers.com,

2015).

5) LabVolt

El sistema de LabVolt (Labvolt.com, 2015) es uno de los más completos kits de

radares, una herramienta que pretende mostrar los avances técnicos alcanzados por

41

este sistema llevando al estudiante a realizar experimentos en tiempo real para

detectar objetos a distancias cortas y en presencia de clutter, la ventaja de este

sistema es el manejo de transmisiones de baja potencia, siendo segura para

ambientes de práctica.

6) Radar MIT

El instituto tecnológico de Massachusetts junto con el laboratorio Lincoln

decidieron crear un curso (Build a Small Radar System Capable of Sensing Range &

OpenCourseWare, 2015)en el cual su objetivo era poder diseñar un sistema de radar

de bajo costo, las características principales de este sistema es el funcionamiento

como radar FMCW trabajando en la banda S (2-4GHz) y realizando el procesamiento

de la señal con ayuda de Matlab® adquiriendo las señales y grabándolas como

archivos de audio .wav, también presenta 3 modos de operación que para obtener

graficas de rango, velocidad y radar de apertura sintética. En la Figura.1 se puede

apreciar como es el montaje de dicho sistema listo para realizar pruebas

experimentales (Charvat, Fenn & Perry, 2012) con el fin de aplicar los conceptos

aprendidos durante el curso.

Figura.1 Diseño Propuesto de radar de bajo costo por el MIT. La imagen fue recuperada del sitio web

http://ocw.mit.edu/resources/res-ll-003-build-a-small-radar-system-capable-of-sensing-range-

doppler-and-synthetic-aperture-radar-imaging-january-iap-2011/

7) Radares Experimentales con USRP

Gracias al avance de los sistemas con FPGA se han ido creando sistemas de radar

definidos por software, en donde el manejo de filtros, mezcladores, amplificadores,

etc. son programados por este medio, implementando la teoría sobre estos

sistemas de radar de una manera mucho más rápida y más versátil, debido a que

cualquier cambio que requiera hacer para variar el funcionamiento del radar

dependerá de la configuración que se le dé a nivel software.

42

Es por esto que varias investigaciones con USRP (Universal Software Radio

Peripheral) para poder realizar sistemas de radar se han venido haciendo, por

ejemplo se encuentra un trabajo de tesis de la universidad de California (Fernández,

2012) en el 2012 en la implementación de un sistema de radar usando Matlab y la

USRP, donde se pretende demostrar que se pueden enviar y recibir señales de radar

calculando el rango de un objetivo, así como crear un sistema de falsa alarma

dentro de un ambiente de alto ruido, en el Instituto tecnológico de Beijín, Hu

Weidong; Sun Houjun; Lv Xin Y Li Shiyong (Weidong, Houjun, Xin & Li Shiyong,

2006) presentan una arquitectura en SDR para realizar medidas de radar a partir de

los cambios de anchos de banda; Prabaswara A, Munir A y Suksmono A.B., dan a

conocer un artículo sobre de una conferencia internacional donde muestra el uso de

GNU radio usando la técnica de FMCW para la aplicación de monitoreo del clima por

instituto tecnológico de Bandung , Indonesia (Prabaswara, Munir & Suksmono, 2011)

donde el prototipo trabaja con una frecuencia de 2.1GHz y concluyen con la

detección de uno a tres objetivos sin especificar cuáles fueron los objetos de

estudio, sin embargo el sistema presenta algunas limitaciones pero se presenta

como una base para futuros desarrollos.

En una conferencia internacional realizada en Shanghái, China sobre radar de

penetración terrestre (Ralston & Hargrave, 2012) y Ralston, J y Hargrave, C., hablan

sobre el diseño de un prototipo de GPR explotando las bondades que ofrece SDR y así

crear un dispositivo funcional.

Metodología Empleada

El proyecto se realizará bajo un enfoque metodológico planteado alrededor de la

investigación descriptiva y experimental. Inicialmente se realiza una fundamentación

teórica de los conceptos de radares donde se hace una revisión de los modelos

analíticos existentes sobre el efecto doppler. Se analizan las características técnicas

de los componentes requeridos para el diseño del radar análogo en el laboratorio de

comunicaciones del programa de Ingeniería de Telecomunicaciones. Posteriormente

se realiza el diseño e implementación del prototipo hardware y se desarrollan las

pruebas en un escenario dentro y fuera del laboratorio. Se realizan las mediciones

necesarias finalizando con una etapa de análisis de resultados mediante el software

Matlab.

Para su desarrollo se definen las siguientes fases:

a. Revisión de conceptos de sistemas de radar: Radar Onda continua, Radar onda

continua modulada y radar de pulsos.

43

b. Estudio de información técnica de los componentes requeridos para la

implementación: Componentes para la elaboración del radar MIT, uso de radio

definido por software.

c. Compra de materiales requeridos: Compra de los componentes necesarios para

la elaboración del radar MIT.

d. Diseño e implementación del prototipo de pruebas: Realización del radar MIT, y

diseño del radar usando radio definido por software.

e. Programación en Matlab / GNU / Labview: Establecer cuáles de estos

programas ofrecen mejores resultados.

f. Medición en laboratorio: Realizar simulaciones y pruebas básicas para

comprobar del desempeño del sistema.

g. Pruebas de campo: Una vez realizadas las pruebas de laboratorio,

implementarlas en espacio abierto (Instalaciones de la universidad).

h. Análisis de resultados: Comparar los dos sistemas y determinar cuáles son las

ventajas y desventajas de cada uno.

i. Informe final: Presentación de Artículos y manuales para la elaboración del radar

en radio definido por software.

Resultados y Conclusiones

Una vez implementado el sistema de radar análogo y digital, se procede a realizar

diferentes experimentos, uno de ellos consistió en que una persona se desplazaba

por el radar de tal manera que se alejaba y acercaba, los dos radares tienen la

característica de poder guardar el resultado del experimento en un archivo de tipo

.wav y de texto para luego ser procesados utilizando Matlab.

Para la realización de la prueba utilizando el prototipo de Radar MIT se ejecutaron

dos experimentos, uno que me permitiera medir la velocidad cuando una persona

corría y el otro experimento mide posición cuando una persona se encontraba

caminando. En la figura.2 se puede apreciar el resultado del experimento, donde la

máxima velocidad cuando la persona se encontraba corriendo es de

aproximadamente 2.76m/s lo que es equivalente a 9.94Km/h; la máxima posición

cuando la persona se encontraba caminando fue de 15.13m, de esta manera se pudo

comprobar el funcionamiento del radar propuesto por el MIT elaborado en la

Universidad Militar Nueva Granada.

44

Figura.2 Graficas de velocidad y posicion del objeto en movimiento. La imagen fue elaborada por los

autores.

La implementación del radar usando radio definido por software (SDR) se elaboró

usando Linux en su versión MINT 17.1 con GNU-RADIO 3.7.4 y con ayuda de la

librería GR-RADAR creada por Stefan Wunsch (Wunsch, 2014). Se pudo replicar el

sistema análogo en SDR, y al igual que en el radar MIT se realizó un experimento en el

cual una persona caminaba alejándose y acercándose, todo el experimento puede ser

guardado en un archivo de texto. Se creó un algoritmo en Matlab de tal manera que

se pueda graficar los puntos de velocidad y rango vs tiempo.

En la figura.3 se observa el resultado de la prueba cuando la persona se encontraba

caminando. Para comprobar la velocidad entregada por el sistema se apoyó de la

gráfica rango vs tiempo. Primero se ubica instantes donde la velocidad es constante y

se observa la distancia en ese mismo intervalo, se procede a calcular la pendiente y

determinar la diferencia entre la velocidad experimental y calculada (Ver Tabla.1)

donde el porcentaje de error entre las medidas del radar y las calculadas es del 2%.

Figura.3Escenario de prueba y resultados obtenidos. La imagen fue elaborada por los autores.

45

Tabla.1 Registro de Posición y Velocidad en Persona Caminando. La tabla fue elaborada por los

autores.

Intervalo

St1

StZ

St

mR1

mRZ

mR

s

mvcal

s

mvexp

% Error

72.04 75.07 3.03 1.937 5.757 3.82 1.206 1.168 3.150%

B 82.08 86.05 3.97 5.701 10.451 4.75 1.196 1.168 2.341%

C 96.02 99.06 3.04 19.93 21.67 1.74 0.5723 0.5839 2.026%

En el marco de desarrollo del proyecto ING-1541SITPROTCOM - SDR (Signal

Processing Tools in Communications Systems Using Software Defined Radio). Se

evalúo el desempeño del sistema de radar MIT con la técnica FMCW y del radar

definido por software utilizando la técnica Múltiple CW para validar la teoría de forma

experimental detectando el rango y velocidad de un objeto en movimiento.

El desarrollo del diseño propuesto por el MIT ayuda a entender los conceptos de

cómo puede funcionar un sistema de radar utilizando materiales de bajo costo para

su implementación, permitiendo determinar los valores de rango y velocidad usando

la técnica FMCW con ayuda del algoritmo de procesamiento utilizado.

La manera de observar los resultados obtenidos por el radar MIT permiten validar

los datos procesados agregando una condición de incertidumbre ya que el gráfico de

espectrograma entregado no permite tener un valor exacto de posición y/o velocidad.

El uso del toolbox GR-Radar permite la realización de pruebas y validación con

enfoques académicos para el entendimiento de los sistemas de radar con técnicas

básicas, de modo tal que la persona pueda darse una idea general de cómo pueden

llegar a funcionar los radares en aplicaciones militares y comerciales en base al

fenómeno físico del efecto doppler.

Los resultados obtenidos usando radio definido por software permiten validar de

manera práctica los parámetros de diseño utilizando la técnica Multiple CW.

Por último, la implementación del radar usando SDR presenta mejor rendimiento

comparado con el sistema análogo propuesto por el MIT en cuanto a

reconfigurabilidad, capacidad de procesamiento, obtención y validación de resultados.

46

Referencias

www.quonsetmicrowave.com,. (2015). QM-RDKIT. Retrieved 6 May 2015, from

http://www.quonsetmicrowave.com/QM-RDKIT-p/qm-rdkit.htm

Novelda,. (2015). Development kits radar. Retrieved 6 January 2015, from

https://www.novelda.no/content/development-kits

Leybold-shop.com,. (2015). COM3LAB Course: Radar Technology I - Radiolocation - Specializations

- Electrical Engineering - Multimedia - Technology. Retrieved 6 May 2015, from

http://www.leybold-shop.com/technology/multimedia/com3lab/electrical-

engineering/specializations/communications-networks/com3lab-course-radar-

technology-i.html

Educationaldidactictrainers.com,. (2015). Doppler Radar Training System, Doppler Radar Training

System Manufacturers, Suppliers and Exporters from India Educational Trainers & Didactic

Products. Retrieved 6 May 2015, from http://www.educationaldidactictrainers.com/doppler-

radar-training-system.php

Labvolt.com,. (2015). LabVolt Series by Festo Didactic - Radar Training System (8096-00). Retrieved

6 May 2015, from https://www.labvolt.com/solutions/9_telecommunications/98-8096-

00_radar_training_systems.

Build a Small Radar System Capable of Sensing Range, a., & OpenCourseWare, M. (2015). Build a

Small Radar System Capable of Sensing Range, Doppler, and Synthetic Aperture Radar

Imaging. MIT OpenCourseWare. Retrieved 6 May 2015, from

http://ocw.mit.edu/resources/res-ll-003-build-a-small-radar-system-capable-of-

sensing-range-doppler-and-synthetic-aperture-radar-imaging-january-iap-2011.

Charvat, G., Fenn, A., & Perry, B. (2012). The MIT IAP radar course: Build a small radar system

capable of sensing range, Doppler, and synthetic aperture (SAR) imaging. 2012 IEEE Radar

Conference. doi:10.1109/radar.2012.6212126.

Weidong, H., Houjun, S., Xin, L., & Li Shiyong,. (2006). Reasearch on SDR Architecture for Radar

Target Signatures Measurement. 2006 CIE International Conference On Radar.

doi:10.1109/icr.2006.343467

Prabaswara, A., Munir, A., & Suksmono, A. (2011). GNU Radio based software-defined FMCW radar

for weather surveillance application. 2011 6Th International Conference On

Telecommunication Systems, Services, And Applications (TSSA).

doi:10.1109/tssa.2011.6095440

Ralston, J., & Hargrave, C. (2012). Software defined radar: An open source platform for prototype

GPR development. 2012 14Th International Conference On Ground Penetrating Radar (GPR).

doi:10.1109/icgpr.2012.6254855.

Wunsch, S. (2014). GNU Radio Radar Toolbox. GNU Radio Radar Toolbox. Retrieved 6 May 2015,

from https://grradar.wordpress.com/

Fernandes, V. (2012). Implementation of a RADAR System using MATLAB and the USRP (Master).

California State University – Northridge.

47

Prototipo de una red GSM con el uso

de OpenBTS y USRPs en el Campus

Cajicá de la Universidad Militar Nueva

Granada

Harold Gustavo Patiño Valero 7[autor]

Luís Carlos Ramírez Ramírez 7[autor]

Resumen

La propuesta de investigación propone la implementación de un prototipo de red móvil de

bajo costo, con la finalidad de brindar a los usuarios del Campus Cajicá de la Universidad

Nueva Granada, un servicio experimental de telefonía móvil. El prototipo que se construirá,

utilizará la tecnología GSM, con OpenBTS, USRP.

Todo el proceso de diseño e implementación de la red se documentara debidamente en un

manual que será entregado a personal técnico de la Universidad para su debida manipulación y

mantenimiento.

Introducción

Actualmente las tecnologías sobre redes móviles han evolucionado rápidamente, y

en particular una de las tecnologías que ha tenido mayor acogida en los últimos años

es GSM, ya que esta ha sido una de las de mayor reconocimiento a nivel mundial ya

que permite la interoperabilidad, y se encuentra desplegada a nivel mundial.

Es por tal razón que nace la necesidad de identificar y analizar los parámetros

técnicos que se necesitan para implementar una red GSM.

El costo económico asociado a la elaboración de dicha red es bastante elevado, por

tal motivo es necesario encontrar nuevas herramientas que reduzcan el costo de

implementación.

Las herramientas que se pueden usar para producir una red de bajo costo, son la

tecnología que hace parte del proyecto de OpenBTS que sería a nivel de software, y a

nivel de hardware el empleo de USRPs. Con esta herramienta se podría acceder a una

herramienta educativa potente, para que los estudiantes de la Universidad Militar

7 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Bogotá.

Correo electrónico: [email protected]

48

Nueva Granada entiendan los conceptos asociados a la operación de una red celular;

se agregarían nuevos temas de profundización en el área de las comunicaciones

móviles que ampliarían las temáticas de investigación, y además serviría para

potencializar algunas competencias y habilidades en los futuros profesionales, las

cuales les permitirán ser más críticos en sus labores de ingeniería a la hora de diseñar

e implementar una red de comunicaciones móviles.

Marco Teórico

Para el desarrollo del proyecto es necesario tener en cuenta ciertos conceptos que

inciden en el desarrollo del prototipo:

El proyecto OpenBTS según [1] es un proyecto que consiste en un punto de acceso

de GSM basado en software con código abierto que permite a los teléfonos móviles

compatibles con el sistema, hacer llamadas sin la necesidad de estar conectados a

una red comercial existente. Esta arquitectura se encuentra disponible para que

cualquier usuario la pueda innovar y agregar los servicios que le parezca mejor para

su sistema.

Universal Software Radio Peripheral (USRP), es un transmisor receptor flexible que

permite que un computador funcione como un sistema de generación de prototipos

para la comunicación inalámbrica. La configuración puede ser mediante LabVIEW o

GNU-Radio [2].

GNU-RADIO es un software gratuito, con herramientas que funcionan en tiempo

real para el procesamiento de señales, mediante bloques de procesamiento, junto con

la implementación de hardware externo de RF como una USRP. Es utilizado por

aficionados, entornos académicos y comerciales por su bajo costo y flexibilidad de

uso [3].

ASTERISK es un sistema operativo basado en Linux, utilizado para aplicaciones de

comunicaciones, capaz de convertir un computador normal en un servidor de

Comunicaciones. Utilizado normalmente para implementar sistemas IP PBX, puertas

de enlace VoIP, servicios de conferencia y otras configuraciones que el usuario pueda

crear a medida que lo desee, ya que es un código libre y abierto a los usuarios [4].

Después de tener claro algunos conceptos para la realización de este proyecto, es

necesario entender la serie de avances que se ha tenido respecto a proyectos

relacionados con la tecnología OpenBTS.

[5]. En el paper “OpenBTS Implementation With Universal Software Radio

Peripheral”, publicado en el año 2004 por Abul Azad, se muestran los beneficios

económicos de usar OpenBTS para brindar cobertura a una isla conocida como la

república de Nauru. Para lograr este objetivo se necesitó de 15 USRPs. En el paper se

describen los costos estimados en el sistema; modelo de negocios y cálculos de

49

pérdida con el modelo Hata. Además de una descripción detallada de los elementos

que componen OpenBTS.

[6]. En el año 2013, Prasannan N, Xavier G, Manikkoth A, Gandhiraj R, Peter R,

Soman K.P. publican “OpenBTS Based Microtelecom Model: A SocioEconomic Boon To

Rural Communities”, el cual describe los beneficios de crear una red celular de bajo

costo, como una oportunidad a los gobiernos de reducir la brecha de comunicación

en las regiones rurales, donde los proveedores de servicios no obtienen beneficios

económicos., además, se muestran las configuraciones del OpenBTS en un ambiente

de laboratorio, las cuales tienen resultados satisfactorios con respecto al

funcionamiento de la red. Por último, se menciona que el desempeño de la red

depende de la antena y los esquemas de codificación que se usen para la

configuración de la red celular.

[7]. En el año 2012, Manu Bansal en su publicación “Open Radio: A programmable

Wireless dataplane” [7] describe la flexibilidad que hay en la configuración al

momento de construir una BTS con la ayuda de Radio Definido por Software (SDR).

Esta flexibilidad es posible gracias a que se trabaja con programación por bloques, y

una conexión a un Universal Software Radio Peripheral (USRP). Con la implementación

anterior se concluye que al utilizar SDR y USRP habría un ahorro en los costos

necesarios para montar una BTS.

En el 2012, Islam E. Hashem, Ahmed ElShaarany, Ahmed Y. Abdelbarr. Eslam S.

Hassan, Magdi Fikri en su artículo “Implementing an Enhanced Base Station using the

Software Defined Radio (CUOPENBTS)” [6], hablan de la importancia de implementar

mejoras en el diseño OpenBTS, buscando aumentar la sensibilidad y reduciendo al

mínimo el costo del sistema. En este artículo implementan OpenBTS, con USRP,

GNURadio y Asterisk. Después de hacer la implementación y las respectivas pruebas

demostraron que este podía ser uno de los sistemas de telecomunicaciones más

baratos hoy en día, ya que todo el sistema no les costó más de 1.500 dólares;

también que utilizando la placa hija WBX en la USRP comunicaría un gran número de

personas [8].

[9]. En el paper “OpenBTS: A Step Forward in the Cognitive Direction”, el cual fue

publicado en el 2012 por Pasquale Pace y Valeria Loscrí, se describen las

características y beneficios de la estructura de OpenBTS, los elementos que son

necesarios para implementar una estación base de bajo costo, Este artículo se centra

en el acceso espectral dinámico (DSA), para su posterior uso en OpenBTS, dando la

oportunidad de compartir el espectro con los proveedores de servicio sin interferir en

el uso comercial de las bandas de estos operadores.

50

Metodología Empleada

Inicialmente se realizó una fundamentación teórica de los conceptos de asociados a

las tecnologías GSM y OPENBTS, donde se hace una revisión del estado de arte a nivel

nacional e internacional en las temáticas asociadas a redes móviles y tecnologías

emergentes. Se procedió a analizar las características técnicas de los componentes

requeridos para el diseño de una red GSM de bajo costo, incluyendo pruebas en un

entorno cerrado y posteriormente en un entorno abierto.

Para el desarrollo se definen los siguientes pasos:

a. Revisión de conceptos sobre sistemas móviles junto con OpenBTS: OpenBTS,

USRP, Asterisk, GNU-Radio.

b. Estudio de información técnica de los componentes requeridos para la

implementación: Componentes para la implementación del prototipo un sistema

móvil, y uso de Radio Definido por Software (SDR).

c. Diseño e implementación del prototipo de pruebas: Realización del enlace

móvil mediante SDR en el laboratorio, rediseño y adaptación del prototipo para

ejecución en el campus Cajicá.

d. Pruebas de campo: Una vez realizada las pruebas y mediciones en el

laboratorio, se implementará el prototipo en el campus Cajicá. Luego se ejecutará

un experimento para medir las variables pertinentes al sistema de comunicaciones

implementado.

e. Análisis de resultados: Se compararán los datos obtenidos en las pruebas de

campo, con los obtenidos al aplicar la teoría, y a partir de los resultados se

rediseñará el prototipo en caso de necesitar cambios.

f. Informe final: Se escribirán algunos artículos científicos y una serie de

manuales, donde se ilustra el procedimiento para la elaboración e implementación

del prototipo de una red GSM con el uso de OpenBTS y USRPs, en el Campus Cajicá

de la Universidad Militar Nueva Granada.

Resultados y Conclusiones

A la fecha se tienen los siguientes resultados parciales:

- Características de los componentes que hacen parte del proyecto OpenBTS,

entre los cuales se destaca las pruebas que se han realizado con la USRPs,

para conocer su funcionamiento y los elementos que forman este hardware.

- Instalación y configuración de GNU-Radio.

- Pruebas con el analizador de espectro en un entorno abierto, para verificar

las bandas GSM.

51

Referencias

[1] Definicion “OpenBTS” disponible en http://openbts.org/

[2] Definicion “USRP” disponible en http://www.ni.com/sdr/usrp/

[3] Definicion “GNU.Radio” disponible en http://gnuradio.squarespace.com/

[4] Definicion “Asterisk” disponible en http://www.asterisk.org/

[5] Azad, A. (2011), 'Open BTS Implementation with Universal Software Radio Peripheral', Department

of Electrical and Computer Engineering, Virginia Polytechnic and State University: Virginia, VA, USA.

[6] Prasannan, N.; Xavier, G.; Manikkoth, A.; Gandhiraj, R.; Peter, R. & Soman, K. (2013), OpenBTS

based microtelecom model: A socio-economic boon to rural communities, in 'Automation,

Computing, Communication, Control and Compressed Sensing (iMac4s), 2013 International Multi-

Conference on', pp. 856--861.

[7] Bansal, M.; Mehlman, J.; Katti, S. & Levis, P. (2012), Openradio: a programmable wireless

dataplane, in 'Proceedings of the first workshop on Hot topics in software defined networks', pp.

109--114.

[8] Hashem, I. E.; ElShaarany, A.; Abdelbarr, A. Y.; Hassan, E. S. & Fikri, M. (2012), Implementing an

Enhanced base station using the software defined radio (CUOPENBTS), in 'Advances in Computational

Tools for Engineering Applications (ACTEA), 2012 2nd International Conference on', pp. 39--42.

[9] Pace, P. & Loscri, V. (2012), OpenBTS: a step forward in the cognitive direction, in 'Computer

Communications and Networks (ICCCN), 2012 21st International Conference on', pp. 1- 6.

52

Diseño y simulación de filtros

Microstrip usando el software ADS

Juan Carlos Martínez Quintero 8[autor]

Paula Alejandra Garzón Sánchez 8[autor]

Resumen

En este proyecto se plantea establecer una metodología adecuada para la implementación

exitosa de un filtro microstrip sobre el software ADS, recurriendo a todos los factores

configurables brindados por el productor de este software que agilizar los procesos de diseño

y simulación del filtro.

Introducción

Uno de los métodos más prácticos encontrado es el diseño por tablas, en el cual se

establecen los parámetros de diseño y luego se procede a reemplazar los datos

normalizados en una serie de tablas que entregan resultados como la longitud

eléctrica de las líneas. Estos datos son alimentados en el software ADS, al igual que

las características de impedancia y tipo de sustrato a utilizar, para determinar la

longitud efectiva de las líneas. Con esta información se realiza la simulación final y se

determina la respuesta del filtro y la verificación de características usando el

simulador de parámetros S.

El objetivo de este proyecto consiste en diseñar e implementar un filtro microstrip.

De igual manera se muestran los avances realizados mediante el diseño del filtro a

través del software ADS el cual nos permite integrar diversos factores como

impedancias, materiales del filtro, acoples necesarios según las características que se

desean para un funcionamiento en específico, entre otros, de esta manera se obtiene

un diseño a implementar de manera física para su respectiva aplicación.

Marco Teórico

Los filtros son utilizados en muchas áreas de ingeniería de microondas/RF

(comunicaciones, radar, navegación, sensores, etc.), en este caso los filtros se usan

para seleccionar, rechazar o aislar las señales de microondas de RF dentro de los

8 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Bogotá.

Correo electrónico: [email protected]

53

límites espectrales asignados, así como para combinar señales a diferentes

frecuencias para estos sistemas de RF. Para el diseño de los filtros se implementa la

estructura microstrip o micro-cintas que es una clase de línea de transmisión eléctrica

que generalmente se fabrica utilizando placas de circuito impreso, se basa en una

franja de conducción separada de la franja de masa separada por capas de sustrato

dieléctrico. Este tipo de filtros microstrip han sido desarrollados para diversas

aplicaciones como la comunicación inalámbrica y sistemas de radares y sensores

inalámbricos, además se pueden implementar en herramientas asistidas por un

software de diseño con materiales avanzados, por tal razón para el diseño,

implementación y simulación de este tipo de filtros se requiere la utilización de un

software especializado para facilitar la labor y tener una respuesta aproximada a la

teoría.

Para el diseño de los filtros es necesario tener en cuenta las consideraciones

propuestas por las diversas publicaciones que se pueden encontrar acerca del tema.

Algunas de estas consideraciones se tienen en cuenta para la topología del filtro, el

sustrato, el orden del filtro y sus pérdidas, entre otras. Para el tipo de topología se

tiene en cuenta las características del filtro (dependen del filtro a escoger), el ancho

de banda, el tamaño y el manejo de potencia, para escoger el sustrato depende del

tamaño, del orden, de los efectos de la curva de superficie y de la implementación del

filtro, así como las pérdidas del conductor, del dieléctrico y de la radiación en la

resonancia de la micro cinta, sin olvidar el efecto de la temperatura en los

componentes.

El software ADS (Advanced Design System) es un Sistema de automatización de

diseño electrónico de RF, microondas y aplicaciones digitales de alta velocidad. ADS

ofrece diseño completo, basado en estándares y verificación con librerías inalámbricas

las cuales se actualizan acorde a los estándares internacionales más recientes, ADS es

pionero en redes inalámbricas ya que gracias al desarrollo constante de sus librerías

en la actualidad se pueden diseñar elementos para redes WiMax, servicios LTE y

radares. Se utiliza este software por ser un sistema rápido, preciso y fácil de usar, que

cuenta con las herramientas necesarias para el diseño y simulación de filtros.

Metodología Empleada

El enfoque metodológico del proyecto se presenta alrededor de la investigación

descriptiva y experimental.

Inicialmente se plantea el levantamiento de información para determinar

metodologías de diseño e implementación de filtros microstrip para características

determinadas. Se establecen las condiciones de diseño con base a la frecuencia y

ancho de banda la que operará el filtro. Para la simulación del filtro y verificación de

54

características de diseño se cuenta con el software ADS, en este sentido es necesario

familiarizarse con la operación del mismo, el establecimiento de parámetros de

diseño y posterior simulación. Una vez verificado un comportamiento deseado sobre

la simulación se realimenta el proceso, con el fin de perfeccionar el diseño.

En la figura 1 se puede ver el diseño de la antena a realizar a través del software

ADS como el prototipo en 3D de la antena a implementar.

Figura 1. Diseño de Antena a implementar con el programa ADS. La imagen fue elaborada por los

autores.

A continuación en la figura 2 se presentan las configuraciones realizadas en el

software ADS para el filtro a diseñar con sus respectivas características.

Figura 2. Configuración implementada en el programa ADS para el diseño de filtros. La imagen fue

elaborada por los autores.

En la figura 3 se ilustra el diagrama de Bode de magnitud del filtro, donde se

muestra la frecuencia de corte respectiva.

55

Figura 3. Diagrama de Bode de Magnitud de la función de transferencia del filtro. La imagen fue

elaborada por los autores.

Resultados y Conclusiones

Con base en la literatura revisada, se han encontrado diversas formas de diseñar

este tipo de filtros, encontrando métodos fundamentados en la teoría de circuitos y

otros en los cuales el proceso se simplifica al empleo de tablas y métodos numéricos.

Uno de los métodos más prácticos encontrado es el diseño por tablas, en el cual se

establecen los parámetros de diseño y luego se procede a reemplazar los datos

normalizados en una serie de tablas que entregan resultados como la longitud

eléctrica de las líneas. Estos datos son alimentados en el software ADS, al igual que

las características de impedancia y tipo de sustrato a utilizar, para determinar la

longitud efectiva de las líneas. Con esta información se realiza la simulación final y se

determina la respuesta del filtro y la verificación de características usando el

simulador de parámetros S.

Durante la simulación se acoplaron los filtros a líneas de 50Ω para realizar la futura

implementación y verificación de parámetros mediante el analizador vectorial de

redes.

La respuesta de los filtros ha sido muy cercana a las características deseadas, sin

embargo, el acople con las líneas de 50Ω hace que se desvíen levemente las

frecuencias y hace necesario un reajuste en los parámetros de diseño.

El software ADS también permite el diseño de filtros mediante una herramienta

gráfica a la cual se le proporcionan las características y esta procede a realizar

diferentes tipos de filtros. Esta herramienta también cuenta con filtros prediseñados

para su uso en diferentes tecnologías a diferentes frecuencias.

56

Referencias

Heriot-Watt University, Jia-Sheng Hong. Microstrip Filter Design (s.f). Disponible en:

http://home.eps.hw.ac.uk/~ceejh3/presentations/Microstrip%20Filter%20Design-JH2005.pdf

Hong, J. S. G., & Lancaster, M. J. (2004). Microstrip filters for RF/microwave applications (Vol. 167).

Jhon Wiley & Sons.

57

Diseño y simulación de antenas

microstrip usando el software ADS

Hernán Felipe Rivas Luna 9[autor]

Edgar Andrés Becerra Bahamón 9[autor]

Juan Carlos Martínez Quintero 9[autor]

Resumen

En este proyecto se plantea establecer el procedimiento detallado para la implementación de

una antena microstrip sobre el software ADS recurriendo a todos los factores configurables

brindados mediante este software que facilita el diseño y simulación de la antena con el fin de

aplicarlas a distintos dispositivos a un futuro próximo.

Introducción

El fin de este proyecto consiste en diseñar e implementar una antena microstrip y

determinar sus características de funcionamiento para ser adaptada a diferentes

dispositivos con aplicaciones en distintos escenarios de la vida real. De igual manera

se plantea la revisión de metodologías de diseño de antenas microstrip a partir de

parámetros específicos de radiación y acople de impedancias.

De igual manera se muestran los avances realizados mediante el diseño de la

antena a través del software ADS el cual nos permite integrar diversos factores como

impedancias, materiales de cada parte de la antena, acoples necesarios según las

características que se desean para la antena para un funcionamiento en específico,

entre otros, de esta manera se obtiene un diseño a implementar de manera física para

su respectiva aplicación en dispositivos reales.

Marco teórico y Estado del Arte

Las antenas de parche o (microstrip) micro tira se diseñan a partir de líneas de

transmisión o resonadores sobre substrato dieléctrico. Este tipo de antenas se pueden

analizar desde muchos puntos de vista, desde los diseños básicos de microstrip con

líneas de transmisión hasta los más complejos, usando métodos numéricos espectral,

en este caso se muestra la aplicación del diseño de antenas sobre planos usando el

software ADS mediante el cual se implementan operaciones teóricas configuradas en

9 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Bogotá.

Correo electrónico: [email protected], [email protected]

58

el software y programación por bloques para obtener un tipo determinado de antena

con el fin de generar cierta propagación como parte fundamental de una

comunicación digital, esto se define en conjunto como se describe el proceso de la

antena que vamos a implementar a continuación:

“La excitación mediante línea microstrip en una de las aristas del parche tiene como

ventaja su simplicidad, dado que el circuito de alimentación del parche y el propio

parche se construyen en el mismo proceso. Sus inconvenientes son consecuencia

justamente de residir el circuito de alimentación de la antena en el mismo plano y

substrato que la antena.” (Martín, J., Martín, J., & Posada, V., 2011).

Metodología Empleada

El enfoque metodológico del proyecto se presenta alrededor de la investigación

descriptiva y experimental.

Inicialmente se plantea el levantamiento de información para determinar

metodologías de diseño e implementación de antenas microstrip para características

determinadas. Se establecen las condiciones de diseño con base en la impedancia de

salida del dispositivo a conectar y la frecuencia a la que operará la antena. Para la

implementación y simulación de la antena el programa cuenta con el software ADS, en

este sentido es necesario que el estudiante se familiarice con la operación del mismo

y el establecimiento de parámetros de diseño y posterior simulación. Una vez

verificado un comportamiento deseado sobre la simulación es necesaria la

elaboración física del impreso, este producto final lo entrega una empresa que la

fábrica con el diseño realizado en ADS.

En resumen se propuso las siguientes fases para el desarrollo del proyecto:

a. Revisión bibliográfica de los conceptos, herramientas y metodologías

involucradas en el diseño de antenas microstrip.

b. Estudio de la herramienta ADS para el diseño y simulación de la antena

microstrip.

c. Diseño y simulación de la antena.

e. Pruebas de respuesta en frecuencia usando la USRP N-210.

f. Análisis de resultados.

En la figura 1 se ilustran los pasos metodológicos sugeridos para la investigación.

59

Figura 1. Metodología Planteada. La imagen fue elaborada por los autores.

Resultados y Conclusiones

En la figura 2 se puede verificar el diseño de la antena a realizar a través del

software ADS como el prototipo en 3D de la antena a implementar.

Figura 2. Diseño de la antena propuesta a través del programa ADS. La imagen fue elaborada por

los autores.

En la tabla 1 se presentan las configuraciones realizadas en el software ADS para la

antena a diseñar con sus respectivas características.

Tabla 1. Configuración de los parámetros del programa ADS para el diseño de la antena propuesta.

La tabla fue elaborada por los autores.

Características Valor Unidades

Constante dieléctrica 4.3 -

Tangente de pérdidas 0.02 -

Grosor dieléctrico (h) 1.6 mm

Frecuencia de operación 2.919 GHz

Longitud (L) 23.69 mm

Ancho (W) 30.71 mm

Ancho de la muesca 4.28 mm

60

Profundidad de la muesca 10 mm

Longitud de la línea de alimentación 25.357 mm

Ancho de la línea de alimentación 2.8 mm

Impedancia de entrada (Z0) 50 ohm

Directividad 5.4 dBi

Tabla 1. Configuración de los parámetros del programa ADS para el diseño de la antena propuesta.

La tabla fue elaborada por los autores.

En la figura 3 se ilustran las gráficas de pérdidas de inserción en magnitud y fase.

Figura 3. Gráficas de las perdidades de inserción y de la fase en función de la frecuencia para la

antena diseñada. Las imágenes fueron elaboradas por los autores.

En la figura 4 se presenta el patrón de radiación simulada en ADS de la antena

microstrip.

Figura 4. Patrón de radiación simulada en ADS de la antena microstrip. La imagen fue elaborada

por los autores.

61

Por último en la figura 5 se presentan las coordenadas y dimensiones de la antena a

implementar, realizadas en el software ADS.

Figura 5. Antena diseñada con el programa ADS. La imagen fue elaborada por los autores.

El software ADS permite el diseño de Antenas mediante sus herramientas a la cual

se le proporcionan las características y esta procede a realizar diferentes tipos de

antenas.

Básicamente se procedió a realizar diferentes tipos de lectura y se han encontrado

diversas formas de diseñar este tipo de Antenas, encontrando los cuales permiten que

el proceso se simplifique.

Este tipo de programas se implementan para diseñar antenas que de verdad

funcionen e irradien las señales que se desean enviar a las frecuencias a las cuales se

les va acoplar para trasmitir y recibir los datos.

El software empleado permite configurar los parámetros de antenas tales como la

ganancia, la directividad y la polarización entre otros, para fabricar y diseñar

diferentes tipos de antenas configuradas de diferentes tipos de estas.

Referencias

Escuela politécnica superior, B. Felix Triviño. (2012). Diseño de Antenas de Parche rectangulares

Microstrip. IAC, 0(1). Retrieved from

http://arantxa.ii.uam.es/~acaf/Documentacion/TemaIII_antenas_impresas.pdf

Martín, J., Martín, J., & Posada, V. (2011). Procedimiento de Diseño y Realización de Antenas de

Parche en Tecnología Microstrip. IAC, 0(1). Retrieved from

http://polired.upm.es/index.php/iac/article/view/1762/1774

62

Caracterización y documentación

georreferenciada de la interferencia,

seguridad y el solapamiento de

canales en sitios de libre acceso a

Internet para redes WiFi, en puntos

críticos de la comuna 10 de Medellín

proponiendo una Metodología de

medición

Roberto Guevara Calume 10[autor]

Resumen

El acceso a Internet a través de redes inalámbricas WIFI se ha masificado ostensiblemente,

debido a su bajo costo económico y la notable ausencia de cables, pero al mismo tiempo ha

aumentado su vulnerabilidad ante accesos no autorizados. En la ciudad de Medellín y

principalmente en el centro de la ciudad se encuentran muchos sitios que ofrecen Internet a

través de redes WIFI, además muchas pymes emplean WIFI en sus redes internas corporativas.

En este informe se muestran los resultados del análisis de solapamiento de canales y

problemas de interferencia que afectan la velocidad de transferencia en los puntos de acceso

libre a Internet que emplean tecnología WiFi suministrados por entidades públicas y privadas

en el área de estudio (comuna 10 centro de Medellín), a través de la georreferenciación de

planos digitales. Por último se realiza una encuesta para identificar el uso que se da a las

redes WiFi.

Se analizarán y mostraran los resultados sobre el grado de seguridad de la redes WiFi en las

empresas localizadas cerca de estos puntos de acceso libre a Internet para alertar y mejorar la

seguridad ante intrusos que intenten realizar accesos no autorizados.

10 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación SEMCEI, Corporación Universitaria Rémington,

Medellín. Correo electrónico: [email protected]

63

Introducción

En este documento se determinaran la localización y solapamiento de canales que

afectan la velocidad de transferencia en puntos WIFI de libre acceso, en algunos

puntos críticos de la Comuna 10 a través de un caso de estudio, usando la

georreferenciación de planos digitales. La zona definida para el caso de estudio se

caracteriza por la alta concentración de tecnología WIFI, y se encuentra ubicada en la

comuna 10 (Centro de la ciudad de Medellín, Colombia).

Existen una gran cantidad de redes WIFI, ya que son una tecnología económica y

fácil de implementar, esto trae consigo problemas tales como:

- La gran cantidad de redes WIFI en la misma zona hace que redes

geográficamente cercanas se interfieran entre sí, aumentando la demora en

la descarga de archivos y la navegación.

- El bajo costo hace posible que existan organizaciones que proporcionen

acceso a Internet libre, pero se desconoce su ubicación exacta.

- La facilidad de implementación, permite que personal no capacitado

implemente redes WIFI, sin una adecuada seguridad, Lo que aumenta el riego

de accesos no autorizado.

El estudio de estos problemas en una zona de la comuna 10 permitirá:

- Evitar en lo posible que redes geográficamente cercanas se interfieran

haciendo un uso óptimo de los canales y del ancho de banda, aumentando la

velocidad de descarga de archivos y la navegación.

- Establecer donde se encuentran los puntos de libre acceso a Internet en una

zona de la comuna 10.

- Aumentar la seguridad de las redes WIFI privadas en una zona de la comuna

10, a través del uso de protocolos seguros, evitando usar protocolos que

faciliten el acceso no autorizado.

Marco teórico y Estado del Arte

Es muy común el uso de varias redes WIFI en diversos escenarios, como residencias,

campus universitarios empresas y sitios públicos, pudiendo estas producir

interferencias entre sí cuando estas redes WIFI están localizadas en la misma zona

geográfica. Es común encontrar problemas de bajas velocidades en la transferencia de

archivos, incluso estando pocos computadores conectados a la red WIFI. Este estudio

puede ser útil para comprender cómo es afectada la tasa de transferencia de datos

en redes WIFI, pero en un aspecto más amplio puede aplicarse a procesos

industriales que sean monitoreados o controlados usando tecnología por otras

tecnologías como Zigbee, la cual podría ser interferida por la red de datos WIFI

corporativa.

64

Los dispositivos inalámbricos Zigbee, Bluetooth y WIFI trabajan en la frecuencia ISM

(Industrial, Scientific and Medical) de 2.4Ghz, bandas reservadas internacionalmente

para uso no comercial y aplicaciones científicas y médicas; la tabla 1 hace una

comparación de las principales tecnologías que usan esta banda no licenciada de

2.4GHz.

Metodología Empleada

En el estudio se incluyó los centros comerciales, bulevares sitios concurridos y

plazas como botero plaza, y hoteles, cercanos a la sede de la Universidad

Rémington, con la finalidad de que los resultados obtenidos del estudio impacten a

nuestros vecinos cercanos, por lo anterior se establezco la zona comprendida entre

Carabobo carrera 52, hasta la avenida oriental, y desde la calle 53 hasta la Colombia

calle 50.

El estudio se centra en la comuna 10 y se aplica al aérea comprendida entre Cl 50

(Colombia) – Cr 46 (Av. oriental) - Cl 53 (Maracaibo) – Cr 52 (Carabobo), la figura 1

muestra cómo se divide el área de estudio en 24 Zonas, Se realizó un primer recorrido

exploratorio de toma de muestras seleccionando diferentes zonas reconocidas como

de mayor influencia comercial como: Centros comerciales, Hoteles, hospitales, etc.

con el propósito de determinar inicialmente cuantas zonas o subdivisiones son

necesarias para la prueba general.

Figura 1. División en zonas del área de estudio. La imagen fue elaborada por el autor.

Además es necesario ejecutar recorridos exploratorios con la finalidad de capturar

muestras, usando dispositivos más pequeños, como por ejemplo teléfonos con

programas que estimen la cantidad de redes WIFI activas y la densidad de estas; de

65

igual forma elegir la técnica más adecuada para hacer el escaneo. Dado que las redes

cambian por la potencia relativa, se toman intervalos de tiempo iguales o superiores a

los 10 minutos, con el objetivo de “estabilizar” la medición de las muestras.

Un mapa conceptual completo de los tipos de experimentos involucrados se detalla

en el mapa conceptual ilustrado en la figura 2.

Figura 2. Mapa conceptual de las pruebas experimentales. La imagen fue elaborada por el autor.

Resultados y Conclusiones

Las personas encuestadas usuarios de redes WiFi el 10% creen tener un nivel de

muy bueno de WiFi mientras que regular y malo suman un 48%, sobre la percepción

de seguridad que ofrecen las redes WiFi solo un 3% de los usuarios cree que la

seguridad es WiFi es muy buena, lo que indica que existe una gran cantidad de

personas que desconfía en alguna medida de las redes WiFi. Sin embargo un 78% de

los encuestados usa WiFi para transacciones comerciales, es decir la redes WiFi se

emplean aún se tenga algún grado de desconfianza.

Aunque el empleo de redes WiFi trae consigo bajas velocidades como se demostró

en este mismo artículo un 25% de los encuestados es decir 1 de cada 4 no lo

considera así o no ve la disminución como algo palpable o como un obstáculo.

Las conexiones WiFi son empleadas por la mayoría de personas sobre las redes

cableadas un 53% emplea redes WiFi contra un 45%, que emplea redes cableadas,

además vemos que aunque son muy diversos los dispositivos empleados para

conectarse a redes WiFi se destacan el portátil y el teléfono.

66

Sobre el ISP que tienen los usuarios de la comuna 10 se destaca UNE con un 71%, y

CLARO con un 22% y el ancho de banda más empleado con un 51% de los

encuestados esta entre 2 a 4 Mbps, con una frecuencia de más de 24horas por

semana 41%. Por último solo el 3% de los usuarios de redes WiFi al entrar a redes

libres se siente seguro, el 65% de los encuestados siente algún grado de inseguridad

al entrar en redes WiFi, y el 35% se siente seguro,

A pesar que la comuna 10 tiene una gran cantidad de puntos WiFi de libre acceso

existe un 43% de los encuestados que desconoce de la ubicación de este tipo de

conexiones. El 51% más de la mitad de los encuestados manifiesta haberse conectado

alguna vez a una red sin autorización y el 19% se conecta a una red WiFi sin

autorización con alguna frecuencia.

Al realizar el análisis sobre los resultados de las mediciones con respecto a las

redes WiFi, se encontró que de un total de 766 redes el 86.55% (663 redes) poseen

seguridad y el 13.45% (103 redes) no. Como se muestra en la figura 3.

Figura 3. Seguridad aplicada a las redes WIFI. La imagen fue elaborada por los autores.

En un análisis sobre las 663 redes que tienen algún tipo de seguridad, el protocolo

dominante es el WPA2 con un 41.93% de uso, seguido de WPA con un uso del 40.12%

y por último el WEP con una aparición de 17.95%, tal como se ilustra en la gráfica de

la figura 4.

Figura 4. Distribución de los protocolos empleados en las redes WIFI con algún tipo de seguridad.

La imagen fue elaborada por los autores.

67

Referencias

Bertuzzi, R. (2007). Diseño e implementación de un servicio de localización y visualización de mapas

utilizando J2ME para dispositivos móviles y herramientas de libre distribución. R.C. Bertuzzi

Síntesis Tecnológica. V.3 Nº 2 (2007), V.3(Nro. 2), 39-57

Borisov, N., Goldberg, I., & Wagner, D. (2001). Intercepting Mobile Communications:.

isaac.cs.berkeley.edu.

Buenos Aires Ciudad. (2013). Buenos Aires Ciudad. Recuperado el 03 de 10 de 2014, de

http://www.buenosaires.gob.ar/noticias/le-red-de-wifi-gratis-de-la-ciudad-llego-

metrobus-9-de-julio

ByongGi, L., & Sunghyun, C. (2008). Broadband wireless access and local networks:mobile WiMax

and Wifi artech house inc.

Cisco Press,. (2006). Fundamentos de redes inalámbricas, primera edición. Mexico: Prentice Hall.

elciudadano. (2014). elciudadano.gob.ec. Recuperado el 05 de 10 de 2014, de elciudadano.gob.ec:

http://www.elciudadano.gob.ec/gobierno-nacional-implementa-red-wi-fi-gratuito-

alrededor-de-la-unidad-educativa-aguirre-abad/

Garaizar, P. (s.f.). Seguridad En Redes. Recuperado el 26 de 08 de 2013, de Seguridad En Redes:

http://www.e-ghost.deusto.es/docs/SeguridadWiFiInestable2005.pdf.

Gómez López, J. (2008). Guía de campo de WIFI, primera edición. españa: Editorial Ra-Ma.

grupo informática-hoy. (s.f.). Informática, tecnología e Internet . Recuperado el 25 de 06 de 2013,

de Informática, tecnología e Internet : http://www.informatica-hoy.com.ar/redes-

inalambricas-wifi/Seguridad-en-redes-WIFI.php

http://www.wefi.com/maps/. (s.f.). Wefi. Recuperado el 05 de Octubre de 2013, de

http://www.wefi.com/maps/.

Jin-a, Park, S.-K., Park, P.-D., & Cho, K.-R. (2002). Analysis of spectrum channel assingnment for

IEEE 802.11b Wirelees LAN. IEEE Explorer.

Lehembre, G. (2006). Seguridad Wi-Fi WEP,WPA y WPA2. Hackin9, 26.

López, M., Alcocer, i., Barraza, A., Mendoza, A., & Hinostroza, V. (2009). Algoritmos de protocolos

de seguridad en redes de computadoras inalámbricas y el estudio paramétrico de su

implementación. Revista Espectro Tecnológico, 4.

Manfredi. (2008). http://inta.gob.ar/documentos/realizacion-de-mapas-georeferenciados-de-

malezas/.

Metageek. (2011). Metagreek. Recuperado el 10 de 05 de 2011, de Metagreek:

http://www.metagreek.net/products/Insider

MinTic. (2014). Mintic.gov.co. Recuperado el 29 de 09 de 2014, de

http://www.mintic.gov.co/portal/604/w3-article-6655.html

Moreno, J., & Fernandez , D. (2007). Informe tecnico protocolo Zigbee IEEE 802.15.4. No publicado.

Noticias Palermonline. (2014). palermonline. Recuperado el 5 de 10 de 2014, de palermonline:

http://palermonline.com.ar/

peru21.pe. (2014). http://peru21.pe. Recuperado el 30 de 09 de 2014, de

http://peru21.pe/tecnologia/instalan-redes-internet-wi-fi-gratuito-lima-2165993

Romero, S., Tesoriero, R. V., Gallud, J., & Penichet, V. (2004).

http://www.sebastianromero.net/papers/rmaps.pdf. Recuperado el Miercoles de Septiembre

de 2013

Safe&Savvy. (2014). safeandsavvy. Recuperado el 05 de 10 de 2014, de http://safeandsavvy.f-

secure.com/: http://safeandsavvy.f-secure.com/2014/09/29/danger-of-public-wifi/

68

siliconweek. (2014). siliconweek. Recuperado el 27 de 09 de 2014, de siliconweek:

http://www.siliconweek.com/actualidad/el-gobierno-venezolano-promete-wifi-gratis-en-

las-principales-ciudades-del-pais-51321

Solorzano, L. (2007). Telefonica:Investigación y Desarrollo. Recuperado el 2 de Septiembre de 2013,

de http://www.lacofa.es/index.php/tecnologias/futuro-de-internet/geoweb-contenidos-

georeferenciado

Wi-Fi Alliance. (2005). WPA and WPA2 Implementation White Paper.

69

Incidencia de la tecnología Li-Fi en el

funcionamiento de equipos

electrónicos presentes en las

instalaciones hospitalarias de la

ciudad de Medellín

Carlos Alberto Úsuga Vélez 11[autor]

Abel Fernando Gutiérrez Arias 11[autor]

Henslly Manyoma 11[autor]

Álex Ferney Collazo Patiño 11[autor]

Nelson Jhair Mosquera Palacios 11[autor]

Resumen

La sensibilidad de los sensores de ciertos dispositivos electrónicos (Equipos médicos) los

limita a ser utilizados en condiciones que no permiten un entorno con fuertes campos

electromagnéticos. Estos pueden afectar su funcionamiento, resultados e incluso generar

fallas en los mismos. Es por ello que se requiere utilizar una alternativa a las fuentes que

generan campos electromagnéticos; específicamente aquellas que surgen de la transmisión de

datos las cuales son utilizadas actualmente en los hospitales.

Se busca que estas entidades comprendan que el uso de redes WiFi pueden afectar el

funcionamiento de sus equipos médicos. El estudio pretende generar información relevante

sobre la incidencia de éste tipo de tecnología y mostrar la viabilidad de la implementación de

Li-Fi en estos lugares. Todo esto permitirá dar respuesta al siguiente cuestionamiento: ¿De qué

manera la implementación de la tecnología Li-Fi influiría en los dispositivos electrónicos

presentes en las instalaciones hospitalarias?

Los objetivos planteados en el proyecto son los siguientes:

- Determinar la viabilidad del uso de la tecnología Li-Fi en los hospitales del área

metropolitana de la ciudad de Medellín.

- Investigar que equipos electrónicos dentro de las instalaciones hospitalarias pueden

ser afectados por señales electromagnéticas.

- Indagar qué instalaciones hospitalarias poseen equipos que pueden ser interferidos

mediante señales electromagnéticas.

11 Programa de Ingeniería de Sistemas, Semillero de Investigación SEMCEI, Corporación Universitaria Remington, Medellín. Correo

electrónico: [email protected]

70

- Determinar el grado de afectación de los dispositivos electrónicos presentes en las

instalaciones hospitalarias.

- Analizar la viabilidad de la tecnología Li-Fi mediante un estudio de factibilidad para

así definir la posibilidad de su implementación.

- Determinar dada la viabilidad del Li-Fi; los componentes que se requieren para su

implementación en las instalaciones hospitalarias.

Introducción

El proyecto tiene como objetivo proporcionar una variedad de valiosa información

en torno a la tecnología LI-FI, algunos de sus procesos y factores que influyen de

manera directa o indirecta en la misma, para lo cual es necesario realizar un recorrido

por distintas nociones de esta tecnología, con el fin de acercarse lo más exacto a su

naturaleza. Posteriormente, se realizará un análisis de procesos, materiales, factores y

variables que de una u otra forma deben ser tomadas en cuenta para dicho fin

permitiendo la aplicación y empleo de la misma. No se pretende llegar a una

respuesta absoluta, sino entregar algunos elementos que permitan a la sociedad tener

una herramienta de apoyo, la cual guíe de manera clara y permita decidir si es viable

emplear o no esta tecnología en ciertos ambientes específicos.

La tecnología Li-fi es un medio de transmisión digital mediante el cual se trasmite

Internet por medio de luz, dicha tecnología es un sistema óptico inalámbrico de alta

velocidad que supera las limitaciones del espectro radioeléctrico explorando una

parte completamente distinta del espectro electromagnético permitiendo la

implementación de este sistema en lugares e instalaciones que no permitan (porque

los aparatos utilizados generan interferencia la cual afecta el funcionamiento de los

mismos) dispositivos radio-eléctricos; es el caso de los hospitales.

Marco Teórico

Li-Fi (Light Fidelity) traduce literalmente Luz Confiable, y hace referencia a las

telecomunicaciones usando ondas electromagnéticas pertenecientes al espectro de la

radiación visible. Esta tecnología transfiere datos de alta velocidad a través de la

radiación luminosa que son procesados por un router con puerto óptico. Li – Fi es un

estándar de comunicaciones inalámbricas que usa como agente propagador a la luz

visible. Li-Fi está fundamentado en la tecnología VLC (Visible Light Communication),

que emplea pulsos estrechos de luz para representar los datos, con una serie de

cambios entre los cuales se distingue el empleo de un transmisor usado luminarias

implementadas con diodos emisores de luz blanca de gran intensidad lumínica, y el

incremento de la tasa de bits que van desde los 100 MBps hasta la sorprendente

cantidad de los 500 MBps.

71

Harald Haas es el creador de un nuevo tipo de bombilla que permite además de

iluminar, generar un acceso a Internet usando ondas lumínicas (Li Fi). Haas es

profesor de ingeniería en la Universidad de Edimburgo, quien ha pasado muchos años

estudiando diferentes métodos para lograr la transmisión de señales de datos. Su

último trabajo es el sistema D – Light el cual utiliza la técnica matemática de OFDM

(multiplexación por división de frecuencia ortogonal) para generar señales que

pueden ser captadas por diferentes tipos de receptores. Su objetivo es la transmisión

de datos hasta 1 GB buscando la prestación de servicios que son mucho menos

limitados que lo que se tiene disponible hoy en día.

Basado en la teoría de electromagnetismo de Maxwell, la luz y la propagación de

radio siguen las mismas leyes de la física. Sin embargo, las señales ópticas tienen

significativamente menor longitud de onda en comparación con la de las señales de

radio. Por ejemplo, la teoría de la acústica geométrica sólo es aplicable cuando la

señal electromagnética interactúa con estructuras mucho más grandes que su

longitud de onda. En efecto, la acústica geométrica puede simplificar en gran medida

el análisis de la propagación óptica aunque no describe algunos fenómenos

importantes, tales como la difracción.

La pequeña longitud de onda óptica también es responsable de más alta dispersión

de la luz por partículas. La denominada solución de dispersión de Mie a las

ecuaciones de Maxwell describe la dispersión de la radiación electromagnética por

partículas con tamaño comparable o mayor que la longitud de onda. Por otro lado,

para partículas mucho más pequeñas que la longitud de onda, la dispersión de las

ondas electromagnéticas se puede explicar por la dispersión de Rayleigh. Todo esto

permite transmisión de datos a más alta velocidad a partir de una fuente óptica.

Metodología Empleada

El tipo de investigación es exploratoria. Se realizarán pruebas de interferencia por la

utilización de WiFi en algunos hospitales que se encuentren cerca de la Corporación

universitaria Remington.

Se diseñarán y aplicarán encuestas a los administradores de las instalaciones

hospitalarias.

Resultados y Conclusiones

Al concluir la investigación se espera determinar la incidencia de la utilización del

WiFi en los equipos médicos, además de determinar la viabilidad de la

implementación de la tecnología Li-Fi en los hospitales.

72

Referencias

Anónimo. (2014). LI-FI. Recuperado de http://www.areatecnologia.com/nuevas-tecnologias/li-

fi.html

Anónimo. (2013). LiFi: Internet inalámbrico a través de luz LED.

Recuperado de http://colombiadigital.net/actualidad/noticias/item/5921-lifi-internet-

inalambrico-a-traves-de-luz-led.html

El Becario (2014). México será el primer país de Latinoamérica con tecnología Li-Fi. Recuperado de

http://codigoespagueti.com/noticias/mexico-li-fi/

Haas, H. (2014). Wireless Data From Every Light Bulb. Recuperado de

http://datascience.berkeley.edu/harald-haas-wireless-data-every-light-bulb/

Mihaela, M. (2014). El Li-Fi, una tecnología que permite el acceso al Internet mediante los pulsos de

luz. Recuperado de http://innovacion.ticbeat.com/lifi-tecnologia-permite-acceso-internet-

mediante-pulsos-luz/

Professor H. Haas. (2015). Recuperado de http://www.see.ed.ac.uk/drupal/hxh/

Safari, M. (2014).How Li-Fi is different from RF Wireless. Recuperado de

http://www.see.ed.ac.uk/drupal/hxh/news/2014/06/09/how-li-fi-is-different

73

Vulnerabilidad con Wifislax

Alexánder Montes Ospina 12[autor]

Yésika Valencia Márquez 12[autor]

Julio César Gómez 12[autor]

Resumen

La protección de los sistemas informáticos es una preocupación del día a día de los expertos

en seguridad informática, la vulnerabilidad de estos, se convierte en el objetivo principal, en la

lucha contra ataques a huecos en la red. Hoy en día todavía se utilizan protocolos inseguros

como el WEP y por otro lado el WPA, que se decía que era el más seguro, pero es vulnerable

como se pretende mostrar con el desarrollo de ésta investigación. Algunas investigaciones al

respecto de la temática propuesta no se han hallado en la revisión bibliográfica; solo se ha

encontrado información presente en foros, videos demostrativos y tutoriales.

Para poner a prueba la hipótesis planteada (vulnerabilidad de algunos protocolos), se

propone ejecutar diferentes experimentos enfocados en aplicar diversas formas de ataque, y

de acuerdo a los resultados se elaborarán sugerencias de cómo prevenirlos. Para realizar los

ataques a partir de diferentes técnicas, se usará la herramienta Wifislax.

El estudio ejecutado muestra cómo el Wifislax vulnera los protocolos de seguridad, lo que

demuestra que existen ataques que potencialmente afectarían los sistemas informáticos,

ilustrando que no existen protecciones óptimas para la información de tipo empresarial, y en

general la de cualquier usuario.

La investigación propuesta pretende crear conciencia en los usuarios de las redes de WiFi de

la importancia de la seguridad de la información, puesto que la confidencialidad de la misma

no ésta totalmente asegurada. De igual forma se busca proponer diferentes opciones que se

pueden implementar a nivel práctico, que sirvan para mejorar el grado éxito de algunas

herramientas de seguridad en espacios corporativos.

La pregunta de investigación planteada es la siguiente: ¿Qué estrategias son las más

adecuadas para minimizar la vulnerabilidad en redes WiFi?

Los objetivos seleccionados para la investigación son los siguientes:

- Demostrar la vulnerabilidad de los protocolos WiFi utilizando Wifislax.

- Realizar pruebas de campo de ataque a sistemas informáticos utilizando Wifislax.

- Enunciar recomendaciones predictivas y preventivas ante los posibles ataques por

medio de Wifislax.

12 Programa de Ingeniería de Sistemas, Semillero de Investigación SEMCEI, Corporación Universitaria Remington, Medellín. Correo

electrónico: [email protected]

74

Introducción

La palabra vulnerabilidad viene del latín pues está conformada por tres partes

claramente diferenciadas: el sustantivo vulnus, que puede traducirse como “herida”; la

partícula – abilis, que es equivalente a “que puede”; y finalmente el sufijo –dad, que es

indicativo de “cualidad”. De ahí que vulnerabilidad pueda determinarse como “la

cualidad que tiene alguien para poder ser herido” (Anónimo, 2014). En el área de

sistemas se define la vulnerabilidad como la debilidad de cualquier tipo que

compromete la seguridad del sistema informático.

Desde que el ordenador pasó a formar parte de nuestras vidas almacenando

nuestros datos personales y convirtiéndose en una de las principales herramientas de

comunicación, mediante el uso de Internet, ha ido creciendo la conciencia de que

nuestros datos están expuestos a posibles intromisiones por parte de otras personas

que quisieran apoderarse de ellos. Esto ha hecho que, cada vez más, vayamos

tomando conciencia de los peligros que supone dejar desprotegidos y a merced de

posibles intrusos estos datos. La peor consecuencia de que alguien entre en nuestros

equipos o intercepte nuestras comunicaciones es que se lleve datos importantes,

como claves bancarias, números de tarjetas de crédito, etc., que pongan en riesgo

nuestra integridad o permitan la suplantación de nuestra identidad. Cuando se habla

de medidas de seguridad informática, lo primero que nos viene a la cabeza son las

medidas destinadas a impedir virus o accesos no autorizados en los equipos

informáticos. Pero hay otro tipo de medidas que se pueden tomar respecto de los

propios datos y son las consistentes en hacer que estos datos sean indescifrables por

personas que accedan a ellos indebidamente (Romero, R; Pérez, R; Escriva, G &

Ramada, D, 2013). Debido a esto se utilizará el wifislax (Software) para investigar las

vulnerabilidades en las redes wifi. Éste software es una distribución de Linux la cual

utiliza herramientas que manejan métodos de ingeniería social y auditoría de

seguridad Wireless (inalámbrica) permitiendo capturar paquetes de datos de tal forma

que se pueda descifrar las claves de las diferentes redes inalámbricas.

Es importante mencionar que se puede encontrar en la auditoria de seguridad

Wireless elementos como: escáner de puertos, scanner de seguridad, vpnscanner y

aplicaciones de auditoría Wireless.

Marco Teórico

Wifislax está orientado a la auditoria de seguridad Wireless. Se puede encontrar en

wifislax:

Escáner de puertos: nmap, Scanner de seguridad: SuperScan, Vpnscanner: IKE-

Scan, Aplicaciones de auditoría Wireless: aircrack, commview.

75

Vulnerabilidades Críticas de la encriptación WPA / WPA2.

Claves por defecto: las claves por defecto son las asignadas por defecto en el

equipo enrutador por el fabricante. Éstas claves generan serios problemas de

seguridad debido a que existen diccionarios que recopilan todas estas claves, y a

través de un ataque de fuerza bruta es factible obtener el acceso completo a la red

inalámbrica WiFi.

WPS: El protocolo WPS genera una problemática seria asociada a la metodología de

asociación de PIN. El PIN está conformado por una cadena de ocho dígitos, pero

cuando se ingresan erróneamente los primeros cuatro dígitos entonces el router

genera el mensaje EAP NACK y como el equipo no impone un número finito de

posibles ingresos del PIN, entonces es posible ejecutar un ataque de fuerza bruta

exitoso probando todos los posibles valores del PIN en un intervalo de tiempo

también finito. Se sugiere para solucionar esta gravísima falla inactivar el protocolo

WPS.

Mac Spoofing: Este suceso aparece cuando un atacante obtiene el valor de la

dirección MAC de una red suplantando a un cliente autorizado. Esta modalidad de

irrupción suele ocurrir debido a que las tarjetas de red usualmente tienen activa la

opción de cambiar el número MAC por otro diferente.

Denial of Service: El ataque DoS (Denial Of Service) provoca la negación de un

recurso o servicio a los clientes verdaderos de la red. Usualmente es empleado para

causar una pérdida de conectividad en el servicio por la reducción del ancho de banda

generada por la sobrecarga de solicitudes de disociación, y su efecto visible es la

imposibilidad de otros usuarios a acceder a los recursos, ya que los componentes de

la red se asocian y desasocian una y otra vez.

Access Point Spoofing: En esta situación el atacante genera un punto de acceso

falso que emula al original. El cliente cree engañosamente que está conectándose una

red WLAN certificada, cuando realmente se está conectado directamente a la creada

por el atacante.

Man in the Middle (hombre en el medio): En esta situación el atacante está en la

capacidad de leer y modificar a su voluntad todos los mensajes transferidos entre 2

usuarios víctimas, sin que ninguna de ellos detecte la intrusión, operando por lo tanto

como una conexión entre los dos usuarios atacados (Bautista, H. 2014), tal como se

ilustra en la figura 1.

76

Figura 1. Ataque tipo “Man in the Middle”. La imagen fue elaborada por los autores.

Metodología Empleada

El tipo de investigación es exploratoria.

Se realizarán pruebas de campo tomando como referencia las redes WiFi que están

localizadas en los alrededores de la Corporación Universitaria Rémington, a través de

la interceptación de paquetes de datos, y se tratará de obtener la clave de

encriptación mediante la distribución de Linux Wifislax y sus herramientas.

Adicionalmente se diseñarán y aplicarán encuestas a los usuarios y administradores

de las redes, previa selección de la muestra poblacional.

Resultados y Conclusiones

Al finalizar la investigación se espera probar experimentalmente la vulnerabilidad

de los sistemas de información utilizando Wifislax.

Se generarán una serie de recomendaciones a los usuarios de las redes

inalámbricas, enfocadas en la protección de sus datos frente algunos ataques de

Wifislax; y dicha información se consignará en una guía de uso público.

77

Referencias

Anónimo. (2014). Recuperado de http://definicion.de/vulnerabilidad/#ixzz3FUYj2IGM

Anónimo. (2014). Recuperado de http://www.wifislax.com/

Anónimo.(2014). Recuperado de http://foro.seguridadwireless.net/manuales-de-wifislax-

wifiway/manual-basico-de-wifislax-y-sus-herramientas-de-auditoria/

Bautista, H. (2014). Vulnerabilidades de una red Wi-fi. Recuperado de

http://rootear.com/seguridad/vulnerabilidades-una-red-wi-fi

Calzada, I. (2014). Aplicación de la seguridad informática. Recuperado de

http://losganzosrosas.blogspot.com

Romero, R; Pérez, R; Escriva, G & Ramada, D. (2013). Seguridad informática. España: Macmillan

Iberia, S.A., 2013. ProQuest ebrary. Web. 24 February 2015.

78

Implementación de manejo de

inventario por tecnología RFID

Sebastián Guzmán Uribe 13[autor]

Ariel Ochoa Arboleda 13[autor]

Marcela Vitar 13[autor]

Leidy Juliana Colorado 13[autor]

Rubén Darío Sierra García 13[autor]

Resumen

El Centro de la Tecnología de la Manufactura Avanzada (CTMA) es un centro de formación del

SENA Regional Antioquia, referente regional en formación tecnológica en 5 áreas:

Automatización, Automotriz, Electricidad, Manufactura y TIC. La infraestructura tecnológica, las

personas que lo integran y la experiencia adquirida en el desarrollo de proyectos de tecnología

han permitido consolidar esta posición del centro de formación desde su creación.

La coordinación TIC del centro concentra su trabajo en temas relacionados con la aplicación

de las tecnologías de la información y las comunicaciones, con programas de formación en

telecomunicaciones, electrónica, desarrollo de software, redes de datos, entre otros. Para

apoyar estos procesos, con el paso de los años han ingresado al almacén del área una serie de

herramientas tecnológicas que han permitido desarrollar acciones de formación e investigación

de acuerdo a los requerimientos de la industria.

Lo anterior ha llevado a que en la actualidad los procesos asociados a la bodega del Área TIC

sean un punto crítico de todo el proceso formativo, ya que aquí se gestiona gran parte de la

infraestructura disponible. Los aprendices acuden a este para el préstamo de equipos, pero a

su vez, deben responder ante el almacén del centro por los bienes que manejan.

Se ha encontrado que durante los procesos de toma física de inventarios que se realizan por

parte del almacén del centro a la bodega del Área TIC, esta última permanece cerrada y los

aprendices no pueden solicitar elementos para apoyar su actividad formativa durante varios

días (más de 30 días), debido a que es un proceso manual, elemento por elemento, donde hay

elementos obsoletos y elementos dañados. También se ha observado que los procesos de

préstamo de elementos desde la bodega son poco eficientes, debido a que no se tiene un

espacio totalmente señalizado, el proceso de préstamo es manual y se mezclan equipos

dañados con equipos buenos.

Con este proyecto se busaca implementar un prototipo para la toma de inventarios y el

préstamo de equipos que permita reducir a la mitad el tiempo que deben esperar los

aprendices del área TIC del CTMA cuando realizan solicitudes de elementos en el almacén.

13 Programa de Diseño e implementación y mantenimiento de sistemas de telecomunicaciones, Semillero de Investigación

SINDETEL, SENA Antioquia, Medellín. Correo electrónico: [email protected]

79

Introducción

Según RFID Journal, “la Identificación por radio frecuencia, o RFID, es un término

genérico para definir tecnologías que emplean ondas radiales para identificar de

manera automática a personas u objetos” (RFID Journal Español).

La Identificación por Radiofrecuencia es una tecnología de captura e identificación

automática de información almacenada en etiquetas (Tags o transpondedores). Este

proceso automático se da cuando los transpondedores entran en el área de cobertura

de un lector RFID. El lector envía una señal para que la etiqueta le transmita la

información almacenada en su memoria (Portillo, Bermejo, Bernardo, & Martínez,

2008).

Un sistema de RFID está integrado por un lector y una etiqueta que a la vez posee

un microchip, y una antena. Hay una gran variedad de sistemas de RFID, pero su

funcionalidad es casi siempre la misma, el lector envía ondas electromagnéticas la

cual las etiquetas captan inmediatamente dando una respuesta rápida (RFID Journal

Español).

El RFID maneja dos tipos de etiquetas: Las pasivas, son aquellas que no cuentan con

una fuente de energía propia, captando esta misma del campo generado por el lector

y proveen de energía a los microcircuitos del microchip, la función de este es modular

las ondas que la etiqueta envía al lector convirtiéndolas en información digital.

Las etiquetas activas, son aquellas que poseen una fuente de energía propia y a la

vez emiten su señal. Los sistemas de ubicación no responden en tiempo real a las

señales del lector, pero en cambio emiten sus señales en intervalos fijos. Los lectores

captan esa señal para así mismo utilizar un software para calcular la ubicación de la

etiqueta.

Marco Teórico y Estado del Arte

Talnor Technology (2012), informa que el estándar RFID existe desde hace más de

50 años, y fue inicialmente empleada en el sector de la milicia, en aplicaciones de

identificación de aviones aliados en la segunda guerra mundial, luego la tecnología se

migró hacia aplicaciones comerciales, en procesos de trazabilidad y seguimiento de

piezas sensibles a ser trasladas continuamente de un sitio a otro. Esta tecnología

empezó a ser reconocida en los últimos años debido a su alta viabilidad de

incorporarse exitosamente en procesos comerciales e industriales, debido al bajo

costo de sus componentes y la alta confiabilidad funcional del estándar RFID.

Esta tecnología permite adelantar en la actualidad el proceso de recopilación de

información de forma automática y con gran exactitud, donde lo que determina el uso

de esta información capturada es el software encargado de construir la base de datos

80

dependiendo de las necesidades que tenga el cliente; por esta razón la RFID puede ser

empleada para cualquier tipo de actividad que necesite de un control y un

almacenamiento de información, convirtiendo a esta tecnología en una herramienta

adecuada para las necesidades de quien la desee utilizar.

La tecnología RFID se emplea en sectores tales como: Eventos deportivos o de otra

naturaleza, mercadotecnia, videojuegos, aplicaciones para equipos electrónicos,

sector aeronáutico, ganadería y transporte de cargas.

Metodología Empleada

El tipo de Investigación adelantada por el equipo de trabajo es aplicada.

Resultados y Conclusiones

Se proponen los siguientes resultados al finalizar la investigación:

- Análisis del funcionamiento de herramientas de identificación basadas en

tecnología RFID.

- Comparación de las diferentes herramientas de identificación basadas en

tecnología RFID disponibles en el Centro de Tecnología de la Manufactura

Avanzada.

- Diseño de un sistema de identificación de elementos para el Almacén del

Área TIC del Centro de Tecnología de la Manufactura Avanzada empleando

tecnología RFID.

- Diseño de un sistema informático de préstamo de elementos del inventario

para el Almacén del Área TIC del Centro de Tecnología de la Manufactura

Avanzada.

Referencias

Portillo, J., Bermejo, A. B., Bernardos, A., & Martinez, I. (2008). Informe de Vigilancia Tecnológica

Madrid “Tecnología de identificación por radiofrecuencia (RFID): Aplicaciones en el ámbito

de la salud”. Madrid: Fundación Madrid para el Conocimiento.

RFID Journal Español. (s.f.). PREGUNTAS FRECUENTES. Obtenido de Sitio Web de RFID Journal

Español: http://espanol.rfidjournal.com/preguntas-frecuentes

81

Aplicación y uso de un repositorio de

activos de software para el desarrollo

ágil de aplicaciones, caso de estudio:

Triage de pacientes con riesgo

cardiovascular

Andrés Casas Betancur 14[autor]

William Alejandro Cabezas Posso 14[autor]

Jimy Andrés Zuluaga Aristizábal 14[autor]

Leidy Juliana Colorado 14[autor]

Javier Darío Fernández Ledesma 14[autor]

Resumen

Se propone la implementación, uso y aplicación de un repositorio de activos de software de

reuso a través de un framework de desarrollo de software, desarrollado y licenciado por el

Laboratorio de Software de la Universidad Cooperativa de Colombia, sede Medellín; el cual

posibilita su incorporación en los entornos del desarrollo ágil de aplicaciones, mostrando su

validez en un caso de estudio como es el Triage de pacientes con riesgo cardiovascular.

Introducción

Esta propuesta se ha justificado bajo la premisa que permitirá generar nuevas

capacidades de innovación y gestión en la línea de investigación de desarrollo de

software, permitiendo disminuir los tiempos de entrega en los procesos de

transferencia y construcción de prototipados para los clientes internos y externos del

grupo de investigación y a través de la transferencia a las pequeñas y medianas

empresas desarrolladoras de software.

Así mismo, según la problemática manifestada en el estado del arte; el uso del

repositorio propuesto resulta de gran utilidad al impulsar la acogida de la

14 Programa de Ingeniería de Sistemas, Semillero de Investigación Sistemas en operaciones y desarrollo aplicado, Universidad

Cooperativa de Colombia, Medellín. Correo electrónico: [email protected], [email protected],

[email protected], [email protected]

82

reutilización de activos de software mediante el suministro de un método, y un

repositorio para la gestión de dichos activos con mayor eficiencia, mejorando la

experiencia del usuario desarrollador en cuanto a que el sistema responderá de una

mejor manera a sus procesos de búsqueda.

Para las empresas desarrolladoras de software se presenta un beneficio innegable,

dado que es comprobada la ventaja competitiva que ofrecen las estrategias de

reutilización de software en los procesos de desarrollo; finalmente las compañías

demandantes de productos software percibirán también el impacto dado que sus

requerimientos serán atendidos de manera más oportuna y con productos de calidad

superior ya que como se ha hecho notar arriba, la reutilización provee calidad en el

desarrollo de software dado que se parte de un estado inicial en el que gran parte del

software se encuentran validados y probados previamente, posibilitando mecanismos

de transferencia desde el grupo con capacidades adquiridas para la comunidad de

desarrolladores y la industria del software en la región.

Marco Teórico y Estado del Arte

Hablar de los repositorios de reuso de activos de software es hablar de las

herramientas de apoyo a la gestión de los activos de software, dado que la gestión de

componentes de reuso de una forma manual resulta difícil, sobre todo cuando se

tienen miles de componentes para su reuso; en este sentido, los procesos de gestión

mediante repositorios de activos, implican el desarrollo de etapas como: el análisis de

las necesidades del reuso, los métodos de recuperación de activos y la integración de

estos con las aplicaciones y el desarrollo de software; los métodos de recuperación,

consulta o búsqueda principalmente se dan mediante la interacción con los

repositorios de activos.

Ahora bien, un repositorio de activos de software de reuso en su composición

original presenta: una interfaz de búsqueda, un método de representación de los

activos y de gestión de los mismos y un entorno de almacenamiento, haciendo

especial énfasis en los métodos de búsqueda o indexación, bien sea mediante textos,

palabras claves o características de los activos, garantizando principalmente la

ubicación y configuración de los activos en el menor tiempo y con la mayor eficiencia

posible, sobre los cuales siempre se pueden encontrar mayores eficiencias.

En síntesis, un repositorio de reuso es una colección de activos reutilizables, junto

con un mecanismo de búsqueda y de localización de los activos que satisfagan las

necesidades de desarrollo.

83

Por otro lado, los activos de software son los productos o subproductos del proceso

de desarrollo de software. Se incluyen tanto los elementos tangibles (por ejemplo, el

código, el diseño, los algoritmos, los planes de prueba y documentación) e intangibles

(por ejemplo, los conocimientos y metodologías). Y la reutilización es el uso de los

activos existentes en el desarrollo de otro software con el objetivo de incrementar la

productividad, calidad y otros factores (por ejemplo, la facilidad de uso). En este

orden de ideas pueden ser reutilizados: las arquitecturas, datos, diseños,

documentación, cálculos, interfaces humano-maquinas, los planes, requisitos, casos

de prueba, así como el conocimiento y la experiencia del personal.

Trabajos como los de (Mili et al, 1998) se centran en el estudio de los métodos de

almacenamiento y recuperación de activos de software en los repositorios de activos

de software. Por su parte los trabajos de (Yunwen et al, 2000) se basan en la

integración de los sistemas de repositorios de activos. (Wang et al, 2008) por su

parte, plantea el diseño e implementación de una herramienta RAS basada en la

gestión de activos reutilizables. Otras propuestas son la administración de datos

federados a través de la herramienta Rational de IBM y su software WebSphere

presentada en (Schmidt et al, 2007) el cual se funda en la concepción de mantener

varios repositorios de una manera federada según los tipos de comunidades y de

conocimiento al que sirven, mediante estrategias aplicadas en las dos herramientas:

IBM Rational® Asset Manager Development Repository y el IBM WebSphere® Service

Registry and Repository. En este mismo sentido los repositorios de componentes,

enmarcados en el desarrollo actual de la ingeniería de software brindan un eslabón

evolutivo más para abordar de una manera más disciplinada el proceso de

construcción de software, a pesar de las múltiples metodologías existentes, pero con

un elemento siempre común cual es el refinamiento sucesivos de los artefactos de

software; Entre los más comunes se encuentran: Component Source

(http://www.componentsource.com), AquaLogic (http://www.bea.com), WebSphere

(http://www.ibm.com), Rational Asset Manager (http://www.ibm.com), Repository

Manager (http://www.soa.com), DA Manager (http://www.digitalassets.com.br),

Brechó (http://reuse.cos.ufrj.br), CORE (http://www.rise.com.br), X-CORE

(http://www.compose.ufpb.br), Debian (http://packages.debian.org), Gentoo

(http://packages.gentoo.org), Ubuntu (http://packages.ubuntu.com), Code Beach

(http://www.codebeach.com), Savannah (http://savannah.gnu.org), SourceForge

(http://sourceforge.net), CVS (http://www.cvshome.org), Subversion

(http://subversion.tigris.org), entre otros muchos otros como: Maven, Archiva,

Nexus, SourceForge, Google Code, Basic Asset Retrieval Tool e Component

Repository, ArcSeeker, etc. Finalmente, (Almeida et al, 2008) habla sobre el proceso

de reuso de software.

84

En este contexto encontramos como las compañías de desarrollo de software están

actualmente sometidas a presiones de tipo comercial que las obliga a optimizar sus

procesos de desarrollo para responder más rápidamente y sin sacrificar la calidad a

los requerimientos de las compañías demandantes. En respuesta a esta situación han

surgido una serie de estrategias metodológicas siendo las de mejores resultados

aquellas que proponen la reutilización sistemática de los activos de software, práctica

que involucra el manejo de repositorios para almacenar dichos activos y el uso de

técnicas para la gestión de los mismos. En este trabajo se pretende desarrollar un

método orientado a la reutilización de activos de software mediante su

implementación a través de un repositorio propio; dicha propuesta de método y

herramienta de gestión deberá facilitar la creación, almacenamiento y recuperación de

activos de software, principalmente orientados a la representación de componentes

de software desarrollado para su adecuada gestión como una contribución para

establecer las bases de un proceso de industrialización de software.

Ahora bien, como resultado de un esfuerzo conjunto entre la academia y la

empresa, han surgido una serie de propuestas metodológicas aplicables a los

procesos de desarrollo de software buscando que estos se ejecuten más rápidamente

sin sacrificar la calidad esperada por la demanda. Dichas propuestas hacen énfasis en

la optimización de las actividades necesarias para el desarrollo de aplicaciones y

también las relacionadas con el posterior servicio de soporte; resulta entonces

fundamental incorporar buenas prácticas de trabajo en la disciplina del software que

permitan un aumento en la capacidad y que faciliten las labores de mantenimiento,

ampliación y renovación tecnológica de las plataformas.

Una de las principales iniciativas para mejorar la productividad y la calidad de los

procesos de desarrollo de software plantea la reutilización como una actividad

sistemática; es decir, hacer posible el uso, para proyectos en curso, de piezas

software desarrolladas en proyectos anteriores con el propósito de constituir esto

como una ventaja competitiva y un catalizador del proceso de desarrollo de

aplicaciones; ahora bien, la reutilización es la única aproximación realista para llegar

a los índices de productividad y calidad que la industria del software necesita.

No obstante, los esfuerzos encaminados al planteamiento de metodologías y

técnicas para facilitar la práctica del reuso han dado resultado ya que mediante estas

se han logrado las mejores métricas de rendimiento de las últimas cuatro décadas.

Entre los beneficios de la reutilización del software se encuentra la reducción de

errores de desarrollo ya que cada vez que los componentes son usados se revisan

nuevamente dando mayor confianza para su uso posterior aportando así a la calidad

del producto final y reduciendo los tiempos de mercado de las aplicaciones; otro

beneficio es la reducción de costos y de la incertidumbre en cuanto a la inversión, ya

que al partir de componentes previamente elaborados estos normalmente tienen un

costo conocido. De acuerdo con datos presentados por el departamento de defensa

85

de los Estados Unidos de América, un incremento en sus prácticas de reuso para el

desarrollo de software de un 1% podría significar una reducción de hasta US$ 300

millones anuales. La reutilización de componentes además provee una manera de

establecer patrones de desarrollo en las organizaciones y promueve la

documentación, estrategia fundamental para dicha práctica, ya que sin ella no es

posible sobrepasar la etapa de entendimiento de los activos.

A pesar que los beneficios de la reutilización de software son bastante relevantes y

han sido suficientemente probados, existen una serie de inconvenientes no solo de

carácter técnico si no también administrativo, conceptual, económico y organizacional

que no han permitido una acogida masiva de esta estrategia en las empresas

dedicadas al desarrollo de software, entre dichos inconvenientes se encuentran la

falta de un mecanismo de recuperación de activos suficientemente eficiente, la

carencia de métricas que reflejen los beneficios de la reutilización; la predisposición

del personal a la inclusión de la reutilización entre sus actividades de desarrollo por

falta de apoyo a las actividades de gestión y los retos gerenciales que implica un

proyecto de reutilización a gran escala.

Con el incremento del número de artefactos disponibles para reutilización se hace

más necesaria una técnica de recuperación de los mismos que los exponga

claramente de manera que puedan ser entendidos permitiendo así que el desarrollo

basado en componentes resulte más rápido que el realizado desde cero; en este

orden de ideas, al hablar sobre los mitos de la reutilización del software, casi el único

problema técnico para el reuso es la falta de formas apropiadas para la recuperación

de las piezas de software y la falta de mecanismos para la construcción de

componentes de calidad.

Metodología Empleada

El proyecto comienza con el estudio bibliográfico de los antecedentes previos sobre

el uso de repositorios de activos de software; las metodologías de reuso y el uso de

repositorios. Esto permite obtener un primer acercamiento conceptual al reuso y al

uso de los repositorios de activos de software para el desarrollo ágil de aplicaciones

desde las etapas tempranas.

En este orden de ideas se realizará además un estudio de los conceptos

relacionados con el dominio de la Telesalud, específicamente el triage de pacientes

con riesgo cardiovascular.

Posteriormente se procedió a definir el diseño del caso de estudio haciendo uso del

lenguaje notacional UML y BPMN.

Luego se procedió a definir los patrones de reuso hallados en el modelado del caso

de estudio; los cuales se procedieron a incorporar en el repositorio Activos,

86

repositorio licenciado desarrollado por el Laboratorio de Software de la Universidad

Cooperativa de Colombia, sede Medellín y se realizaron las validaciones del caso.

Resultados y Conclusiones

Los resultados finales propuestos en la investigación son los siguientes:

- Coadyuvar en los procesos de diseño de software mediante la verificación de

reglas de reuso en los patrones propuestos.

- Permitir el uso de un repositorio para la verificación de las reglas de reuso de

los modelos existentes y los modelos creados

- Dotar de una metodología de reuso integral, flexible y segura para la gestión

de los activos de software.

- Aumento de la productividad en los índices de gestión y control de los

procesos de desarrollo de software mediante la reducción de ocurrencia de

errores en las fases de análisis y diseño de software.

- Disminuir los tiempos de modelado de software.

A la fecha, la ejecución del proyecto ha permitido el mejoramiento de los siguientes

indicadores, en los contextos de construcción de software donde se ha

implementado:

- Mejoramiento en la calidad y la productividad en los procesos de desarrollo

de software.

- Disminución hasta de un 20% en la ocurrencia de errores en las fases de

análisis y diseño de software.

- Aumento en los niveles de calidad de los modelos de software.

- Integridad en el manejo de los modelos de software.

Así mismo, tanto las herramientas de diseño utilizadas como el repositorio han

resultado adecuadas a los propósitos planteados en la aplicación y uso de este

framework, a un bajo costo, flexible y adaptable.

87

Referencias

Almeida, E. et all (2008). Component reuse in software engineering. Creative Commons, 2008, 219

p.

Mili, A et all (1998). A survey of software reuse libraries. Annals of Software Engineering. Volume 5,

1998, pp 349-414.

Schmidt, M. et all (2007). Federated metadata management with IBM Rational and WebSphere

software. IBM white paper on Manager. 2007, pp 1-24.

Wang, Z. et all (2008). Design and Implementation of RAS-Based Reusable Asset Management Tool.

IEEE Proceedings international conference on internet computing in science and engineering.

2008, pp 363-366.

Yunwen, Y. et all (2000). Integrating Active Information Delivery and Reuse Repository Systems.

Human factors journal. 2000, pp 60-68.

88

Desarrollo de una estación

meteorológica de bajo costo

Elkin Fabián Prada Garavito 15[autor]

Miguel Ángel Corzo Ortiz 15[autor]

Yacer Gonzalo Ayala Contreras 15[autor]

Ricardo Andrés Díaz Suárez 15[autor]

Resumen

Las variables medioambientales son de vital importancia ya que nos permiten predecir y

conocer el comportamiento de los diferentes cambios climáticos para así poder anticiparnos y

estimar los efectos negativos presentes en algunos entornos agroindustriales.

En este documento se plantea un proyecto de diseño e implementación de un sistema de

monitoreo remoto de bajo costo el cual está conformado por una estación meteorológica

autónoma; con el fin de realizar mediciones de variables medioambientales como: presión

barométrica, velocidad del viento, humedad relativa, temperatura, anemómetro, colector de

agua, ruido ambiental; y de esta forma poder mantener un seguimiento de los datos los cuales

están almacenados en una base de datos alojada en un servidor remoto el cual se puede

acceder desde un aplicativo web en cualquier momento con el propósito de analizarlos.

Para el desarrollo de este proyecto se subdividirá este en tres fases principales: La primera es

una fase de investigación (Estado del arte) en el cual se documentara las tecnologías y

proyectos similares desarrollados en esta área; la segunda fase está conformada por diseño e

implementación del prototipo de estación meteorológica la cual estará equipada con los

diferentes sensores medioambientales, fuentes fotovoltaicas y su respectivo transmisor

inalámbrico; como última fase está el diseño de la base de datos para almacenar los valores

monitoreados y el entrono web para lograr visualizar de forma remota.

Introducción

El origen del proyecto en desarrollo se concibe desde la necesidad de presentar una

solución tecnológica de medición de variables ambientales de bajo costo que provea a

la agroindustria de las herramientas suficientes para optimizar la siembra de cultivos

y además permita realizar evaluaciones remotas para detectar agentes contaminantes

que afectan la producción. A raíz de esto el semillero de investigación REDSI empieza

a trabajar sobre las distintas tecnologías que permitan desarrollar la estación

meteorológica de bajo costo teniendo en cuenta las variables ambientales a trabajar y

15 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación REDSI, Universidad Santo Tomás, Bucaramanga.

Correo electrónico: [email protected], [email protected], [email protected], [email protected]

89

las diferentes alternativas de comunicación que se puedan emplear para así poder

observar los resultados desde cualquier lugar en forma remota.

Marco Teórico y Estado del Arte

Las estaciones meteorológicas son estructuras equipadas con diferentes

instrumentos que nos permiten realizar pronósticos meteorológicos a partir de

modelos matemáticos desarrollados por los comportamientos de variables

ambientales. Las estaciones meteorológicas se dividen en dos grupos, principales que

examinan lluvia, temperatura del aire, temperatura del ambiente, humedad, cantidad

de nubes, y fenómenos especiales y las estaciones ordinarias que contiene menor

cantidad de instrumentos de medición pero contienen los más esenciales como

temperatura, humedad y pluviosidad. (Francisco, 2008).

Un elemento típico de una estación son los sensores de la temperatura ambiente:

Son dispositivos que transforman los cambios de temperatura en señales eléctricas

las cuales son procesadas previamente por un equipo eléctrico o electrónico. Los

sensores de temperatura o termistores se basan en la variación de la resistividad de

un semiconductor con respecto a la temperatura. (Luís Hernández, 2015).

Otro equipo que hace parte de la estación es el anemómetro. Es un dispositivo

meteorológico que sirve para medir la velocidad del viento, y está constituido por un

pequeño molino de tres aspas sobre las cuales efectúa la fuerza del viento.

El anemómetro tiene gran cantidad de aplicaciones como en la agricultura nos

permite saber en qué momento se puede realizar riego por aspersión; en la aviación

la planeación de los vuelos en globos, planeadores, parapentes, paracaídas entre

otras aplicaciones aéreas; en ingeniería civil para seguridad de obras de gran altura

como grúas; en extinciones de incendios para saber cómo se propagara el fuego.

(Mejía, 2013).

Los higrómetros son dispositivos que sirven para valorar el estado de humedad del

ambiente. Existen dos tipos de higrómetro el de adsorción y el eléctrico.

En el proyecto se seleccionó un higrómetro electrónico el cual está conformado por

dos electrodos enrollados en forma de espiral, que al aplicarle una tensión a estos

provoca que el tejido se caliente, evaporando parte de agua contenida por el mismo a

una temperatura definida; y al establecerse el estado de equilibrio el equipo

determina el grado de humedad presente en el ambiente. (México, 2015).

Los barómetros son instrumentos que nos permiten conocer la presión atmosférica

encontramos gran variedad de clases de barómetros que varían en forma tamaño y

precisión para el proyecto se utilizara uno electrónico que nos que da los valores de

forma digital y son mucho más exactos. (Osés, 2006).

90

Los sonómetros son instrumentos diseñados para medir los niveles de presión

acústica en los distintos ambientes. (SunFields, 2015).

Sistema fotovoltáico autónomo (SFA)

La estación meteorológica a diseñar, tendrá una fuente de alimentación de energía

solar que se implementará con un sistema fotovoltáico.

Un sistema fotovoltáico está compuesto por un grupo de células fotoeléctricas

diseñadas para usar la radiación solar, que son los encargados de convertir la energía

solar (fotones) en energía eléctrica (electrones), mediante un dispositivo llamado

“célula solar o una célula fotoeléctrica”, con la ayuda de un fenómeno físico llamado

efecto fotovoltaico el cual una partículas llamadas fotones que transportan la energía

solar, chocan contra un metal el cual contiene electrones; de esta forma los átomos

son arrancados y se produce un movimiento de las cargas eléctricas que provee un

corriente electrónica. (Energía solar fotovoltáica, 2015).

Estos sistemas se caracterizan por ser independientes a la red eléctrica, y estos

están compuestos por diferentes subsistemas para la generación, regulación,

acumulación y adaptación de la corriente. (Universidad Politécnica de Madrid,

Politécnica, FECYT, 2015). Un elemento importantísimo en el sistema de energía solar

es el banco de baterías de DC, que se encarga de acumular la energía eléctrica

obtenida de la luz solar, la cual es recibida durante las horas de luminosidad. Esta

energía se recolecta en la batería con la finalidad de utilizarla en las horas de poca o

nula luminosidad.

El banco de baterías trabaja en conjunto con un sistema fotovoltaico, en las horas

de la noche el banco de baterías es el encargado de entregar la energía. Durante el

día los módulos fotovoltaicos son los encargados de generar y entregar la energía,

pero si se tiene el caso en que la corriente que se entrega es menor a la necesaria el

banco de baterías actúa y provee un aporte para superar este inconveniente.

(educalab, 2015).

Metodología Empleada

Como objetivo se planteó diseñar un sistema electrónico capaz de realizar la

recolección y transmisión de valores captados en una estación meteorológica remota.

El proyecto consta del desarrollo de un hardware que contenga circuitos de

captación, acondicionamiento de los sensores, comunicación vía GSM, unidad central

de procesamiento y fuente de alimentación fotovoltáico. El software a implementar en

la estación realiza la gestión de los usuarios, indicando los niveles de batería,

sensores y comunicaciones.

91

Para realizar la comunicación inalámbrica se requiere un sistema GSM previamente

instaladas por las compañías de telecomunicaciones, con el fin de conseguir una total

movilidad, así si el dispositivo se desea cambiar de ubicación no se tenga que

implementar nuevos métodos de transmisión, al contar con un sistema como este se

dispone de forma fácil al usuario él envió de sms como peticiones para conocer

parámetros de la estación y establecer alarmas en los parámetros deseados. (Diz J.,

García J. F., Darriba J., Rodríguez S, 2006).

La medición de los valores que adquieren en el tiempo algunas señales

meteorológicas se ejecutó utilizando una serie de sensores electrónicos conectados a

un sistema de adquisición de datos, implementado con microcontroladores de la

empresa Microchip, los cuales se encargan de procesar y enviar los datos capturados

por los sensores climatológicos hacia un computador de forma inalámbrica, donde se

cuenta con una interfaz gráfica la cual presenta los datos a los usuarios en tiempo

real, y tiene la capacidad de almacenar dichos valores con el apoyo de la creación de

una base de datos designada para la recopilación de datos.

Para el sostenimiento energético de la estación, se desarrolló una fuente de

alimentación fotovoltaica capaz de alimentar los circuitos durante 4 horas en ausencia

de la energía solar (Fernando A. Montealegre L. Profesor asociado. Universidad

Nacional - Sede Palmira, 2015).

La aplicación desarrollada para el monitoreo de las variables meteorológicas cuenta

con un servidor y un aplicativo web. Este sistema fue desarrollado por profesores y

alumnos con énfasis en electrónica, es una alternativa tecnológica de bajo costo y

que se puede replicar bajo la figura de red a mediano plazo, para la accesibilidad de

datos sensados. (La prevención del ruido en la empresa, 1999).

Resultados y Conclusiones

Como base del proyecto se desarrolló un conjunto de prototipos (Fig. 1) los cuales

permiten registrar y visualizar en una interfaz web (Fig. 2) los datos adquiridos de

temperatura, monóxido y metano de forma remota.

Figura 1. Prototipo Nodo Metano. La imagen fue elaborada por los autores.

92

Figura 2. Interfaz Web. La imagen fue elaborada por los autores.

Se espera unificar las mediciones de las distintas variables en una central autónoma

(Fig. 3) y que estos datos sean transmitidos a través de un módulo GPRS hacia un

servidor web.

Figura 3. Central Autónoma. La imagen fue elaborada por los autores.

Referencias

Diz J., García J. F., Darriba J., Rodríguez S. (2006). solaina. Obtenido de FORMACIÓN PROFESIONAL

ELECTRÓNICA Y ENERGÍAS RENOVABLES:

http://solaina.es/drupal/files/233_11_CIES2008_cas_cor.pdf

educalab. (2015). Obtenido de recursostic.

Energiasolarfotovoltaic. (2015). Obtenido de blogspot:

http://energiasolarfotovoltaica.blogspot.com/2006/01/la-bateria_29.html

Montealegre L., Fernando (2015). Universidad Nacional de Colombia. Obtenido de sede Palmira:

http://www.virtual.unal.edu.co/cursos/sedes/palmira/5000134/contenido/cap3/lec1.htm

Francisco, J. L. (2008). Universidad Politecnica de Catalunya. Obtenido de

https://upcommons.upc.edu/pfc/bitstream/2099.1/6137/1/memoria.pdf

infoAgro. (2015). Obtenido de

http://www.infoagro.com/instrumentos_medida/doc_anemometro_velocidad_viento.asp?k=

80

La prevención del ruido en la empresa. (1999). En P. M. Floría, 2.SONOMETRO (pág. 163). Fundación

Confemetal.

ernández, Luis (2015). cubasola . Obtenido de Facultad de Física-IMRE. Universidad de La Habana:

http://www.cubasolar.cu/biblioteca/Energia/Energia38/HTML/articulo02.htm

93

Mejia, C. A. (2013). Instituto Politécnico Nacional. Obtenido de Escuela Superior de Ingeniería

Mecánica y Eléctrica:

http://itzamna.bnct.ipn.mx/dspace/bitstream/123456789/12211/1/sistemautomatico.pdf

México, E.-t. d. (2015). Esco-tel . Obtenido de http://www.esco-tel.com/paneles_solares.html

Osés, F. X. (2006). 9.2 La medida de la presion. El barometro. En F. X. Osés, Meteorología aplicada a

la navegación (págs. 102-103). Catalunya: Ediciones UPC.

SunFields, E. (2015). SunFields. Obtenido de http://www.sfe-solar.com/%C2%BFque-es-un-sistema-

fotovoltaico-autonomo-de-que-consta-y-como-se-dimensiona-1685/

Universidad Politecnica de Madrid, Politécnica, FECYT. (15 de Abril de 2015). ingeniatic. Obtenido de

http://ingeniatic.euitt.upm.es/index.php/tecnologias/item/588-sensores-de-temperatura-

rtd

94

Diseño e implementación de una

aplicación de visión artificial para el

conteo de vehículos de transporte

público (taxis) presentes en una

intersección de la ciudad de Medellín

Daniela Giraldo Jiménez 16[autor]

Simón Calderón Ramírez 16[autor]

Sebastián Felipe Pinzón Orozco 16[autor]

Camilo Andrés Flórez Velásquez 16[autor]

Resumen

Las últimas investigaciones en el desarrollo de aplicaciones de Visión Artificial para el conteo

de objetos de interés presentes en una imagen, se fundamentan en el empleo de algoritmos de

inteligencia artificial para la detección de conectividad entre imágenes, usando por ejemplo

redes Neuronales (Maldonado, 2006), o algoritmos de segmentación sofisticados como la

segmentación por Morfología Matemática y substracción de las escenas a partir de un marco

de referencia – Diferenciación de Frames – Flujo Óptico – Sensado Tridimensional y Modelaje

Estadístico (Leal & Branch, 2010).

En particular en Colombia se han desarrollado algunos prototipos de programas de visión

artificial para el diseño e implementación de Sistemas de Monitoreo de Tránsito Vehicular

(SMTV), con el objetivo de medir y controlar de forma automática el flujo vehicular. Hasta la

fecha el área de investigación en SMTV está en continua evolución en la medida que se cuentan

cada vez con computadores más poderosos, capacitados para soportar la ejecución de

algoritmos cada vez más robustos e inteligentes de procesamiento digital de señales (Leal &

Branch, 2010).

Los elementos presentados han motivado el proyecto presentado, donde se procederá a

diseñar una aplicación para contar objetos o características presentes en una imagen, a partir

del uso de algoritmos de segmentación por características morfológicas y detección de

conectividad entre objetos, con la finalidad de verificar el grado de éxito del algoritmo en la

medición automática de la cantidad de vehículos de transporte público (inicialmente taxis

presentes en una intersección de la ciudad de Medellín), y así desarrollar un prototipo

funcional de una aplicación de SMTV.

16 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Procesamiento Digital de Señales – Ingeniería de

Telecomunicaciones, Universidad Santo Tomás, Medellín. Correo electrónico: [email protected]

95

El algoritmo inicialmente diseñado fue puesto bajo prueba bajo condiciones de luz

controlada, sobre imágenes que contiene objetos poligonales con la misma forma y color,

sobre un fondo homogéneo. El algoritmo de conectividad implementado fue el Recursivo con

Vecindades 4 – píxeles, aplicado a una imagen en formato .bmp capturada por una webcam

previamente umbralizada y binarizada.

Los resultados obtenidos ilustran que existe un alto porcentaje de éxito en la medición en la

cantidad de patrones, enseñando que la técnica propuesta tiene un gran potencial para su

aplicación en la medición de conteo de objetos, en particular en el sector del transporte

público donde se desea evaluar el número de vehículos de transporte público presente en una

intersección de la ciudad.

Introducción

La Alcaldía de Medellín cuenta con un Sistema Inteligente de Movilidad que emplea

entre otras componentes una red de cámaras de video CCTV, que monitorean

continuamente las principales vías de la ciudad desde el Centro de Control del

Transito con la finalidad de detectar incidentes que afecten la movilidad (Secretaría de

Movilidad de Medellín, 2015). Esta red de cámaras es controlada por personal humano

capacitado que se encarga de medir continuamente todos los eventos que puedan

ocurrir a nivel de flujo vehicular y accidentalidad. Estas cámaras no cuentan con la

capacidad de ejecutar mediciones de interés para el diseño de los planes de movilidad

de la ciudad, como por ejemplo medir el número del parque automotor o el flujo del

mismo (parque automotor por unidad de tiempo), ya que no poseen elementos de

visión artificial que los capaciten para la tarea mencionada.

Desde esta perspectiva, el Semillero de Investigación en Procesamiento Digital de

Señales – Ingeniería de Telecomunicaciones propone una investigación de corte

cuantitativo, en la cual se diseñará e implementará una solución fundamentada en

algoritmos de visión artificial que sea potencialmente útil para la medida del número

de automóviles presentes en una intersección cuando estos se encuentran detenidos

por el pare de un semáforo; con la finalidad de apoyar el desarrollo de aplicaciones de

alto impacto para la ciudad de Medellín en el área de SMTV, o para el sector privado

que requiere de este tipo de soluciones para el control de su parque automotor.

Marco Teórico y Estado del Arte

Los algoritmos de conectividad, pertenecientes al área de visión artificial, están

dedicados a separar las imágenes de interés del fondo de la imagen, y se pueden

emplear para el conteo de imágenes, tal como lo documentan (Neira, 2010) y

(Trespaderne, 2012). Estos algoritmos se fundamentan en el concepto de Vecindad N

96

- Píxel (Vecindad 4, Vecindad 6 y 8), que sirven para establecer la conectividad o la

posibilidad de establecer una trayectoria continua entre dos puntos A y B

perteneciente a una imagen. Se propone inicialmente aplicar el algoritmo de

conectividad para detectar y contar imágenes disjuntas binarias de color blanco, que

están sobre un fondo de color negro. Para tal fin se usará un algoritmo recursivo

usando una vecindad 4 – píxel. El algoritmo mencionado se modificará para generar

etiquetas de enumeración a imágenes que están interconectadas, y finalmente se

contarán cuantas etiquetas distintas ha generado el algoritmo a diseñar, que debe ser

igual al número de objetos distintos sobre la imagen. El algoritmo de conectividad es

bastante sensible al ruido de “salpicadura de sal” (píxeles con valores totalmente

diferente al de sus vecinos) (Neira, 2010), lo cual implica que es importante usar un

filtro de promediación como por ejemplo un filtro de Gauss, para uniformizar el valor

de los píxeles en escalas de grises, y así atenuar el ruido presente en la imagen que

puede provocar conteos falsos.

Para aplicar el algoritmo para el conteo de objetos de interés de una imagen, es

importante previamente aplicar un algoritmo de segmentación por características

morfológicas, como por ejemplo forma – color – textura, fundamentadas en las

técnicas de detección de bordes como las técnicas de Canny y Sobel o el empleo de la

transformada de Hough para la detección de rectas (Platero, 2005), o el uso de

técnicas de segmentación por umbralización de colores (Manzanares, 2011).

Metodología Empleada

El tipo de investigación propuesta es de corte cuantitativo y el método planteado

para alcanzar los objetivos propuestos es del tipo “deductivo-inductivo” e “inductivo-

deductivo”.

La metodología propuesta para el desarrollo del proyecto de investigación es la

siguiente:

A partir del uso de una imagen con objetos (polígonos) con formas de geometría

regular y colores homogéneos, tomada bajo condiciones de luz controlada, se

procederá a filtrar la imagen con un filtro Gaussiano con la finalidad de atenuar el

ruido de “salpicadura de sal”, y luego se convertirá la imagen a escala de grises. La

imagen convertida a escala de grises se segmentará inicialmente por la técnica de

umbralización, para convertirla en una imagen binaria (fondo con píxeles iguales a

cero, y objetos de interés con píxeles iguales a uno).

La imagen binarizada será sometida al algoritmo de conteo diseñado por el grupo

de investigación, para etiquetar cada objeto presente en la fotografía, para

posteriormente proceder a contar las etiquetas generadas cuyo resultado es

consistente con el número de objetos.

97

El algoritmo diseñado se probará con múltiples imágenes con objetos geométricos

capturadas bajo condiciones de luz controlada, contaminadas o no con ruido, con la

finalidad de medir el número de casos exitosos (conteos exactos); con la finalidad de

detectar y corregir las fallas de los algoritmos de segmentación y conectividad

empleados.

A partir de las correcciones de los algoritmos se iniciará con el proceso de capturas

de imágenes de vehículos de transporte público a una altura de aproximadamente

entre 8 a 10 metros sobre el nivel del suelo, bajo diversas condiciones de luz, para

luego aplicar el algoritmo de conteo diseñado. Las mediciones que se tomarán será el

número de vehículos presentes durante el experimento contra el número de vehículos

estimado por el algoritmo diseñado, bajo diversas condiciones de luz; para verificar el

número de casos exitosos de conteo contra las condiciones de iluminación.

Por último se plantea ejecutar correcciones de naturaleza algorítmica u ópticas al

sistema de medición (Cámara digital), para evitar los conteos anómalos provocados

por las condiciones de luminosidad de la escena.

Resultados y Conclusiones

A la fecha se ha diseñado un programa de conteo fundamentado en el algoritmo de

conteo de imágenes por etiquetado de píxeles aplicado inicialmente sobre imágenes

binarizadas (de color blanco) sobre un fondo negro; capaz de enumerar objetos con

diversas formas geométricas segmentadas previamente usando un algoritmo de

detección de bordes, y aplicando una técnica de segmentación de color por

umbralización.

Las técnicas empleadas de segmentación y conteo de imágenes han mostrado ser

eficaces en el proceso de enumeración de imágenes, pero aún se presentan algunas

dificultades en el proceso de segmentación debido a la confusión existente entre las

fronteras de 2 o más imágenes diferentes, lo que provoca que el algoritmo las cuente

como (1) sola imagen.

Se propone mejorar el algoritmo de segmentación, usando la propiedad de forma y

color de los objetos presentes en las imágenes, usando por ejemplo la transformación

de Rough que sirve para detectar rectas y círculos.

Referencias

Leal, Nallig; Leal Esmeide, Branch, John W. (2010). Sistema de Monitoreo de Tránsito Vehicular

Basados en técnicas de segmentación de imágenes. Revista Avances en Sistema e

Informática, Vol. 7 Número 3. Medellín , Colombia. ISSN 1657 – 7663

98

Maldonado, Chan Mauro (2006). Sistema automático de conteo y clasificación de flujo vehicular

basado en secuencias de video y redes neuronales artificiales. Universidad Autónoma de

Nuevo León. México.

Larcher, Ledda I., Biasoni, Enrique M.; Cattaneo, Carlos A.; Ruggeri, Ana I.; Herera, Cecilia (2011).

Algoritmo para detección de bordes y ulterior determinación de objetos en imágenes

digitales. Asociación Argentina de Mecánica Computacional, Mecánica Computacional Vol.

XXX, pag 2841 - 2852. Rosario, Argentina.

Neira Parra, José. Curso de Visión por computador. Universidad de Zaragoza, tomado de la página

web

http://webdiis.unizar.es/~neira/12082/12082conectividad.pdf

De la Fuente, Eusebio; Trespaderne, Felix Miguel (2012). Visión Artificial Industrial: Procesamiento

de imágenes para inspección automática y robótica. Universidad de Valladolid. ISBN 978-

84-8448-730-2.

Platero, Carlos (2005). Apuntes de Visión Artificial. Escuela Universitaria de Ingeniería Técnica

Industrial. Tomado del sitio web

http://www.elai.upm.es/webantigua/spain/Asignaturas/Robotica/InfoRobotica.htm

Carcedo y Franco, Ana (2004). Tesis: Programa de Segmentación de regiones en imágenes médicas

en Matlab. Universidad de las Américas de Puebla.

Cuevas Jiménez, Erik Valdemar; Zaldivar Navarro, Daniel; Pérez, Marco. Procesamiento Digital de

Imágenes con Matlab y Simulink.

Editorial Alfaomega & Ra - Ma. ISBN 978-607-707-030-6

De Giusti, Marisa R.; Vila, María Marta; Luján Villareal, Gonzalo (2005). Digitalización de documentos

manuscritos para la preservación del patrimonio cultural. III Simposio Internacional de

Bibliotecas Digitales (San Pablo, Brasil).

Gómez Rodríguez, Francisco; Domínguez Morales, Manuel J. Fundamentos de la visión artificial.

Departamento de Arquitectura y Tecnología de Computadores, Universidad de Sevilla.

Tomado del sitio web http://rodas.us.es/file/26a3632e-7124-4e72-b045-

d9ae3edd3938/1/Fundamentos%20de%20la%20Vision%20Artifical.pdf

Moreira Quiroz, José; Valencia Delgado, Vladimir; Chávez Burbano, Patricia (2009). Implementación

de un algoritmo para la detección y conteo de células en imágenes microscópicas. Red de

repositorios de acceso abierto de Ecuador. Tomado del sitio web

http://www.dspace.espol.edu.ec/handle/123456789/16146.

Luzardo M, Gonzalo (2009). Segmentación de imágenes basado en etiquetación de pixeles. Escuela

Superior Politécnica del Litoral, Ecuador. Tomado del sitio web

http://blog.espol.edu.ec/gluzardo/files/2009/04/merge_labeling.pdf

Ramírez- Manzanares, Alonso (2011). Reporte de búsqueda, detección y conteo de objetos. Tomado

del sitio web http://www.cimat.mx/~alram/VC/ramirez_segmObjDetecc.pdf

99

Aplicación de un algoritmo de

correlación cruzada 2-D para la

identificación de placas vehiculares

de automotores de servicio público

Simón Calderón Ramírez 17[autor]

Boris David Gómez Guerrero 17[autor]

Jorge Luís Mejía Ortiz 17[autor]

Camilo Andrés Flórez Velásquez 17[autor]

Resumen

Las recientes investigaciones en el desarrollo de aplicaciones para la búsqueda de patrones

en imágenes, se fundamentan en el empleo de algoritmos de inteligencia artificial como redes

Neuronales (Ghorpade, 2010; Chauhan, 2012; Oquab, 2013), algoritmos genéticos (Ali Abed,

2010); y combinaciones de redes neuronales con lógica difusa (Nagalakshmi, 2013). En

particular en Colombia se han desarrollado programas de visión artificial para la identificación

de placas vehiculares empleando redes neuronales como por ejemplo (González, 2008).

Debido a la robustez de estos algoritmos, se requieren de computadores con altos grados de

paralelismo, que normalmente no están disponibles en nuestra región. La dificultad planteada

se puede resolver retornando a algoritmos clásicos para la identificación de patrones de baja

complejidad, como la Correlación Cruzada de 2 dimensiones entre imágenes (Ahuja, 2013;

Kadam, 2014), que ha sido probado con buen grado de éxito en la identificación de las placas

de vehículos, como se documenta en (Delgado, 2010).

Los elementos presentados han motivado el proyecto presentado, donde se ilustra la

aplicación de un algoritmo de correlación cruzada en dos dimensiones entre una imagen que

contiene un carácter alfanumérico patrón, y otra que contiene la cadena de caracteres de una

placa de un vehículo público de la ciudad de Medellín, con la finalidad de verificar el grado de

éxito del algoritmo en la detección correcta de patrones. El experimento fue ejecutado bajo

condiciones de luz controlada, y la imagen que contiene el caracter patrón tiene las mismas

dimensiones en píxeles a la presente en la placa. El algoritmo implementado es el de

desplazamiento matricial (Kadam, 2014) aplicado entre 2 imágenes en formato .bmp

previamente umbralizadas y segmentadas por colores. Los resultados obtenidos ilustran que

existe un moderado porcentaje de éxito en la detección de patrones, enseñando que la técnica

propuesta es adecuada para la identificación de placas vehiculares.

17 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Procesamiento Digital de Señales – Ingeniería de

Telecomunicaciones, Universidad Santo Tomás, Medellín. Correo electrónico: [email protected]

100

Introducción

La técnicas de reconocimiento de patrones en imágenes digitales se pueden

emplear en diversas aplicaciones que requieren de la búsqueda automática e

inteligente de características morfológicas, como por ejemplo en la identificación y

diagnóstico de tumores u otros tejidos en medicina y biología, en la medida de la

forma y textura de minerales en procesos de exploración de hidrocarburos y

metalúrgica, en el reconocimiento de rostros humanos en aplicaciones de seguridad

ciudadana, en el control de espacios e identificación de placas en vehículos de

transporte. La última aplicación mencionada, es de vital importancia para la Secretaría

de Transporte del Valle de Aburrá, que cuenta actualmente con un sistema de visión

computacional controlado remotamente por personal calificado, que se encarga de

monitorear algunas vías de la ciudad, con la finalidad de reducir los niveles de

accidentalidad provocados en algunos casos por la violación de normas de

conducción estipuladas por la ley. A la fecha dicho sistema cuenta con una aplicación

que está en la capacidad de medir la velocidad de los vehículos, pero no cuenta con

un algoritmo que permita identificar de forma automática la placa de los vehículos,

que eventualmente se pueda cruzar con la base de datos de la Secretaría de

Transporte.

El algoritmo para la identificación de caracteres de una placa vehicular, debe ser

simple y liviano para ser instalado o agregado de forma exitosa, sin mayor costo

computacional, en una aplicación de software de visión por computador ya existente,

o para ser implementado en una FPGA. Un algoritmo clásico simple para el

reconocimiento de imágenes con baja complejidad algorítmica, es el de la correlación

cruzada dos – dimensional (2 – D), que ha sido probado con cierto grado de éxito en

un buen número de aplicaciones, que presenta como ventaja su simpleza algorítmica,

pero como defecto la detección falsa de patrones por efectos de la sensibilidad al

ruido y de las transformaciones de rotación de la imagen.

Marco Teórico y Estado del Arte

La correlación cruzada entre la imagen patrón H, llamada Kernel, y la imagen de

prueba A se calcula según Mathworks (2014), con la siguiente expresión:

1

0

1

0

),(),(,N

j

M

i

jyixHjiAlkHAI (1)

M y N son las dimensiones en píxeles de la matriz de intensidad de la imagen A.

P y Q son las dimensiones en píxeles de la matriz de intensidad de la imagen H.

101

lk, son las coordenadas de la matriz I de correlación cruzada.

lk, se evalúan en los siguientes intervalos:

1)1( MkP y 1)1( NlQ (2)

La correlación cruzada entre dos imágenes produce como resultado otra imagen

I(k,l), donde k y l son las coordenadas desplazadas en píxeles de la matriz I, y el valor

almacenado en la posición (k,l) de dicha matriz indica el valor de la correlación

cruzada.

Un valor elevado de la correlación cruzada en un píxel (k,l) indica que es muy

probable que el píxel con coordenadas desplazadas (k,l) de la imagen bajo prueba

tenga las mismas características morfológicas del píxel con coordenadas desplazadas

(k,l) de la imagen patrón.

Metodología Empleada

El tipo de investigación propuesta es de corte cuantitativo y el método planteado

para alcanzar los objetivos propuestos es del tipo “deductivo-inductivo” e “inductivo-

deductivo”.

La metodología propuesta para el desarrollo del proyecto de investigación es la

siguiente:

Para medir el grado de éxito de la técnica de la Correlación aplicada en la detección

de caracteres numéricos en una placa de un Taxi, se diseñó y se puso en marcha un

experimento donde a partir de la captura mediante una cámara digital de una (1)

imagen de una placa vehicular bajo condiciones de luz controlada, y su posterior

segmentación por colores usando la técnica de umbralización por histograma () con el

fin de extraer los caracteres, se procedió a aplicar un algoritmo de Correlación

Cruzada implementado por el grupo de investigación en Matlab, para estimar la

correlación de la imagen capturada de la placa contra una base de 9 imágenes

patrones compuesta por los caracteres numéricos del 0 al 9 debidamente

segmentados por colores, con la condición que los caracteres en cuestión tuviesen las

mismas dimensiones en píxeles que los números presentes en la placa.

Resultados y Conclusiones

A la fecha se han ejecutado una serie de experimentos donde se muestra las

gráficas de las correlaciones cruzadas entre una imagen patrón ( caracteres

alfanuméricos del 0 -9 y algunas consonantes) y la imagen de una placa de transporte

público bajo condiciones de luz controlada, donde se evidencia la detección correcta

102

de los caracteres patrón en la imagen bajo análisis, pero también la aparición de

“detecciones erróneas” (El algoritmo de Correlación indica la existencia de un caracter

que no existe en la imagen de la placa), provocada por la inadecuada segmentación

de la imagen que contiene a la placa, y por la sensibilidad de la correlación cruzada a

las condiciones de luz y a la similitud morfológica de algunos caracteres (algunas

letras se confunden con otras, debido a la similitud de la forma de sus trazos).

Aunque la técnica de Correlación Cruzada 2-D detecta “Falsos Positivos”

(Detecciones erróneas de caracteres), es notable el grado de éxito en la detección de

patrones bajo condiciones de luz controlada. Se sugiere mejorar la segmentación de

la placa del vehículo, para extraer de una forma más cuidadosa los caracteres a

analizar, con la finalidad de maximizar el número de casos exitosos de detección de

patrones empleando la técnica de Correlación.

Referencias

Mathworks. (2014). Documentation of Signal Processing Toolbox: 2 - D Cross - Correlation.

Recuperado del sitio web: http://www.mathworks.com/help/signal/ref/xcorr2.html

Ghorpade, Santaji et al (2010). Pattern Recognition using neuronal networks. International Journal Of

Computer Sciencie & Information Technology (IJCSIT), vol 2, no. 6, december 2010.

Chauhan,S., et al (2012). Pattern recognition system using MILP Neuronal Networks. IOSR Journal Of

Engineering, May 2012, vol 2(5).

Oquab,M. et al (2013). Learning and trasferring Mid Level Image representations using convolutional

neuronal networks. HAl Archives - outvertes.fr, 2013.

Ali Abed,et al (2010). Pattern recognition using genetic algorithm. International Journal of Computer

and Electrical Engineering, vol. 2, no.3, june 2010.

Nagalakshmi,G.; Jyothi, S.(2013). A survey on pattern recognition using fuzzy clustering approaches.

International Refereed Journal Of Engineering and Science (IRJES), volume 2, issue 5, may

2013.

González, J. et al. (2008). Tesis: Desarrollo de un sistema de visión artificial para el reconocimiento

de placas en vehículos particulares. Programa de Ingeniería Mecatrónica, Universidad San

Buenaventura, Bogotá, diciembre de 2008.

Ahuja, K.; Tuli, P. (2013). Object Recognition by template matching using correlations and phase

anlge method. International Journal Of Advanced Research in Computer and Communication

Engineering. Vol 2, Issue 3, march 2013.

Kadam, R.U., et al (2014). Object detection using correlation technique. Journal of Emerging

Technologies and Innovative Research (JETIR), vol. 1, issue 5, 2014.

Delgado, J.L. (2010). Tesis: Reconocimiento de placas vehiculares". Escuela Superior de Ingenieria

Mecanica y Electrica. Sección de estudios de posgrado e investigación, Unidad Culhuacan.

México, diciembre de 2010.

Han, Y., et al (2012). Application of digital image cross - correlation and smoothing function to the

diagnosis of breast cancer. Journal of the mechanical behavior of biomedical materials I4,

2012.

103

Diseño e implementación de un

sistema de visión artificial

estereoscópica para navegación

robótica

Ana María Zapata Herrera 18[autor]

Juan Esteban Silva Narváez 18[autor]

Camilo Andrés Flórez Velásquez 18[autor]

Resumen

La visión artificial es ampliamente utilizada a nivel mundial en aplicaciones donde se

requiere la información del mundo 3D para la toma de decisiones: en medicina, búsqueda de

objetivos militares, aplicaciones de rescate en desastres y en particular en la resolución de

problemas asociados a la navegación robótica. Para implementar estas aplicaciones, se

emplean cámaras para capturar la información del mundo tridimensional en dos dimensiones,

y a partir de algoritmos de procesamiento de imágenes y de inteligencia artificial proceder a

reconstruir el medio donde el agente robótico navegará. Existen diversas técnicas que permiten

reconstruir la información 3D, dentro de las cuales se destaca, la visión estereoscópica por su

alta precisión en la medición de las coordenadas de puntos 3D.

El Gobierno de la República de Colombia no es ajeno a estos desarrollos tecnológicos, y a

través de su entidad reguladora de la Investigación Científica, Colciencias, propone en su Plan

Estratégico ETI 2013, las áreas más importantes para el avance de la industria Colombiana,

entre las cuales se encuentran la robótica aplicada; en particular su aplicación en el sector de

control de transporte; donde encaja perfectamente el desarrollo de sistemas de visión artificial

para el control y automatismo de la navegación planificada o reactiva de plataformas robóticas

móviles.

Por lo tanto se propone desarrollar un sistema de reconstrucción de entornos 3D usando

técnicas de visión artificial cimentadas en sistemas de cámaras estereoscópicas, para su

futuro uso en el control de navegación de vehículos a gasolina o eléctricos bajo condiciones

experimentales.

18 Programa de Ingeniería Electrónica, Semillero de Investigación SIRMO, Universidad de San Buenaventura, Medellín. Correo

electrónico: [email protected]

104

Introducción

La reconstrucción de entornos tridimensionales a partir del uso de técnicas de

visión artificial, es ampliamente empleada para la obtención exacta de las formas de

los objetos presentes en el mundo real, para posteriormente construir modelos

geométricos computacionales que los representen; que sirvan para apoyar el proceso

de toma de decisiones en aplicaciones industriales y de ingeniería, como por ejemplo

en la medicina, la explotación metalúrgica, la navegación de agentes robóticos entre

otros.

Los algoritmos existentes para la reconstrucción de entornos tridimensionales se

fundamentan en diversas técnicas de visión artificial enfocadas en la obtención de las

coordenadas 3D de los puntos que hacen parte del entorno, como por ejemplo la

Telemetría Láser, control de parámetros ópticos, visión estereoscópica, entre otras;

sobresaliendo las técnicas de estereoscopía por su alta precisión en la medición de

coordenadas de puntos 3D, a partir del uso de modelos físico – matemáticos que

representan de forma aproximada la óptica geométrica de una cámara digital, como

los expuestos por Tsai (1987), Zhang (1998) y Brown (1972).

En Colombia, existen pocos proyectos de grado orientados al desarrollo de

aplicaciones de visión artificial estereoscópica aplicadas a la navegación de agentes

robóticos móviles: (Suárez, 2011) implementó un sistema de visión estereoscópica

para agentes robóticos con un radio de alcance de 2.4 [metros] y una precisión en la

medición de la posición de hasta 5 [cm] aproximadamente, (Jaramillo, 2010) diseñó

un algoritmo computacional que a partir de la información 3 – D recolectada por un

sistema de visión artificial estereoscópico, reconstruye de forma exitosa un entorno

bajo condiciones de control.

A partir del marco referencial expuesto se propone en el proyecto, desarrollar un

sistema de reconstrucción de entornos tridimensionales usando la Técnica de Visión

Estereoscópica, para su futuro uso en el control de navegación de vehículos a gasolina

o eléctricos bajo condiciones experimentales.

Marco Teórico y Estado del Arte

La visión artificial tiene como objetivo principal conseguir que una computadora

pueda analizar una escena del mundo real como lo haría una persona; para llevar a

cabo esta tarea es necesario crear un modelo 3D de dicha escena con dos cámaras,

que obtienen dos imágenes desde dos puntos de vista diferentes (visión

estereoscópica), esto permite capturar la información del mundo de una forma

tridimensional, como lo haría el ojo humano; es por esto que la visión artificial es

ampliamente utilizada a nivel mundial en diferentes áreas que necesitan la

105

información del mundo 3D para la toma de decisiones, como lo son la medicina, el

área militar, el civil y en particular en la resolución de problemas asociados a la

navegación robótica.

La visión artificial se emplea especialmente para la resolución de problemáticas

asociadas a la navegación de agentes robóticos, en particular en la reconstrucción de

entornos 3D para la planificación de navegación en ambiente controlados o no

controlados.

A nivel mundial, varios autores han desarrollado diferentes técnicas que permiten

la reconstrucción de entornos 3D, algunas de las cuales se mencionan a continuación:

Vilá Ubieto (2009), propone la reconstrucción de objetos sencillos, a partir de

imágenes adquiridas desde dos cámaras puestas en forma paralela; para realizar

dicha tarea, realizó un algoritmo en Matlab. Sin embargo, este algoritmo sólo

funcionaba de manera adecuada con objetos que tuvieran geometría recta. El sistema

no está capacitado para la reconstrucción de objetos con puntas redondeadas.

Carabias et al (2010), proponen desarrollar una aplicación que obtenga la

representación 3D del medio en el cual navega el agente robótico autónomo, a partir

de dos imágenes tomadas por diferentes cámaras, y a partir de la información

recolectada por estas, planificar la ruta del mismo. El algoritmo implementado por

Carabias, presentó algunos errores, pues al momento de reconstruir la imagen, está

se encontraba un poco desplazada respecto a la original, claro está que los resultados

obtenidos son suficientes para reconocer la existencia o no de obstáculos y a partir de

esta información planificar la navegación del agente robótico.

Suárez y Loaiza (2011) implementaron un sistema de estereovisión de bajo costo

para ser empleado en agentes robóticos móviles, que permite estimar la distancia a la

cual se encuentran los objetos presentes en el campo de visión del agente. Ellos

lograron desarrollar un sistema de visión que permitía la navegación de un robot

móvil autónomo en un ambiente estructurado desconocido con un error al momento

de realizar la medición de 5.04 cm, y con un campo de acción entre 60 cm y 240 cm.

En la Universidad Politécnica de Madrid, los ingenieros Jiménez y Naranjo (2012)

han desarrollado un prototipo de laboratorio de un dispositivo universal, que puede

controlar la dirección de un automóvil en carretera sin intervención del conductor,

también un grupo de ingenieros del MIT ha estado trabajando en el desarrollo de un

sistema que actúa como copiloto y podría tomar el control del automóvil, solo con la

finalidad de evitar accidentes.

En Colombia existen los siguientes trabajos asociados a la reconstrucción de

entornos 2D y 3D para la navegación de agentes robóticos:

Correa Niño et al (2010), proponen un agente robótico para servicios cooperativos,

con un sistema de sensores muy básicos compuesto por un medidor óptico de cortas

distancias (0-1m) usando el sensor GP2D12 y una cámara digital que solo se emplea

106

para reconocer colores de objetos. El sistema no está capacitado para la

reconstrucción de entornos 3D.

Díaz Celis y Romero (2011), proponen un sistema de visión artificial implementado

con una cámara Kinect de Microsoft, que sirve para obtener la profundidad en metros

de cada punto de un objeto en 3D (cámara de rango), en un intervalo entre 0.8 m y

3.5 m, usando triangulación con luz infrarroja. La información obtenida (profundidad)

se emplea para planificar la navegación del robot. Los resultados obtenidos

evidencian que este tipo de sensores no son altamente precisos a la hora de medir

distancias (profundidad).

Ballester y Phectectt (2011), proponen el uso experimental de un sensor Kinect de

Microsoft, para la medición de distancias. Este sensor está compuesto por un sistema

de iluminación infrarrojo y un arreglo de sensores electrópticos CMOS, que triangulan

la posición 3D de los objetos en un rango de 0.8 m y 3.5 m. El sensor tiene

limitaciones respecto a la resolución esperada y no está orientada a tareas de

reconstrucción.

Aristizábal y Restrepo (2013), implementaron un prototipo para la medición de la

velocidad de un automóvil con cámara de video, usando técnicas de triangulación y

medición de tiempos entre frames consecutivos. La propuesta no resuelve el

problema de la reconstrucción del entorno 3D para la medición de variables

cinemáticas.

El modelo de formación de rayos de Pin – Hole, propone que todo rayo luminoso

proveniente de un punto P del objeto en tres dimensiones, pasa por el centro de la

lente, y forma el punto P’ de dos dimensiones en el plano de la imagen con

coordenadas '1'

1

'

1 ,, ZYX , cuyo centro de coordenadas de referencia se encuentra a

una distancia focal 0f del centro de la lente medido con su sistema de referencia

cartesiano 111 ,, ZYX . La expresión que sirve para calcular las coordenadas en

metros donde se forma el punto P’ de 2 dimensiones en el plano de formación de la

imagen, es ilustrada en la expresión (1):

z

x

y

f

z

x

'

'

(1)

Las coordenadas de los puntos 2 – dimensionales que conforman a la imagen

formada en el plano de la cámara, deben ser medidas en píxeles que son las unidades

adecuadas para implementar el algoritmo de visión artificial que sirve para reconstruir

el entorno 3 – D, y para tal fin es necesario plantear las siguientes expresiones de

escalamiento:

107

Pixelesvz

ux

v

u

C

C

P

P

'

'

(2)

PP vu , Son las coordenadas del punto del objeto 3 – D proyectado en el plano de

formación de la imagen de la cámara medidos en Pixeles , , en

metro

pixel son

los factores de escalamiento longitudinales de la cámara de video, y CC vu , son las

coordenadas del centro del plano de formación de la imagen, medido desde el

sistema de referencia.

Calibración de la Cámara de Video.

Tsai (1987), Faugeras (1993) y Zhang (2000), han propuesto modelos alternativos

que relacionan las coordenadas PP vu , con las coordenadas del punto P medido

respecto al sistema cartesiano de la lente de la cámara, que tienen presente las

posibles operaciones de rotación – traslación y los parámetros que tienen en cuenta

las anomalías geométricas que pueden alterar los rayos de la lente (distorsión radial

de la lente) y la proyección de la imagen sobre el sensor fotoeléctrico de la cámara de

video. Todos estos modelos se fundamentan en el empleo de una matriz de

calibración. Las coordenadas del plano de formación de la imagen en píxeles, PP vu , ,

se pueden calcular en términos de las coordenadas de un punto P MMM zyx ,, del

objeto tridimensional medido respecto al sistema cartesiano del mundo, usando la

siguiente expresión:

134333231

24232221

14131211

M

M

M

H

PH

PH

z

y

x

CCCC

CCCC

CCCC

t

v

u

(3)

Donde la matriz

34333231

24232221

14131211

CCCC

CCCC

CCCC

C (Matriz de calibración)

Representa las posibles operaciones de rotación – traslación y las leyes geométricas

que dependen de los parámetros de la cámara de video a emplear en el proceso de

medición.

108

El vector:

H

PH

PH

t

v

u

Recibe el nombre de “vector de coordenadas homogéneas” del punto P’ presente en

el plano de formación de la imagen de la cámara, que sirven para calcular las

coordenadas PP vu , usando las siguientes expresiones:

H

PHP

t

uu ,

H

PHP

t

vv (4).

Para estimar el valor de la matriz C que modela el comportamiento óptico –

geométrico de la cámara, es necesario ejecutar una serie de experimentos

debidamente documentados por Tsai (1987), Faugeras (1993) y Zhang (2000), que

consisten esencialmente en capturar con la cámara algunos puntos KPPPP ,...,,, 321

del objeto tridimensional con coordenadas previamente conocidas por el usuario; y

luego medir en el computador la posición de las proyecciones de estos puntos sobre

el plano de formación de la imagen, ''

3

'

2

'

1 ,...,,, KPPPP . Esta información se emplea para

estimar los términos 34131211 ,,,, CCCC a partir de la aplicación de métodos

numéricos para la resolución de sistemas de ecuaciones lineales o no lineales, como

ilustra Ricolfe (2006).

Estimación de las coordenadas 3 – D de los puntos medidos con el sistema de visión

artificial estereoscópica.

Con una sola ecuación de mapeo “3- D” a “2 – D” de una (1) cámara, es imposible

reconstruir la información tridimensional de un objeto a partir de las coordenadas

bidimensionales presentes en la imagen capturada, para tal fin es necesario tener por

los menos dos (2) cámaras con sus respectivas ecuaciones de mapeo, para así estimar

las coordenadas tridimensionales del objeto bajo estudio. Sumando las ecuaciones de

mapeo de ambas cámaras, se obtiene el siguiente sistema de ecuaciones que sirven

para estimar las coordenadas 3 – D de un punto P , a partir de las coordenadas en

píxeles de la proyección de dicho punto sobre los planos de imágenes de las cámaras:

111

)2(

)2(

2)1(

)1(

1

2

34

1

34

2

33

1

33

2

32

1

32

2

31

1

31

2

24

1

24

2

23

1

23

2

22

1

22

2

21

1

21

2

14

1

14

2

13

1

13

2

12

1

12

2

11

1

11

P

P

HP

P

H

M

M

M

v

u

tv

u

tz

y

x

CCCCCCCC

CCCCCCCC

CCCCCCCC

(5)

109

A partir de la medición de las coordenadas de las proyecciones del punto 3 – D en

los planos de imagen de ambas cámaras, 11 , PP vu y 22 , PP vu , es posible determinar del

sistema (5) las coordenadas MMM zyx ,, del objeto tridimensional usando el método

de los mínimos cuadrados.

Metodología Empleada

El tipo de investigación propuesta es de corte cuantitativo y el método planteado

para alcanzar los objetivos propuestos es del tipo “deductivo-inductivo” e “inductivo-

deductivo”.

La metodología propuesta para el desarrollo del proyecto de investigación es la

siguiente: Inicialmente, a partir de la búsqueda de bibliografía critica, se seleccionará

el método más adecuado para estudiar la formación de imágenes, como por ejemplo

el método o modelo de Pin-Hole o modelos de lente gruesa que introduce los

fenómenos de distorsión radial y prismática (Brown, 1972).

A partir de la leyes de transformaciones geométricas se procederá a obtener las

ecuaciones que modelan la conversión 3D-2D en las cámaras incluyendo los

fenómenos de distorsión (matriz de calibración de la cámara y modelo de distorsión),

usando modelos lineales y no lineales (Faugeras, 1993, Zhang, 2000); para luego

proceder al diseño y puesta en marcha de los experimentos de calibración de las

cámaras, con el objetivo de estimar los parámetros extrínsecos- intrínsecos de los

modelos. Inicialmente se estimarán los parámetros del modelo de distorsión de las

lentes de la cámara, con la finalidad de emplear este modelo para corregir las lecturas

en píxeles de los puntos 3 – D capturados.

Con las coordenadas en píxeles corregidas por los efectos de la distorsión, se

aplicarán las técnicas propuestas por (Faugeras, 1993) y (Zhang, 2000) para estimar

los parámetros extrínsecos e intrínsecos de los modelos de las cámaras. Para

corroborar la calidad de los modelos y parámetros estimados de las cámaras, se

propondrá una prueba computacional donde se predecirán las coordenadas de los

píxeles asociadas a puntos seleccionados de un objeto 3D empleando los modelos

mencionados; y luego se compararán estadísticamente con las coordenadas en

píxeles capturadas por las cámaras calibradas usando los mismos puntos 3D del

objeto, y así evaluar la calidad o validez de los modelos propuestos.

Con los parámetros estimados de los modelos propuestos para las cámaras, se

construirá el sistema de ecuaciones lineales y no lineales útil para la estimación de la

profundidad de los objetos 3D usando la Técnica de Estereoscopía. Para la

construcción del sistema de ecuaciones, es necesario resolver el problema de la

correspondencia entre píxeles de dos imágenes provenientes de un mismo objeto,

110

usando el concepto de geometría epipolar, y la solución del sistema de ecuaciones

mencionado se ejecutará empleando métodos numéricos fundamentados en mínimos

cuadrados para sistemas lineales, o su generalización para sistemas no lineales

(Método de Newton, descenso del gradiente, Levenberg - Marquardt entre otros).

Resultados y Conclusiones

A la fecha se han obtenido los siguientes resultados:

- Obtención de las matrices de Calibración por los Métodos de Zhang,

Faugeras y Hall.

- Obtención de las coordenadas pixeladas a partir de las coordenadas del

mundo.

- Descripción detallada de las metodologías propuestas por los autores

mencionados con sus respectivas demostraciones matemáticas, programas

implementados en Matlab para la calibración de las cámaras a partir de

resultados experimentales.

A la fecha se ha verificado que el proceso de estimación de parámetros del modelo

que predice la distorsión radial que introducen las lentes, ha sido sumamente difícil

de aplicar debido a problemas de naturaleza numérica (aparecen matrices mal

condicionadas), que provocan que los métodos numéricos de resolución de

ecuaciones no lineales fracasen en la búsqueda de los valores de los parámetros que

modelan la distorsión de las lentes.

Se propone estimar los parámetros del sistema óptico de cada cámara sin corregir

la distorsión empleando las técnicas de Zhang y Faugeras, aprovechando que la

evidencia experimental muestra que no hay distorsiones apreciables en las imágenes

capturadas.

Referencias

Acosta Amaya, G. A. (2010). Ambiente Multi-Agente Robótico para la navegación colaborativa en

escenarios estructurados. Medellín.

Aristizábal, H. I., & Restrepo, J. (2013). Prototipo para la Medición Automática de la Velocidad de un

Automóvil con Cámara de Video Mediante Procesamiento de Imágenes. Medellín.

Carabias, M., Requero García, D., Rodriguez , R., & Andrés, J. (2010). Sistema de visión

estereoscópica para navegación autónoma de vehículos no tripulados. Madrid.

Colciencias. (2013). Obtenido de www.colciencias.gov.co/programa_estrategia/electr-nica-

telecomunicaciones-e-inform-tica.

111

Correa Niño, D. A., & Sanabria Cárdenas, R. (2010). Robots de Servicio Cooperativos. Revista

Colombiana de Tecnologías de Avanzada, 119-127.

Díaz Celis, C. A., & Romero Molano, C. A. (2011). Navegación de robot móvil usando Kinect, OpenCV

y Arduino. Villavicencio.

Digital Camera World. (s.f.). Obtenido de http://www.digitalcameraworld.com/2012/08/31/cheat-

sheet-friday-how-your-digital-camera-turns-light-into-an-image/

Faugeras, O. (1992). A theory of self-calibration of a moving camera. Springer, 123-151.

Gómez Sánchez, A. E., & Zamorano Acosta, D. I. (2008). visión estereoscópica y estimación de pose

para el posicionamiento de un brazo robótico. Cuernavaca.

Isern González , J. (s.f.). Estudio Experimental de métodos de calibración y autocalibración de

cámaras.

Jaramillo Ortíz, A., Jiménez, R., & Ramos, O. L. (2013). Inspección de calidad para un sistema de

producción industrial. Tecnura.

Jiménez Alonso, F., & Hernández, J. E. (2012). Equipo para controlar automáticamente la dirección de

un vehículo. Madrid.

MIT. (2012). Obtenido de newsoffice.mit.edu/2012/mechanical-engineers-develop-intelligent-car-

co-pilot-0713

Molleda Meré, J. (2008). Técnicas de Visión por Computador para la reconstrucción en Tiempo Real

de la forma 3D de productos laminados. Oviedo.

Nope, S., & Loaiza, H. (2008). Estudio Comparativo de Técnicas para el Reconocimiento de gestos

por Visión Artificial. Cali.

Ordoñez Santiago, C. A. (2005). Formatos de Imagen Digital. Revista Digital Univeristaria, 10.

Ordoñez Santiago, C. A. (2005). Formatos de Imagen Dígital . Revista Dígital Universitaria , 2-10.

Ricolfe Viala, C. (2006). Caracterización y Optimización del proceso de calibrado de cámaras basado

en plantilla bidimensional. Valencia.

Rodríguez Martín, J. (2008). Curso de Fotografía Dígital. Madrid.

Rojas Gualdrón, J. C. (2007). Desarrollo de Estrategias para el control de móviles autónomos

basados en Redes Neuronales. Bucaramanga.

Sánchez Martínez, N., Arias Pérez, B., Gónzalez Aguilera, D., & Gómez Lahoz, J. (2004). Análisis

Aplicado de métodos de calibración de cámaras para usos fotogramétricos. Madrid.

Suárez Sánchez , A. F. (2009). Navegación de un Robot Móvil por Estereovisión . Entre Ciencia e

Ingeniería, 9-23.

Tsai, R. (1987). A versatile camera calibration technique for High-Accuracy 3D machine vision

metrology using off-the-shelf tv cameras and lenses. IEEE, 323-344.

Vilá Ubieto, K. (2009). Reconstrucción 3D de modelos utilizando Técnicas de Visión Artificial.

Madrid.

Wang, A. (2009). A simple Method of Radial Distortion Correction with Centre of Distortion

Estimation. Springer.

Zhang , Z. (2000). A Flexible New Technique for Camera Calibration. IEEE, 1330 - 1334.

112

Desarrollo de un contenido digital

interactivo con prácticas ágiles: Caso

aprendizaje en la formulación de

hipótesis

Álex Ortiz Taborda 19[autor]

Wilder Perdomo Charry 19[autor]

Carlos Arturo Castro Castro 19[autor]

Jose Eucario Parra Castrillón 19[autor]

Resumen

Se hace una breve introducción de que trata el proyecto de investigación que adelanta la

facultad de ingenierías a través del programa de Ingeniería de Sistemas sobre el Desarrollo E

Implementación De Contenidos Digitales., se describe el marco de trabajo

propuesto(MARCODA), preguntas principales que orientaron el proceso de selección y

descripción documental, propósito y metodología del estado del arte, se define contenidos

interactivos, tipos, áreas, donde se aplica el concepto, agilismo, interactividad, niveles de

interactividad, practicas ágiles.

Introducción

Las Tecnologías de la Información y las Comunicaciones (TIC) se han convertido en

herramientas importantes para en los procesos comunicativos y formativos, en los

que se utilizan ampliamente como mediadores entre el conocimiento existente y los

clientes. Por otro lado, en la actual Sociedad de la Información y el Conocimiento la

mayoría de las actividades de las personas tiene una alta dependencia de los

desarrollos tecnológicos, cuyos productos hacen parte integral de las soluciones a sus

problemas. Además, para lograr los objetivos de potencializar el uso y

aprovechamiento de las TIC, y de difundir y optimizar los desarrollos tecnológicos, los

diversos actores se dieron cuenta que era necesario trabajar paralelamente en el

diseño y divulgación de contenidos que permitan alcanzarlos.

Aunque se reconoce su importancia y preponderancia subyacente, los contenidos

todavía presentan deficiencias y no satisfacen adecuadamente los requisitos de

19 Programa de Ingeniería de Sistemas, Semillero de Investigación SISUSBMED, Universidad de San Buenaventura, Medellín. Correo

electrónico: [email protected]

113

fiabilidad, portabilidad, calidad técnica y evidencias sobre el logro de los objetivos de

aprendizaje. Una de las áreas en las que han alcanzado mayor protagonismo estos

productos es en los procesos formativos, donde se difunden principios y

metodologías para aprovechar de mejor forma las TIC y los desarrollos tecnológicos,

pero en la que los contenidos diseñados no tienen una aceptabilidad general, ni

demuestran el logro de los objetivos formativos. Tal es el caso de los objetos de

aprendizaje, el e - Learning, los ambientes virtuales de aprendizaje, la educación

virtual y la educación a distancia, para los cuales se diseñan y promocionan

contenidos a los que se agregan características como soporte a la formación, pero

que siguen presentando falencias.

Poder diseñar contenidos, sin importar el área objetivo, con adecuados niveles de

fiabilidad y de madurez, integrando principios de interactividad y de prácticas ágiles

para optimizar el uso de las TIC y de los desarrollos tecnológicos, y que además se

pueda evaluar el nivel alcanzado del objetivo del diseño, es una necesidad para esta

Sociedad. Los contenidos interactivos diseñados de esta forma podrían ser

económicos, transportables e interdisciplinares, pero sobre todo integradores de

conocimiento. Esto sería una ventaja para que los diferentes actores los puedan

utilizar en sus procesos, como la formación, el marketing, o la divulgación de datos, y

las personas contarían con un desarrollo tecnológico que realmente les permita

satisfacer sus necesidades específicas a través de las TIC.

Se han planteado los siguientes objetivos de investigación:

- Desarrollar un contenido digital interactivo con prácticas ágiles, para apoyar el

aprendizaje en formulación de Hipótesis en proyectos de investigación.

- Especificar necesidades pedagógicas, didácticas y tecnológicas del contenido

digital.

- Diseñar contenido digital interactivo con base en requerimientos funcionales y

no funcionales.

- Implementar el contenido digital interactivo y desplegarlos en un ambiente de

usuario final por versiones.

- Crear mecanismos para verificación, validación y evaluación del contenido

digital en un ambiente de aprendizaje con un grupo de control y un grupo

experimental.

Marco Teórico y Estado del Arte

Se definen los contenidos digitales interactivos como aquellos datos o información

almacenada en un archivo digital y que se reproduce a través de un programa

informático.

114

Según Francisca Gómez Ríos en su presentación en el segundo Seminario técnico

internacional, realizado del 7 al 11 de Junio del 2004 [1]. Clasifica los contenidos

digitales de la siguiente manera: Medios para la Investigación, Medios para la

Comunicación, Medios para la construcción, Medios para la expresión.

La palabra interactividad se vincula con el sustantivo interacción y con el adjetivo

interactivo. La interacción designa ese espacio de relación dialógica que existe entre o

en medio de dos personas u objetos. La interacción implica reciprocidad, es decir un

intercambio comunicativo de una persona o cosa hacia la otra y viceversa [2]. Sobre

los grados o niveles de Interactividad se han desarrollado varias investigaciones. Una

de ellas está presentada por: M. B. A. González [3], en el que se presentan tres grados

de interactividad: auténtica, semi - interactividad e interactividad simulada o virtual.

Frente a agilidad aporta el matiz de que agilismo se puede entender como un

movimiento social, mientras que agilidad aparece como una cualidad. Así, el

movimiento agilista trata de favorecer un cambio de mentalidad en el sector del

desarrollo de software, basado fundamentalmente en los valores y principios que

emanan del Manifiesto Ágil [4] Muchos autores se han arriesgado a definir agilismo en

el desarrollo de software, uno de ellos Highsmith [5]: La agilidad es la capacidad tanto

de crear y responder al cambio con el fin de obtener ganancias en el negocio en un

medio ambiente turbulento.

Metodología Empleada

El proyecto es una investigación aplicada. Se organizarán dos grupos de estudiantes

de metodología de la investigación: un grupo de control y un grupo experimental para

evaluar la pertinencia, usabilidad, fiabilidad, logro de objetivos de aprendizaje entre

otras características, mediante el uso de un contenido digital de aprendizaje (software

educativo). Los estudiantes seleccionados serán de octavo semestre de ingeniería. Se

diseñarán unos guiones de evaluación tanto de los aspectos técnicos del software,

como de los aspectos didácticos y pedagógicos. Se recolectará la información y se

presentarán estadísticas que permitan decidir sobre la validez técnica y pedagógica

del CDA.

Para la ingeniería del software educativo, se empleará MARCODA (Marco de

Construcción de Contenidos Digitales de Aprendizaje), que integra la metodología de

ingeniería del software para el desarrollo de objetos virtuales de aprendizaje

denominada MESOVA [6] y metodología de ingeniería del software para el análisis

diseño, programación y pruebas de objetos virtuales de aprendizaje denominado

ISDOA [7]. El marco de trabajo propuesto es de carácter iterativo y evolutivo. Iterativo

en el sentido de cada fase se repite cíclicamente un número determinado de veces,

hasta cuando el contenido en desarrollo cumpla con las necesidades y expectativas de

115

los usuarios (los formadores y estudiantes), así como las condiciones de calidad

técnicas, pedagógicas y didácticas. Es evolutivo en el sentido que cada versión del

contenido es mejor que la versión anterior, hasta la versión final.

Las fases de MARCODA son:

1. Concepción y análisis de necesidades pedagógicas, didácticas y tecnológicas.

2. Diseño del contenido digital de aprendizaje (CDA)

3. Implementación y despliegue del contenido digital de aprendizaje (CDA)

4. Evaluación experimental educativa del CDA

Resultados y Conclusiones

Los resultados esperados al culminar la investigación son:

1. Procedimientos según la metodología MARCODA, para construir un contenido

digital de aprendizaje. La temática del contenido es formulación y evaluación de

hipótesis en proyectos de investigación.

2. Un software consistente en un contenido digital de aprendizaje.

3. Informe de las pruebas de validación, verificación y experimentación del

contenido digital de aprendizaje.

A la fecha se han obtenido los siguientes avances en la investigación:

1. Estado del arte, Justificación (fase terminada)

2. Metodología MARCODA (Marco de Construcción de Contenidos Digitales de

Aprendizaje). (75% terminado.)

3. Plan de desarrollo de Software (100%).

4. Diseño del Software (100%).

116

Referencias

[1] F. G. Ríos, «cmap.javeriana.edu.co,» Universidad Católica de Valparaíso, 11 6 2004. [En línea].

Available:

http://cmap.javeriana.edu.co/servlet/SBReadResourceServlet?rid=1264792154031_994603675_324

8. [Último acceso: 10 3 2014].

[2] A. Rost, «El concepto de interactividad,» de La Interactividad En El Periódico Digital, Belaterra,

Universidad Nacional de Camahue, 2006, pp. 165-171.

[3] M. B. A. González, Las redes en la enseñanza: interactividad, Revista ADAXE, 2002.

[4] K. Beck, «Principles behind the Agile Manifesto» 2001.

[5] J. Highsmith, «¿What Is Agility?» de Agile Software Development Ecosystems, Addison Wesley,

2002, p. 11.

[6] E. P. Castrillón, «Revista Virtual Católica del Norte,» Católica del Norte Fundación Universitaria,

30 07 2011. [En línea]. Available:

http://revistavirtual.ucn.edu.co/index.php/RevistaUCN/article/view/332/637. [Último acceso: 10 3

2014].

[7] C. A. Castro. Castro. R. Botero. T., E. Serna M., «ACM Digital Library,» 2012. [En línea]. Available:

http://dl.acm.org/citation.cfm?id=2261658&dl=ACM&coll=DL&CFID=475151475&CFTOKEN=2614

5974.

117

Sistema de información geográfica

para la administración de bienes

inmuebles, aplicando los principios

de la gestión del conocimiento

territorial – caso una central

mayorista

Ermilson Alveiro Preciado Echavarría 20[autor]

Sergio Andrés Castrillón 20[autor]

Helena Pérez Garcés 20[autor]

Claudia Elena Durango Vanegas 20[autor]

Carlos Arturo Castro Castro 20[autor]

Resumen

El sistema que se propone desarrollar en la ejecución del Proyecto de investigación debe

estar en la capacidad de proporcionar la información relacionada a la estructura y los servicios

relacionados al sistema de gestión integral para una central mayorista, desde los asistentes

que tendrá esa sesión, como los requisitos logísticos que deben cumplirse, para la

administración y toma de decisiones relacionados a estos. El sistema a implementar además

será útil como consulta acerca de las posibles alarmas que se produzcan.

Para esto, se desarrollará un prototipo, por parte de la Universidad de San Buenaventura, el

cual integrará una base de datos gráfica, con una base de datos alfanumérica; facilitando así la

consulta y gestión de datos de una manera más organizada y sistematizada.

Introducción

En la actualidad existen los sistemas de información geográfica (SIG) como una

herramienta de desarrollo de la informática. Estos sistemas de información se

extienden en infinidad de disciplinas aplicadas que requieren técnicas y herramientas

especializadas, como el urbanismo, la ordenación del territorio, los transportes, la

20 Programa de Ingeniería de Sistemas, Semillero de Investigación SISUSBMED, Universidad de San Buenaventura, Medellín. Correo

electrónico: [email protected]

118

planificación de infraestructuras, la hidrología, la planificación ambiental, la

agricultura o la gestión de riesgos (L. Zurita Espinosa, 2013)

La administración de infraestructura a partir de un sistema de información es un

tema que se encuentra en desarrollo y corresponde a un nuevo campo de los SIG. La

propuesta es el montaje del Sistemas de Información Territorial para la Central

Mayorista basado en principios de Gestión del Conocimiento.

Marco Teórico y Estado del Arte

En la actualidad existen sistemas de información geográfica enfocados en la

planificación física, como se describe a continuación en cuatro casos en diferentes

lugares y aplicaciones.

El primero es el caso de la Universidad de Rochester que es una importante

universidad de investigación de Nueva York, en donde la Universidad experimenta una

rápida expansión generando inconvenientes en la administración de los servicios

públicos del campus universitario (acueducto, telefonía, alcantarillado, gas natural,

distribución eléctrica, sistema de alumbrado, entre otros). Para entender y organizar

la infraestructura de servicios la Universidad contrato a la empresa Bergmann

Associate, socio de ESRI, para desarrollar una solución utilizando ArcGis Desktop y

ArcGis 3D Analyst.

El proyecto incluye la georreferenciación de los servicios públicos existentes dentro

de una base de datos espacial. La solución presentada a los empleados de la central

de servicios públicos es un modelo 3D de la universidad con los sistemas de servicios

completamente mapeadas. Con esta solución la Universidad identifico que podrían

potenciar la planificación del campus mejorando la toma de decisiones y recaudación

de fondos (Información)

El segundo es el caso del Campus “Gustavo Galindo V.” de la ESPOL. En donde el SIG

agiliza el proceso de toma de decisiones en el área de planificación física, al hacer

que los planos y la información esté disponible y actualizada para los miembros de la

unidad de planificación de ESPOL. En el SIG se cuenta con el plano general del

campus, plano y formulario de información para edificaciones, permite realizar

búsquedas de edificios o ambientes, permite crear áreas y visualizar las áreas de

tuberías. El sistema es una herramienta que proporciona información para

actividades de planificación física, sin embargo dispone de mayor cantidad de planos

digitalizados lo que genera un mayor valor

El tercer caso se dio en la Universidad de Calgary en Canadá, que comenzó a utilizar

SIG desde hace 20 años y ahora se ha estandarizado en la gestión de su información

geográfica con la tecnología de ESRI. La Universidad gestiona no solo los datos

119

académicos, sino también los datos institucionales y administrativos. La solución

plantea gestionar datos espaciales además de los bienes raíces, infraestructura, y la

información de las instalaciones.

Y el cuarto y último caso es Sigua.ua.es, que es una plataforma que también nació

de un proyecto de investigación en la Universidad de Alicante, España en el año de

1997, con el fin de tener una mejor distribución de los espacios de la universidad

para la gestión de docentes y académicos (reserva de espacios), infraestructuras,

espacios (distribución de espacios, patrimonio e inventario, señalización,

simulaciones), prevención, seguridad e higiene, etc. Pero que ha ido evolucionando de

acuerdo a las necesidades de los usuarios.

Por eso los directivos de la Universidad de Alicante propusieron la creación de una

red de conocimiento abierta para las universidades que utilizan estas herramientas

de información geográfica para tener un soporte y desarrollo de este sistema SIGUA

para poder resolver problemas en común en muchas universidades como es la

distribución de espacio y un control adecuado de las instalaciones y para poder tener

un mejor uso de ellas ya que cada semestre se variaba la ubicaciones de los salones

por la cantidad de estudiantes y las clases que se asignar de acuerdo a la facultades,

especializaciones, maestrías, extensión cultural entre otros.

Metodología Empleada

Como el proyecto de investigación está dirigido a la aplicación de los sistemas de

información, se ha adoptado la decisión de emplear la metodología Métrica V.3,

debido a que es una metodología robusta, muy documentada y clara que permite el

trabajo multidisciplinario y suficientemente probado.

“La metodología MÉTRICA Versión 3 ofrece a las Organizaciones un instrumento

eficaz para la sistematización de las actividades que soportan el ciclo de vida del

software dentro del marco que permite alcanzar los siguientes objetivos: −

Proporcionar o definir Sistemas de Información que ayuden a conseguir los fines de la

Organización mediante la definición de un marco estratégico para el desarrollo de los

mismos. − Dotar a la Organización de productos software que satisfagan las

necesidades de los usuarios dando una mayor importancia al análisis de requisitos. −

Mejorar la productividad de los departamentos de Sistemas y Tecnologías de la

Información y las Comunicaciones, permitiendo una mayor capacidad de adaptación a

los cambios y teniendo en cuenta la reutilización en la medida de lo posible. −

Facilitar la comunicación y entendimiento entre los distintos participantes en la

producción de software a lo largo del ciclo de vida del proyecto, teniendo en cuenta

su papel y responsabilidad, así como las necesidades de todos y cada uno de ellos. −

120

Facilitar la operación, mantenimiento y uso de los productos software obtenidos”.

(Ministerio de Administraciones Públicas Gobierno de España)

La versión métrica v3 tiene un enfoque orientado al proceso, y está enmarcada en la

norma ISO 12207, y cubre los procesos para la planificación, desarrollo y

mantenimiento del sistema de información con interfaces bien definidas que permite

el aseguramiento de la calidad, gestión de proyectos y de la configuración y

seguridad. En la figura 1 se esquematiza la metodología.

Figura 1. Metodología Métrica Versión 3. La imagen es propiedad de (Ministerio de

Administraciones Públicas Gobierno de España).

Métrica es la estrategia documental del trabajo de investigación y esta sostenidas

bajo un DISEÑO METODOLÓGICO conformado por tres fases:

Fase 1: Diagnostico de los procesos administración de los bienes inmuebles.

Fase 2: Estructuración del componente espacial.

Fase 3: Implementación del modelo análisis.

Resultados y Conclusiones

Los resultados generados fueron los siguientes:

- Documento Técnico del Diagnostico confidencial (Primera Fase) que contiene la

planificación y la viabilidad del sistema de información y un adelanto en la

estructuración de la evaluación y el diseño de los sistemas de información.

121

- Documento Técnico Estructural de la documentación y la Base de Datos

Espaciales (Segunda Fase), que contiene un adelanto en el desarrollo del

modelo alfanumérico y la geoda base catastral.

- Se tiene identificado el Prototipo del Sistema de Información Geográfica, para

la Administración de Bienes Inmuebles de la central Mayorista.

Resultados esperados:

- Documento Entregado del sistema de información que contenga todos los

procesos de la metodología Métrica V3

- Documento Técnico que contenga la Base de Datos Espacial.

- Prototipo (Software, Base de datos Geográfica y Documentos Técnicos).

Las conclusiones generadas son las siguientes:

- La metodología métrica V3, debido a su estructura clara, fácil de documentar

y flexible, permite la comunicación y el trabajo multidisciplinario de los

integrantes del proyecto.

- El desarrollo de proyectos de investigación de carácter geo - informáticos

permite adquirir y controlar informaciones relacionada a la estructura y los

servicios relacionados a sistemas administrativos y la toma de decisiones

inteligentes a través de la visualización espacial y el análisis.

Referencias

ESRI. (2011). A 3D GIS Solution for Campus Master Planning. Obtenido de ArcNews:

http://www.esri.com/news/arcnews/summer11articles/a-3d-gis-solution-for-campus-

master-planning.html

Información, C. d. (s.f.). Generalidades de los Sistemas de Información Geográfica. BOGOTÁ, D. C.: I.

G. A. Codazzi.

L. Zurita Espinosa. (2013). La Gestión del Conocimiento Territorial. p. 204.

Ministerio de Administraciones Públicas Gobierno de España. (s.f.). Metodología MÉTRICA Versión 3.

Obtenido de

http://administracionelectronica.gob.es/pae_Home/dms/pae_Home/documentos/Documen

tacion/Metodologias-y-guias/Metricav3/METRICA_V3_Introduccion.pdf.

122

Generación de material didáctico

para el uso de radios definidos por

software

Andrés Felipe Giraldo Almanza 21[autor]

Pablo Andrés Rueda Carvajal 21[autor]

Jairo Andrés Moreno Ciro 21[autor]

Resumen

Este proyecto se enfoca en la generación de material de apoyo para el desarrollo de prácticas

que hagan uso de radios definidos por software (SDR), con el fin de potenciar el aprendizaje

significativo en el programa de Ingeniería en Telecomunicaciones del Politécnico

Grancolombiano.

Introducción

Este proyecto pretende adelantar una investigación aplicada en temáticas de

implementación actuales en el mundo de las telecomunicaciones, SDR es una

tecnología en implementación en países avanzados tecnológicamente hablando, sin

embargo marca tendencia en el desarrollo de sistemas de transmisión de últimas

generaciones. Lo anterior se puede ver reflejado en:

Desarrollo de un laboratorio de aplicaciones de SDR, que permita a los estudiantes

del programa conocer y manipular esquemas de transmisión que seguramente

encontraran durante su vida laboral.

Avances hacia el desarrollo de aplicativos en radio cognitiva, la experiencia que

adquiera la Facultad en este proyecto puede ser utilizada en la construcción de

futuras iniciativas de investigación que deriven en el uso de los sistemas de radio

definido pos software como base y generen aplicaciones en sistemas de radio

cognitiva.

21 Programa de ingeniería en telecomunicaciones, Semillero InVADE (Semillero en instrumentación, automatización y electrónica),

Institución Universitaria Politécnico Grancolombiano, Bogotá. Correo electrónico: [email protected]

123

Marco Teórico y Estado del Arte

La aplicación de Radio Definida por Software (SDR) se define de diversas maneras, la

definición más sencilla la da el SDR Forum que describe los sistemas de radio definida

por software como “Radios con algunas o todas sus funciones de capa física definidas

por programación (software)”, en ellos las funciones realizadas en procesamiento de

señal usan DSP (procesamiento digital de señales), mientras que se utilizan sistemas

de RF convencionales, esto permite tener una plataforma de transmisión que puede

variar los esquemas de tratamiento de señal y adaptarse a los cambios que requiera la

red, adicionalmente los servicios que se prestan pueden cambiar de canal

(frecuencia), con el fin de mejorar la experiencia de la comunicación percibida por los

usuarios finales.

El uso de SDR es el primer paso en la implementación de un sistema de radio

cognitiva, tecnología que se está implementando y explotando en la presente década,

gracias al uso de los SDRs podemos garantizar el reusó de espectro (objetivo

establecido por la UIT), siendo el desarrollo de esquemas y protocolos sobre SDR un

tema de investigación relevante.

Metodología Empleada

Se presentan las siguientes etapas para el desarrollo del proyecto:

Análisis de requerimientos y posibilidades de la aplicación, en esta etapa se definen

las funciones que deben cumplir el sistema de transmisión y los limitantes que

provienen del hardware a utilizar.

Construcción de un marco referencial, Donde se revisarán esquemas existentes

(Transmisión y modulación), especificando su facilidad de implementación y posibles

aportes al desarrollo del trabajo

Implementación de posibles esquemas, etapa en la cual se construirán el conjunto

de posibles modulaciones y otras manipulaciones de señal y las diferentes frecuencias

que se utilizarán.

Pruebas y ajustes, Análisis del funcionamiento de las prácticas implementadas y

ajustes. Se incluye la consolidación de experimentos y consecución de datos, se

incluye la medición de interferencias en la transmisión RF haciendo uso de equipo

especializado, y finalmente la divulgación de los resultados y productos de la

investigación.

124

Resultados y Conclusiones

A la fecha el proyecto ha presentado los siguientes resultados:

- Generación de prácticas de configuración y uso de equipos de transmisión

haciendo uso del software LabView.

- Revisión de requerimientos para el uso del software GNU-radio.

- Implementación de una de las prácticas en el curso de Telecomunicaciones I

del programa de Ingeniería en Telecomunicaciones del Politécnico

Grancolombiano.

Referencias

ITU-R SM.2152, “Definitions of Software Defined Radio (SDR) and Cognitive Radio System (CRS)

Report,” Sept. 2009.

J. R. W. Heath, Digital Wireless Communication: Physical Layer Exploration Lab Using the NI USRP —

Student Lab Manual, Nat’l. Technology and Science Press, 2012.

A. M. Wyglinski, D. Pu, and D. Cullen, “Digital Communication Systems Education via Software-

Defined Radio Experimentation,” Proc.ASEE Annual Conf., 2011.

S. Katz and J. Flynn, “Using Software Defined Radio (SDR) to Demonstrate Concepts in

Communications and Signal Processing Courses,” 9th IEEE Frontiers in Education Conf., 2009.

C. R. Anderson, G. Schaertl, and P. Balister, “A Low-Cost Embedded SDR Solution for Prototyping and

Experimentation,” Proc. 2009 software Defined Radio Technical Conf. Digest of Papers, Washington,

DC, Dec. 2009.

13