historia de la inteligencia artificial

57
Historia de la inteligencia artificial y características 1 Ms. Ing. Jairo E. Márquez D. La Inteligencia Artificial surge a partir de algunos trabajos publicados en la década de 1940, los cuales no tuvieron gran repercusión, pero a partir del influyente trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la información. Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución. Entonces, ¿qué es la inteligencia artificial? - Es el nuevo y excitante esfuerzo de hacer que los computadores piensen… máquinas con mentes, en el más amplio sentido literal. (Haugeland, 1985). - El estudio de los cálculos que hacen posible percibir, razonar y actuar. (Winston, 1992). - El arte de desarrollar máquinas con capacidad para realizar funciones que cuando son realizadas por personas requieren de inteligencia. (Kurzweil, 1990). - Es el resultado de combinar distintas áreas (ciencias) con el propósito de crear máquinas que puedan (inteligencia). (Grupo 13). - El estudio de como hacer computadoras que hagan cosas que, de momento, la gente hace mejor. (Rich y Knight, 1991). - Un campo de estudio que busca explicar y emular el comportamiento inteligente en términos de procesos computacionales. (Schalko, 1990). - El estudio de las facultades mentales a través del estudio de modelos computacionales. (Charniak y McDermott, 1985) Estos conceptos confluyen a lo que se puede definir como Máquina inteligente; la cual es toda aquella que toma una decisión o piensa, producto de deducir de la información que dispone en su memoria. En otras palabras, lo que deduce no se encuentra exactamente igual en la memoria, sino que se toma información que fue almacenada anteriormente para 1 Fuente de consulta. Historia de la inteligencia artificial. http://es.wikipedia.org/wiki/Historia_de_la_inteligencia_artificial [En línea] Consultado el 18 de noviembre de 2011. Modificado y/o adaptado por el autor.

Upload: universidad-militar-nueva-granada

Post on 12-Apr-2017

334 views

Category:

Engineering


5 download

TRANSCRIPT

Page 1: Historia de la inteligencia artificial

Historia de la inteligencia artificial y características1

Ms. Ing. Jairo E. Márquez D.

La Inteligencia Artificial surge a partir de algunos trabajos publicados en la década de1940, los cuales no tuvieron gran repercusión, pero a partir del influyente trabajo en 1950de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de lainformación.

Si bien las ideas fundamentales seremontan a la lógica y algoritmos de losgriegos, y a las matemáticas de los árabes,varios siglos antes de Cristo, el conceptode obtener razonamiento artificial apareceen el siglo XIV. A finales del siglo XIX seobtienen lógicas formales suficientementepoderosas y a mediados del siglo XX, seobtienen máquinas capaces de hacer uso detales lógicas y algoritmos de solución.

Entonces, ¿qué es la inteligencia artificial?

- Es el nuevo y excitante esfuerzo de hacer que los computadores piensen…máquinas con mentes, en el más amplio sentido literal. (Haugeland, 1985).

- El estudio de los cálculos que hacen posible percibir, razonar y actuar. (Winston,1992).

- El arte de desarrollar máquinas con capacidad para realizar funciones que cuandoson realizadas por personas requieren de inteligencia. (Kurzweil, 1990).

- Es el resultado de combinar distintas áreas (ciencias) con el propósito de crearmáquinas que puedan (inteligencia). (Grupo 13).

- El estudio de como hacer computadoras que hagan cosas que, de momento, la gentehace mejor. (Rich y Knight, 1991).

- Un campo de estudio que busca explicar y emular el comportamiento inteligente entérminos de procesos computacionales. (Schalkoff, 1990).

- El estudio de las facultades mentales a través del estudio de modeloscomputacionales. (Charniak y McDermott, 1985)

Estos conceptos confluyen a lo que se puede definir como Máquina inteligente; la cual estoda aquella que toma una decisión o piensa, producto de deducir de la información quedispone en su memoria. En otras palabras, lo que deduce no se encuentra exactamente igualen la memoria, sino que se toma información que fue almacenada anteriormente para

1 Fuente de consulta. Historia de la inteligencia artificial.http://es.wikipedia.org/wiki/Historia_de_la_inteligencia_artificial [En línea] Consultado el 18 de noviembrede 2011. Modificado y/o adaptado por el autor.

Page 2: Historia de la inteligencia artificial

realizar una deducción. Por consiguiente, se infiere que la IA a diferencia de los sistemasoperacionales presenta ciertos elementos que la distinguen, como son:

Los sistemas operacionales se caracterizan por:

- Pensar el algoritmo para luego programarlo.- Procesamiento de datos mayormente.- Solo acepta la mejor solución posible.

Para el caso de la IA:

- Busca la información necesaria para solucionar un problema.- Procesamiento de conocimiento.- Acepta una respuesta o solución viable.

La Inteligencia Artificial comenzó como elresultado de la investigación en psicologíacognitiva y lógica matemática. Se ha enfocadosobre la explicación del trabajo mentaly construcción de algoritmos de solucióna problemas de propósito general. Punto de vistaque favorece la abstracción y la generalidad.

La Inteligencia Artificial es una combinaciónde la ciencia del computador, fisiología yfilosofía, tan general y amplio como eso, es quereúne varios campos (robótica, sistemasexpertos, por ejemplo), todos los cuales tienenen común la creación de máquinas que pueden"pensar".

Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos porWarren McCullock y Walter Pitts, en 1943, necesarios para posibilitar el trabajo declasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 DonaldHebb desarrolló un algoritmo de aprendizaje para dichas redes neuronalescreando, enconjunto con los trabajos de McCullock y Pitts, la escuela creacionista. Esta escuela seconsidera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco pormuchos años, dando paso al razonamiento simbólico basado en reglas de producción, loque se conoce como sistemas expertos.

Características de la Inteligencia Artificial2

1. Una característica fundamental que distingue a los métodos de InteligenciaArtificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque

2 Fuente. Neurociencia y Realidad virtual. http://neurocienciaeia.blogspot.com/ [On line] Consultado el 20 dejulio de 2012.

Page 3: Historia de la inteligencia artificial

no es suficiente para distinguirlo completamente. Otros tipos de programas comolos compiladores y sistemas de bases de datos, también procesan símbolos y no seconsidera que usen técnicas de Inteligencia Artificial.

2. El comportamiento de los programas no es descrito explícitamente por el algoritmo.La secuencia de pasos seguidos por el programa es influenciado por el problemaparticular presente. El programa especifica cómo encontrar la secuencia de pasosnecesarios para resolver un problema dado.

3. Estos programas incorporan factores y relaciones del mundo real y del ámbitodel conocimiento en que ellos operan.

4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de InteligenciaArtificial los programas no pueden trabajar con este tipo de problemas.

Heurística e Inteligencia Artificial3

La heurística se trata del arte de innovar, de visualizar en el diseño, de concebir nuevasideas, de hacer descubrimientos o logros, también es la capacidad de un sistema pararealizar de forma inmediata innovaciones positivas para sus fines. La capacidad heurísticaes un rasgo característico de los humanos, desde cuyo punto de vista puede describirsecomo el arte y la ciencia del descubrimiento y de la invención o de resolver problemasmediante la creatividad y el pensamiento lateral o pensamiento divergente.

Los procesos que se llevan a cabo en el cerebro pueden ser analizados, a un nivel deabstracción dado, como procesos computacionales de algún tipo.

En cierto sentido, el enfoque heurístico es el característico de la IA. Newell y Simonasociaban el "método de búsqueda heurística" con el tipo de representación de soluciones

3 Heurística e Inteligencia Artificial. Revista. Hiperenciclopedica de Divulgación del saber. Año 2006. Vol. 5,némuro 4. Octubre a diciembre de 2011.

Page 4: Historia de la inteligencia artificial

parciales. Nosotros nos vamos a limitar a explicar qué significa el término "heurística" en elámbito de la inteligencia artificial.

Desde el inicio de la IA, el término "heurística" osciló entre dos sentidos fundamentalesvinculados a la utilización de información del dominio de problemas (con el fin de haceruna búsqueda más eficiente) y a la imposibilidad de garantizar encontrar la solución de unproblema.

Estas definiciones se refieren, a dos conjuntos diferentes de métodos: dispositivos quemejoran la eficiencia y dispositivos que no garantizan obtener un resultado. El paradigmametaheurístico consiste en una familia de métodos de búsqueda que comenzó adesarrollarse con ese nombre a partir de la década del 80. Estrictamente no se lo consideraun paradigma sino simplemente un conjunto de métodos o herramientas de búsqueda, peroes posible que tarde o temprano entre en esta categoría. Osman y Kelly (1996) describen lametaheurística del siguiente modo: "Estas familias de enfoques incluyen pero no se limitana procedimientos adaptativos aleatorios golosos, algoritmos genéticos, búsqueda de umbraly sus híbridos. Incorporan conceptos basados en la evolución biológica, la resolucióninteligente de problemas, las ciencias matemáticas y físicas, el estudio del sistema nerviosoy la mecánica estadística". Un poco más adelante los autores describen a la disciplina de lasiguiente forma: "Las metaheurísticas son una clase de métodos aproximados, que estándiseñados para atacar problemas de optimización combinatoria difíciles para los que lasheurísticas clásicas fracasaron en ser efectivas y eficientes. Las metaheurísticasproporcionan marcos generales que permiten crear nuevos híbridos combinando diferentes

Page 5: Historia de la inteligencia artificial

conceptos de: heurísticas clásicas; inteligencia artificial; evolución biológica; sistemasneuronales y mecánica estadística".

Finalmente, Osman y Kelly comentan: "Debe notarse que existen convergencias teóricaspara algunas de las metaheurísticas bajo algunos supuestos. Sin embargo, estos supuestosno pueden satisfacerse o aproximarse en la mayoría de las aplicaciones prácticas. Por lotanto, se pierde la capacidad para demostrar optimalidad y se obtienen solucionesaproximadas. A pesar de este inconveniente, las metaheurísticas han sido altamenteexitosas en encontrar soluciones óptimas o cuasi óptimas en muchas aplicaciones prácticasde optimizaciones en diversas áreas, más que sus heurísticas subordinadas".

Yagiura e Ibaraki (1996) mencionan la combinación de herramientas heurísticas en marcosmás sofisticados como característica distintiva de las metaheurísticas y consideran que dosde sus propiedades atractivas son la simplicidad y la robustez.

Finalmente y para que conste la estrecha relación entre heurística e inteligencia artificialpresentamos algunas definiciones clásicas de Inteligencia Artificial:

Systems that can demonstrate human-like reasoning capability to enhance the quality oflife and improve business competitiveness. (Japan-S’pore AI Centre)

Page 6: Historia de la inteligencia artificial

La Inteligencia Artificial es el estudio de técnicas de resolución de problemas concomplejidad exponencial a partir del conocimiento del campo de aplicación delproblema. (Rich)

Tipos de algoritmos Heurísticos

En una primera clasificación podemos decir que los algoritmos heurísticos pueden sersimples o complejos. Los algoritmos simples tienden a tener reglas de terminación biendefinidas, y se detienen en un óptimo local, mientras que los algoritmos más complejospueden no tener reglas de terminación estándar, y buscan soluciones mejores hasta alcanzarun punto de parada arbitrario.

Dentro de los algoritmos heurísticos complejos podemos hacer una segunda clasificación,esta vez orientada a la funcionalidad de los mismos. En primer lugar podemos encontrarnoscon algoritmos que fueron diseñados para dar solución a problemas de búsqueda deóptimos o clasificación y por otro lado tenemos los algoritmos que tratan de deducirconocimiento a partir de un conjunto de axiomas, estos últimos conocidos como sistemasbasados en el conocimiento.

Entre los algoritmos de búsqueda de óptimos se encuentran los siguientes métodos:

Búsqueda Tabú Temple Simulado Algoritmos Genéticos Redes Neuronales Agentes inteligentes

Los sistemas basados en el conocimiento definen un área muy concreta dentro de lainteligencia artificial, conocida como Ingeniería del conocimiento. Los sistemasdesarrollados en este campo siguen un patrón heurístico similar al razonamiento humano.

Búsqueda Tabú

Page 7: Historia de la inteligencia artificial

La búsqueda tabú es un procedimiento o estrategia dado a conocer en los trabajos deGlover, y que esta teniendo grandes éxitos y mucha aceptación en los últimos años. Segúnsu creador, es un procedimiento que "explora el espacio de soluciones más allá del óptimolocal", (Glover y Laguna). Se permiten cambios hacia arriba o que empeoran la solución,una vez que se llega a un óptimo local. Simultáneamente los últimos movimientos secalifican como tabús durante las siguientes iteraciones para evitar que se vuelvan asoluciones anteriores y el algoritmo cicle. El término tabú hace referencia a un tipo deinhibición a algo debido a connotaciones culturales o históricas y que puede ser superada endeterminadas condiciones. (Glover).

Temple Simulado

El uso del temple simulado en problemasde Optimización se ha extendido desdemediados de los ochenta hasta ahora, apartir de los trabajos de Kirpatrick, Gelatt& Vecchi. Los algoritmos TempleSimulado están basados en una estrechaanalogía entre los procesos físicostermodinámicos y los elementos de unproblema de optimización combinatoria.Aunque asintóticamente estos algoritmosse comportan como exactos, (un análisisexhaustivo de esta afirmación se puedeencontrar en el trabajo de Aarts & Korst),en la práctica se diseñan como heurísticos.El campo de aplicaciones se ha extendidodurante estos años. En problemas de rutasdestacan las aportaciones de Osman, parael VRP; y Aarts y otros, para el problemadel viajante de comercio.

Algoritmos Genéticos

En los años setenta, de la mano de John Holland surgió una de las líneas más prometedorasde la inteligencia artificial, la de los algoritmos genéticos. Son llamados así porque seinspiran en la evolución biológica y su base genético-molecular. Estos algoritmos hacenevolucionar una población de individuos sometiéndola a acciones aleatorias semejantes alas que actúan en la evolución biológica (mutaciones y recombinación genética), así comotambién a una selección de acuerdo con algún criterio, en función del cual se decide cuálesson los individuos más adaptados, que sobreviven, y cuáles los menos aptos, que sondescartados.

Redes Neuronales

Page 8: Historia de la inteligencia artificial

En inteligencia artificial las redes de neuronas artificiales (RNA) son un ejemplo deaprendizaje y procesamiento automático basado en el funcionamiento del sistema nerviosoanimal. Se trata de simular el comportamiento observado en las redes neuronales biológicasa través de modelos matemáticos mediante mecanismos artificiales (circuitos integrados,ordenadores...). Con las RNA se pretende conseguir que las máquinas den repuestassimilares a las del cerebro humano, caracterizadas por su generalización y robustez.

Sistemas expertos

Los sistemas expertos se basan en simular el razonamiento humano con un doble interés: enprimer lugar el del analizar el razonamiento de un experto en la materia para podercodificarlo con la ayuda de un determinado lenguaje informático; por otra parte, la síntesisartificial de los razonamientos para que se parezcan a los del experto humano en laresolución de un determinado problema. Estos dos intereses han hecho que losinvestigadores del campo de la IA intenten establecer una metodología que les permitaverificar la "comunicación" con los expertos y separar los distintos tipos de razonamiento(formal, deductivo, inductivo...), además de construir los elementos necesarios paramodelizarlos.

Mientras que en la programación clásica se diferencia solamente entre el programa y losdatos, en los sistemas expertos se diferencian tres componentes:

Una base de conocimientos Una base de hechos Un motor de inferencia

La base de conocimientosalmacena toda la informaciónespecífica relativa al campo deconocimiento deseado. Para ello sehace uso de un lenguaje específicopara representar los conocimientosy que permite definir al experto supropio vocabulario técnico.

En la base de hechos se encuentranlos datos relativos a los problemasque se quieren resolver con laayuda del sistema. La memoria detrabajo almacena los resultadosintermedios, pudiendo guardar el rastro de las inferencias realizadas. Es por eso que puedeutilizarse para explicar la forma en la que el sistema ha deducido la información duranteuna sesión de trabajo o describir el comportamiento del propio sistema. Al comienzo delperíodo de trabajo, en la base de hechos sólo se encuentran los datos introducidos por elusuario del sistema, pero a medida que actúa el motor de inferencia, almacena lasinducciones y deducciones que ha llevado a cabo el sistema para conseguir lasconclusiones.

Page 9: Historia de la inteligencia artificial

El motor de inferencia, es un programa que a partir del "conocimiento" puede resolver elproblema especificado. Esto se consigue gracias a los datos de la base de hechos delsistema. Por lo general, las reglas de la base de conocimiento son silogismos demostrativos(si A es cierto entonces deducimos B). En este caso, el motor de inferencias selecciona,valida y activa las reglas que permiten obtener la solución correspondiente al problema encuestión.

Existen dos tipos de motor de inferencia: los que emplean el razonamiento aproximado(cuyo resultado puede ser erróneo) y los que usan un tipo de razonamiento a partir del quese puede obtener resultado verdadero.

Los elementos básicos de todo sistema experto son:

1. Base de conocimientos: diseñada a partir del conocimiento de un experto ogrupo de expertos humanos, está formada por reglas de validez general,distribuciones de probabilidad,...

2. Motor de inferencia: sistema de procesamiento lógico o probabilístico quepermite obtener unas conclusiones a partir de unos datos.

3. Interface de usuario: medio de comunicación entre el usuario y la máquina.A través de la interface el sistema solicita datos al usuario y le muestra lasconclusiones obtenidas.

4. Subsistema de adquisición de conocimiento: controla la forma en la quenuevo conocimiento es incorporado a la base de conocimientos.

5. Subsistema de explicación: se encarga de justificar las conclusionesobtenidas.

Esquema de funcionamiento de un sistema experto

Page 10: Historia de la inteligencia artificial

Agentes inteligentes

En los últimos años, dentro de la Inteligencia Artificial se están dedicando importantesesfuerzos a la construcción de programas conocidos como agentes inteligentes. Se trata deprogramas capaces de llegar a averiguar los gustos o preferencias del usuario y adaptarse aellos. Aunque son muchos los posibles usos, uno de los más destacados es la búsqueda deinformación en Internet. En la red pueden encontrarse ya programas que son capaces dellegar a identificar los temas de interés de un usuario particular a partir de las búsquedasque habitualmente realiza, una vez identificados esos temas pueden actuar como filtros,mostrando al usuario únicamente la información que le pueda resultar relevante, oinformando automáticamente de la aparición de nuevas páginas sobre sus temas de interés.(Cobo O. Ángel).

Introducción a la verificación en la ingeniería del conocimiento.

Al igual que la ingeniería del software, la ingeniería del conocimiento cuenta entre susfases con una destinada a la evaluación del sistema desarrollado.

Fases habituales en la ingeniería del conocimiento:

1. Estudio de viabilidad2. Adquisición del conocimiento3. Conceptualización (análisis)4. Formalización (diseño)5. Implementación6. Evaluación

La fase de evaluación en la ingeniería del conocimiento se caracteriza por los siguientesaspectos a tener en cuenta

Verificación

Sintaxis y estructura adecuada (no redundante, completa, consistente)

Se realiza en modelos conceptuales, formales y computables Validación

Semántica adecuada [experto]

Se realiza en modelos conceptuales, formales y computables

Por lo tanto podemos considerar como un proceso fundamental en la evaluación de"software inteligente" la creación de modelos matemáticos.

Modelos Matemáticos

Una de las fases del método heurístico sebasa en construir modelos. Aunqueexisten muchas definiciones de modelo,

Page 11: Historia de la inteligencia artificial

una de las más interesantes es la de Aracil: "Un modelo constituye una representaciónabstracta de un cierto aspecto de la realidad, y tiene una estructura que está formada por loselementos que caracterizan el aspecto de la realidad modelada y por las relaciones entreestos elementos".

Nosotros estamos interesados en modelos formales basados en la lógica matemática, y estosestán basados en un conjunto de relaciones matemáticas (relaciones lógicas, ecuaciones,inecuaciones, etc.) que representan las relaciones existentes en el mundo real. Un modeloqueda por lo tanto definido por las relaciones que contiene.

Podemos clasificar los modelos matemáticos según su función:

Modelos predictivos: Son aquellos que nos informan sobre el comportamiento de lavariable en el futuro, esto es, lo que debería ser. Los modelos basados en técnicasestadísticas se corresponden con este tipo.

Modelos evaluativos: Se basan en medir las diferentes alternativas para comparar losresultados de ellas. Este es el caso de los árboles de decisión.

Modelos de optimización: Estos modelos tratan de localizar un optimo del problema(generalmente el óptimo global), es decir, buscan la mejor alternativa posible. Estánbasados en técnicas de programación matemática.

Una vez se ha mostrado una breve clasificación de los modelos, es necesario aportar unamedida de su solución, puesto que el objetivo de definir un modelo es, resolverlo"cómodamente" y extraer los resultados necesarios para tomar alguna decisión.

La resolubilidad de los problemas depende de tres características:

1. El tamaño del problema: La variables y ecuaciones que contiene. para un mayornúmero de éstas resultará más difícil resolver el problema.

2. El tipo del problema: entero, lineal y no lineal. Los problemas lineales son "fáciles"de resolver, mientras que los no lineales son muy difíciles.

3. El tipo de instancias: Deterministas o ciertas, con riesgo (conociendo laprobabilidad de ocurrencia), con incertidumbre (se conocen los posibles resultadospero no la probabilidad de que ocurran) y turbulencia (no conocemos ningunacosa).

Punto de inflexión de la disciplina

En su histórico artículo de 1950, Turing propuso que la pregunta «¿puede pensar unamáquina?» era demasiado filosófica para tener valor y, para hacerlo más concreto, propusoun «juego de imitación». En la prueba de Turing intervienen dos personas y uncomputadora. Una persona, el interrogador, se sienta en una sala y teclea preguntas en laterminal de una computadora. Cuando aparecen las respuestas en la terminal, elinterrogador intenta determinar si fueron hechas por otra persona o por una computadora. Siactúa de manera inteligente, según Turing es inteligente. Turing, señaló que una máquinapodría fracasar y aún ser inteligente. Aun así creía que las máquinas podrían superar laprueba a finales del siglo XX.

Page 12: Historia de la inteligencia artificial

De todas maneras esta prueba no tuvo el valor práctico que se esperaba, aunque susrepercusiones teóricas son fundamentales. El enfoque de Turing de ver a la inteligenciaartificial como una imitación del comportamiento humano no fue tan práctico a lo largodel tiempo y el enfoque dominante ha sido el del comportamiento racional, de manerasimilar, en el campo de la aeronáutica se dejó de lado el enfoque de tratar de imitar a lospájaros y se tomó el enfoque de comprender las reglas de aerodinámica. Aunque desdeluego, el enfoque del comportamiento humano y el del pensamiento humano siguensiendo estudiados por las ciencias cognitivas4 y continúan aportando interesantes resultadosa la Inteligencia Artificial, y viceversa.

Disciplinas sobre las que se apoya

La ciencia no se define, sino que se reconoce. Para la evolución de la Inteligencia Artificiallas dos fuerzas más importantes fueron la lógica matemática, la cual se desarrollarápidamente a finales del siglo XIX, y las nuevas ideas acerca de computación y losavances en electrónica que permitieron la construcción de los primeros computadores en1940. También son fuente de la inteligencia artificial: la filosofía, la neurociencia y lalingüística. La lógica matemática ha continuando siendo un área muy activa en lainteligencia artificial. Incluso antes de la existencia de los ordenadores con los sistemaslógicos deductivos.

4 Se denomina ciencia cognitiva al estudio interdisciplinario de cómo la información es representada ytransformada en la mente/cerebro. Es el conjunto de disciplinas que surgen de la convergenciatransdisciplinaria de investigaciones científicas y tecnológicas, en torno a los fenómenos funcionales yemergentes, dados a partir de las actividades neurofisiológicas del encéfalo y del sistema nervioso,incorporados, y que típicamente se les denomina como: mente y comportamiento.

La naturaleza de las investigaciones cognitivas es necesariamente transdisciplinaria (es decir, tanto inter comomultidisciplinarias), surgiendo en un primer momento a partir de disciplinas autónomas como la lingüística, lapsicobiología cognitiva y la inteligencia artificial, y añadiéndose en una etapa más reciente la neurociencia yla antropología cognitiva.

Page 13: Historia de la inteligencia artificial

Orígenes y Evolución Cronológica

Antecedentes

Los juegos matemáticos antiguos, como el delas Torres de Hanói (hacia el 3000 a. C.),muestran el interés por la búsqueda de un modoresolutor, capaz de ganar con los mínimosmovimientos posibles.

Cerca de 300 a. C., Aristóteles fue el primeroen describir de manera estructurada un conjuntode reglas, silogismos, que describen una partedel funcionamiento de la mente humana y que,al seguirlas paso a paso, producen conclusionesracionales a partir de premisas dadas.

En 250 a. C. Ctesibio de Alejandría construyóla primera máquina autocontrolada, unregulador del flujo de agua que actuabamodificando su comportamiento"racionalmente" (correctamente) peroclaramente sin razonamiento.

En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de maneraartificial.

En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completaque los silogismos de Aristóteles, pero aún algo poco potente.

En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden lacual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad.

En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.

Page 14: Historia de la inteligencia artificial

En 1937 Alan Turing publicó un artículo de bastante repercusión sobre los "NúmerosCalculables", un artículo que estableció las bases teóricas para todas las ciencias decomputación, y que puede considerarse el origen oficial de la informática teórica. En esteartículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta queformalizó el concepto de algoritmo y resultó ser la precursora de las computadorasdigitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada yejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de lasciencias de la computación porque demostró que no es posible resolver problemas conningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existenproblemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, porlo que se le considera el padre de la teoría de la computabilidad5.

En 1940 Alan Turing y su equipo construyeron el primer computador electromecánico y en1941 Konrad Zuse creó la primera computadora programable y el primer lenguaje de

5 La Teoría de la computabilidad es la parte de la computación que estudia los problemas de decisión quepueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing. La teoría de lacomputabilidad se interesa a cuatro preguntas:

¿Qué problemas puede resolver una máquina de Turing? ¿Qué otros formalismos equivalen a las máquinas de Turing? ¿Qué problemas requieren máquinas más poderosas? ¿Qué problemas requieren máquinas menos poderosas?

La teoría de la complejidad computacional clasifica las funciones computables según el uso que hacen dediversos recursos en diversos tipos de máquina.

Page 15: Historia de la inteligencia artificial

programación de alto nivel Plankalkül. Las máquinas más potentes, aunque con igualconcepto, fueron la ABC y ENIAC.

En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales,el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuandotodavía no existía el término.

1950´s

En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo ComputingMachinery and Intelligence, en el que propuso una prueba concreta para determinar si unamáquina era inteligente o no, su famosa Prueba de Turing por lo que se le considera elpadre de la Inteligencia Artificial. Años después Turing se convirtió en el adalid quequienes defendían la posibilidad de emular le pensamiento humano a través de lacomputación y fue coautor del primer programa para jugar ajedrez.

En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nuevageneración de computadoras mucho más rápidas y pequeñas.

Durante este periodo la IA se redujo a una actividad académica poco conocida fuera de losambientes especializados. La ambición exagerada en los objetivos planteados se contrapusocon las limitaciones de la tecnología de la época, lo que conllevaría una desilusióngeneralizada al final de estos años, y no solo por estas limitaciones, sobre todo por laconstatación teórica de la imposibilidad de obtener resultados en ciertos casos.

A pesar de esto, se realizaron avances menos ambiciosos, y entre los proyectos másdestacados se encuentran:6

- Logic theorist. (1956). Fue programado por Alan Newell, Herbert Simon y J.C. Shaw ybuscaba las demostraciones de Teoremas Lógicos, es decir, de la forma: supuesto que obien X o bien Y es verdadera, y supuesto que Y es falsa, entonces X es verdadera.

En 1956 se acuñó el término "inteligencia artificial" en Dartmouth durante una conferenciaconvocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En estaconferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, loque provocó el abandono casi total de las investigaciones durante quince años.

- General Problem Solver.(GPS) Este programa intentaba resolver problemas mediante unatécnica que permitiera, dados el objetivo y los medios disponibles, encontrar la manera deutilizar dichos medios para alcanzar el objetivo (análisis medios-fines), pero solo se pudoaplicar a algunas tareas muy simples ya que requería gran cantidad de conocimientos sobreel dominio.

6 Fuente de consulta. Historia e la inteligencia artificial.http://matap.dmae.upm.es/LE/Divulgacion/IA/ISMAESWEB/historia/historia.htm [On line] Consultado el 20de julio de 2012.

Page 16: Historia de la inteligencia artificial

- Perceptrón. (1958). Fue iniciado por Frank Rosenblatt, con la intención de determinaralgunas de las propiedades fundamentales de los sistemas inteligentes. Rosenblatt creía quela conducción de la información a través de las redes neuronales tenía un gran componentealeatorio, y por eso utilizó la teoría de probabilidad. La mejora del Perceptrón hizo quefuera capaz de distinguir y clasificar patrones muy complejos, y aunque en 1969, Minsky yPapert con su "Perceptrons: An Introduction to Computational Geometry" pusieron demanifiesto las limitaciones de este tipo de redes, como el de solucionar problemas que nosean linealmente separables, el Perceptrón ha servido como base para otros modelos de redneuronal como la Adaline, o las redes multicapa.

- LISP. (1958). Jhon McCarthy creo el lenguaje de programación de los investigadores dela IA

- SAINT. (1961) Programa de J. Slagle, que inicia la automatización de la integraciónsimbólica.

- Geometry Theorem Prover. (1958). Programa desarrollado por IBM para resolverproblemas geométricos.

- Programa para jugar a las damas. (1962). Creado por Samuel, y también desarrolladopor IBM, era capaz de aprender de la experiencia, y corregir sus propios errores parapartidas posteriores. Bernstein logró lo mismo para el ajedrez, pero las quejas de losaccionistas de IBM, al considerar que se estaba gastando su dinero que frivolidades acabocon estos proyectos.

- Traducción Automática. Tras la II Guerra Mundial, en la que los británicos utilizaronordenadores para descifrar códigos secretos nazis, la CIA intento crear un programa quetradujera casi en el acto cualquier texto de cualquier idioma, pero tras un gran esfuerzohumano y económico el proyecto resulto un fracaso y se paralizaron todos lasinvestigaciones lingüísticas financiadas con dinero público. Un ejemplo del resultado de latraducción del inglés al ruso y luego del ruso al inglés.

Original en ingles: El espíritu es fuerte, pero la carne es débil.

Resultado después de traducir al ruso y luego al inglés: El vodka es bueno, pero el fileteestá podrido.

- Micromundos de Bloques. (1963). Tras desistir de los intentos en visión artificial, en losque se intentaba conectar una cámara a un ordenador y que este describiera lo visto, seintento llevarlo a cabo con unos objetivos más humildes. Los micromundos son"representaciones" de laboratorio de la vida real, donde quien interactué con la realidad seaun ordenador, y así en 1964 se crearon los programas STUDENT y SIR. El primero, creadopor Bobrow, entendía enunciados de problemas algebraicos y respondía a preguntas deltipo: Juan tiene 10 años más que Pedro que tiene el doble de Luis... Por su parte el SIRcomprendía oraciones sencillas. Ambos funcionaban por "comparación de patrones", esdecir, detectando unas palabras clave en una posición determinada obtenía la informaciónnecesaria.

Page 17: Historia de la inteligencia artificial

- ELIZA. (1965) Creado por Weizenbaum, que perfeccionaba al STUDENT y al MIT,permitiendo cambiar de tema, por ejemplo. ELIZA es un programa de gran importanciadentro de la IA, pero su forma de entablar una conversación se debe a numerosos "trucos",como repetir frases cambiando el "yo" por el "tu" o utilizar frases hechas ("ya veo", etc).Parecía que el ELIZA lograría superar el test de Turing, pero no lo hizo, pues esteprograma, en medio de una conversación, intercala frases hechas que un humano noutilizaría.

- SHAKEY. (1969) Un equipo de investigación de Stanford tuvo la idea de poner ruedas aun robot. El ejército americano vio en este proyecto la posibilidad de lograr un espíamecánico, pero su apariencia no pasaba ni mucho menos inadvertida, y se redefinió elproyecto. Al robot se le llamo Shakey, y se investigo su uso para recibir órdenes y llevarobjetos a determinados sitios, pero el proyecto dejo de ser subvencionado.

- DENTRAL. (1965) También en Stanford, y es el primer sistema experto. Significa árbolen griego, y permitió a los químicos estudiar las características de un compuesto químico,ya que hasta entonces su única forma de investigación era tomar hipótesis y compararlascon los resultados experimentales. El exceso de optimismo, como anunciar con antelaciónresultados que luego nunca se conseguirían marcaron hizo mucho mal a la inteligenciaartificial, y así, subestimar la dificultad de los problemas a los que se enfrentabandesacreditaron mucho a la IA, llegando incluso a perder subvenciones millonarias.

1970 a 19797

Durante este periodo, se inicia la institucionalización de la comunidad científica de la IA,con el Primer Congreso Internacional de Inteligencia Artificial y la aparición de la primerarevista especializada, Artificial Intelligence. También, se extiende su estudio de los círculosacadémicos a centros de investigación y a las universidades, donde se tratan problemasmenos teóricos y se realizan aplicaciones más experimentales, como los sistemas expertos yla programación lógica.

El exceso de optimismo y sus nefastas consecuencias dieron paso a un replanteamiento delos objetivos y como consecuencia el tratamiento de problemas más concretos. Seempezaron a utilizar sistemas expertos, que se basan en la simulación del razonamientohumano y que supuso un gran avance, los mas destacados son:

- MYCIN (1976) Creado en Stanford por Feigenbaum y Buchanan se trata de un sistemaexperto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisisde sangre, cultivos bacterianos y otras datos, es capaz de determinar, o al menos sugerir elmicroorganismo causante de la infección, y después de esto, recomienda una medicaciónque se adaptaba perfectamente a las características del sujeto.

- PROSPECTOR (1978) Sistema experto capaz de encontrar yacimientos de minerales, enparticular cobre y uranio.

7 Ibid.

Page 18: Historia de la inteligencia artificial

- XCON (1979) Creado por Jhon McDermott, es el primer sistema experto con aplicacionesfuera de los ámbitos académicos y de los laboratorios de investigación. Este sistemapermitía configurar todos los ordenadores que DEC iba a sacar al mercado, y que teníanconfiguraciones distintas entre sí, evitando de esta manera que los fallos de estosordenadores obligaran a arreglarlos uno por uno. Tras un primer fracaso, su posteriordesarrollo logro conseguir los objetivos marcados.

Dentro de la programación lógica se logra uno de los avances mas destacables con laaparición del lenguaje PROLOG, en 1972 por la Universidad de Marsella. Los éxitos deestos sistemas expertos animaron a muchas empresas a invertir en IA. Su desarrollo hizoque estos programas fueran más rentables y así empezaron a sustituir a personas expertas endeterminadas materias.

1980´s

En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugaral auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo queeste campo sufrió una nueva interrupción en los años noventa.

En 1980 se crea el sistema experto matemático MAPLE, al que sigue en 1988 elMATHEMÁTICA. Ambos programas permiten trabajar directamente con expresionessimbólicas como derivadas, matrices o tensores.

En 1982 se funda el ECCAI (European Coordinating Committee for Artificial Intelligence).En 1985 la Nasa crea el CLIPS, un generador de sistemas expertos codificado en C. Esemismo año se crea un juego de ajedrez que alcanza el nivel de Gran Maestro.

En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agenteinteligente. Al intentar describir con un mayor ámbito (no sólo la comunicación) losatributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creadoramas de investigación enorme y diferenciada. Dichos atributos del agente inteligente son:

1. Tiene actitudes mentales tales como creencias e intenciones.2. Tiene la capacidad de obtener conocimiento, es decir, aprender.3. Puede resolver problemas, incluso particionando problemas complejos en otros más

simples.4. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o

contradictorias.5. Planifica, predice consecuencias, evalúa alternativas (como en los juegos de

ajedrez)6. Conoce los límites de sus propias habilidades y conocimientos.7. Puede distinguir a pesar de la similitud de las situaciones.8. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando

analogías.9. Puede generalizar.10. Puede percibir y modelar el mundo exterior.11. Puede entender y utilizar el lenguaje y sus símbolos.

Page 19: Historia de la inteligencia artificial

A finales de los 80 se recuperan los esquemas del Perceptrón para las redes neuronales, y seempiezan a utilizar los nuevos microordenadores de Apple e IBM, siendo este el fin de lasLISP.

Podemos entonces decir que la IA posee características humanas tales como el aprendizaje,la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y lapercepción modular del mundo. Así, podemos hablar ya no sólo de un objetivo, sino demuchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.

1990´s

En los 90´s surgen los agentes inteligentes.“En 1997 se produjo uno de los hechos máspopulares relacionado con la IA cuando DeepBlue logro vencer a Kasparov, pero la industriajaponesa ha ido más alla y primero Honda conASIMO, un robot humanoide capaz de andar ysubir escalaras, y luego Sony con su AIBO, unrobot-perro al que se le han programadoemociones e instintos. Sus actos buscansatisfacer sus deseos, que previamente han sidogenerados por sus instintos, si los satisfaceestará contento, sino mostrara su enfado hastalograr la atención que quiere y la manera conque el amo responda a estas expresiones de emotividad influirá en su "personalidad". AIBOpuede reconocer hasta 40 voces y puede recordar el nombre que se le de y responder antesu llamada.

Otros logros de la IA, son por ejemplo el reconocimiento de la voz para reservar billetes deavión, protección de fraudes de tarjetas de crédito, detección de pequeñas anomalíasinvisibles al ojo humano en radiografías, traducción automática de documentos o lautilización de sistemas expertos en el diagnostico de enfermedades o incluso en elfuncionamiento del trasbordador espacial.”8

2000´s

El programa Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganó el premioLoebner al Chatbot mas humano en 2000, 2001 y 2004, y en 2007 el programa Ultra HalAssistant ganó el premio.

2010´s

En la actualidad se está tan lejos de cumplir la famosa prueba de Turing como cuando seformuló: Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre unser humano y un programa de computadora en una conversación a ciegas. Como anécdota,

8 Ibidem.

Page 20: Historia de la inteligencia artificial

muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capazde ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro»:

En 2010 el programa Suzette ganó el premio Loebner. Algunos programas de inteligenciaartificial gratuitos son Dr. Abuse, Alice, Paula SG, Virtual woman millenium.

2011

Se crea por parte de investigadores de la Ecole Polytechnique Federale de Lausanne enSuiza, un sistema que permite identificar y rastrear jugadores de baloncesto. Por ahora seemplea para telemetría, pero lo que sigue es comentar las peripecias del juego, y otroscomo la Formula 1. Verhttp://www.youtube.com/watch?feature=player_embedded&v=ZgbCZgXRRkY

SmartBird: Creado por Festo, este robot vuela como un ave. Verhttp://www.youtube.com/watch?feature=player_embedded&v=nnR8fDW3Ilo#!

Page 21: Historia de la inteligencia artificial

Chatbot: El laboratorio Creative Machines de Cornell en los EE. UU diseñó esteexperimento en el que dos IA conversaron de forma fluida. Verhttp://www.youtube.com/watch?feature=player_embedded&v=WnzlbyTZsQY

ASIMO. Este robot de Honda, ha venido evolucionando a lo largo de los años, en la quehasta el 2011 ya este sistema reconoce voces en una conversación. Verhttp://www.youtube.com/watch?feature=player_embedded&v=MTtWETnWfHo#!

Page 22: Historia de la inteligencia artificial

Robot Flexible. Científicos de Harvard mostraron el prototipo de un robot flexible, hechode materiales blandos, que le permite reconfigurar su estructura morfológica, de tal maneraque le permite obviar obstáculo. Verhttp://www.youtube.com/watch?feature=player_embedded&v=Z19OZUQV20E

Swarmanoid: Es la creación de varios robots actuando de forma colectiva. En la que unosse especializan en la manipulación de objetos y la escalada, algunos se mueven en el sueloy trasportan objetos, otros vuelan y observan el entorno desde lo alto. Este video presentaeste sistema cordianado por Marco Dorigo, financiado por la Comisión Europea. Verhttp://www.youtube.com/watch?feature=player_embedded&v=M2nn1X9Xlps

Page 23: Historia de la inteligencia artificial
Page 24: Historia de la inteligencia artificial
Page 25: Historia de la inteligencia artificial

Otros proyectos que vale la pena mencionar son:

- Un equipo de neurocientíficos españoles ha desarrollado una interfaz cerebro-ordenador basada en un teléfono móvil. Las personas con movilidad reducidapodrían beneficiarse de este innovador sistema en un futuro próximo. En elexperimento que aparece en la fotografía de portada, el participante utilizaúnicamente su pensamiento para marcar un número de teléfono.

- Supercomputador Watson: IBM desarrolló una supercomputadora llamada Watson ,la cual ganó una ronda de tres juegos seguidos de Jeopardy9, venciendo a sus dosmáximos campeones, y ganando un premio de 1 millón de dólares que IBM luegodonó a obras de caridad

2012

Científicos de un proyecto llamado COSPAL, patrocinado por la Unión Europea, hancreado un robot cuya inteligencia Artificial es comparable a un bebé humano de 2 a 3 años.“Según los científicos que diseñaron el robot, el gran paso se dio al unificar en un solosistema las dos filosofías clásicas sobre cómo diseñar sistemas de Inteligencia Artificial(IA). Por un lado está la manera clásica de proveerle a una IA un conjunto extenso dereglas, las cuales son evaluadas por la IA y toma decisiones en base a ellas. La otra maneramás moderna es proveer lo que se llama una red neuronal, que permite que la IA mismaaprenda las reglas y se adapte al medio ambiente. Como ejemplo, al robot (el cual tiene

9 Jeopardy es un concurso de televisión estadounidense con preguntas sobre historia, literatura, arte, culturapopular, ciencia, deportes, geografía, juegos de palabras, y otros temas. El programa tiene un formato de"respuesta y pregunta", en el cual a los concursantes se les presentan pistas en forma de respuestas, y debendar sus respuestas en forma de una pregunta.

Page 26: Historia de la inteligencia artificial

cámaras para ver y un brazo para manipular objetos) se le mostró el popular juguete paraniños en donde se le provee al bebé varias piezas de diferentes formas geométricas, y estetiene que aprender a insertarlas en agujeros de la forma compatible con ellos. Se procedió aentrenar al robot como se entrenaría a un niño, diciéndole simplemente si lo estabahaciendo mal o no, pero en ningún momento programándole las reglas del juego, o nisiquiera lo que debería hacer. El robot, poco a poco empezó a entender lo que debía hacer,y no solo eso, sino que empezó a aprender la manera en que debía colocar las piezas en sulugar. Esto, por mas sencillo que parezca, es un gigantesco paso en el desarrollo deverdaderas entidades de IA, y sin duda alguna de aquí en adelante este tipo de tecnologíasolo hará que estas Inteligencia Artificiales se tornen cada vez mas inteligentes, yconscientes, de sí mismas.”10

Test de Turing

Si usted señor lector hablara con una máquina a través de internet, ¿podría distinguir si setrata de un computador?

La prueba de Turing.

Los seres humanos evalúan la inteligencia de sus congéneres a través de la interacción conellos, si un computador pudiera hacerse pasar por una persona... ¿se podría afirmar que es

10 Fuente de información. Crean inteligencia artificial con inteligencia de un bebe. [On line]. Consultado el17 de julio de 2012. http://www.eliax.com/?post_id=4615

Page 27: Historia de la inteligencia artificial

inteligente? Existen algunos candidatos que están muy cerca de aprobar este examen,conocido como el test de Turing, incluyendo al robot cleverbot.

El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing parademostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en unartículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo unode los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta enla hipótesis positivista de que, si una máquina se comporta en todos los aspectos comointeligente, entonces debe ser inteligente.

La prueba consiste en un desafío. Se supone un juez situado en una habitación, y unamáquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es lamáquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que eljuez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles,el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ningunamáquina puede pasar este examen en una experiencia con método científico.

En 1990 se inició un concurso, elPremio Loebner11, unacompetición de carácter anualentre programas de ordenadorque sigue el estándar establecidoen la prueba de Turing. Un juezhumano se enfrenta a dospantallas de ordenador, una deellas que se encuentra bajo elcontrol de un ordenador, y la otrabajo el control de un humano. Eljuez plantea preguntas a las dospantallas y recibe respuestas. Elpremio está dotado con 100.000dólares estadounidenses para el programa que pase el test, y un premio de consolación parael mejor programa anual. Todavía no ha sido otorgado el premio principal.

Pruebas paralelas

Existe otra prueba parecida, propuesta por John Searle y popularizada por Roger Penrose:la "sala china"12, para argumentar que la máquina no ha superado la Prueba de Turing. Enesencia, es igual en la forma, pero se realiza con personas encerradas en una habitación y se

11 El Premio Loebner es una competición de carácter anual que concede premios a un programa deordenador que esté considerado por el jurado que lo compone, como el más inteligente de los que se hanpresentado. El formato de la competición sigue el estándar establecido en el test de Turing. Un juez humanose enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador, y laotra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. En base alas respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada porel programa de ordenador.

Page 28: Historia de la inteligencia artificial

requiere que estas no conozcan el idioma en que se realiza la conversación. Para ello se usaun diccionario que permite confeccionar una respuesta a una pregunta dada, sin entenderlos símbolos. Como consecuencia, se argumenta que por mucho que una persona sea capazde enviar una cadena de símbolos en chino relacionada con otra cadena recibida, no quieredecir que sepa chino, sino que sabe aplicar un conjunto de reglas que le indican lo que hade enviar.

Falta la semántica en el proceso y por eso es muy cuestionada como inteligencia artificial,puesto que equipara una máquina pensante con una que parece que piensa. Ray Kurzweilpredice que el ordenador pasará la prueba de Turing hacia el 2029, basado en el conceptode singularidad tecnológica.

Aplicaciones

Una de las aplicaciones de la prueba de Turing es el control de spam. Dado el gran volumende correos electrónicos enviados, el spam es, por lo general, enviado automáticamente poruna máquina. Así la prueba de Turing puede usarse para distinguir si el correo electrónicoera enviado por un remitente humano o por una máquina (por ejemplo por la pruebaCaptcha).

El Captcha es el acrónimo de Completely Automated Public Turing test to tell Computersand Humans Apart (Prueba de Turing pública y automática para diferenciar máquinas yhumanos).

Este es un típico test para la secuencia "smwm" que dificulta el reconocimiento de lamáquina distorsionando las letras y añadiendo un degradado de fondo.

Se trata de una prueba desafío-respuesta utilizada en computación para determinar cuándoel usuario es o no humano. La típica prueba consiste en que el usuario introduzca unconjunto de caracteres que se muestran en una imagen distorsionada que aparece enpantalla. Se supone que una máquina no es capaz de comprender e introducir la secuenciade forma correcta por lo que solamente el humano podría hacerlo.

Los captchas son utilizados para evitar que robots, también llamados spambots, puedanutilizar ciertos servicios. Por ejemplo, para que no puedan participar en encuestas,registrarse para usar cuentas de correo electrónico (o su uso para envío de correo basura)y/o más recientemente, para evitar que correo basura pueda ser enviado por un robot (elremitente debe pasar el test antes de que se entregue al destinatario).

El sistema captcha tiene las siguientes características por definición:

Page 29: Historia de la inteligencia artificial

Son completamente automatizados, es decir, no es necesario ningún tipo demantenimiento / intervención humana para su realización. Esto supone grandesbeneficios en cuanto a fiabilidad y coste.

El algoritmo utilizado es público. De esta forma la ruptura de un captcha pasa a ser unproblema de inteligencia artificial y no la ruptura de un algoritmo secreto.

La habitación China

La habitación china es un experimento mental, propuesto originalmente por John Searle ypopularizado por Roger Penrose, mediante el cual se trata de rebatir la validez del Test deTuring y de la creencia de que una máquina puede llegar a pensar.

Searle se enfrenta a la analogía entre mente y ordenador cuando se trata de abordar lacuestión de la conciencia. La mente implica no sólo la manipulación de símbolos, y ademásde una sintaxis posee una semántica.

El experimento de la habitación china

Supongamos que han pasado muchos años, y que el ser humano ha construido una máquinaaparentemente capaz de entender el idioma chino, la cual recibe ciertos datos de entradaque le da un hablante natural de ese idioma, estas entradas serían los signos que se leintroducen a la computadora, la cual más tarde proporciona una respuesta en su salida.Supóngase a su vez que esta computadora fácilmente supera la Prueba de Turing, ya queconvence al hablante del idioma chino de que sí entiende completamente el idioma, y porello el chino dirá que la computadora entiende su idioma.

Page 30: Historia de la inteligencia artificial

Ahora Searle pide suponer que él está dentro de ese computador completamente aislado delexterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo)por el que pueden entrar y salir textos escritos en chino.

Supongamos también que fuera de la sala o computador está el mismo chino que creyó quela computador entendía su idioma y dentro de esta sala está Searle que no sabe ni una solapalabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios quele indican las reglas que relacionan los caracteres chinos (algo parecido a "Si entran tal y talcaracteres, escribe tal y tal otros").

De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto enchino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacercreer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leídoese idioma.

Dada esta situación cabe preguntarse:

¿Cómo puede Searle responder si no entiende el idioma chino? ¿Acaso los manuales saben chino? ¿Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus

respuestas) como, un sistema que entiende chino?

Manipular símbolos en base a su forma no significa que conozcamos su contenido.

Page 31: Historia de la inteligencia artificial

De acuerdo a los creadores del experimento, los defensores de la inteligencia artificialfuerte -los que afirman que programas de ordenador adecuados pueden comprender ellenguaje natural o poseer otras propiedades de la mente humana, no simplementesimularlas- deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar eltest de Turing no es prueba suficiente de inteligencia. Para los creadores del experimentoninguno de los componentes del experimento comprende el chino, y por tanto, aunque elconjunto de componentes supere el test, el test no confirma que en realidad la personaentienda chino, ya que como se sabe Searle no conoce ese idioma.

El argumento de la habitación china

Esto es así en el contexto de la siguiente argumentación:

1. Si la Inteligencia Artificial Fuerte es verdadera, hay un programa para el idioma chino talque cualquier mecanismo que lo ejecute entiende chino.

2. Una persona puede ejecutar mecánicamente un programa para el idioma chino sinentender el idioma chino.

3. Los argumentos de la inteligencia artificial fuerte son falsos porque en realidad elsistema no entiende chino, nada más simula entender.

Una puntualización importante: Searle no niega que las máquinas puedan pensar -el cerebroes una máquina y piensa-, niega que al hacerlo apliquen un programa.

Críticas al experimento de la habitación china

El experimento mental de la habitación chinaconfirmaría la premisa 2, a juicio de sus defensores. Ajuicio de sus detractores, la premisa 2 basada en lainferencia a partir del experimento mental no esconcluyente. Las objeciones suelen seguir una de lastres líneas siguientes:

Aunque el habitante de la habitación noentienda chino, es posible que el sistema másamplio formado por la habitación, losmanuales y el habitante entienda chino.

Una persona manipulando signos escritosdentro de una habitación estática no es el únicocandidato posible para ocupar el puesto desistema computacional capaz de entenderchino. Hay otros modelos posibles: a. un robotcapaz de interactuar con el entorno y aprenderdel mismo; b. un programa que regule los

Page 32: Historia de la inteligencia artificial

procesos neuronales involucrados en la comprensión del chino, etc. No hay razónpara decir que estos modelos sólo exhiben una comprensión aparente, como en elcaso de la habitación y su habitante, pero son modelos de Inteligencia Artificial.

Si la conducta de la habitación no es evidencia suficiente de que entiende chino,tampoco puede serlo la conducta de ninguna persona. Se hace uso de una figuraretórica tratando de desfigurar el concepto de entendimiento, ya pues es absurdodecir que la máquina no puede "responder en chino a un hombre" porque "noentiende realmente el chino", para entender de ese modo "se ha de ser capaz decrear la idea en base a la forma conceptual", esa teoría de la idea quizás sea algomás "idealista" que científica. En cualquier caso la mente de un hombre se basa enalgoritmos más complejos y más costosos de procesar que los que actualmenteposeen los actuales computadores. Es cuestión de tiempo.

La adquisición de entendimiento (a lo que podemos llamar inteligencia) es unproceso evolutivo, en el cuál puede aplicarse diferentes técnicas y herramientas queconlleven al individuo a un aprendizaje (en este caso del idioma chino), por lo cualse hace necesario establecer niveles de entendimiento en el tiempo.

Respuestas a los Argumentos en contra de la habitación China

Aunque es verdad que el sistema maneja el chino, éste no entiende el idioma, esdecir, la persona dentro del cuarto no entiende lo que está haciendo, nada más loestá haciendo. Por consiguiente, el que un computador maneje un idioma, nosignifica que éste entienda lo que está haciendo, nada más significa que estárealizando una acción.

A su vez, la persona que maneja el chino no sólo se puede entender como unapersona, lo que trata de mostrar el ejemplo es el cómo las computadoras noentienden lo que manejan y nada más siguen unas reglas ya determinadas sin tenerque entenderlas.

La última proposición tiene muchas contradicciones, por ejemplo se sabe que losque están leyendo estas palabras sí entienden el idioma, al contrario de lacomputadora, que tan solo maneja información sintáctica (es decir que nada másmanejan una acción, sin contenido propio), los humanos manejamos informaciónsemántica (con contenido, lo que nos asegura que comprendamos lo que hacemos,ya que le vemos contenido a lo que hacemos).

Que un sistema pueda responder a acciones con una acción, no significa que tengaInteligencia en sí mismo, todo lo que hace para responder a las acciones con unaacción es inentendible para él, simplemente responde a las acciones con una acciónque sucede mediante inferencias, creando relaciones y agrupando, para determinaruna conclusión basta y probable de ser errónea. Es hasta ahora imposible poderdemostrar lo contrario pues no hay manera de plasmar lo biológico en una máquina,y lo biológico es sumamente complejo más aún que lo artificial, lo artificial alcrearse es entendible en su totalidad, en cambio hay ciertas partes de lo biológico

Page 33: Historia de la inteligencia artificial

que aún no se pueden interpretar, tal es el caso de la inteligencia de los seres. El serhumano tiene capacidades que jamás podrán ser imitadas por una máquina,simplemente por ser biológico, natural.

Singularidad tecnológica13

En futurología, la singularidad tecnológica (algunas veces llamada simplemente laSingularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológicoy el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana,cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a laSingularidad sería incapaz de comprender o predecir. Dicho acontecimiento se hanombrado así por analogía con la singularidad espaciotemporal observada en los agujerosnegros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y dondela convergencia hacia valores infinitos hace imposible el definir una función.

El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización demáquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.

La Singularidad Tecnológica (paradiferenciarla del concepto de Singularidaden la física) contempla un momento en lahistoria donde el progreso tecnológicogenera un cambio “comparable alnacimiento de vida humana en la Tierra.La causa precisa de este cambio es lacreación inminente de entidades coninteligencia mayor a la humana por mediode la tecnología”, escribió Vernor Vinge,autor de ciencia ficción que propuso el

término de Singularidad Tecnológica en un ensayo publicado en 1993. Allí Vinge especulaque este cambio podría darse por medio de la inteligencia artificial, las interfaceshumano/computador, o por la modificación biológica del genoma humano. Luego de estepunto, terminaría la historia humana.14

Vinge afirma también que “Creo que es probable que con la tecnología podamos, en unfuturo muy cercano, crear o convertirnos en seres más inteligentes que los humanos. Talsingularidad tecnológica revolucionaría nuestro mundo, llevándolo a una era post-humana. Si fuera a pasar dentro de un millón de años, no valdría la pena preocuparse.¿Así que a que me refiero cuando digo “un futuro muy cercano”? En mi ensayo de 1993,

13 Fuente. Singularidad tecnológica. http://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica [En línea]consultado el 18 de noviembre de 2011.

14 Fuente. Especial H2blOg: La Singularidad Tecnológica. [en Linea] Consultado el 25 de junio de 2012.http://proyectoliquido.net/h2blog/121/especial-h2blog-la-singularidad-tecnologica/

Page 34: Historia de la inteligencia artificial

“El Advenimiento de la Singularidad Tecnológica”, dije que estaría sorprendido si lasingularidad no sucediera para el 2030. Mantengo mi posición con respecto a esaafirmación asumiendo que evitamos las descomunales catástrofes –cosas como las guerrasnucleares, las superplagas, las emergencias climáticas– a las que le dedicamosapropiadamente nuestra ansiedad.”

En ese punto Vinge espera que la singularidad se manifieste como una combinación deelementos:

1. El Escenario IA: creamos inteligencia artificial (IA) superhumana en computadores.2. El Escenario AI: mejoramos la inteligencia humana por medio de las interfaces

humano/computador, logrando amplificación de la inteligencia (AI).3. El Escenario Biomédico: incrementamos directamente nuestra inteligencia

mejorando la operación neurológica de nuestros cerebros.4. El Escenario Internet: la humanidad, sus redes, computadores, y bases de datos se

vuelven lo suficientemente efectivas como para ser consideradas un sersuperhumano.

5. El Escenario Gaia Digital: la red de microprocesadores embebidos se vuelve losuficientemente efectiva como para ser considerada un ser superhumano.

Vinge dice que dependiendo de nuestro ingenio (y el de nuestros artefactos) existe laposibilidad de una transformación comparable al surgimiento de la inteligencia humana enel mundo biológico.

Historia

Las consecuencias de estos estudios (Máquinade turing y sala china que en si son lo mismo)fueron discutidas durante la década de los 60spor I.J. Good, y John von Neumann quien usael término "singularidad" para describir elprogreso tecnológico durante la década de1950. Sin embargo, no es sino hasta en los 80sque la Singularidad es popularizada por VernorVinge. Si la Singularidad ocurrirá o no, es unhecho muy debatido, pero la aproximación máscomún entre los futuristas la sitúa dentro de latercera década del Siglo XXI.

Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley deMoore15 hacia tipos de computación que van más allá de los simples transistores,

15 La Ley de Moore expresa que aproximadamente cada 18 meses se duplica el número de transistores en uncircuito integrado. Se trata de una ley empírica, formulada por el cofundador de Intel, Gordon E. Moore el 19de abril de 1965, cuyo cumplimiento se ha podido constatar hasta el día de hoy. La Ley de Moore no es una

Page 35: Historia de la inteligencia artificial

sugiriendo un patrón exponencial de progreso tecnológico. Sin embargo Kurzweil suponeque el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el puntode adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólicode los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológicoinimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual elcrecimiento se hace infinito.

ley en el sentido científico, sino más bien una observación, y ha sentado las bases de grandes saltos deprogreso.

En 2004 la industria de los semiconductores produjo más transistores (y a un costo más bajo) que laproducción mundial de granos de arroz, según la Semiconductor Industry Association (Asociación dela Industria de los Semiconductores) de los Estados Unidos.

Gordon Moore solía estimar que el número de transistores vendidos en un año era igual al número dehormigas en el mundo, pero para el 2003 la industria producía cerca de 1019 transistores y cadahormiga necesitaba cargar 100 transistores a cuestas para conservar la precisión de esta analogía.

En 1978, un vuelo comercial entre Nueva York y París costaba cerca de 900 dólares y tardaba 7horas. Si se hubieran aplicado los mismos principios de la Ley de Moore a la industria de la aviacióncomercial de la misma forma que se han aplicado a la industria de los semiconductores desde 1978,ese vuelo habría costado cerca de un centavo de dólar y habría tardado menos de 1 segundo enrealizarse.

Ver el siguiente video http://www.youtube.com/watch?v=3z8I-KmaFUI

Page 36: Historia de la inteligencia artificial

El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de lainformación y de hecho ha sido el ritmo en como ha venido creciendo la población mundialpor lo menos hasta principios de siglo. Robert Anton Wilson generalizo la ley delcrecimiento de la información bajo el nombre del fenómeno del Jesús saltador, que seinspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunquetambién parece un nombre irónico y humorístico, porque a medida que pasa el tiempo noson pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús.Según Wilson, se inspiró en Alfred Korzybski, el autor de la Semántica General, quienhabría observado que la información se duplicaba cada cierto tiempo. Korzybski tomocomo base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dadodurante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda enel año 1750, 4 Jesús y las siguientes en los años, 1900, 1950, 1960, 1967 y 1973 (128Jesús). Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sinembargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HPy EMC, la información que se genera y se registra en el mundo aumenta a un ritmo desolamente 30% anual desde 1999.

Superestructura tecnológica

Las discrepancias surgen a partir de la consideración que se tenga sobre el impactotecnológico en la sociedad. Si creemos que las tecnologías siempre serán unainfraestructura controlada por los humanos o aceptamos que dado su crecimiento acelerado,su cada vez mayor autonomía y su creciente inteligencia (a lo cual no se le ve limites), sepueda aceptar que se convertirán en una superestructura capaz de compartir las decisionescon los humanos.

Por lo que tendremos cuatro enfoques:

1) Los que creen que la tecnología siempre será controlada por los humanos y el únicopeligro está en el mal uso que se le dé. Por lo que basta con limitar, prohibir ocontrolar la utilización de las mismas Desarrollo sostenible.

2) Los que creen que las tecnologías igualarán y superarán a los humanos, surgiendouna superinteligencia. Singularidad tecnológica.

3) Los que aceptan que las tecnologías podrán ser una superestructura y creen quedado el contexto actual de poder, estas se convertirían en un competidor demasiadopeligroso para los humanos, por lo cual hay que hacer todo lo posible para que estono suceda. Bioconservadurismo.

4) Los que ven a la tecnología como una aliada que nos pueda llevar a unasuperinteligencia colectiva donde humanos y tecnologías cooperen por un futurosostenible Sostenibilidad tecnológica.

Page 37: Historia de la inteligencia artificial

Inteligencia suprahumana

La idea de una singularidad, Vinge la sustenta sobre la ley de Moore que dice que lacapacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cualtraerá un crecimiento exponencial de la potencia del hardware de las computadoras y demantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le denalcance y luego superen la capacidad del cerebro para procesar la información y según ungráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzaráalrededor del 2020 lo cual dará lugar a las máquinas ultra inteligentes.

Vinge define una máquina ultra inteligente como una máquina capaz de superar en muchotodas las actividades intelectuales de cualquier humano independientemente de lainteligencia de este y está convencido de que esa inteligencia superior será la que impulsaráel progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural.Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestropasado humano, y es a este evento al que le da el nombre de singularidad.

El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrásuperinteligencia cualquier intelecto que se comporte de manera bastamente superior encomparación con los mejores cerebros humanos en prácticamente todos los aspectos y enespecial estos tres:

• Creatividad científica• Sabiduría en general• Desempeño científico

Page 38: Historia de la inteligencia artificial

Esta definición deja abierta la manera de como se implementa esa superinteligencia

• Artificial: una computadora digital• Colectiva: una red de computadoras• Biológica: cultivo de tejidos corticales• Híbrida: fusión entre computadoras y humanos

Caminos hacia la singularidad

Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puedealcanzar por diferentes caminos:

El desarrollo de un computador que alcance el nivel de inteligencia humana yposteriormente lo supere (superinteligencia artificial).

El desarrollo de redes de computadoras que se comporten como superneuronas deun cerebro distribuido que "despierte" como ente inteligente (superinteligenciacolectiva).

El desarrollo de elementos de interacción con computadoras que permitan a unhumano comportarse como un ser superinteligente (superinteligencia hibrida).

Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humanode inteligencia (superinteligencia biológica)

En futurología, la singularidad tecnológica (algunas veces llamada simplemente laSingularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológicoy el cambio social se acelerarán debido al desarrollo de inteligencia superhumana,cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a laSingularidad sería incapaz de comprender o predecir. Dicho acontecimiento se hanombrado así por analogía con la singularidad espaciotemporal observada en los agujerosnegros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y dondela convergencia hacia valores infinitos hace imposible el definir una función.

Page 39: Historia de la inteligencia artificial

El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización demáquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.

Superinteligencia artificial

Surgimiento de una superinteligenciaartificial superior a la inteligencia humana.Estamos hablando de que los humanos seancapaces de construir una inteligenciaartificial que los iguale y que después, estainteligencia no humana, sea capaz desuperarse a sí misma. Dado el crecimientoveloz que tiene el hardware (ley de Moore)y no en el desarrollo de programas queemularan la inteligencia humana como sepretendía en los primeros años de laInteligencia artificial. Estamos hablando de una inteligencia artificial fuerte que supone quela consciencia es codificable (consideran que los estados mentales son algoritmos altamentecomplejos) y puede ser descargada del cerebro y copiada en un soporte digital.

Superinteligencia colectiva

Surgimiento de una superinteligencia colectiva donde estén conectados en redes loshumanos y las maquinas, siguiendo las ideas de Pierre Levy de una inteligencia colectiva,en la que Internet está jugando un papel importante y ya algunos están hablando delsurgimiento de un cerebro global que se está formando desde ahora en el contexto de laWeb 2.0 y de la naciente Web 3.0.

No se puede ignorar el impacto que está teniendo la Web 2.0 y la gran cantidad deconocimiento que se está compartiendo en las Wikis, redes sociales y blogs y que sepodrían ir autoorganizado por medio de la Web semántica16. Lo cual nos lleva a unasuperestructura tecnológica donde humanos y máquinas cooperan entre sí.

Superinteligencia hibrida

Superinteligencia hibrida, Interconexión entre humanos y computadoras, tales como,prótesis, implantes de chip, etc. Lo cual nos lleva al Cyborg, donde se fusionan loshumanos con las maquinas. La idea de una transhumanidad que transcienda a la condiciónhumana y con ello superar todos los límites de la especie humana y dar surgimiento a unanueva especie posthumana. Esto nos arrastra a una singularidad fuerte donde humanos ymaquinas se fusionan.

16 La Web semántica o Web 3.0, es la "Web de los datos". Se basa en la idea de añadir metadatos semánticosy ontológicos a la World Wide Web. Esas informaciones adicionales —que describen el contenido, elsignificado y la relación de los datos— se deben proporcionar de manera formal, para que así sea posibleevaluarlas automáticamente por máquinas de procesamiento. El objetivo es mejorar Internet ampliando lainteroperabilidad entre los sistemas informáticos usando "agentes inteligentes". Agentes inteligentes sonprogramas en las computadoras que buscan información sin operadores humanos.

Page 40: Historia de la inteligencia artificial

Superinteligencia biológica

Superinteligencia biológica, mejoramiento humano por bioingeniería sobre todomodificaciones genéticas, dado que es una inteligencia mejorada por medio de la biología.Se aspira al humano mejorado (humano+) por medio de la bioingeniería. Esto iraconduciendo a la humanidad a una fusión progresiva y menos radical que la anterior.

Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán aser inteligentes (en el sentido de la prueba de Turing), el camino biológico para llegar a lasingularidad tecnológica no parece tener límite alguno.

Riesgos

Los defensores de la singularidad son conscientes de las amenazas que esta implica yconsideran los siguientes riesgos existenciales:

• Inteligencia artificial mal programada.• Mal uso de la nanotecnologia.• Mala utilización de la biotecnología.• Uso generalizado de las prótesis (convirtiéndose en un robot).• Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen así mismas).

Page 41: Historia de la inteligencia artificial

De aquí que sacan la conclusión que es necesario tomar el control de la evolución humana yabalanzar hacia una transhumanidad.17 Proponen la sustitución de una especie humanaobsoleta por otra especie “superior” con poderes ilimitados y que por medio de lastecnologías emergentes o convergentes (NBIC) se puede alcanzar la posthumanidad.

IA Fuerte

La Inteligencia Artificial Fuerte es aquella inteligencia artificial que iguala o excede lainteligencia humana promedio – la inteligencia de una maquina que exitosamente puederealizar cualquier tarea intelectual de cualquier ser humano -. Es un objetivo importantepara la investigación sobre IA y un tópico interesante para la ciencia ficción.

La IA Fuerte (IAF) igualmente es referida como Inteligencia General Artificial o como lahabilidad de ejecutar acciones generales inteligentes. La ciencia ficción asocia a la IAF concualidades humanas como la conciencia18, la sensibilidad, la sapiencia y elautoconocimiento.

17 El Transhumanismo es tanto un concepto filosófico como un movimiento intelectual internacional queapoya el empleo de las nuevas ciencias y tecnologías para mejorar las capacidades mentales y físicas con elobjeto de corregir lo que considera aspectos indeseables e innecesarios de la condición humana, comoel sufrimiento, la enfermedad, el envejecimiento o incluso en última instancia la mortalidad. Los pensadorestranshumanistas estudian las posibilidades y consecuencias de desarrollar y usar la tecnología con estospropósitos, preocupándose por estudiar tanto los peligros como los beneficios de estas manipulaciones.

El término "Transhumanismo" se simboliza como H+ (antes >H), y es usado como sinónimo de "humanomejorado".18 La conciencia (del latín conscientia 'conocimiento compartido', pero diferente de consciencia, serconscientes de ello) se define en general como el conocimiento que un ser tiene de sí mismo y de su entornose refiere a la moral o bien a la recepción normal de los estímulos del interior y el exterior. Conscientĭasignifica, literalmente, «con conocimiento» (del latín cum scientĭa).

Page 42: Historia de la inteligencia artificial

Cerebro artificial

Es un término utilizado habitualmente en los medios de comunicación1 para describir lainvestigación que pretende desarrollar software y hardware con habilidades cognitivassimilares al cerebro humano o animal.

Detalles

La investigación de «cerebros artificiales» desempeña tres papeles importantes para laciencia:

1. Un intento constante de los neurocientíficos para entender cómo funciona el cerebrohumano.

2. Un experimento mental en la filosofía de la inteligencia artificial(en), demostrandoque es posible, en teoría, crear una máquina que tenga todas las capacidades de unser humano.

3. Un proyecto serio a largo plazo para crear máquinas capaces de una acción generalinteligente o Inteligencia General Artificial. Esta idea ha sido popularizada por RayKurzweil2 como IA fuerte (en el sentido de una máquina tan inteligente como un serhumano).

Existen dudas sobre la naturaleza de la conciencia, y no se sabe con seguridad si la conciencia comofenómeno cognitivo es sólo el resultado de la complejidad computacional o de otros factores. Roger Penrosese ha ocupado del problema de la realidad física de la inteligencia y ha analizado diversas pretensionesteóricas por parte de la inteligencia artificial de simular o construir artefactos que posean algún tipo deconciencia. Penrose clasifica las posturas actuales ante la cuestión de si la conciencia es o no computablealgorítmicamente:

A. Todo pensamiento es un proceso de computación, es decir, en particular la percepción de unomismo y la autoconciencia son procesos emergentes que son resultado directo de la computación oalgoritmo adecuados.B. La conciencia es una consecuencia del tipo de acción física que ocurre en el cerebro, y aunquecualquier acción física puede simularse apropiada a través de medios computacionales; el hecho deque se lleve a cabo un proceso de simulación computacional del cerebro no comportaría, por símismo, la aparición auténtica de la autoconciencia.C. La realización de cierta actividad física en el cerebro es lo que lleva a la aparición de laautoconciencia en el ser humano; sin embargo, aunque puede ser reproducida artificialmente, dichaacción no puede simularse algorítmicamente.D. La conciencia de tipo humano no puede entenderse propiamente en términos físicos,computacionales o científicos de otro tipo.

El punto de vista D claramente niega la posibilidad de comprensión científica de la conciencia. Muchosinvestigadores del campo de la inteligencia artificial, en particular los más optimistas sobre sus logros, seadhieren a la postura A. John Searle sería más bien un partidario de la postura B, y el propio Penrose haargumentado fuertemente en su trabajo por la postura C, relacionándola con varios otros problemas abiertosde la física como la teoría cuántica de la gravedad.

Page 43: Historia de la inteligencia artificial

Un ejemplo del primer objetivo es el proyecto informado por la Universidad de Aston enBirmingham (Reino Unido) donde los investigadores están utilizando células biológicaspara crear «neuroesferas» (pequeños grupos de neuronas) con el fin de desarrollar nuevostratamientos para enfermedades como el mal de Alzheimer, la enfermedad de Parkinson yla enfermedad de neurona motora.

El segundo objetivo es ejemplificado por lamáquina de Turing y más recientemente en elfuncionalismo de estados de la máquina deHilary Putnam.

El tercer objetivo es el que suele llamarseinteligencia general artificial por losinvestigadores. Sin embargo Kurzweilprefiere el término más memorable IAFuerte. En su libro La Singularidad estáCerca se centra en la emulación de todo elcerebro usando máquinas de computaciónconvencionales como forma deimplementación de cerebros artificiales, yafirma (por razón del poder de lascomputadoras que sigue una tendencia decrecimiento exponencial) que esto podría pasar en 2025. Henry Markram, director delproyecto Blue Brain (que pretende la emulación del cerebro), hizo una afirmación similar(2020) en la conferencia TED de Oxford en 2009.

A pesar de que la emulación directa del cerebro usando redes neuronales artificiales sobreuna máquina de computación de alto rendimiento es un enfoque común, existen otrosenfoques. Una implementación alternativa del cerebro artificial podría basarse en losprincipios de coherencia/decoherencia de fase no lineal de la Tecnología HolográficaNeural (HNeT). La analogía se ha hecho a los procesos cuánticos a través del algoritmosináptico nuclear que tiene grandes similitudes con la ecuación de onda QM.

Algunos críticos de la simulación cerebral creen que es más sencillo crear directamente unaacción inteligente general sin necesidad de imitar a la naturaleza. Algunos comentaristas19

han usado la analogía de que en los primeros intentos de construir máquinas voladoras estasfueron modeladas como las aves, y que sin embargo las aeronaves modernas no lucen comoaves. Un argumento computacional es usado en AI - What is this, donde se muestra que, sitenemos una definición formal de la IA general, el programa correspondiente se puedenencontrar mediante la enumeración de todos los programas posibles y luego probar cadauno de ellos para ver si coincide con la definición. No existe una definición adecuada en la

19 Fox and Hayes quoted in Nilsson, Nils (1998), Artificial Intelligence: A New Synthesis, p581 MorganKaufmann Publishers, ISBN 978-1-55860-467-4.

Page 44: Historia de la inteligencia artificial

actualidad. El EvBrain20 v es una forma de software evolutivo que puede hacer evolucionarredes neuronales similares al cerebro, tales como la red inmediatamente detrás de la retina.

Hay buenas razones para creer que,indistintamente de la estrategia deaplicación, las predicciones sobre larealización de cerebros artificiales en unfuturo próximo son optimistas. Enparticular el cerebro (incluyendo elcerebro humano) y la cognición no sonactualmente bien entendidos, y la escalade computación requerida esdesconocida. Además parece haberlimitaciones en la potencia. El cerebroconsume unos 20 W de potencia,mientras que las supercomputadoraspueden usar tanto como de 1 MW osobre un orden de 100 mil más (nota: ellímite de Landauer es de 3.5x1020 operaciones/seg/watt a temperatura ambiente).

Además, hay cuestiones éticas que deben ser resueltas. La construcción y el mantenimientode un cerebro artificial plantean cuestiones morales, es decir, en relación con lapersonalidad, la libertad y la muerte. ¿Un «cerebro en una caja» constituye una persona?¿Qué derechos tendría esa entidad, legales o de otro tipo? Una vez activado, ¿tendrían losseres humanos la obligación de continuar con su operación? ¿Constituiría la desactivaciónde un cerebro artificial muerte, sueño, inconsciencia, o algún otro estado para el que noexiste ninguna descripción humana? Después de todo, un cerebro artificial no está sujeto ala descomposición celular post mórtem (y la consiguiente pérdida de su función) como loestán los cerebros humanos, por lo que un cerebro artificial podría, teóricamente, reanudarsu funcionalidad exactamente como estaba antes de que fuese desactivado.

Recursos

Desde noviembre de 2008, IBM recibió una subvención de 4.9 millones de dólares delPentágono para la investigación sobre la creación de computadoras inteligentes. El proyectoBlue Brain se está llevando a cabo con la ayuda de IBM en Lausana.21 El proyecto se basaen la premisa de que es posible enlazar artificialmente las neuronas «en la computadora»mediante la colocación de treinta millones de sinapsis en sus adecuadas posicionestridimensionales.

En marzo de 2008, el proyecto Blue Brain estaba avanzando más rápido de lo esperado:«La conciencia es sólo una enorme cantidad de información intercambiada por billones de

20 Jung, Sung Young, "A Topographical Development Method of Neural Networks for Artifical BrainEvolution", Artificial Life, The MIT Press, vol. 11, issue 3 - summer, 2005, pp. 293-316.21 Consultar enhttp://newsvote.bbc.co.uk/mpapps/pagetools/print/news.bbc.co.uk/2/hi/science/nature/7740484.stm?ad=1

Page 45: Historia de la inteligencia artificial

células cerebrales».22 Algunos defensores de la IA fuerte especulan que las computadorasen el marco de Blue Brain y Soul Catcher pueden exceder la capacidad intelectual humanaen torno al 2015, y que es probable que seamos capaces de descargar el cerebro humano enalgún momento alrededor del 2050.23

El proyecto se ha dividido en dos fases, la primera de las cuales se completó en noviembrede 2007.

Fase I

El objetivo inicial del proyecto es simular lacolumna cortical, que puede considerarse lamenor unidad funcional del neocórtex (la partedel cerebro que se cree responsable de lasfunciones superiores como el pensamientoconsciente). Esta columna tiene una altura de2mm, un diámetro de 0,5mm y contiene unas60.000 neuronas en humanos.

La simulación se centra en la columna neocorticalde las ratas, que tienen una estructura muy similarpero que contienen únicamente 10.000 neuronas y108 conexiones sinápticas. Durante los últimos 10años, el profesor Markram ha estudiado los tiposde neuronas y sus conexiones en esta columnapara generar un modelo de su funcionamiento.

Fase II

Tras obtener el modelo de funcionamiento el siguiente paso es realizar y validarsimulaciones basadas en dicho modelo. En esta fase se continuará con dos ramas diferentes:

Construcción de la simulación a nivel molecular, cuyo interés reside que permitiráestudiar los efectos de los genes.

Simplificación de la simulación de la columna para permitir la simulación paralelade un gran número de columnas interconectadas, con el objetivo final de simular unneocórtex completo (que en el caso de los humanos consiste en un millón decolumnas, aproximadamente).

Los siguientes pasos es ascender al nivel del gato para alcanzar seguidamente el de losprimates.

22 Consultar en http://seedmagazine.com/content/article/out_of_the_blue/

23 Jaap Bloem, Menno van Doorn, Sander Duivestein, Me the media: rise of the conversation society, VINTreseach Institute of Sogeti, 2009, p.273.

Page 46: Historia de la inteligencia artificial

IA Débil

Se define IA débil a la escuela que estudia losprocesos cerebrales y mentales por medio desimulaciones.

La IA Débil no cree en las afirmaciones de la IAFuerte. Contrapone a esas ideas, estas otras: que lascomputadoras podrían actuar como si fueseninteligentes, mimetizadas o como si lo fuesen,simulando serlo. Podrían superar en "inteligencia"a sus programadores, con motivo de su altacapacidad combinatoria (deliberación) ejecutableen cortos tiempos o de ejecución de "sistemasexpertos" en campos restringidos, llegando aconclusiones que el hombre no conocía antes de sudescubrimiento informático (por ejemplo, unajedrecista que se acuerda de memoria y repite lasjugadas de la máquina en los finales de ajedrez).

La IA débil sostiene que no hay inconvenientes enagregarles a las computadoras habilidades que no posee el ser humano, como conducirhelicópteros que pierden una pala en pleno vuelo, sin perder su estabilidad (imposible conpilotos humanos) o reconocer con alta precisión quien es el que emite un cierto tipo de vozo terminar con buen éxito sistemas expertos muy complicados.

En síntesis, la máquina es el tema central de investigación, la cual se ve como un todo (softy hard) y se pretende que ésta como tal alcance niveles de inteligencia, posiblemente noalcanzados por el hombre, cada vez más avanzados. E igual manera, se especula sobre laposibilidad de que la máquina sustituya al hombre, dada las posibilidades ilimitadas de lamisma.

Aplicaciones de la IA

Tareas de la vida diaria:

Percepción Visión Habla Lenguaje natural Comprensión Generación Traducción Sentido común Control de un robot

Tareas formales:

Page 47: Historia de la inteligencia artificial

Juegos Ajedrez Backgammon Damas Go Matemáticas Geometría Lógica Cálculo Integral Demostración de las propiedades de los programas

Tareas de los expertos:

Ingeniería Diseño Detección de fallos Planificación de manufacturación Análisis científico Diagnosis médica Análisis financiero

Una de las primeras aplicaciones de la IAa nivel comercial, es el reconocimiento depatrones se basa en la utilización dedistintas técnicas de clasificación paraidentificar subgrupos con característicascomunes en cada grupo. Estas técnicas seutilizan, entre otras cosas, en procesos dereconocimiento de imágenes,reconocimiento de señales, diagnóstico defallos, etc.

Las técnicas de clasificación yreconocimiento de patrones siguen siendoobjeto actualmente de estudio tanto a nivelteórico como práctico.

Percepción y reconocimiento de formas: Una de las aplicaciones más interesantes de laInteligencia Artificial es la de la imitación de las capacidades sensoriales de los sereshumanos, tanto audición como visión artificial. No se trata solamente que el ordenador seacapaz de percibir sonidos e imágenes, sino de identificarel sentido de lo percibido.

Una introducción general al problema de reconocimiento de voz puede verse en Rabiner yJuang (1993).

En cuanto al tema de la visión artificial, se ha avanzado mucho en el reconocimiento deformas bidimensionales, el caso de formas tridimensionales es objeto actualmente de

Page 48: Historia de la inteligencia artificial

grandes esfuerzos investigadores. Una referencia básica en el tema de visión artificial esSaphiro y Rosenfeld (1992).

Robótica: La robótica es una de las áreas más populares dentro de la Inteligencia Artificial.Se trata de la creación de máquinas con capacidades perceptuales y habilidadespsicomotoras. Los robots combinan elementos mecánicos, sensores, dispositivoselectrónicos,... con técnicas de I.A. para conseguir que interactuen con el mundo real.

Visión por computador24

La visión por computador, o visión artificial, es un subcampo de la inteligencia artificial,cuyo objetivo de investigación y desarrollo están centrados en programarun computador para que "entienda" una escena o las características de una imagen.

Ninguna máquina puede procesar las imágenes obtenidas por cámaras de vigilancia comolo hacen los humanos. Probablemente, el mayor reto a la hora de crear una IA es igualar lahabilidad humana de procesar información visual.

24 Marcus du Sautoy. ¿Podemos fabricar una inteligencia artificial?http://www.bbc.co.uk/mundo/noticias/2012/04/120404_tecnologia_inteligencia_artificial_aa.shtml [On line]consultado el 17 de julio de 2012.

Page 49: Historia de la inteligencia artificial

Las computadoras todavía distan mucho de lograr el nivel que tiene el cerebro humanocuando interpreta lo que ve. Un ejemplo claro son esas letras que nos piden que escribamoscuando algunos servicios de internet quieren asegurarse de que es una persona, y no unamáquina, la que está tratando de enviarles un mensaje.

Es como un test de Turing a la inversa donde la computadora trata ahora de distinguir entreun humano y una máquina.

Los humanos somos capaces de distinguir entre estas rebuscadas letras mientras que lacomputadora es incapaz.

Esto es tan sólo un ejemplo de cuán mal las computadoras procesan los estímulos visuales,por ello esto se ha convertido en un reto crucial en el desarrollo de la IA. Teniendo encuenta la cantidad de cámaras de vigilancia que cada vez más abundan en los núcleosurbanos de todo el mundo, las firmas de seguridad adorarían tener una máquina que tuvieracapacidades similares a las humanas.

La visión artificial involucra una serie de aspectos en su desarrollo, como son:25

La detección, segmentación, localización y reconocimiento de ciertos objetos enimágenes (por ejemplo, caras humanas).

25 Fuente. Visión artificial. http://es.wikipedia.org/wiki/Visi%C3%B3n_artificial [On line] Consultado el 19de julio de 2012.

Page 50: Historia de la inteligencia artificial

La evaluación de los resultados (por ejemplo, segmentación, registro). Registro de diferentes imágenes de una misma escena u objeto, es decir, hacer

concordar un mismo objeto en diversas imágenes. Seguimiento de un objeto en una secuencia de imágenes. Mapeo de una escena para generar un modelo tridimensional de la escena; este modelo

podría ser usado por un robot para navegar por la escena. Estimación de las posturas tridimensionales de humanos. Búsqueda de imágenes digitales por su contenido.

Estos objetivos se consiguen por medio de reconocimiento de patrones, aprendizajeestadístico, geometría de proyección, procesamiento de imágenes, teoría de grafos y otroscampos. La visión artificial cognitiva está muy relacionada con la psicología cognitiva yla computación biológica.

Actualmente, los sistemas de cómputo “inteligentes”, dependen aun de los humanos paradetectar en las pantallas comportamientos sospechosos. Las computadoras tienden a leer lasimágenes píxel a píxel y para ellas es difícil integrar esta información. Por lo tanto, pareceque todavía tenemos un largo camino que recorrer para fabricar un procesador que puedarivalizar con la materia gris de 1,5 kg ubicada entre nuestras orejas.

Microscopía digital26

Producción de la imagen digital en microscopía óptica

La digitalización de una imagen electrónica o de video capturada por un microscopio ópticopermite obtener un incremento espectacular en las posibilidades de ampliar características,extraer información o modificar la imagen. En comparación con el mecanismo tradicionalde captura de imágenes, la fotomicrografía27 en película, la digitalización de la imagen y elproceso de postadquisición/recuperación permiten una modificación reversible de laimagen como matriz ordenada de enteros fundamentalmente libre de ruido, más que unamera serie de variaciones análogas en color e intensidad. Esta sección trata sobre diversostemas de actualidad acerca de la adquisición y procesamiento de imágenes paramicroscopía óptica.

Las imágenes de señal continua se reproducen mediante dispositivos electrónicosanalógicos que registran los datos de la imagen con precisión utilizando varios métodos,como una secuencia de fluctuaciones de la señal eléctrica o cambios en la naturalezaquímica de la emulsión de una película, que varían continuamente en los diferentesaspectos de la imagen. Para procesar o visualizar en el ordenador una señal continua o unaimagen analógica, se debe convertir primero a un formato comprensible para el ordenador oformato digital. Este proceso se aplica a todas las imágenes, independientemente de su

26 Ibídem.

27 Se llama fotografía microscópica o fotomicrografia al conjunto de técnicas fotográficas que permitenobtener esas imágenes con una ampliación mínima de diez veces. Langford, M. (1977). Manual de técnicafotográfica. Madrid: Hermann Blume ediciones. pp. 335, 330.

Page 51: Historia de la inteligencia artificial

origen, de su complejidad y de si son en blanco y negro (escala de grises) o a todo color.Una imagen digital se compone de una matriz rectangular (o cuadrada) de píxeles querepresentan una serie de valores de intensidad ordenados en un sistema de coordenadas(x,y).

Esquema de las relaciones entre la visión por computadora y otras áreas afines.

Detectores de imagen electrónicos

La gama de métodos de detección de luz y la amplia variedad de dispositivos de imagenque están disponibles actualmente para el microscopista hacen que su selección sea difícil ya menudo confusa. Con este documento se pretende ofrecer ayuda para la comprensión deconceptos básicos sobre la detección de luz y proporcionar una guía para la selección deldetector electrónico adecuado (CCD28 o sistema de videocámara) con aplicacionesespecíficas de microscopía óptica.

28 Un charge-coupled device o CCD (en español «dispositivo de carga acoplada») es un circuitointegrado que contiene un número determinado de condensadores enlazados o acoplados. Bajo el control deun circuito interno, cada condensador puede transferir su carga eléctrica a uno o a varios de los condensadoresque estén a su lado en el circuito impreso. La alternativa digital a los CCD son losdispositivos CMOS (complementary metal oxide semiconductor) utilizados en algunas cámaras digitales y en

Page 52: Historia de la inteligencia artificial

Fundamentos de la producción de imágenes en vídeo

Las imágenes ópticas producidas en el microscopio pueden ser capturadas utilizando ya seatécnicas de película tradicionales, digitalmente con detectores electrónicos como unchargecoupled device (CCD) o bien con una cámara de tipo tubo. Las cámaras son amenudo el recurso más apropiado cuando se deben grabar sucesos dinámicos en tiemporeal.

Introducción a los sensores de imagen CMOS

Los sensores de imagen CMOS29 se han diseñado con la capacidad para integrar un númerode funciones de procesamiento y control directamente en el circuito integrado del sensor, lo

numerosas cámaras web. En la actualidad los CCD son mucho más populares en aplicaciones profesionales yen cámaras digitales.

Los detectores CCD, al igual que las células fotovoltaicas, se basan en el efecto fotoeléctrico, la conversiónespontánea de luz recibida en corriente eléctrica que ocurre en algunos materiales. La sensibilidad del detectorCCD depende de la eficiencia cuántica del chip, la cantidad de fotones que deben incidir sobre cada detectorpara producir una corriente eléctrica. El número de electrones producido es proporcional a la cantidad de luzrecibida (a diferencia de la fotografía convencional sobre negativo fotoquímico). Al final de la exposición loselectrones producidos son transferidos de cada detector individual (fotosite) por una variación cíclica de unpotencial eléctrico aplicada sobre bandas de semiconductores horizontales y aislados entre sí por una capa deSiO2. De este modo, el CCD se lee línea a línea, aunque existen numerosos diseños diferentes de detectores.Fuente. Charge Coupled device. http://es.wikipedia.org/wiki/CCD_(sensor)

29 Complementary metal-oxide-semiconductor o CMOS es una de las familias lógicas empleadas en lafabricación de circuitos integrados. Su principal característica consiste en la utilización conjuntade transistores de tipo pMOS y tipo nMOS configurados de tal forma que, en estado de reposo, el consumo deenergía es únicamente el debido a las corrientes parásitas.

En la actualidad, la mayoría de los circuitos integrados que se fabrican utilizan la tecnología CMOS. Estoincluye microprocesadores, memorias, procesadores digitales de señales y muchos otros tipos de circuitosintegrados digitales cuyo consumo es considerablemente bajo.

En un circuito CMOS, la función lógica a sintetizar se implementa por duplicado mediante dos circuitos: unobasado exclusivamente en transistores pMOS (circuito de pull-up), y otro basado exclusivamente entransistores nMOS (circuito de pull-down). El circuito pMOS es empleado para propagar el valorbinario 1 (pull-up), y el circuito nMOS para propagar el valor binario 0 (pull-down). Véase la figura.Representa una puerta lógica NOT o inversor.

Cuando la entrada es 1, el transistor nMOS está en estado de conducción. Al estar su fuente conectada atierra (0), el valor 0 se propaga al drenador y por lo tanto a la salida de la puerta lógica. El transistorpMOS, por el contrario, está en estado de no conducción.

Cuando la entrada es 0, el transistor pMOS está en estado de conducción. Al estar su fuente conectada ala alimentación (1), el valor 1 se propaga al drenador y por lo tanto a la salida de la puerta lógica. Eltransistor nMOS, por el contrario, está en estado de no conducción.

Otra de las características importantes de los circuitos CMOS es que son regenerativos: una señal degradadaque acometa una puerta lógica CMOS se verá restaurada a su valor lógico inicial 0 ó 1, siempre y cuando aúnesté dentro de los márgenes de ruido que el circuito pueda tolerar.

Fuente. Complementary Metal Oxide Semiconductor. http://es.wikipedia.org/wiki/CMOS [On line]consultado el 19 de julio de 2012.

Page 53: Historia de la inteligencia artificial

que se extiende más allá de la tarea fundamental de recopilación de fotones. Estos nuevosaspectos incluyen generalmente lógica temporal, control de exposición, conversión deanalógico a digital, obturación, balance de blancos, ajuste del aumento y algoritmos deprocesamiento inicial de la imagen. Se están introduciendo sensores deimagen CMOS económicos en el campo de la microscopía óptica en instrumentos parafines educativos que combinan una calidad óptica aceptable con paquetes de software decontrol e imagen fáciles de usar.

Conceptos básicos sobre procesamiento digital de la imagenEl procesamiento digital de la imagen permite una modificación reversible prácticamentelibre de ruido en forma de una matriz de enteros, en vez de las clásicas manipulaciones enel cuarto oscuro o filtración de voltajes dependientes del tiempo necesarios para lasimágenes analógicas y señales de video. Incluso aunque muchos algoritmos deprocesamiento de imágenes son extremadamente potentes, el usuario medio a menudoaplica operaciones a imágenes digitales sin tener en cuenta los principios subyacentes trasdichas manipulaciones. Las imágenes que resultan de una manipulación descuidada están amenudo distorsionadas en comparación con las que podrían producirse si la potencia yversatilidad del software de procesamiento digital se utilizaran correctamente.

Estrategias recomendadas para el procesamiento de imágenes digitales

Dependiendo de las condiciones de iluminación, la integridad de la muestra y los métodosde preparación, las imágenes capturadas con el microscopio óptico pueden requerir unacantidad considerable de rehabilitación/reinserción/renovación para conseguir un equilibrioentre precisión científica y composición estética. Las imágenes digitales que se obtienenmediante un CCD (charge-coupled device) o un CMOS (complementary metaloxide semiconductor) a menudo presentan señales a ruido pobres, iluminación irregular,

Page 54: Historia de la inteligencia artificial

impurezas de enfoque, deslumbramiento, cambios en los colores y otros problemas quedistorsionan la calidad global de la imagen.

Deconvolución en microscopía óptica

La deconvolución es una técnica deprocesamiento de imagen computacionalmenteintensiva/reforzadora que se está utilizandocada vez más para mejorar el contraste y laresolución de las imágenes digitales capturadascon el microscopio. Se basa en un juego demétodos diseñados para eliminar lasimprecisiones presentes en las imágenesproducidas por la abertura limitada delobjetivo. Prácticamente cualquier imagenobtenida con un microscopio digitalfluorescente se puede deconvolver y se estándesarrollando varias aplicaciones nuevas queutilizan técnicas de deconvolución paraimágenes transmitidas de luz compuestasmediante varias estrategias de procesamientode contraste. Uno de los campos qué máspuede beneficiarse de la deconvolución es elde montajes en tres dimensiones a partir desecciones ópticas.

Para finalizar, el concepto de IA es aún difuso. “Contextualizando, y teniendo en cuenta unpunto de vista científico, podríamos englobar a esta ciencia como la encargada de imitaruna persona, y no su cuerpo, sino imitar al cerebro, en todas sus funciones, existentes en elhumano o inventadas sobre el desarrollo de una máquina inteligente.

A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinasinteligentes sin sentimientos, que «obstaculizan» encontrar la mejor solución a un problemadado. Muchos pensamos en dispositivos artificiales capaces de concluir miles de premisas apartir de otras premisas dadas, sin que ningún tipo de emoción tenga la opción deobstaculizar dicha labor.

En esta línea, hay que saber que ya existen sistemas inteligentes. Capaces de tomardecisiones «acertadas».

Aunque, por el momento, la mayoría de los investigadores en el ámbito de la InteligenciaArtificial se centran sólo en el aspecto racional, muchos de ellos consideran seriamente laposibilidad de incorporar componentes «emotivos» como indicadores de estado, a fin deaumentar la eficacia de los sistemas inteligentes.

Page 55: Historia de la inteligencia artificial

Particularmente para los robots móviles, es necesario que cuenten con algo similar a lasemociones con el objeto de saber –en cada instante y como mínimo– qué hacer acontinuación [Pinker, 2001, p. 481].

Al tener «sentimientos» y, al menos potencialmente, «motivaciones», podrán actuar deacuerdo con sus «intenciones» [Mazlish, 1995, p. 318]. Así, se podría equipar a un robotcon dispositivos que controlen su medio interno; por ejemplo, que «sientan hambre» aldetectar que su nivel de energía está descendiendo o que «sientan miedo» cuando aquel estédemasiado bajo.

Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir elpreciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría introducir el «dolor» oel «sufrimiento físico», a fin de evitar las torpezas de funcionamiento como, por ejemplo,introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, locual le provocaría daños irreparables.

Esto significa que los sistemas inteligentes deben ser dotados con mecanismosde retroalimentación que les permitan tener conocimiento de estados internos, igual quesucede con los humanos que disponen de propiocepción,30 interocepción,31 nocicepción,32

etcétera. Esto es fundamental tanto para tomar decisiones como para conservar su propiaintegridad y seguridad. La retroalimentación en sistemas está particularmente desarrolladaen cibernética, por ejemplo en el cambio de dirección y velocidad autónomo de un misil,utilizando como parámetro la posición en cada instante en relación al objetivo que debealcanzar. Esto debe ser diferenciado del conocimiento que un sistema o programacomputacional puede tener de sus estados internos, por ejemplo la cantidad de cicloscumplidos en un loop o bucle en sentencias tipo do... for, o la cantidad de memoriadisponible para una operación determinada.

30 La propiocepción es el sentido que informa al organismo de la posición de los músculos, es la capacidadde sentir la posición relativa de partes corporales contiguas. La propiocepción regula la dirección y rango demovimiento, permite reacciones y respuestas automáticas, interviene en el desarrollo del esquema corporal yen la relación de éste con el espacio, sustentando la acción motora planificada. Otras funciones en las queactúa con más autonomía son el control del equilibrio, la coordinación de ambos lados del cuerpo, elmantenimiento del nivel de alerta del sistema nervioso central y la influencia en el desarrollo emocional y delcomportamiento.

31 Las funciones interoceptivas hacen referencia a aquellos estímulos o sensaciones que provienen delos órganos internos del cuerpo humano, como las vísceras, y que nos dan información acerca de las mismas(por ejemplo, dolor de estómago).

32 La nocicepción (también conocida como nociocepción o nocipercepción) es el proceso neuronal medianteel que se codifican y procesan los estímulos potencialmente dañinos para los tejidos." Se trata de laactividad aferente producida en el sistema nervioso periférico y central por los estímulos que tienen potencialpara dañar los tejidos.2 3 Esta actividad es iniciada por los nociceptores, (también llamados receptores deldolor), que pueden detectar cambios térmicos, mecánicos o químicos por encima del umbral del sistema. Unavez estimulado, un nociceptor transmite una señal a través de la médula espinal al cerebro. Loeser JD, TreedeRD. (2008). «The Kyoto protocol of IASP Basic Pain Terminology.». Pain 137 (3): pp. 473-7.

Page 56: Historia de la inteligencia artificial

A los sistemas inteligentes el no tener en cuenta elementos emocionales les permite noolvidar la meta que deben alcanzar. En los humanos el olvido de la meta o el abandonar lasmetas por perturbaciones emocionales es un problema que en algunos casos llega a serincapacitante. Los sistemas inteligentes, al combinar una memoria durable, una asignaciónde metas o motivación, junto a la toma de decisiones y asignación de prioridades con baseen estados actuales y estados meta, logran un comportamiento en extremo eficiente,especialmente ante problemas complejos y peligrosos.

En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que sepodría decir que no sólo no son aspectos contradictorios sino que son –hasta cierto punto–complementarios.”33

Cabe recordar que nos ha llevado millones de años de evolución el darnos cuenta de laformidable máquina que es nuestro cerebro.

Trabajo

1. Estudiar lo leído para su posterior evaluación2. Realizar un estudio sobre la robótica desde su historia hasta su relación con la

IA.3. Tipos de robots [descripción, morfología y aplicaciones]4. Geometría y modelos matemáticos de movimiento de un robot.

Referencias

Cobo O. Ángel. Inteligencia artificial: modelos matemáticos que imitan a lanaturaleza. 2001. Universidad nacional de educación a distancia. Centro asociado deCantabria.

Fox and Hayes quoted in Nilsson, Nils (1998), Artificial Intelligence: A NewSynthesis, p581 Morgan Kaufmann Publishers, ISBN 978-1-55860-467-4

Jaap Bloem, Menno van Doorn, Sander Duivestein, Me the media: rise of theconversation society, VINT research Institute of Sogeti, 2009, p.273.

Joy, bill (2003) "Porque el futuro no nos necesita" Wired (en inglés) Jung, Sung Young, "A Topographical Development Method of Neural Networks for

Artificial Brain Evolution", Artificial Life, The MIT Press, vol. 11, issue 3 -summer, 2005, pp. 293-316.

Langford, M. (1977). Manual de técnica fotográfica. Madrid: Hermann Blumeediciones. pp. 335, 330.

Levy, pierre (2003) "Inteligencia colectiva, por una antropología del ciberespacio"BVS/Ciencia y Salud.

Madruga González, Alejandro (2008) "Inteligencia artificial y el futuro humano (1)"Boletín DIGITendencias No 23.

33 Fuente. Inteligencia artificial. http://es.wikipedia.org/wiki/Inteligencia_artificial [On line] Consultado el 19de julio de 2012.

Page 57: Historia de la inteligencia artificial

Madruga González, Alejandro (2008) "Nos acercamos a la fusión entre humanos ymáquinas" Eciencia.

Madruga González, Alejandro (2011) "La singularidad de Vinge" Blog InteligenciaArtificial.

Raymond Kurzweil. La era de las máquinas espirituales. 1999. Roger Penrose. La nueva mente del emperador. Barcelona: Grijalbo Mondadori.

1991. Página 42 Vernor, vinge (2002) "Singularidad tecnológica" Premio UPC de ciencia ficción Weizenbaum, joseph (1978), "La frontera entre el ordenador y la mente". Ediciones

Pirámide, S.A. Madrid.