inteligencia artificial

51
UNIVERSIDAD TECNOLOGICA DEL PERU INTEGRANTES: - CCASO CAMARGO JHON NESTOR - CERPA GALLEGOS CRISTHIAN - CASOS CAHUANA FERNANDO - ENCISO ACUÑA DAVID - MACHACA PUELLES ALEXANDER - CERVANTES AMPUERO ROY TEMA: ¨INTELIGENCIA ARTIFICIAL¨

Upload: gabriel-zuniga-cabana

Post on 25-Jul-2015

51 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Inteligencia Artificial

UNIVERSIDAD TECNOLOGICA DEL PERU

INTEGRANTES:- CCASO CAMARGO JHON NESTOR- CERPA GALLEGOS CRISTHIAN- CASOS CAHUANA FERNANDO- ENCISO ACUÑA DAVID - MACHACA PUELLES ALEXANDER- CERVANTES AMPUERO ROY

TEMA: ¨INTELIGENCIA ARTIFICIAL¨

Fecha: 26 de Enero del 2012

I . I N T R O D U C C I Ó N .

Page 2: Inteligencia Artificial

La Inteligencia Artificial comenzó como el resultado de la investigación en psicología cognitiva y lógica matemática. Se ha enfocado sobre la explicación del trabajo mental y construcción de algoritmos de solución a problemas de propósito general. Punto de vista que favorece la abstracción y la generalidad.

La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden "pensar".

La idea de construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica, suministro de asesoría experta en diversos temas.

Es así como los sistemas de administración de base de datos cada vez más sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y locación de datos, así como el intento de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.

Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos por Warren McCullock y Walter Pitts, en 1943, necesarios para posibilitar el trabajo de clasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 Donald Hebb desarrolló un algoritmo deaprendizaje para dichas redes neuronales creando, en conjunto con los trabajos de McCullock y Pitts, la escuela creacionista. Esta escuela se considera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco por muchos años, dando paso al razonamiento simbólico basado en reglas de producción, lo que se conoce como sistemas expertos.

Definición de Inteligencia Artificial

Page 3: Inteligencia Artificial

Se define la inteligencia artificial (IA) como aquella inteligencia exhibida por artefactos creados por humanos (es decir, artificiales). A menudo se aplica a los computadores. El nombre también se usa para referirse al campo de la investigación científica que intenta acercarse a la creación de tales sistemas. Aunque la IA está rodeada de bastante ciencia ficción, se trata de una rama de la Informática, que trata sobre comportamientos inteligentes, aprendizaje y adaptación en máquinas.

La inteligencia artificial es, hoy día, una de las áreas con más retos en las Ciencias de la Computación. Posee amplias relaciones con disciplinas matemáticas como el Álgebra y la Estadística, tomando de éstas algunas herramientas para desempeñar su labor.

Características de la Inteligencia Artificial.

Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.

El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).

El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.

Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.

En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Dichos atributos del agente inteligente son:

1. Tiene actitudes mentales tales como creencias e intenciones. 2. Tiene la capacidad de obtener conocimiento, es decir, aprender. 3. Puede resolver problemas, incluso particionado problemas complejos en otros

más simples.

Page 4: Inteligencia Artificial

4. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias.

5. Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez)

6. Conoce los límites de sus propias habilidades y conocimientos. 7. Puede distinguir a pesar de las similitudes de las situaciones. 8. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta

utilizando analogías. 9. Puede generalizar. 10. Puede percibir y modelar el mundo exterior. 11. Puede entender y utilizar el lenguaje y sus símbolos.

Objetivos de las Investigaciones en IA

Los investigadores en inteligencia artificial se concentran principalmente en los sistemas expertos, la resolución de problemas, el control automático, las bases de datos inteligentes y la ingeniería del software (diseños de entornos de programación inteligente).

Otros investigadores están trabajando en el reto del reconocimiento de patrones donde se espera un rápido progreso en este campo que abarca la comprensión y la síntesis del habla, el proceso de imágenes y la visión artificial.

Finalmente, la fundamental investigación sobre la representación del conocimiento, la conceptualización cognoscitiva y la comprensión del lenguaje natural.

Uno de los principales objetivos de los investigadores en inteligencia artificial es la reproducción automática del razonamiento humano.

El razonamiento de un jugador de ajedrez no siempre es el mismo que el de un directivo que se pregunta la viabilidad de fabricar un nuevo producto. Un niño jugando con bloques de madera en una mesa no tiene idea de la complejidad del razonamiento necesario para llevar a cabo la construcción de una pirámide, e intentar que un robot hiciera lo mismo que el niño requeriría un largo programa de computador.

I. Nociones y Antecedentes Históricos de Inteligencia Artificial.

Page 5: Inteligencia Artificial

Definiciones sobre Inteligencia Artificial:

Disciplina científico-técnica que trata de crear sistemas artificiales capaces de comportamientos que, de ser realizados por seres humanos, se diría que requieren inteligencia.

Estudio de los mecanismos de la inteligencia y las tecnologías que lo sustentan. (Newell, 91)

Intento de reproducir (modelar) la manera en que las personas identifican, estructuran y resuelven problemas difíciles (Pople, 84)

Son ciertas herramientas de programación, entendiendo por herramientas:

o Lenguajes: LISP, PROLOGo Entornos de desarrollo: shellso Arquitecturas de alto nivel: nodo y arco, sistemas de producciones

Desde sus comienzos hasta la actualidad, la Inteligencia Artificial ha tenido que hacer frente a una serie de problemas:

Los computadores no pueden manejar (no contienen) verdaderos significados. Los computadores no tienen autoconciencia (emociones, sociabilidad, etc.). Un computador sólo puede hacer aquello para lo que está programado. Las máquinas no pueden pensar realmente.

En 1843, Lady Ada Augusta Byron, patrocinadora de Charles Babbage planteó el asunto de si la máquina de Babbage podía "pensar".

Los primeros problemas que se trató de resolver fueron puzzles, juegos de ajedrez, traducción de textos a otro idioma.

Durante la II Guerra Mundial Norbert Wiener y John Von Neumann establecieron los principios de la cibernética en relación con la realización de decisiones complejas y control de funciones en máquinas.

La teoría de la retroalimentación en mecanismos, como por ejemplo un termostato que regula la temperatura en una casa, tuvo mucha influencia. Esto aún no era propiamente Inteligencia Artificial. Se hizo mucho en traducciones (Andrew Booth y Warren Weaver), lo que sembró la semilla hacia el entendimiento del lenguaje natural.

En el año 1955 Herbert Simon, el físico Allen Newell y J.C. Shaw, programador de la RAND Corp. y compañero de Newell, desarrolla el primer lenguaje de programación orientado a la resolución de problemas de la Inteligencia Artificial, el IPL-11. Un año más tarde estos tres científicos desarrollan el primer programa de Inteligencia Artificial al que llamaron Logic Theorist, el cual era capaz de demostrar teoremas matemáticos, representando cada problema como un modelo de árbol, en el que se seguían ramas en busca de la solución correcta, que resultó crucial. Este programa demostró 38 de los 52 teoremas del segundo capítulo de Principia Mathematica de Russel y Whitehead.

En 1956, con la ahora famosa conferencia de Dartmouth, organizada por John McCarthy y en la cual se utilizó el nombre de inteligencia artificial para este nuevo campo, se separó la Inteligencia Artificial de la ciencia del computador, como tal. Se

Page 6: Inteligencia Artificial

estableció como conclusión fundamental la posibilidad de simular inteligencia humana en una máquina.

En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problems Solver (GPS). GPS era un sistema orientado a la resolución de problemas; a diferencia del Logic Theorist, el cual se orientó a la demostración de teoremas matemáticos, GPS no estaba programado para resolver problemas de un determinado tipo, razón a la cual debe su nombre. Resuelve una gran cantidad de problemas de sentido común, como una extensión del principio de retroalimentación de Wiener.

Diversos centros de investigación se establecieron, entre los más relevantes están, la Universidad Carnegie Mellon, el Massachusetts Institute of Technologie (MIT), encabezado por Marvin Minsky, la Universidad de Standford e IBM. Los temas fundamentales eran el desarrollo de heurísticas y el aprendizaje de máquinas.

En 1957 McCarthy desarrolló el lenguaje LISP. La IBM contrató un equipo para la investigación en esa área y el gobierno de USA aportó dinero al MIT también para investigación en 1963.

A finales de los años 50 y comienzos de la década del 60 se desarrolla un programa orientado a la lectura de oraciones en inglés y la extracción de conclusiones a partir de su interpretación, al cual su autor, Robert K. Lindsay, denomina "Sad Sam". Este podía leer oraciones del tipo "Jim es hermano de John" y "La madre de Jim es Mary", a partir de ella el sistema concluía que Mary debía ser también la madre de John. Este sistema representó un enorme paso de avance en la simulación de inteligencia humana por una máquina, pues era capaz de tomar una pieza de información, interpretarla, relacionarla con información anteriormente almacenada, analizarla y sacar conclusiones lógicas.

En el mismo período de tiempo hay trabajos importantes de Herbert Gelernter, de IBM, quien desarrolla un "Demostrador Automático de Teoremas de la Geometría", Alex Bernstein desarrolla un programa para el juego de ajedrez que se considera el antecedente para "Deep Blue".

En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James Slagle el cual se orienta a la demostración simbólica en el área del álgebra.

En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de comprender oraciones en inglés.

A continuación un ejemplo, traducido, de interacción entre SIR y un usuario:

Usuario: Todos somos personas

Page 7: Inteligencia Artificial

SIR: Comprendo

Usuario: Un dedo es una parte de la mano

SIR: Comprendo

Usuario: Cada persona tiene dos manos

SIR: La oración anterior es ambigua. Por favor reconstrúyala.

Usuario: En cada persona hay dos manos

SIR: Comprendo

Usuario: ¿Cuantos dedos tiene John?

SIR: La oración anterior es ambigua, pero asumo que TIENE significa TIENE COMO PARTES. No se si los dedos forman parte de John.

Usuario: John es un chico

SIR: Comprendo

Usuario: ¿Cuántos dedos tiene John?

SIR: La oración anterior es ambigua, pero asumo que TIENE significa TIENE COMO PARTES, ¿cuántos dedos por mano?.

Usuario: Cada mano tiene cinco dedos.

SIR: Comprendo

Usuario: ¿Cuántos dedos tiene John?

SIR: La respuesta es diez.

En la década del 60 se comienza en el MIT el estudio de la visión artificial, lo cual implica no solo captar imágenes a través de una cámara, sino también la comprensión, de lo que estas imágenes representan.

Un resultado importante en este trabajo lo constituye el "mundo de micro-bloques", en el cual un robot era capaz de percibir un conjunto de bloques sobre una mesa, moverlos y apilarlos; el éxito se debió a los investigadores Larry Roberts, Gerald Sussman, Adolfo Guzman, Max Clowes, David Huffman, David Waltz, Patrick Winston, y Berthold Horn.

Posteriormente se obtuvieron resultados importantes entre ellos el de mayor resonancia fue el sistema SCHRDLU de Terry Winograd, pues permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques.

A continuación mostramos un ejemplo traducido:

Page 8: Inteligencia Artificial

Usuario: Toma un bloque rojo.

SCHRDLU: Ok.

Usuario: Busca un bloque más pequeño que el que tienes y ponlo dentro de la caja.

SCHRDLU: Asumo que PONLO se refiere al bloque más pequeño que el que tengo.

Usuario: ¿Qué contiene la caja?

SCHRDLU: La pirámide azul y el bloque azul.

Usuario: ¿Qué sostiene a la pirámide?

SCHRDLU: La caja.

Usuario: ¿Cuántos bloques no están sobre la mesa?

SCHRDLU: Cuatro.

Usuario: ¿Es al menos uno de ellos más estrecho que aquel que te dije que recogieras?

SCHRDLU: Sí, el cubo rojo.

Usuario: ¿Lo sostiene algo?

SCHRDLU: Sí, la mesa.

Usuario: ¿Puede la mesa recoger bloques?

SCHRDLU: No.

Usuario: La pirámide azul es mía.

SCHRDLU: Comprendo.

Usuario: Todos los bloques que no son rojos son míos, pero no poseo nada que sostenga una pirámide.

SCHRDLU: Comprendo.

Usuario: ¿Poseo una caja?

SCHRDLU: No

Usuario: ¿Poseo algo de la caja?

SCHRDLU: Si, dos cosas: El bloque azul y la pirámide azul.

Page 9: Inteligencia Artificial

Aunque parezca impresionante la capacidad del sistema para razonar y ejecutar acciones, no se debe perder de vista el hecho que el robot se mueve en un mundo muy simple de figuras geométricas, y que las relaciones entre ellas son muy limitadas. En el mundo real existen tantos objetos diferentes y relaciones entre ellos, que tratar de llevar este sistema a un entorno real resulta prácticamente imposible.

En los primeros años de la década del 60 Frank Rosemblatt desarrolla, en la Universidad de Cornell, un modelo de la mente humana a través de una redneuronal y produce un primer resultado al cual llama perceptrón. Este sistema era una extensión del modelo matemático concebido por McCullock y Pitts para las neuronas, y funcionaba basándose en el principio de "disparar" o activar neuronas a partir de un valor de entrada el cual modifica un peso asociado a la neurona, si el peso resultante sobrepasa un cierto umbral la neurona se dispara y pasa la señal a aquellas con las que está conectada. Al final, en la última capa de neuronas, aquellas que se activen definirán un patrón el cual sirve para clasificar la entrada inicial.

Este trabajo constituye la base de las redes neuronales de hoy en día, sin embargo a raíz de su desarrollo sufrió fuertes críticas por parte de Marvin Minsky

y Seymour Papert lo cual provocó que la mayoría de los investigadores interesados en el tema lo abandonarán, y este no se retomara hasta los años 80.

En 1965-70, comenzaron a aparecer los programas expertos, que predicen la probabilidad de una solución bajo un set de condiciones, entre esosproyectos estuvo: DENDRAL, que asistía a químicos en estructuras químicas complejas euclidianas; MACSYMA, producto que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas, etc.

En la década 1970-80, creció el uso de sistemas expertos, muchas veces diseñados para aplicaciones médicas y para problemas realmente muy complejos como MYCIN, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre. Otros son: R1/XCON, PIP, ABEL, CASNET, PUFF, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy.

De 1975 en adelante, comienza la era de los lenguajes expertos (shells) como EMYCIN, EXPERT, OPSS, etc. para luego tratar de que éstos sean más amigables y funcionales.

Las definiciones de Inteligencia Artificial son muchas, pero podría decirse que son programas que realizan tareas que si fueran hechas por humanos se considerarían inteligentes.

Estos programas obviamente corren en un computador y se usan, como por ejemplo, en control robótico, comprensión de lenguajes naturales, procesamiento de imágenes basado en conocimientos previos, estrategias de juegos, etc. reproduciendo la experiencia que un humano adquiriría y de la forma en que un humano lo haría.

Para clasificar las máquinas como "pensantes", es necesario definir qué es inteligencia y qué grado de inteligencia implica resolver problemas matemáticos complejos, hacer generalizaciones o relaciones, percibir y comprender. Los estudios en las áreas del aprendizaje, del lenguaje y de la percepción sensorial han ayudado a los científicos a definir a una máquina inteligente. Importantes desafíos han sido tratar de imitar el comportamiento del cerebro humano, con millones de neuronas y extrema complejidad.

Page 10: Inteligencia Artificial

Aplicaciones de la I.A: Existen varias y son:

Tratamiento de Lenguajes Naturales: Capacidad de Traducción, Órdenes a un

Sistema Operativo, Conversación Hombre-Máquina, etc.

Sistemas Expertos: Sistemas que se les implementa experiencia para

conseguir deducciones cercanas a la realidad.

Robótica: Navegación de Robots Móviles, Control de Brazos móviles,

ensamblaje de piezas, etc.

Problemas de Percepción: Visión y Habla, reconocimiento de voz, obtención de

fallos por medio de la visión, diagnósticos médicos, etc.

Aprendizaje: Modelización de conductas para su implante en computadoras.

Page 11: Inteligencia Artificial

Prueba de Turing

Procesamiento del Lenguaje Natural que permita comunicarse perfectamente

en inglés.

Representación del Conocimiento para almacenar lo que se conoce o siente.

Razonamiento Automático, para usar la información almacenada para

responder a preguntas o extraer conclusiones.

Aprendizaje Automático, para adaptarse a muchas circunstancias y para

detallar y extrapolar patrones.

Existe una variante de la Prueba de Turing: La Prueba Global de Turing, esta además

de exigir lo anterior, incluye una señal de video que permite evaluar la capacidad de

visión del evaluado y además le da la capacidad de pasar objetos a través de una

pequeña ventana. Para que el computador pase esta variante, se requiere además de

lo anterior:

Visión Computacional, para percibir objetos.

Robótica, para manipular y mover objetos.

Como se dijo anteriormente esta Prueba mantiene su vigencia hasta hoy (56 años),

sino que además revolucionó la I.A ya que propuso estudiar la Inteligencia en lugar de

emularla. Bajo un concepto similar, los hermanos Wright, crearon la aviación: Al

comprender los principios aerodinámicos y al dejar de imitar a los pájaros.

Fundamentos de la prueba de Turing

El origen de esta prueba surge de la pregunta ¿pueden pensar las máquinas?. Ante esta questión Turing propuso otra forma de verla a modo de un juego, al que llamó "juego de imitación" debido a los fundamentos en los que se basaba, los cuales son inicialmente un escenario constituido por tres personas, un hombre (al que llemaremos individuo A), una mujer (individuo B) y un interrogador que puede ser hombre o mujer.

El interrogador se sitúa en otra habitación separado de los otros dos participantes, y su objetivo principal será determinar cuál de los dos es el hombre y cuál la mujer a los que se referirá como individuos A y B.

Para evitar que el tono de voz pudiera delatar a alguno de los interrogados, las respuestas deberán ser ofrecidas al interrogador de forma escrita y mecanografiadas. Otra alternativa a para no dar a conocer los tonos de voz de los interrogados consiste en situar a un intermediario entre los interrogados (A y B) y el interrogador, cuya única función sería en comunicar las preguntas y respuestas entre ambos bandos.

Page 12: Inteligencia Artificial

Una vez establecido este escenario inicial, surge la pregunta de qué ocurriría si una máquina desempeñara el papel de A o de B, será el interlocutor capaz de averiguar que la persona interrogada no es una persona sino una máquina, es decir, llegamos a la pregunta planteada inicialmente ¿pueden pensar las máquinas?.

Uno de los principios de este problema se centra en establecer una línea que diferencie entre lo que son capacidades físicas y las intelectuales de un hombre. Este hecho se refleja por la incapacidad que presenta el interlocutor de tocar a los interrogados y poder oír sus voces.

Basar esta prueba en una metodología centrada en preguntas y respuestas parece la más adecuada para poder tratar un mayor número de campos posibles de la actividad humana y que sean considerados de mayor importancia con respecto a su capacidad intelectual. De este modo, resulta obvio que la mejor estrategia de la que va a disponer la máquina será tratar de dar las respuestas que de forma natural daría un hombre.

Cabe destacar, que mediante esta prueba Turing no se busca responder si todos los computadores darían un buen resultado, ni tampoco si los computadores disponibles en este momento lo harían, sino llegar a la conclusión de si hay computadores imaginables que utilizando de forma adecuada la estrategia anteriormente expuesta y nos permitan responder responder a la cuestión inicial de si una máquina puede o no pensar.

Esquema de la prueba o test de Turing:

Opinión de Alan M. Turing

Ante esta prueba de inteligencia a la que Turing denominó "juego de imitación", opinaba que dentro de unos cincuenta año sería posible programar computadores con una capacidad de memoria aproximadamente 109, que jueguen tan bien este juego de imitación que un interrogador no tendrá más del 70 por ciento de posibilidades de

Page 13: Inteligencia Artificial

hacer la identificación correcta, tras cinco minutos de interrogatorio, de quien es la máquina y quien la persona humana.

Una de las garandes incógnitas de la época (1950) y la cual sigue peresnte en la actualidad y que constituyó el origen de esta prueba es si las máquinas pueden o no pensar. Ante este interrogante, Turing no llego a dar una respuesta concreta ya que el consideraba que era una cuestión demasiado insignificante para ser discutida, pues estaba convencido que a finales de siglo, la opinión general de la sociedad sobre este tema y respecto a esta incógnita habría cambiado tanto, que una persona podría hablar libremente del pensamiento de las máquinas sin esperar que fuera algo imposible.

Opiniones opuestas

A continuación se muestran algunas de las objeciones surgidas en la época ante los fundamentos de la prueba de Turing y las respuestas que ofreció A. Turing ante ellas:

1. La objeción teológica: Exponen que el pensamiento es una función del alma del hombre. Y que Dios ha dado un alma inmortal a todos los hombres y mujeres, pero a ningún otro animal y a ninguna máquina. Por lo tanto, ningún animal o máquina puedría pensar.

Respuesta de A. Turing: Expuso que con esta foma de pensar se estaba restringiendo la omnipotencia de Dios, restringiendo el hecho que Dios pueda conceder alma a una máquina o a un animal si lo considerase apropiado. Y que mediante la creación de máquinas no se está limitando el poder de Dios para crear almas, sino aportando posibles lugares (las máquinas) donde poder albergar estas.

A Turing de todas formas no le importaban excesivamente los argumentos teológicos debido a los mal entendidos que tuvo con con su forma de pensar de las cuales en la mayoría de los casos obtuvieron bastantes malos resultados con algunas de sus teorías.

2. La objeción de la "cabeza en la arena o del avestruz" Argumentan que las consecuencias del hecho de que las máquinas pensaran podrían ser demasiado horribles y que esperan y creen que no puedan hacerlo.

Respuesta de A. Turing: Debido a que a las personas nos gusta creer que el hombre es de alguna forma, superior al resto de seres, es lógico que este pensamiento nos llegue a preocupar y sobre todo a los intelectuales que valoran aún más el poder del pensamiento y lo tratan como el eje central de la superioridad del hombre.

Turing no considera este argumento tan alarmante y afirmaba que lo que realmente debería buscarse es el consuelo en por ejemplo la posibilidad de la trasmigración de las almas en caso de que se obtuviera la superioridad de las máquinas con respecto a los hombres.

3. La objeción matemática: Hay muchos resultados de la lógica matemática que pueden ser utilizados para demostrar que existen limitaciones al poder de las máquinas de estado discreto. El más conocido de estos resultados se apoya en el Se apoya en el Teorema de incompletitudde Gödel y demuestra que, en cualquier sistema

Page 14: Inteligencia Artificial

lógico suficientemente poderoso pueden ser formuladas proposiciones que no pueden ser demostradas ni refutadas dentro del sistema, a menos que el sistema mismo sea contradictorio. Existen otros resultados, semejantes en algunos aspectos, como los de Church, Kleene, Rosser y Turing.

Respuesta de A. Turing: Expuso que pesar de haberse establecido algunas limitaciones a las capacidades de una máquina, en ningún momento se ha demostrado que tales limitaciones no se encuentren también presentes en la inteligencia humana. En muchas ocasiones nosotros también damos respuestas equivocadas en comparación con la ofrecida por una máquina y sin embargo, no le atribuimos la superioridad a la máquina.

4. Argumento de la conciencia: Este argumento está muy bien expresado en la Oración de Lister del año 1949 del profesor Jefferson, de la cual es citado lo siguiente: "Hasta que una máquina no sepa escribir un soneto o componer un concierto con base en los pensamientos y las emociones que siente, y no a consecuencia de la caída venturosa de símbolos, no podremos estar de acuerdo en que la máquina pueda ser igual que un cerebro, es decir, que no solamente sepa escribirlos, sino también que sepa que los ha escrito. Ningún mecanismo podría sentir (y no sólo señalar artificialmente, lo cual es una invención fácil) alegría por sus éxitos, tristeza cuando sus válvulas se fundieran, placer al ser adulado y sentirse desgraciado a consecuencia de sus errores, encantado por el sexo, enfadado o deprimido al no lograr lo que desea".

Respuesta de A. Turing: Propone como prueba para dicho argumento utilizar como test el juego de imitación, omitiendo para ello el jugador B y manteniendo una continua conversación basada en cuestiones y respuestas entre el testigo y el interlocutor, y de esta forma comprobar si el testigo entiende lo que dice o de lo contrario lo ha aprendido las respuestas como un papagayo.

5. Argumentos basados en varias incapacidades: Estos argumentos se basan en que nunca se podrá inducir a una máquina a hacer X. En este caso X era referido a las varios tipos de cosas: Ser bueno, fértil en recursos, guapo, amistoso, tener iniciativa, tener sentido del humor, saber distinguir lo bueno de lo malo, cometer errores, enamorarse, disfrutar las fresas con nata, hacer que alguien se enamore de algo, aprender de la experiencia, emplear las palabras correctamente, ser el tema de sus propios pensamientos, tener tanta variedad de comportamiento como un hombre, hacer algo verdaderamente nuevo....

Respuesta de A. Turing: Argumenta que muchas de estas limitaciones se deben en gran medida a la reducida capacidad de memoria que presentan las máquinas, y además expuso algunas observaciones y soluciones con respecto a algunas de las limitaciones mencionadas:

El hecho de saborear un plato de fresas con nata podría solucionarse programando a una máquina para que disfrutara de este plato.

Con respecto a que las máquinas no puedan equivocarse, se pregunta en primer lugar que cuál era el problema, ¿suponía esto que fuesen peores?. Aún así, una máquina podría programarse para que por ejemplo, para pregunta realizadas en el juego de

Page 15: Inteligencia Artificial

imitación sobre aritmética, no fueran contestadas de forma exacta (científica) y de esta forma delatarse en el elevado nivel de cómputo aritmético con respecto al del hombre.

Ante el hecho de que la máquina no pueda equivocarse, recuerda que un máquina también puede ofrecer resultados erróneos o bien, tener un fallo de funcionamiento y en consecuencia provocar que los resultados ofrecidos no sean los correctos.

En relación a la limitación expuesta que una máquina no puede ser objeto de sus propios pensamientos, Turing afirma que la solución a esta duda sólo puede ser contestada si se demuestra que la máquina tiene algún pensamiento sobre alguna materia. Y propone el siguiente ejemplo: si tuviéramos una máquina intentando resolver una ecuación, podríamos tratar dicha ecuación como la materia que está siendo tratada en ese momento por la máquina y por tanto, la materia sobre la cual está pensando.

Para eliminar la limitación de que una máquina pueda o no moderar su conducta, la máquina puede ser programada de modo que a raíz de unos resultados obtenidos tras una serie de acciones realizadas, pueda modificar sus propios programas para optimizar dichos resultados.

Con respecto a que no pueda tener comportamientos más variados, es como decir indirectamente que no dispone de más capacidad de memoria, y que es una limitación que ya habíamos supuesto en un principio.

Por último, argumenta que todas estas limitaciones podrían ser resueltas estableciendo el procedimiento correspondiente que solucionara cada una de las limitaciones, para que sea llevado a cabo por la máquina.

Todos estos argumentos los podemos ver reflejados en la actualidad donde las máquinas son capaces de enfrentarse a los mejores jugadores de ajedrez, llevar a cabo operaciones quirúrgicas, aprender por si solas, etc.

6. La objeción de Lady Lovelace: La información más detallada acerca de la máquina analítica de Babbage provienen de un informe elaborado por Lady Lovelace. En este informe declara lo siguiente: "La máquina analítica no pretende crear nada. Puede hacer cualquier cosa que sepamos ordenarle que haga". En definidas cuentas, nos pretende dar a entender que una máquina no es capaz de pensar por sí misma.

Respuesta de A. Turing: Este hecho no implica ni demuestra que no se pueda construir un equipo electrónico que piense por sí mismo.

Una variante de la objeción de Lady Lovelace es que una máquina nunca podría tomarnos por sorpresa, a lo que Turing expuso que a el las máquinas de toman por sorpresa continuamente. Y esto le ocurría en la mayoría de las situaciones, que según él, era debido a que no llevaba a cabo los suficientes cálculos o los realizaba de forma imprecisa o apresurada a la hora calcular lo que se esperaba que debía de hacer una determinada máquina y esto le lleva a que en muchas ocasiones realizasen acciones que no eran de esperar.

También se puede considerar la acción de tomar por sorpresa a la realización de algo sorprendente, lo cual se suele asociar a un acto mental creativo, con lo que llegamos al comienzo de todo en el cual se argumentaba que las máquinas no pueden llegar a sorprendernos. Este punto de vista, el de que las máquinas no pueden llevara cabo un

Page 16: Inteligencia Artificial

acto sorprendente, se debía en gran medida a los argumentos de filósofos y matemáticos de la época que atribuían directamente esta propiedad al acto en el cual nada más el hecho se presenta en la mente de una persona, seguidamente surgen todas las consecuencias posibles del mismo, y lo cual suponían no podría llevarse a cabo en una máquina. Sin embargo, según Turing este razonamiento es falso, pues sino no serían reales las deducciones, a partir de los datos y de los principios generales, que son llevadas a cabo por las máquinas.

7. Argumento basado en la continuidad del sistema nervioso: El sistema nervioso no es, por supuesto, una máquina de estado discreto. Un pequeño error en la información correspondiente a un impulso nervioso que llega a una neurona, puede representar una gran variación en el impulso de salida de esta neurona. Por consiguiente, se puede argumentar que, si esto así, no se puede esperar que podamos llegar a imitar el comportamiento del sistema nervioso con una máquina o sistema de estado discreto.

Respuesta de A. Turing: Es cierto que una máquina de estado discreto es diferente a de una máquina continua, pero aún así sería posible inducir a una máquina discreta o digital un comportamiento continuo de modo que, por ejemplo, si disponemos de una máquina discreta cuyas respuestas son precisas, entonces a dicha máquina se le puede inducir que para un tipo de pregunta su contestación sea un resultado de entre varios datos presentes en un conjunto de respuestas aproximadas, a las cuales se le asocia a cada una de ellas una probabilidad de elección. De esta forma, si se le preguntara por el valor del número e (e=2,7182...), en lugar de responder exactamente dicho resultado, escogería uno de entre varios como pueden ser 2,72, 2,718, 2,7, etc. a los cuales se les podría asociar las probabilidades de 0,005, 0,25 y 0,5 respectivamente, con lo cual la respuesta ofrecida por la máquina será una de ellas elegida de forma aleatoria y condicionada por su probabilidad de elección.

8. El argumento de la informalidad de la conducta: Esta objeción se refiere a que el comportamiento de un ser humano es demasiado complejo como para ser descrito mediante unas simples reglas de un juego, es el denominado problema de cualificación, según el cual no es posible elaborar un conjunto de reglas que describa lo que una persona debería hacer en cualquier serie de circunstancias posibles. Y como consecuencia a lo anterior, una máquina no podrá imitar por completo el comportamiento de una persona pues no conocería todas estas reglas.

Respuesta de A. Turing: Las leyes de conducta por las que se rige una persona, como es pararse ante un semáforo en rojo, si pueden ser conocidas, sin embargo, las leyes de comportamiento, como podrían ser las seguidas en caso de encontrarse en un camino con dos señales que se contradicen, no.

La única posibilidad conocida para encontrar tales leyes de comportamiento es mediante la observación científica. Siendo así, y suponiendo que se pudieran encontrar tales leyes si existieran, se podría llegar a predecir el comportamiento llevado a cabo por una persona a partir de cualquier circunstancia.

9. El argumento de la percepción extrasensorial. Si jugamos al juego de imitación, teniendo por testigo a una persona que sea buena receptora telepática y a una com-putadora digital. El interrogador puede plantear preguntas de este tipo: "¿A qué palo

Page 17: Inteligencia Artificial

pertenece la carta que tengo en mi mano derecha?" La persona, mediante telepatía o clarividencia, da la respuesta correcta 130 veces sobre 400 cartas. La máquina sólo puede adivinar al azar y tal vez acierte 104 veces, y así el preguntador podría efectúa la identificación correcta.

Respuesta de A. Turing: Si admitimos la telepatía, habría que depurar la prueba, pues estaríamos en desventaja, de forma que la situación se asemejaría a la que se produce si el interrogador hablara consigo mismo y uno de los participantes estuviera escuchando con el oído en la pared.

La solución en tal caso sería situar a los participantes en una «habitación a prueba de telepatía», de forma que se restablecerían las condiciones volviendo a la igualdad de condiciones iniciales.

ELIZA

Un candidato a pasar el test de Turing es el programa ELIZA diseñado en 1966 por Joseph Weizenbaum. Esta máquina trata de evitar el hecho de que un programa estuviera basado en dominios limitados ligados a la estructura del propio programa. De modo que diseñó un programa en el cual el conocimiento sobre los dominios se encontrase en módulos ajenos al propio programa, de esta forma cambiar de tema sería tan fácil como cambiar de de módulo. Uno de esos módulos, y el más famoso, fue el que imitaba la metodología de un psicoanalista rogeriano (el psicoanalista Carl Rogers utilizaba una terapia que consistía simplemente en animar a los pacientes a hablar de sus problemas, respondiendo a sus preguntas con otras preguntas). El programa en cuestión recibió el nombre de ELIZA (ahora todo un mito de la historia de la I.A.). Aunque a simple vista ELIZA parece estar hablando de forma normal con la persona que le cuenta sus problemas, la verdad es muy diferente. ELIZA hace creer a su interlocutor que está hablando con "un ser" que razona y entiende lo que le dice, realmente todo ello lo consigue mediante trucos como repetir frases cambiando "yo" por "tu", o utilizar una frase del principio y transformarla en otra pregunta relacionada con esa frase. Otro truco utilizado por este programa es insertar frases como "ya veo" o "háblame más acerca de esto".

ELIZA contaba con que las conversaciones seguían siempre el patrón común de los psicoanálisis rogelianos, ya que en otro tipo de conversación una frase como "háblame algo más acerca de los coches rojos con motas verdes que apartan cerca de tu casa" resultaría demasiado extraña. Por ello, este programa finalmente no supera la prueba de Turing, pues en la prueba se deben enfrentar a dos partes, una persona y un ordenador y ambas deben comportarse de forma normal, de modo que el computador debe de comportarse como una persona para ser confundida con una de ellas. Sin embargo, este hecho quedaría al descubierto en cuanto ELIZA respondiera, por ejemplo, con la frase "Cuéntame algo más acerca de tu gusto por la comida italiana", ya que en una conversación normal no se utilizan esas expresiones.

Aplicaciones prácticas

Una de las aplicaciones de la prueba de Turing es el control de spam. Los spammers (individuos o empresas que envían spam) son por lo general máquinas que recorren la red en busca de direcciones de correo por medio de las propias páginas web, listas de correo, grupos de noticias, etc. para luego enviarnos correo no solicitado o publicitario.

Page 18: Inteligencia Artificial

Una forma de determinar si una máquina tiene como objetivo el envío de spam es comprobar, siguiendo la idea expuesta por el test de Turing, es comprobar si es capaz de realizar una conversación de aspecto humana. Si el resultado del test es negativo, las peticiones de esta máquina serian bloqueadas. Así la prueba de Turing puede usarse para distinguir si el correo electrónico fue enviado por un remitente humano o por una máquina. Un ejemplo muy utilizado es la prueba captcha, en la que un usuario cuando desea enviar un correo a un destinatario concreto debe antes reconocer una serie de imágenes, sonidos, patrones, reproducir un texto distorsionado, etc. todo ello basándose en tests que la mayoría humanos pueden resolver de forma sencilla y que los programas de computadores actuales no podrían en la mayoría de casos.

Ejemplo de una prueba de Captcha:

Ramas de la Inteligencia Artificial

Robótica

La Robótica es una ciencia que estudia el diseño y construcción de máquinas capaces de desempeñar tareas realizadas por el ser humano o que requieren del uso de inteligencia.

A finales de los años 70, se produjo un nuevo giro en el campo de la investigación relacionada con la inteligencia artificial: la aparición de robots. Los robots experimentales creados para estos efectos eran automatismos capaces de recibir información procedente del mundo exterior (p. ej.., sensores, cámaras de televisión, etc.), así como órdenes de un manipulador humano (expresadas en lenguaje natural).

De este modo, el robot determinaba un plan y, de acuerdo con él, ejecutaba las órdenes recibidas mediante el empleo de un modelo del universo en el que se encontraba. Era incluso capaz de prever las consecuencias de sus acciones y evitar,

Page 19: Inteligencia Artificial

así, aquéllas que más tarde pudieran resultarle inútiles o, en algún momento, perjudiciales. Estos primeros robots experimentales eran bastante más inteligentes que los robots industriales, y lo eran porque disponían de un grado mucho mayor de percepción del entorno que los robots empleados en las cadenas de producción.

El principal problema con el que se enfrenta la inteligencia artificial aplicada a los robots es el de la visión. Mientras que la información recibida a través de censores se puede interpretar con relativa facilidad y entra a formar parte de la descripción del modelo de universo que emplea el robot para tomar decisiones, la percepción de las imágenes captadas y su interpretación correcta es una labor muy compleja.

En cuanto a la interpretación de las imágenes captadas mediante cualquier sistema, se ha logrado ya el reconocimiento de formas preprogramadas o conocidas, lo que permite que ciertos robots lleven a cabo operaciones de reubicación de piezas o colocación en su posición correcta a partir de una posición arbitraria. Sin embargo, no se ha logrado aún que el sistema perciba la imagen tomada mediante una cámara de ambiente y adapte su actuación al nuevo cúmulo de circunstancias que esto implica. Así, por ejemplo, la imagen ofrecida por una cámara de vídeo de las que se emplea en vigilancia y sistemas de seguridad no puede ser interpretada directamente por el ordenador.

Objetivos de la Robótica:

El aumento de la productividad.- Esto se consigue, fundamentalmente, optimizando la velocidad del trabajo del robot, que reduce el tiempo parcial a cargo del manipulador y aumenta el rendimiento total en línea de producción.

Potenciar la flexibilidad en la adaptación a series de producción cortas. Optimizar el rendimiento de otras marcas y herramientas relacionadas con la

labor del robot. Conseguir una rápida amortización de la inversión, como consecuencia de la

sustitución de la mano de obra, mejor uso y mayor duración de las herramientas, menores pérdidas de material residual, pocas averías y mantenimiento reducido.

Mejorar la capacidad de los productos fabricados, dada la precisa repetividad de los movimientos del robot y la posibilidad de incrementar un control de calidad.

Disminuir los stocks de productos terminados, así como el de sus plazos de entrega.

Realizar trabajos en condiciones hostiles y peligrosas, tales como las que se llevan acabo en ambientes con temperaturas elevadas, contaminación, gases tóxicos, materiales inflamables o radiactivos y en los entornos submarinos o espaciales

Campos de aplicación de la robótica

Teóricamente el uso de sistemas robóticos podría extenderse a casi todas las áreas imaginables en donde se necesite de la ejecución de tareas mecánicas, tareas hoy ejecutadas por el hombre o imposibles de ejecutar por él (por ej. una exploración sobre el terreno de la superficie marciana). Se entiende, en este contexto, que tarea mecánica es toda actividad que involucra presencia física y movimiento por parte de

Page 20: Inteligencia Artificial

su ejecutor.Pero al situarnos en el contexto real, en la práctica, nos damos cuenta de que existen factores que limitan el vuelo de nuestra imaginación, los que mencionaremos en el siguiente punto.

Algunos de los campos de aplicación actuales de la robótica son:

Investigación - Exploración.En donde los robots presentan la ventaja de resistir mejor los ambientes hostiles para el ser humano.

Entretenimiento.Esta industria se favorece del uso de robots para recrear situaciones ficticias o posibles, haciendo uso de los llamados "efectos especiales".

Construcción.Industria en que ya se registran proyectos que incluyen el uso de robots como ejecutores de tareas de dimensionamiento, transporte, montaje, entre otras.

Automatización Industrial.Es el más relevante y de interés para nosotros. Corresponde al uso de robots en la industria a fin de mejorar, agilizar y aumentar la producción en los diferentes procesos.

El Futuro de la Robótica

Hans Moravec, director de Moville Robot Laboratory de la Universidad Carnegie Mellon clasifica la evolución de los robots como sigue:

Primera generación (2000-2010): Robot con cerebro de lagarto. Requerirán un poder de cálculo de 1000 MIPs y serán los robots "mayordomo", experto en desenvolverse en el hogar.

Segunda generación (2010-2020): Robots con cerebro de mamífero. Capacidad de cálculo de 30.000 MIPs. Su característica más notoria será el aprendizaje, a diferencia de los rígidos programas de la primera generación.

Tercera generación (2020-2030): Robots con cerebro de mono. Capacidad de cálculo de 1.000.000 MIPs (un billón de operaciones por segundo). Serán robots capaces de simular las acciones de forma abstracta antes de realizarlas en su propia mente.

Cuarta generación (2030-2040): Robots con mente humana. Capacidad de cálculo de 30.000.000 MIPs. Podrán extraer simulaciones del mundo y razonar sobre ellas simultáneamente, gracias a su mayor poder de computación, un gigantesco banco de datos y programas de razonamiento.

Sistemas Expertos

Los sistemas expertos se basan en la simulación del razonamiento humano. El razonamiento humano tiene para ellos, un doble interés: por una parte, el del análisis del razonamiento que seguiría un experto humano en la materia a fin de poder codificarlo mediante el empleo de un determinado lenguaje informático; por otra, la síntesis artificial, de tipo mecánico, de los razonamientos de manera que éstos sean

Page 21: Inteligencia Artificial

semejantes a los empleados por el experto humano en la resolución de la cuestión planteada.

Estos dos campos de interés han conducido a los investigadores que trabajan en el campo de la inteligencia artificial (de la cual los sistemas expertos son un campo preferente) a intentar establecer una metodología que permita verificar el intercambio con los expertos humanos y aislar los diversos tipos de razonamiento existentes (inductivo, deductivo, formal, etc.), así como construir los elementos necesarios para modelizarlos.

Los sistemas expertos son, por lo tanto, intermediarios entre el experto humano, que transmite sus conocimientos al sistema, y el usuario de dicho sistema, que lo emplea para resolver los problemas que se le plantean con la competencia de un especialista en la materia y que, además, puede adquirir una destreza semejante a la del experto gracias a la observación del modo de actuar de la máquina. Los sistemas expertos son, pues, simultáneamente, un sistema de ejecución y un sistema de transmisión del conocimiento.

Características de los Sistemas Expertos

Para que un sistema computacional actúe como un verdadero experto, es deseable que reúna, en lo posible, lo más importante de las características de un experto humano, esto es:

Habilidad para adquirir conocimiento. Fiabilidad, para poder confiar en sus resultados o apreciaciones. Solidez en el dominio de su conocimiento. Capacidad para resolver problemas.

Dada la complejidad de los problemas que usualmente tiene que resolver un SE, puede existir cierta duda en el usuario sobre la validez de respuesta obtenida. Por este motivo, es una condición indispensable que un SE sea capaz de explicar su proceso de razonamiento o dar razón del por qué solicita tal o cual información o dato.

Tareas de los Sistemas Expertos

Entre las principales tareas que un SE puede realizar se pueden mencionar las siguientes:

Interpretación: Análisis y síntesis (PROSPECTOR) Simulación, pronóstico o predicción

Diagnóstico (MYCIN) Supervisión Reparación, corrección o terapia Planificación Control: Tiempo real y tiempo diferido Diseño Educación.

Page 22: Inteligencia Artificial

Campos de Aplicación

Múltiples son los campos de aplicación de los SE:

Medicina Aeronáutica Finanzas y Gestión Agricultura Industria Arqueología Electrónica, informática y

telecomunicaciones Derecho Militar Geología Educación Química Transporte Ventas

Page 23: Inteligencia Artificial

Perspectivas Futuras

En unos pocos años, se prevé que los Sistemas Expertos tendrán una mayor difusión, se abaratará su costo, su programación y utilización serán más fáciles. Los SE estarán embebidos en diversas aplicaciones, especialmente en software de uso general, como el producido por Microsoft; y, en sistemas de supervisión y control.

En el campo de la investigación, se dará énfasis al desarrollo de SE con capacidad de aprendizaje o SE con sentido común. La aplicación de SE en simulación y control, permitirá conocer, de una manera idónea, el comportamiento de sistemas y la forma de optimizar procesos industriales.

Aplicaciones Futuras de la Inteligencia Artificial:

Robots de Charla

Un robot de charla o chatterbot es un programa de inteligencia artificial que pretende simular una conversación escrita, con la intención de hacerle creer a un humano que está hablando con otra persona.

Estos programas informáticos prometen ser el futuro de la inteligencia artificial aplicada al público general.

A estos robots se les unirán las tecnologías del reconocimiento de voz y el de video, para mejorar la interacción con el usuario

Red neuronal artificial:

Línea de investigación que analiza la viabilidad de reconstruir un cerebro humano mediante una enorme red neuronal. Se presume la posibilidad de recrear la estructura de un cerebro humano empleando para ello Internet.

Sin embargo este proyecto es tremendamente complejo, por que a día de hoy ni siquiera conocemos la distribución exacta de las neuronas y sus interconexiones en un cerebro humano.

Robots con razonamiento

Algunos investigadores esperan crear una máquina que pueda leer pasajes de textos y responder preguntas en base al material. En el proceso, el profesor Selmer Bringsjord, director del Laboratorio de Inteligencia Artificial y Razonamiento del politécnico, cree que dichas máquinas dotadas de inteligencia artificial (IA) podrán leer planes o manuales militares y adaptarse al vuelo en el fragor de la batalla.

Los robots del futuro recibirán instrucciones leyéndolas o escuchándolas. Dijo que una vez que una máquina haya absorbido todas las informaciones relevantes sobre un rubro, como

Page 24: Inteligencia Artificial

ser factores culturales, históricos y geográficos de una zona, un oficial pueda decir: "Esta es la situación actual en Faluya. Vamos a inspeccionar".

Base de Conocimiento

En Austin, Texas, la firma Cycorp ha estado conformando una "base de conocimiento" llamada Cyc con el propósito de que constituya un depósito de conocimiento humano que pueda tomar decisiones inteligentes.

El vicepresidente de investigación de Cycorp, Michael Witbrock, dijo que Cyc puede razonar sobre la base de 2,5 millones de aseveraciones en su sistema, tal como inferir qué nivel de salario puede tener alguien en base a su trabajo.

“Ya existen máquinas que reconocen órdenes verbales y rostros y hacen inferencias sobre la base de experiencias”, dice el profesor de ciencias de la computación Tom Mitchell, de la Universidad Carnegie Mellon.

Vida Artificial

En futuro se piensa crear realmente un mundo artificial, que esté inmerso por ejemplo dentro de una realidad virtual, en la cual podamos meternos, tener una mascota, enseñarle, zurrarle, hacer que esta mascota persiga conejos que a su vez aprendan a huir de ella, y que, en general, tenga una existencia totalmente independiente con respecto a nosotros.

Page 25: Inteligencia Artificial

Informática Convencional

A. Gran avance de la informática

El desarrollo de los ordenadores ha sido espectacular en los últimos años. Del mismo se han beneficiado muchos campos del saber, siendo uno más de ellos la administración y dirección de empresas. Los programas informáticos como hojas de cálculo, bases de datos, tratamientos de estos, etc., suelen estar basados en programación algorítmica convencional, en la que se indica al ordenador paso a paso lo que debe hacer.

Estos programas se ejecutan en ordenadores convencionales con un único microprocesador o unidad central de proceso que opera secuencialmente. Todo ello constituye lo que se denomina informática convencional, representada en la figura siguiente.

Informática convencional

La informática convencional ha desarrollado con éxito un número considerable de aplicaciones para mejorar la gestión empresarial y ha producido una indudable revolución en todas las actividades de la Contabilidad.

B. Introducir conocimiento en un sistema informático

Sin embargo, a pesar de la importancia de las aplicaciones informáticas convencionales en la empresa, en la medida en que necesitamos incorporar conocimiento a un sistema informático se utilizan otro tipo de herramientas, como son las procedentes de la Inteligencia Artificial.

Ia Ejemplo: La informática convencional aplicada al análisis de la solvencia de una empresa

Page 26: Inteligencia Artificial

1) Análisis contable

Vamos a suponer que trabajamos en el departamento de concesión de créditos de una entidad financiera y nuestro trabajo consiste en analizar la información contable de las empresas, valorar si la empresa es solvente o presenta problemas y, a partir de ahí, decidir si merece un crédito o no. Es un problema típico de análisis contable.

2) Queremos un programa de ordenador

Pensamos que el ordenador nos puede ayudar a manejar los datos para lo que queremos una aplicación informática que nos ayude a dicha tarea. Aunque somos algo novatos en nuestro nuevo trabajo, contamos con lo aprendido en la facultad y el apoyo de nuestro compañero de trabajo, especialista en ese campo -aunque no muy ducho en los temas de informática-, a quien pensamos sustituir porque se acerca la fecha de su jubilación.

3) Por ejemplo, una hoja de cálculo

Una herramienta de informática convencional que podríamos utilizar es la hoja de cálculo. Allí podríamos introducir los balances y cuentas de resultados de los clientes y calcular ratios financieros sobre liquidez, endeudamiento, rentabilidad, etc., y otras magnitudes como el fondo de maniobra.

4) Muy útil la función condicional

Siguiendo las recetas de algún manual de análisis contable, sobre esos ratios podemos realizar algunos cálculos adicionales. Seguro que una de las funciones que más utilizaríamos de la hoja de cálculo es la función condicional, de forma que nos avise cuando la empresa en cuestión tenga valores anormalmente bajos para alguno de los ratios analizados.

5) Y la capacidad de simulación

La capacidad de la hoja de cálculo para realizar simulaciones es también muy notable. Con algo de programación adicional podemos incluir unas macros que enciendan un semáforo rojo en cada uno de los puntos débiles de la empresa, vamos, un sistema de alerta temprana.

6)... pero se queda pequeño

Orgullosos por haber dotado a nuestra hoja de cálculo de cierta inteligencia, la mostramos a nuestro compañero, pidiendo su consejo. "No está mal, ayudará mucho a facilitar los cálculos que con mi calculadora se hacían muy pesados", exclama, "Aunque es algo sencillo". Por ejemplo, deberías haber tenido en cuenta que para ese sector en concreto es normal que el fondo de maniobra sea negativo. Además, no nos interesa tanto la rentabilidad como su capacidad para

Page 27: Inteligencia Artificial

devolver el préstamo. Es más, no nos importa que la empresa quiebre, con tal de que pueda devolverlo. Me gustaría charlar contigo para poder mejorar tu programa".

7) Ineficiente para representar conocimiento

En seguida nos damos cuenta de que la hoja de cálculo no es la herramienta más adecuada para representar el conocimiento complejo. En cuanto queramos que las condicionales estén anidadas al estilo: "si esto Y aquello O eso Y...entonces" la programación se complica y no es eficiente.

II Ramas de la Inteligencia Artificial

1) Origen

El nacimiento de la Inteligencia Artificial se sitúa en una reunión celebrada en el Dartmouth College (Hanover, EEUU) en 1956, en la que se planteó la posibilidad de construir máquinas inteligentes. Llama la atención que en esa fecha la informática apenas se había desarrollado, y ya se planteaba la posibilidad de diseñar mecanismos inteligentes. En aquella reunión se encontraban entre otros, Claude Shannon, padre de la Teoría de la Información; Marvin Minsky, que más tarde demostraría las limitaciones de ciertos modelos de redes neuronales; Herbert Simon, premio Nobel de Economía quien además desarrolló el primer programa de Inteligencia Artificial y un largo etcétera de investigadores.

2) Tronco común con varias ramas

Desde entonces son muchas las ramas que surgen del tronco común de la Inteligencia Artificial. Las Ciencias de la Computación han asistido continuamente al nacimiento de nuevas ramas y se habla de sistemas expertos, vida artificial, algoritmos genéticos, computación molecular o redes neuronales. En algunas de estas ramas los resultados teóricos van muy por encima de las realizaciones prácticas.

3) Los sistemas expertos

Los sistemas expertos son la rama más conocida. Parten de la premisa de que los expertos humanos utilizan gran cantidad de conocimientos específicos de un campo que deben ser incorporados en el sistema experto. Para los defensores más radicales de este paradigma, la inteligencia es un programa que debe funcionar independientemente del lugar donde se ejecute: ordenador o cerebro.

La forma deductiva en que representan el conocimiento, habitualmente mediante símbolos y reglas, es apropiada cuando es posible extraer un conjunto de reglas y normas. En la Contabilidad existen subdominios en los que es fácil o al menos posible extraer una serie de reglas y otros en los que es menos factible.

Page 28: Inteligencia Artificial

4) Las redes neuronales artificiales

Las redes neuronales artificiales tratan de representar el conocimiento replicando la estructura neuronal del cerebro humano. En ellas lo fundamental es el aprendizaje mediante patrones o ejemplos.Las redes neuronales artificiales tratan de resolver tareas como el reconocimiento de patrones, problemas de optimización o clasificación que la computación algorítmica tradicional e Inteligencia Artificial convencional no han resuelto de un modo suficientemente satisfactorio.

En las redes neuronales artificiales el conocimiento no se programa de forma directa en la red sino que se adquiere mediante ejemplos por medio de una regla de aprendizaje que va ajustando parámetros. Como vemos es un método inductivo muy diferente al que siguen los sistemas expertos. Diversas parcelas de la Contabilidad utilizan frecuentemente el método inductivo por lo que se justifica conocer qué nos pueden ofrecer las redes neuronales.

5) La Vida Artificial

La Vida Artificial puede considerarse un paradigma emergente de la Inteligencia Artificial: se simulan realidades virtuales que evolucionan en entornos mutantes. Los algoritmos genéticos son los representantes más conocidos de la Vida Artificial.

6) Aplicaciones en la empresa

De entre todos los paradigmas y estrategias de la Inteligencia Artificial, actualmente dos tienen el mayor interés para las aplicaciones en la empresa: los sistemas expertos y las redes neuronales artificiales. Estos sistemas se pueden combinar, por lo que una solución práctica es utilizar sistemas mixtos que incorporan un módulo de sistema experto con sus reglas junto a otros módulos neuronales y estadísticos.

II Un ejemplo para aclarar las diferencias: los programas de ajedrez

Un sencillo ejemplo basado en el diseño de un programa de ajedrez puede ayudarnos a entender las diferencias entre estos paradigmas.

Un sistema experto trata de incorporar la sabiduría de algún maestro del ajedrez mediante reglas.

Una red neuronal es entrenada con ejemplos de partidas célebres, tratando de extraer de ahí el conocimiento.

Finalmente, mediante algoritmos genéticos se diseñan programas que compiten entre sí de forma que por selección natural quedan los mejores.

Page 29: Inteligencia Artificial

III Los Sistemas Expertos

1) Son la rama de la Inteligencia Artificial más empleada en la gestión empresarial

Su origen se sitúa a mediados de los años setenta, aunque es a partir de la década de los ochenta cuando se desarrollan aplicaciones en toda su plenitud. Su objetivo es modelizar el conocimiento, representándolo en forma de símbolos.

A continuación estudiaremos:

Concepto Desarrollo Aplicaciones Ventajas Limitaciones

III Los Sistemas Expertos: Definición

1) El Grupo Especialista en Sistemas Expertos de la Sociedad Británica de Ordenadores

Los define de la siguiente manera:

"La incorporación dentro de un sistema de ordenador de un componente basado en el conocimiento, correspondiente a una habilidad experta, de tal forma que el sistema pueda ofrecer asesoramiento inteligente o tomar una decisión inteligente sobre una función del proceso. Una característica adicional deseable, que muchos consideran fundamental, es la capacidad del sistema, si se le solicita, de justificar su propia línea de razonamiento de un modo directamente inteligible para el interrogador. El estilo adoptado para alcanzar estas características es la programación basada en reglas."

2) Recopilan en un programa informático el conocimiento de especialistas en una materia.

Sus dos componentes principales son la base de conocimientos y un programa de inferencia. El conocimiento se representa mediante el uso de símbolos, y así se crea una base de conocimiento. Una vez creada la base de conocimiento, se debe diseñar un método para utilizarla, que es el programa de inferencia. El programa de inferencia manipula la información simbólica almacenada en la base de conocimiento mediante un proceso de búsqueda.

Page 30: Inteligencia Artificial

Estructura de un sistema experto

III Los Sistemas Expertos: Desarrollo

1) Podemos desarrollar un sistema experto de dos maneras:

a) A medida, programando en un lenguaje convencional (C, Pascal, etc.) o en un lenguaje específico para el manejo de símbolos (Lisp, Prolog, etc.).

b) Utilizando una concha de sistema experto, también llamadas shell. Son programas comerciales con todos los elementos del sistema experto pero con la base de conocimientos vacía.

2) La tarea de adquisición del conocimiento es una tarea compleja que precisa de varios actores:

a) el ingeniero del conocimiento, especialista informático que extrae el conocimiento del especialista humano y lo plasma en el programa informático

b) el especialista humano, que es quien posee el conocimiento

c) el usuario del sistema, encargado de utilizar el sistema experto.

3) Hay muchas formas de representar el conocimiento en un sistema experto. El método más utilizado son las reglas de producción.

Una regla de producción toma la siguiente forma general:

SI <son ciertos determinados hechos>

Page 31: Inteligencia Artificial

ENTONCES <se consideran ciertos otros hechos>

Estas reglas residen en la base de conocimientos, en una especie de fichero de texto. El programa de inferencia, verdadero motor del sistema experto se encarga de combinar estas reglas, interactuando con el usuario a través del interfaz del usuario.

Un sistema experto para analizar la solvencia de una empresa

1) Parece una actividad ideal para un sistema experto

Siguiendo con el ejemplo del apartado anterior, podemos animarnos a realizar un sistema experto para analizar la solvencia de una empresa. Al fin y al cabo, contamos con la ayuda de un especialista humano y no es caro adquirir una concha con la que podemos introducir cientos de reglas.

2) ¿Por dónde empezar?

El procedimiento de trabajo es laborioso, pues se trata de extraer el conocimiento de nuestro colega, que conforme pasa el tiempo nos damos cuenta de que no tiene las cosas tan claras. Muchas reglas parecen confusas, no son blanco o negro, por lo que hemos tenido que incorporar lógica fuzzy. Avanzamos despacio, aunque por lo menos está sirviendo para replantearnos todo el proceso de la toma de decisiones de préstamo en el banco. Nos hemos dado cuenta de muchas decisiones se tomaban a ojo.

3) Van surgiendo problemas

Autores como Hartvigsen (1992), que ha elaborado un sistema experto para el análisis de la solvencia de las empresas reconoce las limitaciones y dificultades que plantea la construcción de los sistemas expertos para el análisis financiero. No hay una teoría formal y perfectamente estructurada para examinar la información contable de las empresas, aunque tampoco hay un desconocimiento total del procedimiento a seguir.

4) Podemos combinarlos con otras técnicas

Para abordar este tipo de problemas difícilmente resolubles mediante los métodos convencionales o mediante sistemas expertos hemos propuesto combinarlos con otras herramientas de Inteligencia Artificial, como las redes neuronales.

III Los Sistemas Expertos: Aplicaciones

1) Un sistema experto contable

Es un sistema informatizado que modeliza la experiencia de un contable.

Page 32: Inteligencia Artificial

2) La gestión empresarial cuenta con gran número de sistemas expertos

Ello es debido a dos razones fundamentales:

a) casi todas las empresas disponen de un ordenador que realiza las funciones básicas de tratamiento de la información: contabilidad general, decisiones financieras, gestión de la tesorería, planificación, etc,

b) este trabajo implica manejar grandes volúmenes de información y realizar operaciones numéricas para después tomar decisiones. Esto supone un terreno ideal para la implantación de los sistemas expertos.

3) Podemos clasificar las aplicaciones en la Contabilidad en varios apartados:

a) Auditoría

De entre todas las posibles áreas de trabajo en la contabilidad, según Fortuna, Busto y Sastre (1991) la auditoría es el campo en el que más aplicaciones de sistemas expertos se están desarrollando. Pueden servir para ayudar en el proceso de auditoría, decidiendo los programas a seguir, determinando los tipos de muestra y los tamaños, calculando los errores en la revisión de cuentas, analizando grandes volúmenes de transacciones contables, desarrollando una revisión analítica y formulando juicios en la materia.

 b) Fiscalidad

La interpretación de las reglas impositivas para tratar de adaptarlas en términos ventajosos para la empresa también resulta un campo adecuado para la utilización de los sistemas expertos. 

c) Planificación

Los sistemas expertos en la planificación ayudan en la toma de decisiones, asesorando en temas de planificación financiera, control, análisis de desviaciones, etc. 

d) Análisis financiero

También son útiles para examinar las cuentas anuales de las empresas, los balances, resultados y en general la información económica. 

e) Contabilidad financiera

También la contabilidad financiera puede beneficiarse, al proporcionar el sistema experto una base normativa amplia para la preparación de las cuentas anuales o su revisión.

III Los Sistemas Expertos: Ventajas

Page 33: Inteligencia Artificial

1) Proporcionan una forma de controlar gran cantidad de datos

Uno de los grandes problemas a los que se enfrenta el analista es el gran caudal de información a manejar, que puede afectar negativamente a la toma de decisiones. Ante tal circunstancia los sistemas expertos pueden ser unos valiosos aliados.

Los sistemas expertos recopilan los datos, los analizan y asimilan. Convierten grandes volúmenes de datos en información útil. En este sentido conviene distinguir un sistema experto de los simples programas de ordenador: también las hojas de cálculo, bases de datos y programas convencionales manejan habitualmente información y alivian la pesada tarea de realizar cálculos numéricos pero no incluyen procedimientos de representación del conocimiento.

2) ¿Pueden superar al experto humano?

a) cuando se requiere analizar un gran volumen de datos en un corto espacio de tiempo. El experto humano se verá obligado a despreciar parte de la información desechando la que no considere relevante; sin embargo, el sistema experto, dada su mayor velocidad de proceso, puede analizar toda la información, sin que aparezca fatiga u otros efectos propios del ser humano que empeoran los resultados.

b) cuando la decisión exige aplicar conocimientos de varios campos.

III Los Sistemas Expertos: Limitaciones

1) Programación

Difícil de elaborar

Precisan mantenimiento complejo

2) El elevado coste

En tiempo y dinero para extraer el conocimiento de los especialistas humanos

3) Poca flexibilidad a cambios

Hay que reprogramar el sistema

4) Dificultad para manipular información no estructurada

Especialmente la información incompleta, inconsistente o errónea.

Page 34: Inteligencia Artificial

5) Desacuerdo entre los especialistas humanos

En la elaboración del sistema experto, los especialistas humanos pueden estar en desacuerdo entre ellos mismos a la hora de tomar las mejores decisiones para la solución de los problemas particulares.

6) Problemas que no son resolubles mediante un sistema experto

Para abordar este tipo de problemas difícilmente resolubles mediante los métodos convencionales o mediante sistemas expertos, que por otra parte no son exclusivos del análisis contable se ha propuesto su combinación con otras herramientas de Inteligencia Artificial, como las redes neuronales.

IV Resumen y conclusiones

1) Es una disciplina en constante evolución

El nacimiento de la Inteligencia Artificial se sitúa en los años cincuenta; en esa fecha la informática apenas se había desarrollado, y ya se planteaba la posibilidad de diseñar máquinas inteligentes. Hoy en día se habla de vida artificial, algoritmos genéticos, computación molecular o redes neuronales. En algunas de estas ramas los resultados teóricos van muy por encima de las realizaciones prácticas.

2) Sistemas expertos y redes neuronales

Los sistemas expertos son la rama más conocida de la Inteligencia Artificial. La forma en que representan el conocimiento, habitualmente mediante símbolos, es apropiada cuando es posible extraer un conjunto de reglas y normas. En la vasta ciencia empresarial, existen subdominios en los que es fácil o al menos posible extraer una serie de reglas y otros en los que es menos factible.

Las redes neuronales artificiales son eficientes en tareas tales como el reconocimiento de patrones, problemas de optimización o clasificación. Las redes neuronales se puede integrar en un sistema de ayuda a la toma de decisiones, pero no son una panacea capaz de resolver todos los problemas: todo lo contrario, son modelos muy especializados que pueden aplicarse en dominios muy concretos.

3) ¿Cómo elegir la herramienta adecuada?

La elección entre los diferentes sistemas de ayuda a la toma de decisiones depende entre otros factores del tipo de tarea a realizar, véase sobre este particular el trabajo de Laudon y Laudon (1988, pag 132).

3a) Tipo de decisión

Page 35: Inteligencia Artificial

Simon (1960) ha clasificado las decisiones en estructuradas y no estructuradas: las decisiones estructuradas son repetitivas, rutinarias y existe un procedimiento definido para abordarlas; por el contrario, en las decisiones no estructuradas el decisor debe proporcionar juicios y aportar su propia evaluación.

3b) Nivel al que se toman las decisiones

También el nivel al que se toman las decisiones afecta la elección del tipo de sistema más apropiado. Gorry y Scott-Morton (1971) han propuesto un esquema que relaciona el tipo de decisión (estructurada, semiestructurada y no estructurada) y el nivel organizacional (control operativo, de gestión y estratégico) con la herramienta a utilizar. Lógicamente en el nivel operativo dominan las decisiones estructuradas, en el nivel de gestión las semiestructuradas y en el estratégico las no estructuradas, formando una diagonal.

En la figura siguiente hemos actualizado este esquema incorporando las herramientas informáticas más novedosas, e incluso anticipando lo que puede ser un futuro próximo.

Las herramientas a utilizar según el tipo de decisión y el nivel organizativo

4) Nivel operativo y decisiones estructuradas

Como podemos apreciar en el gráfico, en el nivel operativo y toma de decisiones estructurada dominan los sistemas informatizados convencionales como los programas de contabilidad financiera y de costes, los de elaboración de nóminas, y que en general realizan tareas mecánicas. Son los llamados Sistemas de Proceso de Transacciones (TPS) basados en programación algorítmica convencional.

Page 36: Inteligencia Artificial

5) Nivel operativo y decisiones no estructuradas

El nivel operativo, pero con decisiones semiestructuradas, todavía está dominado por los programas convencionales, en lo que habría que incluir programas de control de tesorería, control de existencias y también las hojas de cálculo y sistemas gestores de bases de datos.

Conforme las decisiones son menos estructuradas, empiezan a ser aplicables sistemas expertos y sistemas de ayuda a la toma de decisiones. Así, para la gestión financiera más básica, en la que además de realizar cálculos mecánicos: tipos de interés efectivo, cuotas de amortización de préstamos, etc., también hay que tomar decisiones que manejan información incompleta o precisan incorporar el conocimiento de un especialista humano. Finalmente, en el nivel de de toma de decisiones menos estructurada pueden incorporarse modelos neuronales: por ejemplo, asesorando en la concesión de las tarjetas de crédito de unos grandes almacenes o a qué clientes se les envía catálogos por correo.

6) Nivel de gestión y decisiones estructuradas

Conforme el nivel organizativo avanza en el eje de las x, las decisiones se hacen más complejas. Si las decisiones son estructuradas, como en el análisis de presupuestos y control, contabilidad analítica, análisis contable, etc, dominan los programas convencionales, quizá incorporando algún módulo experto. Este tipo de programas se denominan Sistemas de Gestión de Información o Management Information Systems (MIS).

7) Nivel de gestión y decisiones no estructuradas

Conforme las decisiones se hacen menos estructuradas se hacen más necesarios los sistemas expertos. En temas puntuales como la elaboración de presupuestos, la predicción de variables financieras como el beneficio, el cash-flow, podrían incorporarse modelos neuronales. Nótese como en este esquema descrito hemos situado el análisis de la información contable en las decisiones semiestructuradas. No hay una teoría general que pueda ser aplicada paso a paso pero tampoco encaja en las decisiones completamente intuitivas o no estructuradas.

8) Nivel estratégico

En el nivel estratégico son barridos los programas convencionales manteniéndose únicamente las hojas de cálculo, por su capacidad de simulación. Los llamados Executive Information Systems (EIS), o Sistemas Informativos para Ejecutivos dominan las decisiones menos estructuradas, con tareas como la planificación estratégica y de contabilidad directiva. Las redes neuronales pueden cubrir un hueco importante en las decisiones no estructuradas, debido a esa capacidad de encontrar relaciones complejas entre los patrones de entrada.

Page 37: Inteligencia Artificial

IMÁGENES

Page 38: Inteligencia Artificial
Page 39: Inteligencia Artificial
Page 40: Inteligencia Artificial