Introducción
La
IA al pasar del tiempo avanza de una manera increíble, ya que el ser humano basa sus conocimientos en cualquier agente
artificial creando programas que en la
actualidad ayudan mucho al ser humano a realizar tareas complejas de una manera más rápida y
eficaz. Basado a esto nació la ingeniera en conocimiento como
una variante del software tradicional
en cuanto a que se enfoca al diseño y construcción de sistemas basados en
conocimiento.
Sistemas
basados en el conocimiento:
Clave del poder? (1969-1979)
Durante la primera década de la investigación en la IA
estaba centrado en el desarrollo de mecanismos de búsqueda de propósito general,
en los que se entrelazaban elementos de razonamiento básicos para encontrar así
soluciones completas. A estos procedimientos se les ha denominado métodos débiles,
debido a que no tratan problemas más amplios o más complejos. La alternativa a
los métodos débiles es el uso de conocimiento específico del dominio que
facilita el desarrollo de etapas de razonamiento más largas, pudiéndose así
resolver casos recurrentes en dominios de conocimiento restringido.
DENDRAL
(Buchanan etal., 1969)
este programa fue diseñado en Stanford, dando colaboración en la solución del problema de inferir una
estructura molecular a partir de la información proporcionada por un espectrómetro
de masas. El programa se alimentaba con la formula
elemental de la molécula
(por ejemplo, C6H13N02) y el espectro de masas,
proporcionando las masas de los distintos fragmentos de la molécula generada después
de ser bombardeada con un haz de electrones.
MYCIN,
para el diagnóstico
de infecciones sanguíneas. Con 450 reglas aproximadamente, MYCIN era capaz de
hacer diagnósticos tan buenos como los de un experto y, desde luego, mejores
que los de un médico recién graduado. Se distinguía de DENDRAL en dos aspectos principalmente.
En primer lugar, a diferencia de las reglas de DENDRAL, no se contaba con un
modelo teórico desde el cual se pudiesen deducir las reglas de MYCIN.
La IA se convierte en una industria
(Desde 1980 hasta el presente)
El primer sistema
experto comercial que tuvo éxito, R1, inicio su actividad en Digital Equipment Corporation
(McDermott, 1982). El programa se utilizaba en la elaboración de pedidos de
nuevos sistemas informáticos. En 1986 representaba para la compañía un ahorro
estimado de 40 millones de dólares al año. En 1988, el grupo de Inteligencia
Artificial de DEC había distribuido ya 40 sistemas expertos, y había más en camino.
Du Pont utilizaba ya 100 y estaban en etapa de desarrollo 500 más, lo que le
generaba ahorro de diez millones de dólares anuales aproximadamente.
En 1981 los japoneses
anunciaron el proyecto ≪Quinta Generación≫, un plan de diez años para construir computadores
inteligentes en los que pudiese ejecutarse Prolog. La IA formaba parte de un
gran proyecto que incluía el diseño de chips y la investigación de la relación
hombre máquina. Sin embargo, los componentes de IA generados en el marco de MCC
y del proyecto Quinta Generación nunca alcanzaron sus objetivos. En el Reino
Unido, el informe Alvey restauro el patrocinio suspendido por el informe
Lighthill15.
Regreso
de las redes neuronales
(desde
1986 hasta el presente)
En los años 70, el trabajo continuo en otros campos.
Fisicos como John Hopfield (1982) utilizaron tecnicas de la mecanica estadistica
para analizar las propiedades de almacenamiento y optimizacion de las redes,
tratando colecciones de nodos como colecciones de átomos. Psicólogos como David
Rumelhart y Geoff Hinton continuaron con el estudio de modelos de memoria
basados en redes neuronales.
El algoritmo se aplicó a diversos problemas de
aprendizaje en los campos de la informática y la psicología, y la gran difusion
que conocieron los resultados obtenidos, publicados en la coleccion Parallel
Distributed Processing (Rumelhart y McClelland, 1986), suscito gran
entusiasmo.Aquellos modelos de inteligencia artificial llamados eonerionstas
fueron vistos por algunos como competidores tanto de los modelos simbolicos
propuestos por Newell y Simon como de la aproximacion logica de McCarthy entre
otros (Smolensky, 1988).
Este interrogante no ha sido aún clarificado, pero la
tendencia actual es que las aproximaciones conexionistas y simbolicas son
complementarias y no competidoras.
IA
se convierte en una ciencia
(Desde 1987 hasta el presente)
En los últimos anos se ha producido una revolución tanto
en el contenido como en la metodología de trabajo en el campo de la
inteligencia artificial.17 Actualmente es más usual el desarrollo sobre teorías
ya existentes que proponer teorías totalmente novedo- 16 Se usa la traducción
literal del término connectionist por no existir un término equivalente
en español oN.delRl). 17 Hay quien ha caracterizado este cambio como la
victoria de los pulcros (aquellos que consideran que las teorias de IA deben
basarse rigurosamente en las matemáticas) sobre los desalinados (aquellos que después
de intentar muchas ideas, escriben algunos programas y después evalúan las que
aparentemente funcionan). Ambos enfoques son útiles. Esta tendencia en favor de
una mayor pulcritud es señal de que el campo ha alcanzado cierto nivel de
estabilidad y madurez. Lo cual no implica que tal estabilidad se puede ver
alterada con el surgimiento de otras ideas poco estructuradas.
Emergencia de los sistemas inteligentes
(desde 1995 hasta el presente)
Quizás animados por el progreso en la resolución de su
problemas de IA, los investigadores han comenzado a trabajar de nuevo en el
problema del ≪agente
total≫. El
trabajo de Alien Newell, John Laird, y Paul Rosenbloom en S oar (Newell, 1990;
Laird et al., 1987) es el ejemplo mejor conocido de una arquitectura de
agente completa. El llamado ≪movimiento
situado≫
intenta entender la forma de actuar de los agentes inmersos en entornos reales,
que disponen de sensores de entradas continuas. Uno de los medios mas
importantes para los agentes inteligentes es Internet Los sistemas de IA han llegado
a ser tan comunes en aplicaciones desarrolladas para la Web que el sufijo ≪-bot≫ se
ha introducido en el lenguaje comun. Mas aun, tecnologias de IA son la base de
muchas herramientas para Internet, como por ejemplo motores de busqueda,
sistemas de recomendacion, y los sistemas para la construccion de portales Web.
El estado del arte
Aqui se
presentan unas cuantas aplicaciones; otras aparecerán a lo largo del texto.
Clarificación autonoma: a un centenar de millones de millas de la Tierra, el
programa de la NASA Agente Remoto se convirtió en el primer programa de
planificación autónoma a bordo que controlaba la planificación de las
operaciones de una nave espacial desde abordo (Jonsson et al., 2000). El
Agente Remoto generaba planes a partir de objetivos generales especificados
desde tierra, y monitorizaba las operaciones de la nave espacial segun se
ejecutaban los planes (deteccion, diagnostico y recuperacion de problemas segun
ocurrian).
Juegos Deep Blue de IBM fue el primer sistema que derroto a
un campeón mundial en una partida de ajedrez cuando supero a Garry Kasparov por
un resultado de 3.5 a 2.5 en una partida de exhibicion (Goodman y Keene, 1997).
Kasparov dijo que habia percibido un ≪nuevo tipo de inteligencia≫ al otro lado del tablero. La revista Newsweek describió
la partida como ≪La
partida final≫.
Harificacionlagstica: durante la crisis del Golfo Persico de 1991, las
fuerzas de Estados Unidos desarrollaron la herramienta Dynamic Analysis and
Replanning Tool (DA T) (Crossy Walker, 1994), para automatizar la planificación
y organización logística del transporte. Lo que incluía hasta 50.000 vehículos,
carga y personal a la vez, teniendo en cuenta puntos de partida, destinos,
rutas y la resolución de conflictos entre otros parámetros.
Robotica: muchos cirujanos utilizan hoy en día asistentes robot
en operaciones de
Microcirugía. HipNav (DiGioia etal., 1996) es
un sistema que utiliza técnicas de visión por computador para crear un modelo
tridimensional de la anatomía interna del paciente.
En 1999es un programa informático que resuelve crucigramas
mejor que la mayoría de los humanos, utilizando restricciones en programas de
relleno de palabras, una gran base de datos de crucigramas, y varias fuentes de
información como diccionarios y bases de datos online, que incluyen la
lista de películas y los actores que intervienen en ellas, entre otras cosas.
Por ejemplo, determina que la pista ≪Historia de Niza≫ se puede resolver con ≪ETAGE≫ ya
que su base de datos incluye el par pista/solución ≪Historia en Franda/ ETAGE≫ y porque reconoce que los patrones ≪Niza X≫ y ≪X en Francia≫ a menudo tienen la misma solución. El programa no
sabe que Niza es una dudad de Francia, pero es capaz de resolver el puzle. Estos
son algunos de los ejemplos de sistemas de inteligencia artificial que existen hoy
en dia. No se trata de magia o ciencia ficción, son más bien ciencia, ingeniería
y matemáticas, para los que este libro
proporciona una introducción.
CONCLUSIÓN
Bueno concluimos este capítulo ya que el ser humano se basa en conocimientos y es muy
importante que el ser humano se
prepare y aporte sus conocimientos creando nuevos agentes con similitudes al ser humano. Como por ejemplo
los programas basado en juegos y robots
que ayudan en la actualidad a
personas profesionales de una forma
eficaz al ser humano
BIBLIOGRAFÍA
Holger,
B. Rubén, O. 2012. Fundamentos de Inteligencia Artificial.Ing. Sup. en
Informática, 3º. (En línea). PE. Consultado, 15
de oct.2014. Disponible
en:http://www.ia.urjc.es/grupo/docencia/fia/material/temario_FIA_tema1.pdfRussell,
S., Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. Segunda
Edición. Pearson Education. España
No hay comentarios:
Publicar un comentario