INTRODUCCIÓN
Una vez estudiado los materiales básicos de la IA ya estamos en condiciones de descubrir el desarrollo
de la IA.
Su historia como fue inspirada atreves del tiempo como fue
creciendo día a día con investigaciones profundas
del funcionamiento del cerebro, la filosofía y la lógica. Para formar un
modelo neural del cerebro humano y
animal que proporciona una simbología de
actividad cerebral.
Historia
de la inteligencia artificial
Génesis de la inteligencia artificial (1943-1955)
La IA nació en (1943). Ellos fueron reconocidos como los autores del primer
trabajo de IA. Ellos partieron de tres fuentes: la fisiología básica y funcionamiento de las
neuronas en el cerebro el análisis formal de la lógica. Propusieron un modelo
constituido por neuronas artificiales, en el que cada una de ellas se
caracterizaba por estar ≪activada≫ o ≪desactivada≫; la ≪activación≫ se daba como respuesta a la estimulación producida
por una cantidad suficiente de neuronas vecinas. Ejemplo, que cualquier función
de computo podría calcularse mediante alguna red de neuronas interconectadas, y
que todos los conectares lógicos (and, or, not, etc.).
Dos estudiantes graduados en el Departamento de Matemáticas
de Princeton, Marvin Minsky y Dean Edmonds, construyeron el primer computador a
partir de una red neuronal en 1951. El S narc, como se llamó, utilizaba 3.000 válvulas
de vacío y un mecanismo de piloto automático obtenido de los desechos de un avión
bombardero B-24 para simular una red con 40 neuronas.
Nacimiento
de la inteligencia artificial (1956)
Princeton
acogió a otras de la
figuras soneras de la IA, John McCarthy.
McCarthy
se trasladó al Dartmouth College, que se erigiría en el
lugar del nacimiento oficial de este campo.
McCarthy convenció a Minsky,
Claude Shannon y Nathaniel Rochester para que le ayudaran a
aumentar el interés de los investigadores americanos en la teoría de autómatas,
las redes neuronales y el estudio de la inteligencia.
Dos investigadores del Carnegie Tech13, Alien Newell y Herbert Simon, acapararon la atención. Si bien
los demás también tenían algunas ideas y, en algunos casos, programas para
aplicaciones determinadas como el juego de damas, Newell y Simon contaban ya con un programa de razonamientos dice
que Russell se manifestó complacido cuando Simón le mostro que la demostración
de un teorema que el programa había generado era más corta que la que aparecía
en Principia.
El taller de Dartmouth
no produjo ningún avance notable, pero puso en contacto a las figuras
importantes de este campo. Durante los siguientes 20 años, el campo estuvo dominado
por estos personajes, así como por sus estudiantes y colegas del MIT, CMU, Stanford
e IBM. Quizá lo último que surgió del taller fue el consenso en adoptar el
nuevo nombre propuesto por McCarthy para este campo: Intrigaría Artificial Quizá
≪racionalidad computacional≫ hubiese sido más adecuado, pero ≪IA≫ se
ha mantenido. Revisando la propuesta del taller de Dartmouth (McCarthy et al., 1955),
se puede apreciar por que fue necesario para la IA convertirse en un campo
separado.
Entusiasmo inicial, grandes esperanzas (1952-1969)
Los primeros años de la IA estuvieron llenos de éxitos,
aunque con ciertas limitaciones. Teniendo en cuenta lo primitivo de los
computadores y las herramientas de programación de aquella época, y el hecho de
que solo unos pocos años antes, a los computadores se les consideraba como
artefactos que podían realizar trabajos aritméticos y nada más. La comunidad científica,
en su mayoría, prefirió creer que una maquina nunca podría hacer tareas donde aparece una extensa lista de tensas recopilada por
Turing.
Al temprano éxito de Newell y Simon siguió el
del sistema de resolución general de problemas, o SRGP. A diferencia del Teórico Lógico, desde un principio este
programa se diseñó para que imitara protocolos de resolución de problemas de
los seres humanos, es decir, el SRGP posiblemente fue el primer programa que
incorporo el enfoque de pensar como un ser humano fue un éxito.
Newell y Simon (1976) a formular la famosa hipótesis del ssta n a de
simbolos fisicos, que afirma que ≪un sistema de símbolos físicos tiene los medios
suficientes y necesarios para generar una acción inteligente≫. Lo que ellos querían decir es que cualquier sistema
(humano o maquina) que exhibiese inteligencia debería operar manipulando
estructuras de datos compuestas por simbolos. Posteriormente se verá que esta hipótesis
se ha modificado atendiendo a distintos puntos
A comienzos
1952, Arthur Samuel escribió una serie de programas para el juego de las damas
que eventualmente aprendieron a jugar hasta alcanzar un nivel equivalente al de
un amateur.
McCarthy definió el lenguaje de alto nivel Lfcp, que se
convertiría en el lenguaje de programación dominante en la IA.
Lisp
es el segundo lenguaje
de programación más antiguo que se utiliza en la actualidad, ya que apareció un
ano despues de FORTRAN.
En 1958,
McCarthy público un artículo titulado Programs with Common Sense, en
el que describia el Generador de Consejos, un programa hipotético que podria
considerarse como el primer sistema de IA completo Pero, a diferencia de los
otros, manejaba el conocimiento general del mundo.
En 1963 McCarthy creo el Laboratorio de IA en
Stanford. Su plan para construir la versión mas reciente del Generador de
Consejos con ayuda de la lógica.
El trabajo
realizado en Stanford hacia énfasis
en los métodos de propósito general para el razonamiento lógico.
El Micromundo
más famoso fue el mundo de los bloques, que consiste en un conjunto de bloques
solidos colocados sobre una mesa (más frecuentemente, en la simulación de esta)
Una tarea típica de este mundo es la reordenación de los bloques de cierta
manera, con la ayuda de la mano de un robot que es capaz de tomar un bloque
cada vez.
El mundo de los bloques fue el punto de partida para
el proyecto de visión de David Huffman (1971), la visión y el trabajo de
propagación con restricciones de David Waltz (1975), la teoria del aprendizaje
de Patrick Winston (1970), del programa para la comprensión de lenguaje natural
de Terry Winograd (1972) y del planificador de Scott Fahlman (1974). El trabajo
realizado por McCulloch y Pitts con redes neuronales hizo florecer esta area.
El trabajo de Winograd y Cowan (1963) mostro como un gran número de elementos podría
representar un concepto individual de forma colectiva, lo cual llevaba consigo
un aumento proporcional en robustez y paralelismo. Los métodos de aprendizaje
de Hebb se reforzaron con las aportaciones de Bemie Widrow (Widrow y Hoff,
1960; Widrow, 1962), quien llamo adaUnes a sus redes, y por Frank Rosenblatt
(1962) con sus p a 1- ceptrmes. Rosenblatt demostro el famoso teorema del perceptron,
con lo que mostro que su algoritmo de aprendizaje podría ajustar las intensidades
de las conexiones de un perceptron para que se adaptaran a los datos de
entrada, siempre y cuando existiera una correspondencia.
Conclusión
Bueno n este capítulo
concluimos que es necesario saber la historia de cómo
se inició la IA quienes
fueron ese motor de arranque que hizo
que la IA existiera y sea útil en muchos campos
profesionales y haiga motivado al
ser humano a descubrir cosas que atreves de sus conocimientos puedan
aportar mucho a la sociedad.
BIBLIOGRAFÍA
Holger,
B. Rubén, O. 2012. Fundamentos de Inteligencia Artificial.Ing. Sup. en
Informática, 3º. (En línea). PE. Consultado, 15
de oct.2014. Disponible
en:http://www.ia.urjc.es/grupo/docencia/fia/material/temario_FIA_tema1.pdfRussell,
S., Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. Segunda
Edición. Pearson Education. España
No hay comentarios:
Publicar un comentario