Datos personales

domingo, 29 de noviembre de 2015

Genesis De la IA

INTRODUCCIÓN

Una vez estudiado  los materiales básicos de la IA   ya estamos en condiciones de descubrir  el desarrollo  de la  IA. 
Su historia como  fue inspirada atreves del tiempo como fue creciendo  día a día  con investigaciones  profundas  del funcionamiento del cerebro, la filosofía y la lógica. Para formar un modelo  neural del cerebro humano y animal  que proporciona una simbología de actividad cerebral.


Historia de la inteligencia artificial

Génesis de la inteligencia artificial (1943-1955)

La IA nació en  (1943). Ellos  fueron reconocidos como los autores del primer trabajo de IA. Ellos partieron de tres fuentes: la  fisiología básica y funcionamiento de las neuronas en el cerebro el análisis formal de la lógica. Propusieron un modelo constituido por neuronas artificiales, en el que cada una de ellas se caracterizaba por estar activada o desactivada; la activación se daba como respuesta a la estimulación producida por una cantidad suficiente de neuronas vecinas. Ejemplo, que cualquier función de computo podría calcularse mediante alguna red de neuronas interconectadas, y que todos los conectares lógicos (and, or, not, etc.).
Dos estudiantes graduados en el Departamento de Matemáticas de Princeton, Marvin Minsky y Dean Edmonds, construyeron el primer computador a partir de una red neuronal en 1951. El S narc, como se llamó, utilizaba 3.000 válvulas de vacío y un mecanismo de piloto automático obtenido de los desechos de un avión bombardero B-24 para simular una red con 40 neuronas.

Nacimiento de la inteligencia artificial (1956)
Princeton acogió a otras de la figuras soneras de la IA, John McCarthy.
McCarthy se trasladó al Dartmouth College, que se erigiría en el lugar del nacimiento oficial de este campo. McCarthy convenció a Minsky, Claude Shannon y Nathaniel Rochester para que le ayudaran a aumentar el interés de los investigadores americanos en la teoría de autómatas, las redes neuronales y el estudio de la inteligencia.
Dos investigadores del Carnegie Tech13, Alien Newell y Herbert Simon, acapararon la atención. Si bien los demás también tenían algunas ideas y, en algunos casos, programas para aplicaciones determinadas como el juego de damas, Newell y Simon contaban ya con un programa de razonamientos dice que Russell se manifestó complacido cuando Simón le mostro que la demostración de un teorema que el programa había generado era más corta que la que aparecía en Principia.
El taller de Dartmouth no produjo ningún avance notable, pero puso en contacto a las figuras importantes de este campo. Durante los siguientes 20 años, el campo estuvo dominado por estos personajes, así como por sus estudiantes y colegas del MIT, CMU, Stanford e IBM. Quizá lo último que surgió del taller fue el consenso en adoptar el nuevo nombre propuesto por McCarthy para este campo: Intrigaría Artificial Quizá racionalidad computacional hubiese sido más adecuado, pero IA se ha mantenido. Revisando la propuesta del taller de Dartmouth (McCarthy et al., 1955), se puede apreciar por que fue necesario para la IA convertirse en un campo separado.

Entusiasmo inicial, grandes esperanzas (1952-1969)

Los primeros años de la IA estuvieron llenos de éxitos, aunque con ciertas limitaciones. Teniendo en cuenta lo primitivo de los computadores y las herramientas de programación de aquella época, y el hecho de que solo unos pocos años antes, a los computadores se les consideraba como artefactos que podían realizar trabajos aritméticos y nada más. La comunidad científica, en su mayoría, prefirió creer que una maquina nunca podría hacer tareas donde aparece una extensa lista de tensas recopilada por Turing.
Al temprano éxito de Newell y Simon siguió el del sistema de resolución general de problemas, o SRGP. A diferencia del Teórico Lógico, desde un principio este programa se diseñó para que imitara protocolos de resolución de problemas de los seres humanos, es decir, el SRGP posiblemente fue el primer programa que incorporo el enfoque de pensar como un ser humano fue  un éxito.
 Newell y Simon (1976) a formular la famosa hipótesis del ssta n a de simbolos fisicos, que afirma que un sistema de símbolos físicos tiene los medios suficientes y necesarios para generar una acción inteligente. Lo que ellos querían decir es que cualquier sistema (humano o maquina) que exhibiese inteligencia debería operar manipulando estructuras de datos compuestas por simbolos. Posteriormente se verá que esta hipótesis se ha modificado atendiendo a distintos puntos
 A comienzos 1952, Arthur Samuel escribió una serie de programas para el juego de las damas que eventualmente aprendieron a jugar hasta alcanzar un nivel equivalente al de un amateur.
McCarthy definió el lenguaje de alto nivel Lfcp, que se convertiría en el lenguaje de programación dominante en la IA.
Lisp es el segundo lenguaje de programación más antiguo que se utiliza en la actualidad, ya que apareció un ano despues de FORTRAN.
En 1958, McCarthy público un artículo titulado Programs with Common Sense, en el que describia el Generador de Consejos, un programa hipotético que podria considerarse como el primer sistema de IA completo Pero, a diferencia de los otros, manejaba el conocimiento general del mundo.
 En 1963 McCarthy creo el Laboratorio de IA en Stanford. Su plan para construir la versión mas reciente del Generador de Consejos con ayuda de la lógica.
 El trabajo realizado en Stanford hacia énfasis en los métodos de propósito general para el razonamiento lógico.
El Micromundo más famoso fue el mundo de los bloques, que consiste en un conjunto de bloques solidos colocados sobre una mesa (más frecuentemente, en la simulación de esta) Una tarea típica de este mundo es la reordenación de los bloques de cierta manera, con la ayuda de la mano de un robot que es capaz de tomar un bloque cada vez.
El mundo de los bloques fue el punto de partida para el proyecto de visión de David Huffman (1971), la visión y el trabajo de propagación con restricciones de David Waltz (1975), la teoria del aprendizaje de Patrick Winston (1970), del programa para la comprensión de lenguaje natural de Terry Winograd (1972) y del planificador de Scott Fahlman (1974). El trabajo realizado por McCulloch y Pitts con redes neuronales hizo florecer esta area. El trabajo de Winograd y Cowan (1963) mostro como un gran número de elementos podría representar un concepto individual de forma colectiva, lo cual llevaba consigo un aumento proporcional en robustez y paralelismo. Los métodos de aprendizaje de Hebb se reforzaron con las aportaciones de Bemie Widrow (Widrow y Hoff, 1960; Widrow, 1962), quien llamo adaUnes a sus redes, y por Frank Rosenblatt (1962) con sus p a 1- ceptrmes. Rosenblatt demostro el famoso teorema del perceptron, con lo que mostro que su algoritmo de aprendizaje podría ajustar las intensidades de las conexiones de un perceptron para que se adaptaran a los datos de entrada, siempre y cuando existiera una correspondencia.




Conclusión

Bueno n este capítulo concluimos  que es necesario   saber la historia   de cómo  se  inició la IA quienes fueron  ese motor de arranque que hizo que la IA existiera y sea útil en muchos campos  profesionales  y haiga motivado al ser humano a  descubrir cosas  que atreves de sus conocimientos puedan aportar mucho a la sociedad.

BIBLIOGRAFÍA

Holger, B. Rubén, O. 2012. Fundamentos de Inteligencia Artificial.Ing. Sup. en Informática, 3º. (En línea). PE. Consultado, 15  de oct.2014. Disponible en:http://www.ia.urjc.es/grupo/docencia/fia/material/temario_FIA_tema1.pdfRussell, S., Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. Segunda Edición. Pearson Education. España

No hay comentarios:

Publicar un comentario