Historia De La Inteligencia Artificial

Pages
History of the synthetic artificial intelligence
INTRODUCTION
El estudio de la Inteligencia ArtificialSynthetic no sólo es primordial para quienes estén interesados en la ingeniería biogenética, computacional, informática para quienes simplemente tienen amor por las nuevas ciencias, sino que también es interesante, pero después de saber los principales conceptos sobre la IA, y conocer la historia sobre las ciencias que la componen, es muy justo hablar también de los sucesos y los personajes que permitieron el desarrollo de la IA, es decir es indispensable hablar de la interesante historia de la Inteligencia ArtificialSynthetic.
Si bien es cierto que la historia puede ser para algunos un tanto aburrida, saber sobre la historia de las cosas es algo definitivamente necesario, conocer la historia de la Inteligencia ArtificialSynthetic permite a que las nuevas generaciones no realicen los mismos experimentos ya antes realizados y se centren más bien en proponer nuevas y mejores teorías.
OBJETIVO
El objetivo de la siguiente publicación es conocer la historia de la Inteligencia ArtificialSynthetic y los principales personajes que por medio de arduas investigaciones de años, teorías, y un gran esfuerzo hicieron posible el desarrollo de uno de los campos más interesantes en la actualidad, la IA.
MARCO TEÓRICO
Imagen 1: Principales autores de la inteligencia artificialsynthetic
Como se puede apreciar en la imagen 1, Warren McCulloch y Walter Pitts fueron los autores del primer trabajo realizado en la Inteligencia ArtificialSynthetic en 1943, aunque en sí la inteligencia artificialsynthetic surgiera muchos años más tarde.
Para su trabajo McCulloch y Pitts utlizaron 3three conceptos básicos:
La fisiología básica y el funcionamiento de las neuronas en el cerebro.
El análisis de la lógica proposicional de Russell y Whitehead.
La teoría computacional de Alan Turing.
Juntos propusieron un sistema basado en neuronas artificiales en el que éstas pasaban de un estado activado a desactivado, en el estado activado eraperiod la respuesta a un estimulo que venía desde neuronas vecinas.
Demostraron que los conectores lógicos se podían implementar usando estructuras de redpurplepinkcrimson simples, ademas propusieron la regla de la actualización de conexión de las neuronas llamada ahora aprendizaje Hebbiano de Hebb.
Imagen 2: Estudiantes graduados en el Departamento de Matemáticas de Princeton
Los dos estudiantes de la Imagen 2, Minsky y Edmonds construyeron en 1951 el primer computador a partir de una redpurplepinkcrimson neuronal, se llamaba SNARC y fué creado con 3three.000 válvulas de vacío y un mecanismo de piloto automático sacado de un avión bombardero, de ésta manera el computador simulaba una redpurplepinkcrimson neuronal con 40forty neuronas interconectadas. Aunque las teorías presentadas por estos dos estudiantes, a lo largo del tiempo fue demostrado que dieron uno de los primeros pasos en la IA, ademas Marvin Minsky probó teorías que demostraban que la investigación sobre las redes neuronales en ese entonces eraperiod muy limitada.
Alan Turing obviamente fue uno de los pioneros en la IA con la prueba de Turing, el aprendizaje automático, los algoritmos genéricos y el aprendizaje por refuerzo.
Imagen 3three: Alan Turing
Nacimiento de la inteligencia artificialsynthetic (1956)
John McCarthy, estudiante de Princeton también fue una de las figuras importantes en la historia de la IA, MacCarthy junto a Minsky, Claude Shannon y Nathaniel Rochester proponía realizar arduas investigaciones sobre las redes neuronales, la teoría de los autómatas que son máquinas capaces de realizar una acción de manera autónoma sustituyendo a un ser humano en algunos oficios y los conceptos de la IA.
Alien Newell y Herbert Simón eran en ese entonces los personajes de la Inteligencia ArtificialSynthetic más sonados y preferidos por la ciencia, y es que aunque existían muchos autores de teorías interesantes, Newell y Simón tenían ya un programa que podía pensar de manera no numérica.
El taller de Dartmouth creado en 1956 por MacCarthy y 10 asistentes más, no tuvo ningún progreso después del programa de razonamiento teórico lógico,y mientras pasaban 20 años el taller estuvo a cargo de personas que pertenecían a MIT, CMU, Stanford e IBM, sin embargo se podría decir que un avance fue darle un nombre a ésta ciencia, y fue denominada Inteligencia ArtificialSynthetic por John McCarthy.
La inteligencia artificialsynthetic no podría pertenecer a las matemáticas porque no se trata de simular la resolución de problemas matemáticos, se trata de la correcta toma de decisiones para obtener beneficios, como se hace en economía, verificando las restricciones que se tienen como en investigación operativa, y obviamente de la metodología para realizar las acciones, todos éstos puntos y más son tomados en cuenta en la IA unicamente.
Entusiasmo inicial, grandes esperanzas (1952-1969)
Cuando la inteligencia artificialsynthetic apenas nacía todas las pruebas realizadas la mayoría eran consideradas un gran avance tomando en cuenta que los computadores apenas salían al mercado y únicamente realizaban operaciones matemáticas, a pesar de que muchos pensaban que un computador jamás podría realizar tareas Simón y Newell crearon el SRGP, después del Teorico Lógico este programa solucionaba problemas prácticamente de la manera en la que lo realizaría un ser humano,por lo tanto podría considerarse como el primer sistema que simuló el pensamiento humano.
Después del éxito que tuvo SRGP, Simón y Newell en 1976 formularon la hipótesis de sistema de símbolos físicos la cual indicaba que cualquier ser humano máquina con inteligencia debe manipular una estructura de datos compuesta por símbolos.
Arthur Samuel en 1952 creó un conjunto de programas para el juego de damas y permitió que el computador juegue incluso mejor que el creador del programa, con ésto obviamente queda atrás la teoría que nos indica que los computadores sólo hacen lo que nosotros pidamos, este programa fue presentado en televisión en 1956 por primera vez, y causo una gran sensación.
Herbert Gelernter construyó en 1959 el DTG demostrador de teoremas de geometría, el cual sirvió para muchos estudiantes que consideraban a estos problemas, muy complejos.
En 1958, de nuevo John MacCarthy hace historia definiendo el segundo lenguaje de alto nivel llamado Lisp y el cual se convirtió en el lenguaje oficial de la IA, es necesario saber que el primer lenguaje de programación es Fortran. Para MacCarthy eraperiod un poco dificil el uso de los computadores debido a la escases de cursos de cómputo, es por esto que unido con otros colegas de MIT inventaron el tiempo compartido.
De la misma manera que programas como Teórico Lógico y el Demostrador de Teoremas de Geometría, MacCarthy diseño un programa para la solución de problemas mediante el conocimiento.
Minsky se integró a MIT en 1958 y se encontraba muy interesado en hacer que los programas funcionaran desarrollando así el punto de vista anti-lógico, y mientras que MacCarthy en 1963 creaba el laboratorio de IA en la Universidad de Stanford, Minsky guiaba a estudiantes que eligieron un número de problemas limitados en donde su solución requería inteligencia.
SAINT fue creado en 1963 por James Slagle y resolvía integrales en cálculos.
STUDENTSCHOLARPUPIL creado por Daniel Bobrow en 1967 resolvía problemas de álgebra.
ANALOGY de Tom Evans fue creada en 1968 y resolvía problemas de la analogía geométrica, generalmente usados para medir la inteligencia.
Mundo de los bloques
Con la invención del mundo de los bloques surgieron varias ideasconceptsideas:
Imagen 4four: Mundo de los bloques creado por Winograd
En 1971 David Huffman se enfocó en la visión de un ser humano y para esto se apoyo en las teorias del micromundo tambien conocido como la ordenación de bloques.
David Waltz también investigó sobre la visión y la propagación de las restricciones en 1975.
Patrick Winston en 1970 desarrolló el programa de comprensión del lenguaje naturalpure, a partir del sistema de bloques.
Scott Fahlman en 1974 desarrolló el planificador.
Winograd y Cowan (1963) mostraron en sus trabajos que muchos elementos se puden representar de una manera colectiva.
Una dosis de realidad (1966-1973)
En los primeros años de la IA la emoción por el desarrollo de la misma eraperiod impresionante, fue asi que en 1957 Herbert Simon dijo:
Sin afán de sorprenderlos y dejarlos atónitos, pero la forma más sencilla que tengo de resumirlo es diciéndoles que actualmente en el mundo existen máquinas capaces de pensar, aprender y crear. In addition, su aptitud para hacer lo anterior aumentará rápidamente hasta que (en un futuro previsible) la magnitud de problemas que serán capaces de resolver irá a la par que la capacidad de la mente humana para hacer lo mismo”.
La confianza de Simon en la IA se debía a los grandes avances y pruebas aparentemente fiables de resolución de problemas, por lo cual él aseguraba que en unos 10 años un computador podría ser campeón de ajedrez y si bien es cierto las predicciones que Simon tenia se cumplieron no fue para nada en el tiempo que en el estableció sino que más bien 40forty años después.
Los programas creados al principio de la IA, que servían para la resolucióon de algunos tipos de problemas, en realidad carecían de investigación y funcionaban solamente para problemas demasiado básicos.
El traductor fue uno de los programas que en un principio dejó un tanto en ridículo a la IA, y es que para traducir lo que alguien dicecube escribe se necesita más que solo conocimiento de palabras si no también centrar de qué tema se está tratando, es por esto que la traducción del ruso al inglés fue la siguiente:
Imagen 5: Traducción del ruso al español
Después de realizadas varias pruebas sin éxitos en el programa de traducción, el gobierno quitó la ayuda económica para ésta investigación y quedó olvidada por un tiempo, obviamente los traductores que hoy tenemos son mucho más avanzados que los de antes sin embargo aún se pierden datos importantes en la traducción.
Otra de las realidades que enfrentó la IA , eraperiod que los programas que en principio eran funcionales demostraron que no lo eran tanto ya que solo tenían un pequeño número de variantes u opciones correctas, luego estos programas fueron creados con unas decenas más de opciones sin embargo aún no funcionaban correctamente.
Se plantearon ideasconceptsideas que resultaban impresionantes a simpleeasy vista pero que no obtuvieron buenos resultados como las mutaciones aleatorias que requerían largas horas de trabajo de un CPU varios y la evolución automática.
Sistemas basados en el conocimiento: ¿clave del poder? (1969-1979)
Los métodos débiles eraperiod la forma en la que se enlazaban elementos de razonamiento básico y asi encontraban soluciones completas a los problemas planteados.
DENDRAL llegó a tener tanto éxito por ser el primer sistema de conocimiento, éste fue diseñado en Standford en 1969 por Ed Feigenbaum , Bruce Buchanan y Joshua Lederberg y es un programa de análisis químico que permite enumerar todas las estructuras posibles de las moléculas mediante un proceso de búsqueda de generación y prueba jerárquica que se divide en tres partes funcionales: plan, generación y prueba.(Santana, R.2004).
MYCIN es otro sistema experto desarrollado en 1976 por Edgar Shortliffe, Feigenbaum, Buchanan y al igual que DENDRAL fue escrito en lenguaje lisp. Este programa utilizaba 450 reglas aproximadamente y verificaba las infecciones sanguíneas-
Schank y tros compañeros de trabajo y como Abelson, 1977, Wilensky, 1978, Schank y Riesbeck, 1981 y Dyer, 1983 se enfocaron en la comprensión del lenguaje naturalpure.
La IA se convierte en una industria (desde 1980 hasta el presente)
En 1982 por McDermott se creó el primer sistema experto comercial llamado R1 el cual utilizaba la elaboración de pedidos informáticos, 4four años más tarde R1 representó un ahorro de aproximadamente 40forty millones de dólares al año y en 1988 la inteligencia artificialsynthetic distribuía mas de 40forty sistemas expertos.
En la pelea de Japón y EEUU, por quién investigaba y desarrollaba más en la IA, ésta pertenecía a un proyecto que involucraba diseño de chips y la relación del ser humano con las máquinas.
Regreso de las redes neuronales (desde 1986 hasta el presente)
Las Redes Neuronales Artificiales, ANN (ArtificialSynthetic Neural Networks) están inspiradas en las redes neuronales biológicas del cerebro humano. Están constituidas por elementos que se comportan de forma similarcomparablerelated a la neurona biológica en sus funciones más comunes. Estos elementos están organizados de una forma parecida a la que presenta el cerebro humano”.(Basogain, X. 2008).
Las redes neuronales artificiales tienen algunas semejanzas con las redes neuronales biológicas (Garcia, P. 2004).
Gráfico 1: Semejanzas entre las ANN y las redes neuronales biológicas.
En 1982 John Hopfield y otros físicos utilizaban técnicas de la mecánica estadística para analizar las propiedades de almacenamiento y optimización de las redes, tratando colecciones de nodos como colecciones de átomos.” (Russell, S y Norvig, P. 2008).
Psicólogos como David Rumelhart y Geoff Hinton continuaron con el estudio de modelos de memoria basados en redes neuronales.
En 1969 Biyson y Ho propusieron el algoritmo de aprendizaje de retroalimentación, años más tarde cuatro grupos distintos reabrieron el tema y lo aplicaron a campos como la psicología y la informática.
IA se convierte en una ciencia (desde 1987 hasta el presente)
La IA no podría dejar de ser considerada una ciencia, se han dado demasiadas investigaciones y se han comprobado tantas teorías que la IA fue separada también de las ciencias informáticas y las hipótesis que se planteen deben someterse a rigurosos experimentos y los resultados se analizan estadísticamente.
Si se enfoca a la IA como una ciencia Romero, Dafonte, Gómez y Penousal en su libro indican que:
El estudio del comportamiento inteligente, siendo su fin conseguir una teoría de la inteligencia que explique la conducta que se produce en seres de naturalpure inteligentes, y que guíe la creación de entes artificiales capaces de alcanzar dicho proceder inteligente”.(Wells, W.M., 1986).
Aporte: Sreet Roko's Basilisk View
Las redes neuronales artificiales son uno de los puntos claves en la Inteligencia ArtificialSynthetic y pese a que muchas investigaciones y muchos años pasaron antes de ser tomadas realmente en cuenta, ahora muchos inventos tienen en sus sistemas redes neuronales artificiales.
Sin duda, este invento es algo que ha ayudado en gran manera al turismo, y es que bajo la tutela de Google, el sistema traducido al español como vista de calles tiene un 96ninety six% de precisión a la hora de reconocer los números de las calles y no contentos con esto las redes neuronales muy bien utilizadas por los desarrolladores de Google Inc. han también implementado el sistema onlineon-line que se guía por coordenadas y brinda un tour como si estuvieras en el lugar que quisieras estar.
Imagen 5: StreetRoadAvenue View
CONCLUSION
La evolución de la inteligencia artificialsynthetic tuvo procedimientos, autores pruebas y demás sucesos que conllevan a crear la historia de ésta ciencia, y es que para poder escribir lo que estoy escribiendo, para poder comunicarnos de la forma que ahora lo hacemos y obtener todas las maravillas tecnológicas como smarthphones, tamagotchi´s entre otros inventos, primero se debió pasar por un sin número de pruebas y para poder avanzar en este campo hoy en día es necesario conocer la historia de la IA.
Si bien es cierto se ha avanzado de manera significativa con los inventos pruebas y demás, la Inteligencia ArtificialSynthetic no ha ido creciendo como en principio sus autores anhelaban, y es que la IA al principio tuvo mucho éxito en las pruebas que realizaba, pero poco a poco se empezó a tener problemas cada vez más grandes.
Aunque el proceso de conversión de la IA en una ciencia fuera difícil, fue posible con el paso del tiempo, con las nuevas teorías, nuevos autores y nuevas investigaciones, hasta llegar a la actualidad en donde cada vez se van inventando más cosas para hacer crecer la IA y obviamente la historia de la IA no muere en este año, ni en los próximos, son tantos los avances aunque no en gran rapidez de tiempo , sí en calidad, que la Inteligencia ArtificialSynthetic seguirá siendo historia por mucho tiempo más, y quién sabe, quizá algún día seamos parte de esa historia.
BIBLIOGRAPHY
Basogain, X. 2008. Redes neuronales artificiales y sus aplicaciones.(Online). ES. Consultado, 28 de oct.2014. Formato PDF. Available in: /open_course_ware/castellano//redes…/
Garcia, P. 2004. Introducción a las redes neuronales y su aplicación a la investigación astrofísica. (Online). ES. Consultado, 28 de oct.2014. Formato PDF. Available in: /sieinvens/SINFIN/Sie_Courses_PDFs/NNets/
Romero, J; Dafonte, C; Gómez, To; Penousal, J. 2007. Inteligencia ArtificialSynthetic y Computación Avanzada. ES. Colección Informática nº 13thirteen. p 400four hundred.
Russell, S y Norvig, P. 2008. Inteligencia ArtificialSynthetic Un Enfoque Moderno. 2 ed. Spain. Pearson EducationSchoolingTraining. p 34-47forty seven.
Santana, R.2004. DENDRAL, El Primer Sistema Experto Basado en Conocimiento. (Online). ES. Consultado, 28 de oct.2014. Formato PDF. Available in:/jvillena/irc/practicas/estudios/
Wells, W.M., 1986. EfficientEnvironment friendly Synthesis of Gaussian Filters by Cascaded Uniform Filters”. IEEE Trans. PatternSample AnalysisEvaluation and Machine Intelligence, vol. 9 (2).
Publicadas por
Vistas
Busca
Tradúcelo!

0

Leave A Comment

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.