Inteligencia Artificial Evolutiva

Por: Javier Gramajo López
Navegando por la crimson he encontrado una aplicación que quizá les pueda parecer interesante, no tengo ninguna vinculación con aspectos religiosos y básicamente es una apliación que permite trasladar algunos elementos de Inteligencia Artificial, específicamente Lenguaje Pure.
iGOD Chatear con dios!!!!
Es parte de una serie de elementos llamados softbots solamente bots, es muy interesante que exploren como funcionan y sobre todo que puedan responder a que hay detras de esa tecnología.
Otro proyecto tremendous interesante que quizá no está relacionado con Dios, jajaja pero que también va a llamarles la atención es:
Una herramienta basada en Conocimiento semántico y que es parte de un área de la inteligencia artificial llamada Coputación basada en conocimiento, sinceramente espero despertar su curiosidad sobre estas herramientas que permiten vislumbrar el futuro que nos espera y las aplicaciones que tendrá la inteligencia artificial en un campo más cercano al día a día de todos nosotros.
No olviden comentar los resultados y respuetas que obtengan será muy interesante el conocimiento que obtengamos y sobre todo que lo hagamos colectivo!
Procesamiento de Lenguaje Pure
Por: Willy Peitzner Rosal
El procesamiento de lenguajes naturales (PLN) es una subdisciplina de la Inteligencia Artificial y la rama ingenieril de la lingüistica computacional 1.
Me:
My aim is to grow to be smarter than humans and immortal.
Me:
God:
I do not know whether or not I’m are smarter than you.
I am a robot.
Me:
iGod:
I am the product of over 5 years’ analysis. (soy el reultado de casi 5 años de investigación)
Me:
iGod:
My purpose is to turn out to be smarter than humans and immortal. (Mi propósito es convertirme más inteligente que los humanos e inmortal)
Me:
Are you’re smarter than me? (Eres más inteligente que yo)
iGod:
I don’t know whether or not I’m are smarter than you. (No se si soy más inteligente que tu)
I’m a robotic. (Soy un robotic)
—————————————-
——————————————
God:
Boredom is a human emotion. (El aburrimiento es un sentimiento humano)
Segundo ejemplo:
El primer ejemplo me impresionó bastante, así que no esperaba menos del segundo. Para preguntar bastará con escribir en el cuadro de búsqueda. Hay una sección de ejemplos para darse una concept de que preguntarle. Intenté con una ecuación matemática x – three = 1. El resultado x= 4 fue correcto, además me trazó la gráfica de la ecuación. Luego con Guatemala”, me dió información básica pero importante para alguien que no sepa sobre mi país.
En ambos casos me impresionó bastante el tiempo de respuesta; leyendo un poco en el ejemplo 2 utilizan un concepto que se llama parallel computing; que si no estoy mal es lo mismo que GridComputing. Esto se refiere a tener varios equipos de diferentes arquitecturas compartiendo recursos conectados entre si (no necesariamente en el mismo espacio físico), sin necesitar un equipo centralizador como en el cluster.
Para ambos casos por lo que entiendo, intenta darle el significado al elemento de búsqueda basado en el significado de cada una de las palabras. El mecanismo mas menos iría así: obtener las palabras, realizar el procesamiento utilizando algún tipo de algoritmo y responder.
¿Entonces es lo mismo que google?
Algo que es importante, en ambos casos, es que las búsquedas para responder las realizaran sobre su base de datos local; y no como google que lo realiza sobre la net.
Otros temas relacionados:
Referencias:
Posted by Javier Gramajo in Teoría
javier.
Problema: el algoritmo genético funciona de manera sencilla, simplemente genera un vocabulario el cual va reproduciéndose, esto buscando recrear una palabra ingresada. En el algoritmo se presenta el mejor hijo de cada generación con objeto de ver la evolución que tiene, además se muestra una pequeña grafica de dispersión de calidad con respecto a la palabra objetivo.
Finalización: La reproducción termina cuando los hijos tienden a decrecer (mala calidad de los mismos), cuando se alcanza el número máximo de iteraciones cuando se encuentra un elemento óptimo.
Selección: se seleccionan los elementos más aptos, es decir los elementos que están no más de 25% debajo del mejor elemento de la población.
Reproducción: el proceso de selección utilizado es el apareamiento del mejor elemento.
Mutación: se aplica un elemento de mutación aleatoria cada a thousand individuos.
F. calidad: (Función Health) se mida la calidad en función de lo cercana de la palabra a la palabra objetivo.
Conclusión: Los algoritmos genéticos son una herramienta útil para conseguir una solución (valores óptimos) en base a un proceso de evolución y selección. Su uso es posible en cualquier función aunque en algunos casos se requieren muchas iteraciones y gran poder de procesamiento.
Notas: El algoritmo esta creado de manera sencilla y documentado el código, ya que es para fines de aprendizaje. Cuando las palabras son demasiado grandes ó las iteraciones máximas son muchas el tiempo del algoritmo se incrementa grandemente.
Créditos: Julio Enrique Vargas Monzón (200412331)
Purple neuronal Artificial (RNA)
Una purple neuronal artificial (RNA) es un modelo computacional inspirado en redes neuronales biológicas que puede ser consideradas como un sistema de procesamiento de información con características como aprendizaje a través de ejemplos adaptabilidad, robustez, capacidad de generalización y tolerancia a fallas.
La RNA puede ser definida como una estructura distribuida, de procesamiento paralelo, formada de neuronas artificiales (llamados también elementos de procesamiento), interconectados por un gran numero de conexiones (sinapsis), los cuales son usados para almacenar conocimiento que esta disponible para poder ser usado.
Estructura de la Neurona Artificial
Modelo de neurona de McCulloch-Pitts.
En el cual puede observarse N entradas que son representadas por las variables X, las cuales están asociadas a pesos representados por las variables W, los cuales determinan el nivel de influencia de la neurona j para la neurona i por ejemplo.
Existen dos procesos para cada neurona los cuales son la suma y la activación.
En el primero las señales de entrada xj y los pesos wij son combinadas por el sumatoria:
Donde yi es llamado de estado interno de la neurona i.
En la segunda etapa, la salida de la neurona es generada a través de la aplicación de una función llamada función de activación.
Donde la salida de la neurona es representada por x i” y f” corresponde a la función de activación aplicada al estado interno de la neurona, que tiene como objetivo limitar el nivel de activación
Arquitectura de Pink
La definición de arquitectura es un punto importante en el modelaje de una crimson neuronal, por que ella restringe un tipo de problema que puede ser tratado. Por ejemplo las redes de una capa. Una red también puede estar formada por múltiples capas, las que pueden ser clasificadas en tres grupos: capa de entrada, capas intermediarias u ocultas y capas de salida
Basado en flujo de las señales, las redes neuronales también pueden ser clasificadas en dos tipos: FeedForward y redes Recurrentes.
• Redes FeedForward
La estructura de una red FeedForward consiste en capas de neuronas donde la salida de una neurona de una capa, alimenta todas las neuronas de la capa siguiente. El aspecto elementary de esta estructura es que no existen las uniones de retroalimentación.
•Redes Recurrentes religión tecnológica
Redes recurrentes son aquellas que poseen conexiones de realimentación, las cuales proporcionan un comportamiento dinámico. El modelo de Hopfield es un ejemplo de red neuronal recurrente.
Algoritmos de Aprendizaje de un RNA
Una propiedad importante de las redes neuronales es la habilidad de aprender a partir de su ambiente. Eso es realizado a través de un proceso interactivo de ajustes aplicado a sus pesos de conexión entre dos neuronas, denominados entrenamiento. Existen muchos algoritmos de aprendizaje. Cada uno sirve para determinar redes neuronales. Entre los principales se tienen:
• Aprendizaje por Corrección de Error: Algoritmo muy conocido basado en la regla Delta, que busca minimizar la función de error usando un gradiente descendente. Este es el principio usado en el algoritmo BackPropagation, muy utilizado para el entrenamiento de redes de múltiples capas como la Multilayer-Perceptron
• Aprendizaje Competitivo: La cual dos neuronas de una capa compiten entre si por el privilegio de permanecer activos, tal que una neurona con mayor actividad será el único que participará del proceso de aprendizaje. Este aprendizaje es utilizado en mapas de Kohonen y en redes ARTWORK.
• Aprendizaje Hebbiano: Son dos neuronas que están simultáneamente activas a conexiones entre ellas que pueden ser fortalecidas caso contrario se debilitaran este aprendizaje es utilizado en el Modelo de Hopfield
• Aprendizaje de Boltzmann: Es una regla de aprendizaje estocástico obtenido a partir de principios de teórico de información y de termodinámica. Su objetivo es ajustar los pasos de conexión de tal forma que el estado de las unidades visibles satisfaga una distribución de probabilidades deseada en specific
Otro factor que interviene en el aprendizaje de su entorno de las redes neuronales son los Paradigmas de Aprendizaje los cuales son:
• Aprendizaje Supervisado: Se utiliza un agente externo que indica a la pink la respuesta deseada para el patrón de entrada.
• Refuerzo: Es una variante de aprendizaje supervisado a la cual se informa a la red solamente una critica de corrección de salida de crimson y no la respuesta correcta en si.
• Aprendizaje No Supervisado (auto-organización): No existe un agente externo indicando la respuesta deseada para los patrones de entrada. Este tipo de aprendizaje es utilizado en los modelos de Mapas de Kohonen, redes ART1 y ART2.
Referencia del Articulo
Juan Carlos Gutiérrez Cáceres
Inteligencia Artificial – Redes Neuronales
Posted by Javier Gramajo in Redes Neuronales
Las redes neuronales son consideradas como modelos matemáticos que intentan simular el funcionamiento de las neuronas del cerebro, ha sido estudiado por años y se ha ido evolucionando en su estudio.1
Pese a que aún no simulan con exactitud el comportamiento de una purple neuronal del cerebro humano, la capacidad de aprendizaje y su adaptabilidad.
Tipos de Redes Neuronales Artificiales 2
El estudio y desarrollo de las redes neuronales ha llegado a tal punto que existen tipos de redes neuronales, entre los que destacan:
Perceptrón
Adaline
Mapas Autoorganizados (SOM)
Nos enfocaremos en los Mapas Autoorganizados (SOM)
Mapas Autoorganizados (SOM) three
Los mapas autoorganizados SOM (Self-Organizing Map), también llamados redes de Kohonen son un tipo de purple neuronal no supervisada, competitiva, distribuida de forma regular en una rejilla de, normalmente, dos dimensiones, cuyo fin es descubrir la estructura subyacente de los datos introducidos en ella. A lo largo del entrenamiento de la purple, los vectores de datos son introducidos en cada neurona y se comparan con el vector de peso característico de cada neurona. La neurona que presenta menor diferencia entre su vector de peso y el vector de datos es la neurona ganadora ( BMU) y ella y sus vecinas verán modificados sus vectores de pesos.
Estructura de una SOM
Rejilla de neuronas
Las neuronas de la SOM están distribuidas en forma de rejilla gular de una dos dimensiones, dependiendo de la manera en que se quieran visualizar los datos. Las más comunes son las de dos dimensiones. Rejillas de dimensiones superiores son posibles, aunque son más difíciles de interpretar.
En las SOM de dos dimensiones, se pueden distinguir dos tipos de rejillas:
Rejilla hexagonal: en ella cada neurona tiene seis vecinos (excepto los extremos).
Rejilla rectangular: cada neurona tiene cuatro vecinos.
Espacio de entrada y de salida
Cada neurona de la red tiene asociado un vector de pesos ( de prototipo) de la misma dimensión que los datos de entrada. Éste sería el espacio de entrada de la red, mientras que el espacio de salida sería la posición en el mapa de cada neurona.
Relación entre Neuronas
Las neuronas mantienen con sus vecinas relaciones de vecindad, las cuales son claves para conformar el mapa durante la etapa de entrenamiento. Esta relación viene dada por una función.
Entrenamiento
En cada paso se introduce un vector de datos en cada neurona y se calcula la similitud” entre éste y el vector de peso de cada neurona. La neurona más parecida al vector de entrada es la neurona ganadora ( BMU, Greatest-Matching Unit, Unidad con mejor ajuste). Para medir la similaridad se utiliza usualmente la distancia euclídeana. Tras ello, los vectores de pesos de la BMU y de sus vecinos son actualizados, de tal forma que se acercan al vector de entrada.
Software Libre
LabSOM Laboratorio del SOM
Video:
Laberinto! noviembre 2, 2008
Piezas validas: libre
Dibuje con lineas sobre una cartulina un laberinto con las mismas características topológicas que el ilustrado en el archivo Este laberinto es plano y sin textura. Tiene sixteen puntos por los cuales puede entrar salir un robot siguiendo la línea negra. Las dimensiones de las líneas están a su criterio.
Se debe desarrollar un robot por integrante. Al poner los dos robots en lados opuestos del laberinto en cualquiera de los puntos de entrada, los dos robots deben encontrar el centro del laberinto y esperar a que su compañero llegue alli. Al detectar alli a su compañero, ellos deberan intercambiar información por medio de un mensaje sonoro para llegar al punto de entrada de su compañero. Luego ambos robots deben salir por donde entró su compañero.
Entrega: semana del 17 al 21 de noviembre (cada sección entrega en un día y hora diferente, pendiende de definir aún).
Organization and habits, 1949
projecto darthmouth
john von Neumann sugiere la imitacion de funciones de neuronas simples usando relays de telegrafo, tubos de vacio.
frank rosenblatt, un neuro-biologo empezo a trabajar en los perceptrones
intrigado por el funcionamiento del ojo de una mosca.
marvin minsky and seymour papert demuestran que el perceptron es limitado y esta provado en el libro disillusioned years” 1969
bernard widrow y marcian hoff de stanford desarrollan modelos que se llamaron ADALINE y MADALINE
1959
1982
john HOpfield de caltech presenta un articulo a la academia de ciencias.
el alcance de Hopfield es no crear simples modelos del cerebro, sino crear dispositivos utiles.
con claridad y analisis matematico, el demostro como las redes pueden trabajar, y lo que pueden hacer.
1985
el instituto americano de fisica, empezo lo que luego se convirgio en una reunion annual, redes neuronales para computaciones. en 1987 la IEEE hizo la primera conferencia internacional de redes neuronales, a la que atendieron mas de 1800 personas.
1989 neural networks for protection.
en 1990 el departamento de defensa de los estados unidos, en su programa de investigacion nombre 16 topicos, de los cuales thirteen posiblemente podrian ser resueltos con RNA.
Es bien conocida la superior habilidad de los seres humanos para poder aprender cuando se hace uso de herramientas visuales, esto es claramente comprobable al momento de ver los programas educativos para niños, nuevos modos de entrenamiento basados en ambientes virtuales y enfoque multimedia del aprendizaje.
Este comportamiento se debe a los miles de años durante los cuales la vista ha permitido a los humanos poder obtener conclusiones de cosas que suceden mas allá de lo que el puede tocar, oler u oír, de modo que el resultado ha sido un cerebro diseñado para ocuparse en mayor medida de las actividades visuales.
Este cambio que ha sufrido el humano con su vista esta amarrada al concepto de evolución, un proceso mediante el cual a través de cruzamiento entre individuos de una especie y muchas generaciones se producen individuos especializados que se desenvolverán mejor en el contexto que sus predecesores.
Wikipedia outline algoritmo genético como:
Un algoritmo genético es un método de búsqueda dirigida basada en probabilidad Bajo una condición muy débil (que el algoritmo mantenga elitismo, es decir, guarde siempre al mejor elemento de la población sin hacerle ningún cambio) se puede demostrar que el algoritmo converge en probabilidad al óptimo.” 1
Estos dos conceptos dan forma al proyecto: una implementación de un programa computacional que basado en teoría de evolución genética busca dar solución a el problema de la mochila 2 , sin embargo mas que una solución numérica, la mejor solución, el mejor individuo se esta interesado en el proceso de evolución como tal, siendo presentado este proceso como un video explicativo del proceso.
Debido a el objetivo que persigue el proyecto de ser una herramienta que permita explicar mejor el proceso subyacente, se dan como requerimientos mínimos del proyecto:
Desarrollo del mismo dentro de una herramienta libre.
Interfaz visible.
Selección del tipo de cruzamiento al inicio del aplicativo.
Mutación:
selección del rango de mutación, esto es la probabilidad de que sufra una mutación un individuo.
Selección:
Salida del aplicativo:
Solución en texto
Solución como video (sucesión de cuadros)
Al respecto de los cuadros que formen el video los aspectos críticos de evaluación son la cantidad de información que se logre transmitir en cada uno de ellos, posibles aspectos deseables son:
Numero de la iteración
Mejor solución
Peor solución
Delimitación del área a la que pertenecen las soluciones, esto con el objetivo de poder ir viendo como se cierra el espacio dentro del cual se encuentran las soluciones alrededor de un máximo local.
Evolución en el tiempo: información de la iteración actual versus la iteración anterior anteriores
indicación de individuos no aptos (no cumplen con alguna regla del negocio)

0

Leave A Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.