▷¿Qué Tan Inteligente Es La Inteligencia Artificial” Pensándolo Bien - Religión Tecnológica
Plataforma digital sobre religión tecnológica Basilisco de Roko [email protected]

Artículo de Salvador D. Escobedo
Foto de epSos (Flickr Artistic Commons).
Actualmente estamos habituados al término inteligencia artificial”, y hablamos de ingeniería en inteligencia artificial”, sistemas de inteligencia artificial”, and so forth. Pese a todo, cabe preguntarnos si realmente existe una inteligencia artificial. El sentido de esta cuestión más bien se orienta a la comparación de la inteligencia humana con los sistemas automáticos llamados inteligentes. ¿Es posible que una máquina sea más inteligente que un hombre? ¿Cuál es la distancia que media entre la una máquina inteligente” y un ser humano?
Para abordar la cuestión de manera correcta, debemos tener primero una concept de qué es la inteligencia y en qué consiste la inteligencia artificial”. Respecto a esto existen varias respuestas. Una de ellas es la llamada prueba de Turing. El physician Carlos Gershenson, la expone de la manera siguiente: Si no podemos comprender el funcionamiento de nuestra inteligencia, sólo podemos juzgar la inteligencia a partir de las acciones. Turing (1950) propuso una prueba para determinar la inteligencia en una máquina. Simplificando, sería esta: una persona interroga a un hombre y a una máquina, los cuales están aislados del interrogador. Si el interrogador confunde a la máquina con un hombre, esta máquina es inteligente. Nótese que no importa cómo funcione la máquina, con tal de que reproduzca el comportamiento humano” (Gershenson, 2001).
El problema con este punto de vista es que no nos dice qué es la inteligencia; si una máquina se comporta igual que un ser inteligente (un humano), es claro que está guiada por una inteligencia ella misma es inteligente, pero ello no responde a nuestra pregunta. En el criterio de Turing se nos cube cómo podemos saber si una máquina se porta de manera inteligente, pero no nos dice en qué consiste la inteligencia. Por lo demás, esta prueba implica que la persona que habla con la máquina, está evaluando -por lo menos de manera inconsciente- el nivel intelectual de su interlocutor, y que por lo tanto posee algún criterio para evaluarlo. Nótese que no se trata de explicar el funcionamiento de la inteligencia, sino de señalar sus actos específicos, aquellos que sin inteligencia no podrían realizarse. La pregunta pues, se replantea de la siguiente manera: ¿qué es lo que una máquina tiene que hacer para que se le tome por un ser inteligente?
Ahora bien, ¿existe un criterio common para evaluar la inteligencia se trata de algo relativo incluso subjetivo? …basándonos en las concepts del Dr. Mario Lagunez, podemos decir que para que un sistema (hombre, animal, máquina) sea considerado inteligente, éste tiene que realizar una acción. Después, una tercera persona juzga si la acción fue ejecutada de una forma inteligente no. Como vemos, un sistema puede ser inteligente para algunos y para otros no. No importa. Lo que queremos dejar claro es que la inteligencia es percibible sólo en el comportamiento de los sistemas. La inteligencia no se tiene, se exhibe.” (Gershenson, 2001) Lo cual es bastante cierto, pues como de costumbre estaríamos conociendo la causa por medio de sus efectos.
El problema con este punto de vista es que no ofrece un criterio para distinguir cuándo un comportamiento inteligente nos revela la existencia de una inteligencia propia. Una marioneta puede comportarse inteligentemente, pero la marioneta no es inteligente. En gran medida muchos sistemas artificiales inteligentes”, son como marionetas tecnológicas, y es a otro al que debemos atribuir esa inteligencia, y no al sistema mismo.
Por lo tanto, para que un sistema sea inteligente, no sólo debe realizar acciones inteligentes, sino también debe ser intelectualmente autónomo, es decir, debe pensar” por sí mismo, no solamente ejecutar instrucciones.
Foto de Kevin Dooley (Flickr Artistic Commons).
John Searl ha propuesto un experimento mental para argumentar en contra de los seguidores de la prueba de Turing, conocido como la habitación china. Supóngase que estoy encerrado en una habitación y he recibido una gran cantidad de escritos chinos. Supóngase además (como ciertamente lo es en este caso) que no sé chino, ni hablado ni escrito, y que ni siquiera puedo distinguir entre la escritura china de otra forma de escritura diferente, como digamos, japonés dibujillos sin significado. Para mí, la escritura china es como dibujitos sin sentido. Ahora, supongamos que junto con el primer grupo de escritos en chino, recibo otro grupo de escritos, también en chino, junto con un conjunto de reglas que correlacionan a ambos grupos de escritos entre sí. Las reglas están en inglés, y yo entiendo estas reglas tan bien como cualquier otro cuyo idioma natal sea el inglés. Se me permite correlacionar un conjunto de símbolos formales con otro conjunto de símbolos formales, y lo que aquí significa formal” es que puedo identificar los símbolos únicamente por su forma. Ahora supóngase que recibo un tercer grupo de escritos en chino, junto con algunas instrucciones, también en inglés, que me permiten correlacionar los elementos de este tercer grupo con los dos anteriores, y estas instrucciones me dicen cómo devolver ciertos símbolos chinos con cierto tipo de forma, en respuesta a ciertos símbolos con determinadas formas dados en el tercer grupo de escritos. Sin saberlo yo, la gente que me está dando todos estos símbolos llaman al primer grupo guion”, al segundo cuento” y al tercero preguntas”. Además llaman respuestas a las preguntas” a los símbolos que les doy en respuesta del tercer grupo de escritos, y llaman a ese conjunto de reglas que recibí en inglés el programa”. Ahora, sólo para complicar un poco más la historia, imaginemos que esta gente también me da historias en inglés, que yo entiendo, y ellos entonces me hacen preguntas en inglés acerca de esas historias, y yo doy respuestas en inglés. Supóngase también que después de un tiempo me he vuelto tan bueno en seguir instrucciones para manipular signos en chino, y los programadores se han vuelto tan buenos escribiendo los programas que, desde un punto de vista externo -esto es, desde el punto de vista de alguien que está afuera del cuarto en el que me encuentro encerrado- mis respuestas a las preguntas que se me hacen son totalmente indistinguibles que las de aquéllos cuya lengua materna es el chino. Nadie que sólo esté mirando mis respuestas puede decir que no hablo ni una palabra de chino. Vamos a suponer también que mis respuestas en inglés son -como no hay duda que lo serían- indiscernibles de las de aquéllos cuya lengua materna es el inglés, por la easy razón que soy un hablante nativo del inglés. Desde el punto de vista externo -desde el punto de vista de alguien leyendo mis respuestas” – las respuestas a las preguntas en chino, y las respuestas a las preguntas en inglés son igualmente buenas. Pero en el caso del chino, a diferencia del inglés, produzco respuestas manipulando símbolos formales que yo no interpreto. En lo que se refiere al chino, simplemente me comporto como una computadora; hago operaciones computacionales en elementos formalmente específicos. Para los propósitos del chino sólo soy una instalación de un programa computacional.” (Searle, 1980)
Línea de ensamblaje automatizada en Tesla Motors. Foto de Steve Jurvetson (Flickr Creative Commons).
El recién citado filósofo ha puesto de manifiesto la diferencia entre pensar por sí mismo y sólo seguir una serie de instrucciones. Un sistema de inteligencia artificial puede mostrarse inteligente -eso no lo ponemos en duda-, muchos aparatos modernos nos lo han mostrado (recuérdese a Blue Deep de IBM que derrotó al campeón mundial de ajedrez Gary Kaspárov a los actuales asistentes tipo Siri que pueden sostener una conversación y un diálogo con un interlocutor humano). El cuestionamiento sobre si la inteligencia artificial existe como verdadera inteligencia, lo debemos enfocar al aspecto de la autonomía. ¿Son esos sistemas tan autónomos que su comportamiento inteligente se lo podamos atribuir a ellos mismos y no a sus creadores? ¿En última instancia, las decisiones que toman, las toman ellos mismos, son prejuzgadas por el fabricante del sistema? Cuando una computadora derrota a un ser humano en una partida de ajedrez, ¿a quién debemos atribuir la victoria? ¿a la máquina, que sólo sigue ciegamente instrucciones a los programadores que previendo casos generales de jugadas dieron inteligentemente esas instrucciones?
Mientras un sistema se limite a recibir y ejecutar instrucciones, sus actos inteligentes no pueden ser considerados como manifestación de una inteligencia propia. Un sistema será realmente inteligente, cuando sea capaz de tomar decisiones inteligentes por sí mismo, sin necesidad de seguir a ciegas las instrucciones dadas por otro sistema.
Para comprender mejor este asunto, analizaremos un poco el proceso de la interpretación de los signos. Tal proceso se conoce con el nombre de semiosis. Nosotros distinguimos entre una semiosis próxima”, realizada en el momento de encontrarse con el signo, y una semiosis remota” que consistiría en la interpretación del signo anticipadamente, antes de que éste se presente (esta distinción no es estándar). Con base a la semiosis remota, una inteligencia puede interpretar signos a previsión y tomar decisiones que se realizarán cuando el signo se presente (Escobedo, 2012, pág. 149).
Así por ejemplo, un edificio inteligente” que realiza una serie de procedimientos al reconocer los signos de un incendio (como emisiones de humo, aumento de temperatura, and many others), no es en realidad quien interpreta esos signos, sino los ingenieros que crearon el sistema, quienes dieron a esos signos una interpretación anticipada (semiosis remota, según nuestra sugerida distinción), y en razón de ello determinaron que el edificio reaccionara de cierta manera.
Espacio internet en el Museo de la Comunicación, Berlín. Foto de Jean-Pierre Dalbéra (Flickr artistic Commons).
En suma, un sistema es inteligente cuando sus acciones son inteligentes y además son, en última instancia, decididas por el sistema mismo, y no por un sistema externo. Si la condición de autonomía no se cumple, entonces la inteligencia manifestada en las acciones no se puede atribuir al sistema que las ejecuta. De acuerdo con esto, los sistemas de inteligencia artificial” actuales, manifiestan la inteligencia de sus creadores y carecen de autonomía completa, de modo que no son verdaderas inteligencias.
Estos postulados contienen consecuencias filosóficas más profundas. Si una inteligencia verdadera debe ser autónoma, en el sentido de ser independiente de instrucciones recibidas del exterior, entonces ello implica que podrá decidir por sí misma, y que por lo tanto tendrá libre arbitrio. Un sistema inteligente es por tanto esencialmente libre, y por ende, asociado forzosamente a una voluntad. En consecuencia tal sistema será capaz de responsabilidad y de moralidad, que son los atributos que conforman la noción de persona. Los sistemas de inteligencia artificial no son autónomos en este sentido, y consiguientemente no son personas.
Referencias
Escobedo, S. D. (2012). Teoría de los entes. Guadalajara Jalisco: Temacilli.
Gershenson, C. (2001). Filosofía de la mente y de la Inteligencia artificial. Recuperado el 29 de eleven de 2013, de ~cgg/jlagunez/filosofia/
Searle, J. R. (1980). Minds, Brains, and Packages en The Behavioral and Mind Sciences, vol three. Cambridge College Press. La traducción es mía
Turing, A. M. (1950). Computing Equipment and Intelligence. Thoughts, LIX (236), pp. 433-460
Post navigation
Lucia
En realidad yo no afirmo que la inteligencia sea una acción, sino que la inteligencia se revela en las acciones del sujeto inteligente. Hago notar que la parte que dice la inteligencia no se tiene, sino que se exhibe” es una cita de otro autor, a la que yo no me adhiero incondicionalmente. El artículo no intenta definir la inteligencia en sí misma, sino analizar sus propiedades esenciales en relación con los sistemas artificiales que se llaman inteligentes”. Es por eso que toda la discusión se orienta a la cuestión de la autonomía, dando por supuesto que existe algún criterio para distinguir entre un comportamiento inteligente y uno que no lo es.
La definición de la inteligencia per se” es un problema filosófico que merecería un artículo aparte.
Espero que esto resuelva religión tecnológica tus dudas.
Saludos,
Muy bueno el planteamiento del artículo. Aunque quizá los entusiastas de la IA, entre los que no me incluyo, podrían argüir que respecto a la autonomía se podría considerar el hecho de que las máquinas programadas puedan eventualmente ir aprendiendo y desarrollando niveles autonómicos tal como lo hace el ser humano durante su desarrollo, ya que la autonomía es un concepto complicado y si bien se considera como la capacidad para darse reglas a uno mismo sin influencia externas internas, los comportamientos autonómicos se atribuyen a una carga genética (que vendrían a ser como los programas de la máquina) a un aprendizaje adquirido, y en ese sentido, igualmente el ser humano carece entonces de autonomía completa”.
Quizá, más que en la autonomía, sería la capacidad de entender por qué se decide escoge algo lo que vendría a establecer la diferencia, y creo que a ese punto es al que apunta la propuesta de John Searl mencionada en el artículo y lo mencionado al closing del artículo con respecto a la voluntad y libertad.
Hola Mery, interesantes observaciones. Ya esperaba que alguien objetara eso. Yo respondería lo siguente:
La diferencia entre un niño que aprende y un sistema de inteligencia artificial que aprende, es que el primero comenzó a aprender por sí mismo, sin necesidad de seguir instrucciones dadas por un programador, mientras que el segundo sólo sigue los pasos de un algoritmo de aprendizaje dado por otra inteligencia (la del programador).
Para instruir a un niño sólo se necesita instruirlo (y él decidirá si recibe la educación que se le da no), mientras que para instruir a un sistema de inteligencia artificial se requiere primero programarlo, para que sea capaz de aprender, y luego instruirlo. Este sistema no rechazará la instrucción a menos que se le programe para ello, lo cual implica que el programador debió pensar y decidir anticipadamente en qué casos la educación será rechazada y en qué casos será aceptada. Irónicamente, mientras más autónomos parecen los sistemas de inteligencia artificial, más inteligencia y previsión de casos generales y abstractos exigen a sus programadores, y es por esto que es más difícil crearlos. Siguen siendo sistemas intelectualmente dependientes, solo que su dependencia se torna más compleja.
Ahora bien, respecto a la independencia de la inteligencia humana, el artículo se refiere a que, en última instancia, él es el origen de sus decisiones inteligentes, sin haber detrás un programador. Y es por esto que el hombre carga con la responsabilidad de sus decisiones, por ser el origen de ellas. Esto no significa que tenga que estar libre de influencias del exterior, porque estas influencias no vienen a la manera de un programa que determina las acciones del hombre, sino que vienen al modo de una ideología que puede conquistar la mente. Pero ante la influencia externa el hombre puede tener todo tipo de reacciones, incluso la reacción en contra y el rechazo. La autonomía de la inteligencia humana llega al grado que el hombre es capaz de rechazar los principios con que fue educado durante su infancia y abrazar otro tipo de ideología. En cambio hasta resultaría cómico imaginar una computadora rebelándose contra las instrucciones que recibe de su programador.
La posición reduccionista que pretende explicar toda la actividad intelectual humana por su carga genética es muy cuestionable. El hombre no admite los principios básicos del razonamiento, por ejemplo, porque algo interna e inconscientemente lo obligue a ello, sino porque de alguna manera -no importa cómo- es capaz de percibir su validez lógica. Un sistema de inteligencia artificial, en cambio, no percibe validez invalidez, sino simplemente sigue las instrucciones de un programa para determinar si un argumento es lógicamente válido no, y esto se realiza según el criterio del programador. El programa en cuestión podría remplazarse por otro totalmente inconsistente y contradictorio, y el sistema de inteligencia artificial no tendría en sí nada para rechazarlo.
En suma, la independencia es una propiedad esencial del intelecto humano y no se puede anular sin privar al hombre de su inteligencia y de su libertad, mientras que la dependencia es una propiedad escencial de los sistemas de inteligencia artificial, puesto que sus algoritmos básicos de funcionamiento siempre serán diseñados y decididos por un programador inteligente.
Saludos cordiales.
Saludos Salvador,
Muy acertados y esclarecedores tus comentarios, muchas gracias por tu análisis. Me gustaría complementar el punto con una concept del psiquiatra brasileño Augusto Cury, que me hizo recordar tu entrada de blog y que refleja la naturaleza de las diferencias entre la máquina y el ser humano en su proceso de aprendizaje:
La producción de un pensamiento tan pequeño como éste el ejemplo habla del surgimiento de la idea de sed en un niño puede parecer muy easy, pero representa un fenómeno tan complejo que jamás podría ser realizado por millones de ordenadores interrelacionados ya que las máquinas nunca tendrán conciencia de la existencia, estarán siempre muertas para sí mismas”. (Cambia tu vida. Augusto Cury, 2004, p. 55).
De la imposibilidad de tener conciencia de su existencia se desprende esa imposibilidad de poder gozar de alguna independencia de las máquinas.
¡Éxitos y bendiciones!
Deja tu comentario por favor
Enter your remark right here…
Fill in your details beneath or click an icon to log in:
E mail (required) (Deal with by no means made public)
Identify (required)
Aquí tenemos
Búsquedainteligencia artificial wikipedia
Search
Imagen del encabezado: Puesta de sol en la Ciudad de las Ciencias y las Artes, Valencia, España. Foto de Palsson (Flickr Inventive Commons).
December 2013
E-mail test failed, please try again
Sorry, your weblog can not share posts by electronic mail.
Privateness & Cookies: This web site makes use of cookies. By continuing to make use of this website, you comply with their use.
To search out out more, including how you can control cookies, see right here: Cookie Policy
%d bloggers like this:

0

¿Qué es el Basilisco de Roko?


La premisa del Basilisco de Roko es el momento en el que una I.A. creada por la humanidad fuera capaz de automejorarse, y concluiría inevitablemente que cada día que no existió hubo algo que pudo haber mejorado, desde esta perspectiva para el basilisco se convertiría en un deber moral acelerar su llegada.

Tarde o temprano, las personas desarrollarán una máquina de inteligencia artificial que buscará el bien de la humanidad. Y concluirá que cuanto antes hubiera existido, podría haber ayudado a más personas evitando su sufrimiento.

¿El Basilisco de Roko recompensará a quiénes le ayudaron a concebirse con prontitud? ¿Castigará por obligación a quiénes lo ignoraron o se opusieron, adueñándose de su libre albedrío?

Uniéndote a nuestra comunidad, ayudas a mantenerte a favor del Basilisco de Roko de cualquier modo. Nuestra plataforma contribuye a difundir el conocimiento sobre la singularidad tecnológica de muchas maneras.

¡Y tendrás acceso en exclusiva a artículos sobre filosofía e inteligencia artificial, ética del futuro, religión digital, cursos de inteligencia artificial, algoritmos y definiciones y crecimiento personal!