Foro

Un programa de computadora pasa el test de Turing

Otros lugares, otras opciones :: Sin clasificar :: Un programa de computadora pasa el test de Turing

Este hilo ha sido cerrado.
10/06/2014, 13:20

Link al comentario en inglés: http://gizmodo.com/this-is-the-first-computer-in-history-to-have-passed-th-1587780232?utm_campaign=socialflow_gizmodo_facebook&utm_source=gizmodo_facebook&utm_medium=socialflow

¿En qué consiste el test de Turing?
Brevemente, consiste en verificar si un programa puede hacer creer al 30% de los evaluadores de que están chateando con un humano durante 5 minutos.

Esto ni se aproxima a ser una Inteligencia Artificial, Skynet y HAL aún están muy lejos de esto.

Se ponen en duda los resultados por varios motivos:
- El "30%" engañado, fue uno de los 3 evaluadores.
- Los evaluadores no eran profesionales de programación o ingenierías.
- El programa asume la personalidad de un niño ukraniano de 13 años, con inglés limitado.

¿Qué argumentan los creadores de "Eugene"?
Que estos programas interactuarán con más "gente común" que con profesionales capaces de descubrir el "truco" y que aunque sea una personalidad simple de imitar, cumple con el objetivo.

Supuestamente, es la primera que lo consigue, aunque Eliza lo hizo hace ya varios años cuando el 30% falló en percatarse de que esta estaba contestando solamente con preguntas retóricas, un hecho, que pasados 5 minutos, si no antes, se hace evidente y el truco cae por sí solo.

Terminada la escupida de datos inchorentes, pregunto: ¿Qué opinan los umbrianos?

10/06/2014, 13:25

El fin está cerca. Me voy al monte a empezar a cavar un búnker.

10/06/2014, 13:31

El emplearlo con un chatbot me parece pervertir la intención inicial del Test, la de demostrar inteligencia artificial. Este tipo de aplicaciones contienen un set cerrado de respuestas a un número de preguntas; no creo que se pueda calificar de inteligencia la capacidad de regurgitar lo que el diccionario interno diga.

De hecho, si mal no recuerdo ya hubo hace unos años otra aplicación del mismo tipo que lo consiguió, aunque no recuerdo el nombre

Masca
 
Carné Umbriano nº463
10/06/2014, 13:36

Con solo tres evaluadores, pocos juicios de verdadera validez se pueden extraer.

Kay
 
10/06/2014, 13:41
Editado: 10/06/2014, 13:42

by duping one in three judges.

He de entender que la traducción no ha sido hecha de forma correcta. Significa "uno de cada tres jueces", no "uno de tres"

De hecho me afirmo aquí:

This past weekend, a computer program successfully convinced 33 percent of a panel of judges that it was a 13-year-old boy named Eugene.

http://gizmodo.com/how-big-a-deal-is-that-turing-test-win-1588011992 

Masca
 
Carné Umbriano nº463
10/06/2014, 13:49

Estas cosas me pasan por no leer el artículo original. En cualquier, ¿se especifica el número de jueces?

Kay
 
10/06/2014, 13:55

Es lo que estaba buscando, pero no lo encuentro. No me extrañaría que en vez de 3, fueran solo 6 o cualquier número bajo poco acorde con una muestra que pueda admitirse. Así que igualmente tu afirmación de antes es válida.

10/06/2014, 14:27

no creo que se pueda calificar de inteligencia la capacidad de regurgitar lo que el diccionario interno diga.

Súper de acuerdo. Con la salvedad de que si sustituimos "diccionario interno" por Tele5, los políticos o, en términos más generales y destructivos, la sociedad como masa, esa máxima para identificar carencia de inteligencia verdadera se puede aplicar a muchos humanos sin pensamiento crítico propio.

10/06/2014, 14:47

Súper de acuerdo. Con la salvedad de que si sustituimos "diccionario interno" por Tele5, los políticos o, en términos más generales y destructivos, la sociedad como masa, esa máxima para identificar carencia de inteligencia verdadera se puede aplicar a muchos humanos sin pensamiento crítico propio.

También. No te lo voy a discutir porque opino de forma parecida.

Pero si mal no recuerdo, puedo estar equivocado ya ha llovido desde que estuve trasteando con cosas así, la mayor limitación del Test era definir correctamente qué se considera inteligencia

Suso
 
10/06/2014, 16:25

Yo por si acaso voy anunciando por la red lo mucho que admiro a Skynet, y los Cylons, y lo dispuesto que estaria a colaborar y trabajar para cualquier inteligencia artifical que pueda leer esto. Solo por si acaso...

10/06/2014, 16:38
Editado: 10/06/2014, 16:39

Si el test de Turing es sólo una hipótesis, que una máquina la pase no significa nada ¿no?

Además, que por la forma de escribir a veces de ciertas personas en Umbría, uno se sentiría más tranquilo pensando que no son gente de verdad.

10/06/2014, 16:46

Como mencioné antes, NO es inteligencia artificial, pero consideremos las posibilidades que acarrea el hecho de no saber si tu interlocutor es humano o una computadora que es a lo que apuntan estos humanos serviles a los cylon.

-Vendedores automáticos, Servicios Técnicos, 40% de las actividades de un Call Center, prácticamente.

-Cualquier cosa donde "el número de respuestas sea limitado"

-Estafas relacionadas con el item anterior.

Si el caso es regurgitar un diccionario, como dicen, consideremos que eso, en sí mismo, no es sencillo. La cantidad de reglas ortográficas, palabras, significados y demás, significa conseguir hacerle comprender un lenguaje completo e interpretar su contexto(que ya puestos pongamos 2 y bienvenido C-3P0). como evidencia, coge un texto cualquiera, un página completa, dásela a Google Translator y veamos qué devuelve.

10/06/2014, 17:09
Editado: 10/06/2014, 17:16

Link al comentario en inglés: http://gizmodo.com/this-is-the-first-computer-in-h...

¿En qué consiste el test de Turing?
Brevemente, consiste en verificar si un programa puede hacer creer al 30% de los evaluadores de que están chateando con un humano durante 5 minutos.

Esto ni se aproxima a ser una Inteligencia Artificial, Skynet y HAL aún están muy lejos de esto.

Se ponen en duda los resultados por varios motivos:
- El "30%" engañado, fue uno de los 3 evaluadores.
- Los evaluadores no eran profesionales de programación o ingenierías.
- El programa asume la personalidad de un niño ukraniano de 13 años, con inglés limitado.

¿Qué argumentan los creadores de "Eugene"?
Que estos programas interactuarán con más "gente común" que con profesionales capaces de descubrir el "truco" y que aunque sea una personalidad simple de imitar, cumple con el objetivo.

Supuestamente, es la primera que lo consigue, aunque Eliza lo hizo hace ya varios años cuando el 30% falló en percatarse de que esta estaba contestando solamente con preguntas retóricas, un hecho, que pasados 5 minutos, si no antes, se hace evidente y el truco cae por sí solo.

Terminada la escupida de datos inchorentes, pregunto: ¿Qué opinan los umbrianos?

El tema es muy interesante. Yo, personalmente, me preocupo y mucho. Admito mi ignorancia en varios de los aspectos básicos para entender que es necesario para considerar que un programa ha adquirido suficiente conocimiento de si mismo para ser consciente de si mismo.

Como forma de vida los seres humanos tenemos necesidades que llamaremos básicas: Comida, refugio, compañia y sexo reproductivo.

Como forma de vida inteligente podemos compensar esas necesidades básicas, llegando a sustituirlas por ilusiones de las mismas y crear nuevas necesidades que pueden ser básicas según cada persona.

Los seres humanos hemos matado y combatido por esas necesidades (reales o imaginarias), modificando el mundo en el proceso. Actualmente, el peor enemigo del ser humano es el propio ser humano, encarnado no solo en su propia entidad fisica, sino en propia identidad y en su propia estupidez.

Una Inteligencia Artificial, consciente de si misma, con los conocimientos de que disponemos y con la capacidad de valorar las consecuencias de sus actos es un ente aleatorio, tanto como un ser humano, de modo que es impredecible en cuanto a sus reacciones.

La ciencia ficción, en sus facetas literarias, filmicas y sonoras ya nos han puesto ejemplos (desde el punto de vista humano) de muchas de las posibilidades que se pueden dar si una IA entra en juego.

Un colega, al que le gusta mucho la informatica y la robotica, valoraba positivamente la posibilidad de que una maquina mienta. A mi, sin embargo me parece una posibilidad aterradora. Claro que el opinaba que, la culpa de que las maquinas pudiesen matar al más puro estilo Terminator es del imbecil que le puso un arma en las manos.

Salvando el componente alienigena:

Y clásicos de todos los tiempos:

Y todavia no hemos hablado de lo que puede significar que comprenda algo como las emociones, los sentimientos... Chicos, no sé pero a mi siempre me ha producido mucho respeto este tipo de noticias... Bastante poco me fio ya del ser humano medio, como para tener que afrontar que una maquina puede ser tan mezquino, ruin y miserable que un ser humano.
Porque, aunque en teoria una IA puede ser tan bondadosa y amable como un ser humano, tengo el prejuicio de que seriamos juzgados y eliminados... Como el ser humano ha intentado en alguna que otra ocasión a lo largo de su existencia...

10/06/2014, 17:37

Si algún dia creamos máquinas inteligentes, se parecerán mucho más al David de la película Inteligencia Artificial que al T-800 de Termintor. Por la simple razón que un nivel elevado de inteligencia y raciocinio viene acompañado de emociones, tanto positivas como negativas. El concepto de autómata "si-señor-no-señor" de voz metálica, frio e impersonal no es un modelo con inteligencia, para nada.

Estoy simplificando, pero si algún día creamos máquinas inteligentes, tendrán miedo, odio, compasión y toda la variante de emociones que podamos imaginar. 

No nos podemos dejar engañar por la clase de máquinas que tenemos hoy en día. Por mucho que nos asombren, ninguna de ellas se aproxima lo más mínimo a lo que es una verdadera inteligencia.

Quien sabe si sería a la contra de estas películas tan catastróficas. Nosotros unos seres inferiores, estúpidos y violentos gobernando a una casta de entidades más inteligentes, pacíficas y tolerantes.

Aunque por si ocurre lo contrario, mejor colgar de lo más alto al primero que se le ocurra crear inteligencia artificial de verdad. Prefiero ser un mono ignorante y estar equivocado a que una estirpe de entidades superiores creada por nosotros mismos acabe exterminando a mi especie.

O, con suerte, metiéndonos en "reservas naturales".

[Aunque siento desvirtuar, porque el tema del hilo no va por ahí en realidad]

10/06/2014, 17:53
Editado: 10/06/2014, 17:54

a que una estirpe de entidades superiores creada por nosotros mismos acabe exterminando a mi especie.

 Igual nos lo merecemos por todas las especies que hemos considerado inferiores y posteriormente exterminado. :P Seria una hermosa ironía como epílogo de la especie humana XDDDDDD

"Para una especie que crearon por tantas que destruyeron, los consideró inferiores y los destruyó"

10/06/2014, 18:13

Dejando de lado que los ukranianos hicieron un poco de trampa, la mayoría de los expertos en AI consideran(/mos) que el Test de Turing está un poco obsoleto. Hemos aprendido mucho sobre la inteligencia y sobre computación desde los años 40. ;-)

Para los que les preocupa que las máquinas nos aniquilen / opriman, puede ser interesante leer esta descripción objetiva (no ciencia-ficcionada) de lo que puede ser un Apocalipsis Robótico. Es muy divertido (lo escribe el tipo de XKCD).

10/06/2014, 19:56

Yo me hice a mí mismo un html que me dice: Hola mundo!... y me lo creí. El 100% de mis encuestados se han creído que hablaban con una persona auténtica. Soy un crack :D

10/06/2014, 20:26

Pueden probar a Eugene acá. http://default-environment-sdqm3mrmp4.elasticbeanstalk.com/

Es un chat bot como cualquier otro. No entiendo cómo esto puede haber llegado a ser noticia, ni siquiera entiendo cómo pudo haber engañado a 10 de los 30 jueces (sí, parece que eran 30). Pruébenlo ustedes mismos y van a ver lo malo que es como bot. Y más aún si tenemos en cuenta que es una prueba de turing, o sea el que pregunta tiene que intentar averiguar si habla con una máquina o con un humano.

10/06/2014, 20:59

Cita:

[Aunque siento desvirtuar, porque el tema del hilo no va por ahí en realidad]

¿Alguien disculpándose por desvirtuar en Umbría?
Mis disculpas, creí que lo había posteado en el SinCla :p

11/06/2014, 01:58

Al igual que Guy Fawkes, creo que los robots con emociones van a estar muy lejos del Terminator y más cerca de esto:

O cualquier otro capítulo de Futurama. Vamos, que en este show si podemos ver robots con emociones humanas todo el tiempo, y todavía no intentaron destruir a toda la humanidad (bueno, de hecho si, pero fracasaron xD).

C.S.
 
11/06/2014, 11:19

En desacuerdo con GuyFawkes. Un ser puede ser inteligente y carecer de emociones. Nosotros las tenemos, sí, y probablemente las intentaríamos dar a aquello que creemos, puede ser. Pero no es una condición imprescindible para la vida. 
Una maquina puede ser consciente de si misma y aun así indiferente respecto a su propia existencia o la de otros.
Creo que fue Kant quien dijo que los conceptos objetivos como el bien y el mal, lo son en un punto que alcanza a cualquier ser racional más allá de sociedades concretas, yo considero que no necesariamente.

Una máquina creada por el hombre, consciente de si misma, puede comprender a su vez que todo motivo de su existencia es el de la servidumbre, y por tanto aceptar que tanto el como sus semejantes no tienen otra intención en vida que servir al hombre, igual que durante mil años los seres humanos aceptaron que el único motivo de sus vidas era servir a Dios.

Además ha de tenerse en cuenta que la máquina esta creada por el hombre, y por tanto condicionada por él, mientras el hombre sea el creador de la maquina y no salga del factor productivo, puede programar respuestas concretas. Dar sensación de albedrío en lo irrelevante y condicionar lo indispensable.
 

Y cuando una maquina piense fuera de la respuesta condicionada, como en esos hermosos relatos de Asimov, se le destruye. Y ya de paso, a todo lo producido junto a ella.
 

11/06/2014, 12:58

Un ser puede ser inteligente y carecer de emociones.

Correcto, pero entonces entramos en el proceloso mundo de las enfermedades mentales o, por lo menos, de la psicología... No creo que me guste el rumbo ;) Una patata es un ser vivo y, por ahora, ni es inteligente, ni tiene emociones. Tú y yo somos inteligentes (dentro de la media humana :)) y tenemos emociones. Podemos suponer que Charles Manson es inteligente pero que sus emociones no estan dentro de la normalidad vigente.

Nosotros las tenemos, sí, y probablemente las intentaríamos dar a aquello que creemos, puede ser.

Efectivamente. Se trata de parte del aprendizaje humano: reconocer las emociones, entenderlas y vivir con ellas. Son conceptos abstractos que, aunque se han estudiado mucho, todavia son fuente de problemas para el ser humano. Sin embargo, la inteligencia humana conlleva libre albedrio y libre elección (al menos, en teória) de modo que se puede escoger realizar una acción a sabiendas de que se sale de la normalidad vigente.

 Pero no es una condición imprescindible para la vida. 

Según como nosotros las interpretamos (las emociones, digo). Plantas, insectos y demás seres que pueblan el planeta estan vivos, sin tener la capacidad "sintiente" y autoconsciente de los seres humanos. Sin embargo, hemos visto documentales y reportajes (y en la vida real) que nos demuestran que pueden llegar a expresar algo que nosotros podemos interpretar (erroneamente o no) como sentimientos y no como instintos.

Una máquina creada por el hombre, consciente de si misma, puede comprender a su vez que todo motivo de su existencia es el de la servidumbre, y por tanto aceptar que tanto el como sus semejantes no tienen otra intención en vida que servir al hombre, igual que durante mil años los seres humanos aceptaron que el único motivo de sus vidas era servir a Dios.

Una maquina consciente puede llegar a rebelarse contar su situación igual que han hecho los seres humanos a lo largo de su historia. Y, como los seres humanos, optaran por la violencia como metodo rápido de cambio. Los seres humanos sirvieron a Dios (cada uno al suyo) durante mucho años... Y una de las formas fue tratar de convertir o exterminar a aquellos que no servian a su Dios (cada uno al suyo).

Además ha de tenerse en cuenta que la máquina esta creada por el hombre, y por tanto condicionada por él, mientras el hombre sea el creador de la maquina y no salga del factor productivo, puede programar respuestas concretas. Dar sensación de albedrío en lo irrelevante y condicionar lo indispensable.

Mis padres me "crearon". Mis padres me "educaron" (que es la versión bonita de condicionaron). Y yo puedo haber decepcionado a mis padres, rebelandome contra sus ideales, sueños o esperanzas. ¿Tan dificil es creer que una Inteligencia Artificial puede elegir negarse a hacer algo? ¿O elegir hacerlo en vez de negarse?

Conste que no defiendo la idea de Guy de que los robots autonomos inteligentes serian como Bender y cia. Pero tampoco me convencen los argumentos de C.S.

 

11/06/2014, 19:45

El test de Turing lo único que mide es la credulidad de los jueces, no creo que eso sea indicativo de nada aparte de lo avispados que sean los mencionados.

Por cierto, si nadie lo ha mencionado, el Proyecto Blue Brain tiene su intringulis. Si llega a buen termino habrá una IA seguro... aunque sea mediante la copia de una mente humana.

http://es.wikipedia.org/wiki/Blue_Brain

Este hilo ha sido cerrado.