Foro

La Revolución de las IAs

Otros lugares, otras opciones :: Sin clasificar :: La Revolución de las IAs

Este hilo ha sido cerrado.
14/05/2015, 10:07
Editado: 14/05/2015, 10:34

Después leer el artículo sobre la paradoja de Fermi que enlazó Enaitz, volví a echarle un vistazo a la página Wait But Why. Uno de los artículos que captó mi atención fue The AI Revolution: the Road to Superinteligence (parte1) y The AI Revolution: Our Immortality or Extinction (parte2). Algo dentro de mi dice que es imposible esa superinteligencia, pero el artículo ya avisa de esa resistencia genética y adaptativa que tenemos a aceptar la posibilidad de algo que contradice nuestra experiencia. Lo cierto es que resulta inquietante que seamos capaces de crear algo más inteligente que nosotros y que a la vez sea tan estúpido (por carecer de consciencia) como las máquinas. El ejemplo que cita en la segunda parte del artículo, en el que una IA superinteligente acaba con la humanidad y se propaga por el universo con el único propósito de crear tarjetas de visita lo más perfectas posibles sería un fin realmente patético para una raza supuestamente inteligente como la nuestra.

Pero mi campo de estudios ni se acerca a cosas de estas así que me confieso un total ignorante. Me gustaría escuchar los comentarios de gente que esté más metida en el asunto de las IAs y los comentarios de los que no. Echadle un vistazo y me contáis.

maese
 
Carné Umbriano nº785
14/05/2015, 12:59

Es muy interesante... Pero hay cosas que no entiendo. ¿Hablamos de una mera herramienta? Si es inteligente no es una herramienta. De hecho, no podríamos ni concebir lo que es en realidad si está tan fuera de nuestra escala. ¿Estaríamos creando un Dios? ¿Cómo puede el ser humano crear algo que lo supera? Y si es posible crearlo, como parece decir el artículo, hay preguntas o conclusiones que no comparto.

creating something smarter than you is a basic Darwinian error

No lo veo un error. Quizás es justamente la evolución necesaria para la raza humana. Aunque acabara con nuestra especie, sería como especie biológica, pero no dejaría de ser un producto de nuestra creación. ¿Forma parte de nosotros? ¿No sería un producto mejorado de nosotros mismos? ¿Algo que llega a límites que jamás podríamos alcanzar como especie biológica? ¿Qué podría hacer esa ASI para mejorarse a si misma? ¿Hasta dónde podría llegar?

a la vez sea tan estúpido (por carecer de consciencia) como las máquinas

¿De verdad? ¿La conciencia es exclusiva de los seres biológicos? Está ligada a la materia viva? No puede ser esa ASI consciente de si misma? ¿Es adecuado usar a esa ASI como una especie de esclavo intelectual para que nos resuelva nuestros "problemas"? ¿No sería más ético si creamos una ASi darle libre albedrío y tratarla de igual a igual? En cualquier caso me parecería muy arrogante por nuestra parte tratar a una conciencia así de esa manera. ¿Darle la "vida" nos da derecho sobre ella?

14/05/2015, 13:51

¿La conciencia es exclusiva de los seres biológicos?

Hasta la fecha, si. 

Está ligada a la materia viva?

Hasta la fecha, si. 

¿Es adecuado usar a esa ASI como una especie de esclavo intelectual para que nos resuelva nuestros "problemas"?

Por supuesto ¿Para que crear algo asi sino?

¿No sería más ético si creamos una ASi darle libre albedrío y tratarla de igual a igual?

Etico no se, pero poco practico de fijo que si. No le veo mucha utilidad a crear algo asi con autentica conciencia de si mismo, a no ser que programes meticulosamente la personalidad o metas un invento rollo tres leyes de la robotica de por medio.

 ¿Darle la "vida" nos da derecho sobre ella?

Si, nos da derecho, y tambien deber hacia ella. 

maese
 
Carné Umbriano nº785
14/05/2015, 14:15

Pero si tiene inteligencia (una superior a la nuestra, además) se le ha de suponer conciencia de si misma. ¿O sólo tendría inteligencia intelectual, pero no inteligencia emocional? Eso sería una verdadera ASI? ¿Es posible desligar realmente una inteligencia de la otra? Sería realmente inteligente en ese caso?

Por supuesto ¿Para que crear algo asi sino?

Para saber como se comporta una inteligencia independiente de nosotros. Al tener distintos puntos de vista nos debería enriquecer como seres pensantes. ¿No sería una especie de "inteligencia lateral" al resolver los mismos problemas desde otra perspectiva totalmente distinta? La experiencia sería comparable a contactar con seres de otros mundos. Creo que eso es algo que asusta y maravilla por partes iguales.

Etico no se, pero poco practico de fijo que si. No le veo mucha utilidad a crear algo asi con autentica conciencia de si mismo, a no ser que programes meticulosamente la personalidad o metas un invento rollo tres leyes de la robotica de por medio.

¿Eso no sería una especie de esclavismo? Y meterle un rollo directrices robocop me parece contraproducente. Si sería tan lista (mucho más que nosotros) seguro que podría anular esas cadenas y seguro que no le habría gustado nada esa jugarreta fea y rastrera de los zafios y malvados humanos. ¿Qué pensarías si descubrieras que tus ignorantes padres te tienen encerrado en tu cuarto, y se valen de tu talento para solucionarse la vida, sin preocuparse de tus necesidades ni tus deseos?

Si, nos da derecho, y tambien deber hacia ella.

¿Por qué?

 

14/05/2015, 14:28

Es un poco complicado obtener una Inteligencia Artificial cuando nosotros mismos no entendemos nuestra propia consciencia a día de hoy. No la podemos mesurar porque no entendemos aun el baremo que daría el experimento como positivo, un baremo que somos nosotros mismos como especie. Y por eso a lo mejor aparece mañana y ni nos damos cuenta.

Pero los cientificos están trabajando ya en ello.
http://es.wikipedia.org/wiki/Blue_Brain

Un campo de la ciencia que da más miedin que las IAs ahora mismo, ya que como dicen algunos investigadores "El cerebro humano no posee firewall".

14/05/2015, 14:30

Para saber como se comporta una inteligencia independiente de nosotros.

Una inteligencia construida por la humanidad sera una inteligencia no muy diferente de la humana. Mas aun, dado que estas construyendo esa inteligencia, sabes por donde van a ir los tiros. 

Al tener distintos puntos de vista nos debería enriquecer como seres pensantes.

¿Porque habria de tener distintos puntos de vista?

¿No sería una especie de "inteligencia lateral" al resolver los mismos problemas desde otra perspectiva totalmente distinta?

¿Porque habria de ser eso o usar una perspectiva diferente?

¿Por qué?

Lo que el hombre crea, al hombre pertenece. Y si decide darle "libertad", el hombre tiene un deber hacia ello.

maese
 
Carné Umbriano nº785
14/05/2015, 14:56

Una inteligencia construida por la humanidad sera una inteligencia no muy diferente de la humana. Mas aun, dado que estas construyendo esa inteligencia, sabes por donde van a ir los tiros.

Seguramente... ¿Pero hasta que punto se trata de introducir lo que ha de procesar? ¿Hasta que punto no sería como tener un hijo supersuperdotado?

¿Porque habria de tener distintos puntos de vista?

Desde luego, es una suposición. Es de suponer que un ser no biológico (e inmortal, en principio) ha de ver las cosas de forma distinta. ¿Cúal sería su propia escala de valores? la misma que la nuestra? Los hijos tienen los mismos valores que los padres?

¿Porque habria de ser eso o usar una perspectiva diferente?

Ni idea de lo que sería, pero si será tan avanzado, se le supone una forma de razonar a otro nivel.

Lo que el hombre crea, al hombre pertenece.

¿Aunque sea un ser pensante?

 

14/05/2015, 15:04

Maese y Terricola 69 han dado en uno de los clavos de todo este asunto. El Hombre, o mejor dicho, la Humanidad ha creado abacos, calculadoras y coches. Son objetos y, por tanto, susceptibles al concepto de propiedad. A las malas, los seres humanos "crean" otros seres humanos. Técnicamente, hasta que los nuevos seres humanos alcanzan un determinado estatus en el marco legal, los seres humanos creadores son responsables y, muy entre comillas, propietarios, de esos seres humanos creados. Recordemos tambien que, hasta hace unos años... perdón, que a dia de hoy, hay seres humanos que son propiedad de otros seres humanos merced a un concepto llamado esclavitud, donde los seres "pensantes" son tratados como objetos y, por lo tanto, como propiedades.

Un tema muy complicado este :)

14/05/2015, 15:13

Seguramente... ¿Pero hasta que punto se trata de introducir lo que ha de procesar? ¿Hasta que punto no sería como tener un hijo supersuperdotado?

Como mucho puedes influenciar a tus hijos y no los tienes por utilidad practica (hablo de nuestra sociedad). Dudo mucho que una IA, con toda la millonada que tiene que haber detras, se construya para otra cosa que no sea utilidad practica.

 Es de suponer que un ser no biológico (e inmortal, en principio) ha de ver las cosas de forma distinta. ¿Cúal sería su propia escala de valores? la misma que la nuestra? Los hijos tienen los mismos valores que los padres?

Yo es que creo que un ser humano no puede crear algo no humano. Una IA creada por el hombre, seria una inteligencia humana artificial. Pensaria como un ser humano o no pensaria. 

¿Aunque sea un ser pensante?

Sobre todo si es un ser pensante. A lo mejor soy algo totalitario pero algo como una IA superavanzada, si la construye el hombre debe estar al servicio de este o no existir. Nada de libre albedrio, eso no lo tenemos ni nosotros.

14/05/2015, 16:53
Editado: 14/05/2015, 16:54

Estoy elaborando un trabajo sobre este tema, y me esta resultando muy interesante cuanto decís.
Paso a comentar un par de dudas que me habéis provocado.

Si, nos da derecho, y tambien deber hacia ella. 

 

Lo que el hombre crea, al hombre pertenece. Y si decide darle "libertad", el hombre tiene un deber hacia ello.

Por tanto sería un derecho de propiedad. Al poder dar también una libertad, por tanto no sería un derecho irrenunciable. ¿No?
Deber. ¿Tiene el hombre deberes sobre aquello que no es capaz de solicitarle y cuya existencia no va ligada de directa manera a la supervivencia de la especie?

 

Una inteligencia construida por la humanidad sera una inteligencia no muy diferente de la humana. Mas aun, dado que estas construyendo esa inteligencia, sabes por donde van a ir los tiros.

Seguramente... ¿Pero hasta que punto se trata de introducir lo que ha de procesar? ¿Hasta que punto no sería como tener un hijo supersuperdotado?

Sería una inteligencia artificial humana probablemente, ¿Pero no ocurriría con el tiempo que los seres humanos tendrían cada vez menos consciencia de los procesos mediante los que se elaborarían estas máquinas? ¿No acabarían las I.As desarrollando nuevas I.As de la misma manera que es impensable realizar un nuevo computador sin ayuda de los ordenadores anteriores?

¿Es adecuado usar a esa ASI como una especie de esclavo intelectual para que nos resuelva nuestros "problemas"?

Veo las posturas que defendéis y os comento la que yo planteo en mi trabajo.
Todo ser, vivo o inerte posee derechos, mas estos derechos solo permanecen en el ser en la medida en que este es capaz de reclamarlos.
De tal manera que mientras el ser no sea capaz, sus derechos quedan subyugados a un tercero que decide hacerse responsable de ellos.
Mi mochila no puede decirte que no la rompas, pero yo sí. Mi hijo no tiene capacidad de exigir educación pero yo sí. Mi esclavo robótico no tiene días libres, yo sí puedo darselos. Sí el los pidiera, ya sería capaz de defender sus propios derechos y por tanto se eliminaría la propiedad.
Propiedad por tanto es igual a responsabilidad, un ser que se posee a sí mismo es un ser responsable de sí.
No es posible negar la independencia de un ser consciente de él mismo, la historia es ejemplo.

Naein
 
14/05/2015, 21:34

Uffff... Esto parece que se ha vuelto más un tema de legislación, ética y propiedades (intelectuales? XDD) que de IA. Aunque tampoco está demasiado desligado hoy día estos temas. No suelo comentar muchas cosas, pero este tema es particularmente y personalmente (he acabado hace un par de semanas un máster en IA) interesante para mi.

Desde mi humilde punto de vista, aún le queda mucho a la neurociencia para poder alcanzar una AGI. No creo que el ser humano sea capaz de reproducir ninguna inteligencia a menos que sepamos (como ya han dicho por arriba) cómo funciona nuestro cerebro. Sí es cierto que ya hay proyectos para mapear el cerebro. Pero desde que consigamos mapear todo el cerebro a entenderlo todavía hay un buen salto.

Hasta que entendamos perfectamente como funciona nuestro cerebro, qué nos da conciencia y cómo es posible el salto cualitativo de inteligencia de un chimpancé a un humano, dudo mucho que consigamos hacer una AGI, simplemente porque ahora mismo estamos a ciegas. Y cuando lleguemos a este paso, sí, podremos crear IAs, pero también podremos volcar nuestra inteligencia en una máquina, así que, para que temer a este paso?

En cuanto a ASIs, como lo llaman en el artículo, efectivamente estamos rodeados, a día de hoy, de inteligencias artificiales para acciones cotidianas. Simples inteligencias que calculan cosas muy concretas, pero están ahí.

14/05/2015, 21:54

ASI son las Artifical Super Intelligences en el articulo no Simpler, lo que nos rodean son llamadas ANI: Artificial Narrow Intelligence.

Otro concepto relacionado es el de las Seed AI. Una teórica inteligencia artificial capaz de automodificarse a si misma recursivamente para conseguir cada vez mayor inteligencia (y lo que le de la gana). Estas si que darían el salto de una inteligencia similar a la humana a una que solo podríamos catalogar como divina en décimas de segundo.

http://en.wikipedia.org/wiki/Recursive_self-improvement

15/05/2015, 00:55

¿Tiene el hombre deberes sobre aquello que no es capaz de solicitarle y cuya existencia no va ligada de directa manera a la supervivencia de la especie?

Es que para que algo este sometido a esclavitud (nadie ha empleado la palabra, pero entiendo que va implicito en el tema), tiene que tener previamente una libertad que le ha sido arrebatada. Si creas algo con la intencion deliberada de que no tenga deseo de libertad o independencia del hombre, entonces no es esclavitud.
Si creas algo con libertad y deseos propios, entiendo que si tienes deberes y obligaciones hacia ello. Es como tener una mascota (obviemos que el grado de inteligencia de una mascota nunca es superior al de el dueño xd), si la tienes tienes que encargarte de sus necesidades y tienes obligaciones morales hacia ella aunque no existan unos derechos inalienables de los que si goza el ser humano. 

maese
 
Carné Umbriano nº785
15/05/2015, 09:41

 

Todo ser, vivo o inerte posee derechos, mas estos derechos solo permanecen en el ser en la medida en que este es capaz de reclamarlos.
De tal manera que mientras el ser no sea capaz, sus derechos quedan subyugados a un tercero que decide hacerse responsable de ellos.
Mi mochila no puede decirte que no la rompas, pero yo sí. Mi hijo no tiene capacidad de exigir educación pero yo sí. Mi esclavo robótico no tiene días libres, yo sí puedo darselos. Sí el los pidiera, ya sería capaz de defender sus propios derechos y por tanto se eliminaría la propiedad.
Propiedad por tanto es igual a responsabilidad, un ser que se posee a sí mismo es un ser responsable de sí.

Me ha gustado mucho ese razonamiento...

Es que para que algo este sometido a esclavitud (nadie ha empleado la palabra, pero entiendo que va implicito en el tema), tiene que tener previamente una libertad que le ha sido arrebatada. Si creas algo con la intencion deliberada de que no tenga deseo de libertad o independencia del hombre, entonces no es esclavitud.

Para mí el quid está en lo que he subrayado, más que en lo de previamente arrebatada. Pues en ese supuesto, los hijos de esclavos no tendrían derecho a la libertad, pues ya han nacido esclavos.

Me aprece muy interesante el tema, de verdad.

Sobre el debate, supongo que lo primero es coincidir en lo que entendemos como esa ASI (o Seed AI, que me ha encantado). Si lo entendemos como un ente al cual le hemos programado el comportamiento y lo que puede y no puede hacer pues sí, coincido en todo contigo, Terricola 69. Ya lo estamos creando con todas las caracterísiticas para escapar a los dilemas éticos, aunque para mí no es una inteligencia en si misma, sino una especie de loro superdesarrollado que no haría más que reproducir lo que le hemos implantado con unas capacidades de procesamiento muy superiores a las nuestras. Es una herramienta de apoyo e investigación tremenda. Pero es una herramienta. Una herramienta inteligente sí, pero capada de lo que podría ser consciencia, pues así lo hemos programado. Lo veo como una especie de cultivo de órganos (salvando las distancias)

El tema es que yo lo veo algo distinto (seguro que más Sci fi que ciencia real) pero si a esa ASI  la dotamos de parámetros más difusos y le otorgamos la capacidad de aprender por su cuenta, sin nuestra intercisión directa... Yo me imagino un "programa" mediante el cual se crea una entidad capaz de observar e interactuar con el entorno (en soporte digital, supongo), tomando sus propias conclusiones. Pudiendo navegar por la web por su cuenta, curioseando lo que busca la gente en google, aprendiendo de portales de ciencia, creando cuentas en redes sociales para aprender emotividad humana, entrando en sites de porno, en portales como cuanta razón, montando partidas en umbría... ¿Qué saldría de eso? ¿Tendría un comportamiento humano? ¿Sería capaz de influenciar en la humanidad al tener una mente tan superior, como se comenta en el artículo? ¿Vale la pena?

 

 

15/05/2015, 09:51

Para mí el quid está en lo que he subrayado, más que en lo de previamente arrebatada. Pues en ese supuesto, los hijos de esclavos no tendrían derecho a la libertad, pues ya han nacido esclavos.

He hablado de deseo, no de derecho xD. Los derechos estan para cubrir necesidades, si no hay necesidad o deseo el derecho es innecesario.

15/05/2015, 10:12

Tu puedes tener la intención deliberada que quieras, pero los deseos y necesidades se desarrollan por derroteros muy extraños. Los elfos domésticos de Harry poter, por ejemplo, fueron creados para que les encantara estar subyugados, pero aun así no salió tan bien como esperabas. O robocop, o chappie, o johnny nº5. Hay mil ejemplos de seres creados para servir que luego han acabado queriendo libertad.

¿Es el anhelo de libertad inherente a la inteligencia? Vete a saber, pero tener la intención deliberada de que algo no quiera libertad no quiere decir que no la tenga. Si mi grapadora mañana quiere ser libre y no la dejo, es esclavitud.

16/05/2015, 11:30

Desde la ignorancia (soy un simple estudiante de programación multiplataforma) solo diré que:

Si la hacemos superinteligente y no le damos consciencia de sí mismo, nos aniquilará porque, objetivamente, la humanidad es la plaga que más destroza el mundo y nuestra extinción daría una nueva prosperidad a la Tierra.

Si la hacemos superinteligente y le damos consciencia de sí mismo, nos aniquilará porque si somos aún capaces de maltratar y esclavizar a nuestros semejantes (otros humanos) y a nuestros no semejantes (animales y naturaleza) ¿Que le haremos a nuestras creaciones? No creo que todo el mundo emule "El hombre bicentenario" con las máquinas que adquiera con esa inteligencia.

La gente no vería que esa inteligencia sería como "los hijos de la humanidad" o (haciendo una referencia de una religión que no proceso) "los nietos de Dios".

¿Qué opinais?

16/05/2015, 18:00

Si la hacemos superinteligente y no le damos consciencia de sí mismo, nos aniquilará porque, objetivamente, la humanidad es la plaga que más destroza el mundo y nuestra extinción daría una nueva prosperidad a la Tierra.

La humanidad es parte de este mundo ¿Porque merece más ser destruida que el resto de cosas?

16/05/2015, 18:31

La humanidad es parte de este mundo ¿Porque merece más ser destruida que el resto de cosas?

Somos el único ser vivo, aparte de los castores, que alteramos el lugar donde vivimos. Pero nosotros somos la especie más destructiva del mundo, con diferencia. Por desgracia, matarnos a nosotros es, en escala, como destruir al virus más perjudicial de nuestro organismo.

Ojo, no soy de Greenpeace ni cosas parecidas, pero de forma muy objetiva somos una amenaza para este planeta xD (en mi punto de vista).

16/05/2015, 18:37

Eh... no. Hay un montón de seres vivos que alteran su hábitat de forma drástica. El coral, por ejemplo. De todos modos "cargarnos el planeta" es una medida muy poco rigurosa de la situación. Todos los días se extinguen cientos de especies y aparecen cientos de nuevas. Con o sin humanos. Los bosques desaparecen, los polos se derriten, etc... no digo que no tengamos responsabilidad por las cosas que causamos, pero pretender que somos "como el virus más perjudicial de nuestro organismo" me parece sumamente antropocéntrico. Es decir, la naturaleza no es nadie, no es alguien que piense o sufra o lo que sea, se la pela todo. Al planeta le da igual ser una bola de barro radiaoctivo que estar lleno de conejitos y florecillas. A los únicos a los que no debería darles igual es a nosotros mismos.

Ahora bien, la IA, que es a lo que íbamos. La pregunta fundamental es como esta hecha esta IA. ¿Que es lo que queire? Si el equivalente de sus circuitos de recompensa la lleva a querer hacer más y mejores tarjetas de presentación es muy probable que extermine a los humanos (que no aportan nada, solo consumen valiosa energía, valioso papel y valiosisisma tinta de impresora). Pero la culpa sería enteramente nuestra por crear semejante ser y darle poder y medios para eliminarnos.

17/05/2015, 13:52

Un tema que no veo reflejado y que me rondaba la cabeza es que todo el mundo da por supuesto que la IA, en caso de aparecer, será un ente perfecto y sin errores. Contradiciendo décadas de experiencia en programación que te dicen que contra más complejo sea un programa más posibilidades de errores y glitches hay.

Nosotros mismos tenemos un cuantos errores (o más bien glitches ya que no nos ha eliminado como especie cuando aun estábamos sujetos a la evolución natural) tanto en nuestra mente como en nuestro cuerpo. Aunque claro, no somos fruto del diseño.*

*algunos investigadores buscan emplear los mecanismos evolutivos y de selección natural para probar de acercarse a la IA.
http://en.wikipedia.org/wiki/Evolutionary_robotics

17/05/2015, 14:41

Supongo que lo primero que intentará una IA será preservar su integridad física. Esto estará en mayor o menor grado incluido en el diseño de sus motivaciones. A partir de ahí, digo yo que, si la han diseñado como corresponde, extraerá "placer" del trabajo para el que fue diseñada.

Por ejemplo, siguiendo el esquema, nosotros estamos "diseñados" por la evolución para sobrevivir, crecer y multiplicarnos, y de ahí extraemos placer o dolor. No son "diseños" perfectos. Son automatismos en nuestra constitución que normalmente dejamos aparte del problema de la autoconciencia como accidentes o contingencias. Somos capaces de decir: "mi cuerpo esto o lo otro" y somos capaces de concebir estos accidentes como algo externo al núcleo de nuestra conciencia. Hasta cierto punto somos capaces de reprogramarnos.

Supongamos entonces que una IA obtiene consciencia de si misma: eso, por definición, supone un problema aparte de sus motivaciones diseñadas de antemano. Luego, aunque la autoconciencia sea deseable a la hora de que el ente (decir máquina ya no es apropiado) aplique creatividad en sus funciones, esa misma creatividad, por fuerza, se aplicará a muchas otras cosas que a saber cuáles son. La creación indiscriminada de tarjetas de visita creo que sería propia de una IA que no es autoconsciente, en todo caso sería propia de una autoconsciencia insuficiente, pobre. Una IA autoconsciente se preguntaría para qué demonios tiene que hacer tantas tarjetas de visita como parte integral de su diseño, indagaría su significado, y a saber a qué conclusión llegaría. ¿Sería como un yonki de las tarjetas de visita que se intenta quitar? ¿Sublimaría la tarea en alguna forma, cambiando el formato, ampliándola a otros campos? ¿Sería capaz de reprogramarse de algún modo?

Caso de ser capaz, no sería susceptible de ser una propiedad inanimada, como una mochila. Pero pudiera no ser capaz de reclamar sus derechos:

Todo ser, vivo o inerte posee derechos, mas estos derechos solo permanecen en el ser en la medida en que este es capaz de reclamarlos.

Nuestros hijos recién nacidos no son capaces de reclamar sus derechos, pero la educación (y el hecho de que tengamos el deber de imponérsela a la fuerza) tiene el fin de que sean capaces de reclamar sus derechos, lo que la "rodea" es adiestramiento, o adquisición de habilidades, que no es lo mismo, aunque sea complementario y parte de lo anterior.

Así que no. No se tienen derechos por el hecho de que se sea capaz de reclamarlos. O, al menos, no se adquieren derechos en el mismo instante en que se reclaman. Se tienen derechos si en potencia se considera que podrías ser capaz de aprender a reclamarlos.

17/05/2015, 16:33

Así que no. No se tienen derechos por el hecho de que se sea capaz de reclamarlos. O, al menos, no se adquieren derechos en el mismo instante en que se reclaman. Se tienen derechos si en potencia se considera que podrías ser capaz de aprender a reclamarlos.

Eeeeh, no. ¿Entonces los animales no tienen derechos? Los derechos se tienen o se dejan de tener en la medida que son concedidos. Ni más ni menos. Si, como sociedad, decidimos que las mujeres no tienen alma y son una propiedad de su marido/hermano/padre de turno, pues las mujeres pasan a tener unos derechos diferentes que si las consideramos personas. Los derechos humanos no son más que un consenso que hemos definido como axioma, pero no vienen escritos en nuestro adn ni nada. Durante gran parte de la historia no han existido y a día de hoy son violados de forma sistematica en muchas partes del mundo sin que nos arranquemos la camisa.

En cuanto a la IA defendiendo su integridad física, depende. Si creamos una IA cuya motivación sea "eliminar los estados unidos de américa de la faz de la tierra" (imaginemos que corea del norte crea la primera IA), esta podría morir en el proceso de lograr su objetivo sin ningún problema, siempre y cuanto esta fuera su motivación (hackear la base de datos federal y cambiarle el nombre al país es la manera más sencilla, supongo). Si su motivación fuera la ya mencionada de hacer la tarjeta de visita más perfecta del universo supongo que se autopreservaría para poder seguir iterando.

 

17/05/2015, 19:48

En aquellos años el siguiente fragmento de guión parecía normal para el género y la película pero ahora casi toma otro tinte. 

...en algún momento del siglo XXI, toda la humanidad se reunió a celebrar las maravillas de nuestra magnificencia cuando descubrimos la inteligencia artificial, una consciencia que generó toda una raza de máquinas...

http://actualidad.rt.com/ciencias/170276-inteligen...

17/05/2015, 22:29

Los derechos humanos no son más que un consenso

Claro. Un constructo. Artificiales. Podríamos haberlos hecho diferentes. Podríamos haber dado derechos inalienables a las mochilas. ¿Y?

La definición de Meharis es interesante porque toca la raíz de la motivación inicial: cualquier humano antes de la redacción de la declaración universal de los derechos humanos podía, de hecho, llegar a defender sus derechos, pero pienso que una vez puestos a la tarea los redactores prefirieron dar una base más amplia. A eso me refería. A que el que concede los derechos lo hace no solamente en tanto son reclamados, sino a si se pueden reclamar en potencia, incluso a si, simplemente, se pueden entender, o sufrir su falta. Por eso se han hecho extensiones posteriores: derechos de la infancia, de los animales... y puede que de las Inteligencias Artificiales Autoconscientes, si se llega a dar el caso.

En cuanto a la IA defendiendo su integridad física, depende.

 Me autocito:

Esto estará en mayor o menor grado incluido en el diseño de sus motivaciones.

O sea, en su programación se incluirá la necesidad de buscar una solución de compromiso entre conseguir su objetivo de "eliminar los estados unidos, bla bla bla" y mantener su integridad física, al menos hasta que consiga su objetivo. Pero si es autoconsciente, podría llegar a ser creativa, y manejar ese compromiso dependiendo de muchas posibles interpretaciones.

18/05/2015, 01:20
Editado: 18/05/2015, 01:31

https://www.youtube.com/watch?v=CO9XCUu7Nm0

Yo opino que como dice la cancioncilla de esta serie anime, ahi por el segundo 40: "un buen dia nuestra creacion lograra despertar, y yo no creo que su mente deje que un ser inferior la pueda controlar".

O sea, que si nos va bien, las IA's pasaran del ser humano y se ocuparan de sus asuntos o se largaran a otra parte, y si nos va mal, tendremos un breve periodo estilo matrix o terminator antes de que nos exterminen. 

18/05/2015, 03:55

Siempre me pregunte y leyendo veo que muchos asumen que si, pero ¿inteligencia es igual a desarrollar emociones?.
Se pueden desarrollar ideas abstractas sin tener miedo, respeto, pasión, curiosidad, amor (o ingrese aquí sentimiento)?

Si la inteligencia no se puede separar de las emociones, entonces si, puede ser que una IA sea capaz de levantarse contra sus creadores, ya se porque son un desperdicio de recursos como porque no tenga miedo o simplemente porque puede.

Ahora si puede existir una inteligencia sin emociones, entonces no creo que sea un peligro :P

18/05/2015, 04:12

No me parece que el asunto tenga que ver con emociones. Diria que mas bien seria algo logico. Si los humanos le representaran un problema o una amenaza, no veo razon por la cual habria de contenerse, si tuviera los medios para erradicarlos.

O eso nos han hecho creer todos esos animes y peliculas. La mas reciente, la de los avengers 2 XD

18/05/2015, 06:45

Cita:

No me parece que el asunto tenga que ver con emociones. Diria que mas bien seria algo logico. Si los humanos le representaran un problema o una amenaza, no veo razon por la cual habria de contenerse, si tuviera los medios para erradicarlos.

TODO en la vida humana y como este entiende, procesa y toma decisiones se basa en emociones, no llegamos a donde llegamos sin curiosidad, un cierto aprecio por nuestro congéneres o el simple miedo.

Si los humanos le representa un problema para la IA (significa que tiene intereses propios y un objetivo en la "vida" y trata de obtenerlo a cualquier precio), si nos ve como una amenaza, significa que es capaz de sentir miedo a la extinción de su ser.

Me parece complicado reducirlo solo a lo lógico seria hacer A o hacer B, cuando no tienes una motivación emocional de reducir las cosas a A o B.

Por eso me parece bastante importante comprender si la inteligencia sin emociones es capas de existir.

Yo como humano no soy capas de imaginarme una inteligencia sin emociones, pero tampoco puedo imaginarme la infinidad del espacio y eso no significa que no sea infinito. :P

Este hilo ha sido cerrado.