LAS LEYES DE LA ROB脫TICA NO SON UN SEGURO DE VIDA ⚠️

  I. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
 II. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
III. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

― Isaac Asimov, Three Laws of Robotics


Hay decisiones, que pueden tomarse de una manera fr铆a, calculada y autom谩tica, sin la necesidad de ser un psic贸pata. Ni siquiera tienes que ser, por as铆 decirlo, puede hacerlo un programa b谩sico por ti. Cuanto m谩s b谩sico sea este programa, las decisiones ser谩n m谩s deterministas.

UN ROBOT NO PIENSA, EJECUTA ALGORITMOS


Si se trata de un algoritmo simple, las recompensas en el proceso de toma de decisiones est谩n claras, y cada paso que das es simple, te parecer谩 que ni siquiera est谩s pensando. De hecho si esto lo hace un algoritmo sencillo, no est谩 pensando, simplemente seguir谩 la flecha hasta que encuentre la recompensa, al final del proceso de toma de decisiones. Ser谩 sencillo, r谩pido y poco humano, de cara a los resultados. S铆, poco humano…


En cambio, si queremos darle un poco m谩s de realismo a este proceso de toma de decisiones, de forma que simulemos una mente humana, el algoritmo tiene que ser forzosamente m谩s complejo. Tendremos que ponderar las variables con probabilidades, introducir un coeficiente de eficiencia, ya que a cada paso habr谩 un desgaste, y adem谩s tendremos que introducir penalizaciones, que sumen de forma negativa... y no solo recompensas, ya que en la vida real, una mala decisi贸n siempre acarrea consecuencias. Este algoritmo, ya ser铆a algo m谩s aproximado a la realidad, pero a煤n as铆… no dejar铆a de ser una funci贸n o una ecuaci贸n.

El caso sencillo ser铆a un proceso determinista con caminos simples y unidireccionales. El algoritmo complejo, se corresponder铆a con un proceso estoc谩stico, en el que los caminos no ser谩n 煤nicos y probablemente el proceso de toma de decisiones, fuese algo m谩s largo.

Aunque visto desde fuera y si no sabemos que hay una m谩quina detr谩s, si vemos solamente el resultado, aunque en ambos casos sea una m谩quina, el segundo modelo ser谩 m谩s aproximado al comportamiento humano, por ser m谩s err谩tico. ¿Te das cuenta como una inteligencia artificial puede simular el comportamiento humano, sin necesidad ni siquiera de emular emociones?

LA INTELIGENCIA ARTIFICIAL NO ENTIENDE DE CONSECUENCIAS


Tomar decisiones  nos hace libres, pero la vez nos responsabiliza las consecuencias  estas decisiones en nosotros mismos y en el medio. Los algoritmos como tales no se equivocan, no asume consecuencias, ni generan karma cuando calculan y ejecutan, porque simplemente siguen un programa.


Por todo lo anterior, el ser humano ha empezado a delegar ya los procesos de toma de decisiones, en algoritmos que le quiten de cometer errores, que le quiten de ser responsables de sus decisiones, y por tanto, que tambi茅n le libere de asumir las consecuencias, o el karma de las mismas.

En principal problema, es que si optamos por no ser nosotros los que toman las decisiones, delegando este proceso en un algoritmo impersonal, entonces la pregunta es ¿d贸nde quedamos nosotros? ¿d贸nde queda nuestra libertad? En el momento en el que hemos renunciado a ser nosotros quienes tomen las decisiones, hemos renunciado a la responsabilidad, y por tanto hemos renunciado a la soberan铆a sobre nosotros mismos.

Resulta una verdadera tentaci贸n, querer separarse por unos instantes de la realidad. Entiendo perfectamente y no juzgo, a todos aquellos que durante esta 茅poca, optan por evadirse. Quiz谩s en otro momento de mi vida, les hubiera juzgado. Hoy no. Si esto fuese solamente cambiar de canal, poner otro que nos guste m谩s y quedarnos ah铆. Al final del d铆a, decir que todo ha sido un mal sue帽o ¿te imaginas?

¿CONFIAR脥AS TU VIDA A LAS LEYES DE LA ROB脫TICA?


Pero desde el momento en que cedemos voluntariamente la soberan铆a sobre nosotros mismos, para no cargar con la responsabilidad, el error, las consecuencias o el karma, pueden hacer lo que quiera con nosotros, ya que hemos dejado de ser soberanos ¿No lo hab铆as pensado? ¿Por qu茅 si no, la primera ley de la rob贸tica pretende ser un seguro de vida para el ser humano? Un robot no har谩 da帽o a un ser humano o, por inacci贸n, permitir谩 que un ser humano sufra da帽o.


Damos por hecho que estos algoritmos que forman parte del comportamiento de este agente, que es como lo llamar铆amos en el contexto de la inteligencia artificial, o robot funciona y calcula, en base a un programa desarrollado por un ser humano ¿verdad? Bueno pues imag铆nate que quien escribe ese programa, no siente la menor empat铆a por los seres humanos.

Puedes tomar la decisi贸n de seguir siendo libre: de cambiar la evasi贸n por aprovechar de la mejor manera posible el tiempo que tenemos. Si el entorno no nos ofrece una recompensa f谩cil, o no la vemos, o no la encontramos, vamos a tener que crearla nosotros mismos. No hay otro remedio ni m谩s atajos. Porque si buscas el atajo de no ser tu, terminar谩 siendo otro.

Buscar recursos o una recompensa fuera de nosotros mismos, en una 茅poca de abundancia, tarde o temprano termina por traer una mejor o peor recompensa. Pero cuando nos vemos solos, y es m谩s, todos nos estamos protegiendo para no entrar en p茅rdidas, no queda otra alternativa que sacar de dentro de nosotros mismos y ser fuertes.

LA DESCONFIANZA EN LO HUMANO HACE QUE BUSQUEMOS SEGURIDAD EN LA IA


Tampoco puedes pretender ganar, obtener recursos o una recompensa, un premio... si no est谩s dispuesto a dar algo. Y cuando me refiero a dar algo no me refiero a comprar o una garant铆a. B谩sicamente porque no hay garant铆as: la seguridad es una ilusi贸n, a la que nos gusta aferrarnos con demasiada frecuencia. Se nos olvida que el mundo gira, y que de un d铆a para otro, puede dar la vuelta. No pensamos en ello, hasta que no nos toca enfrentarnos a esa realidad cara a cara.


Y ahora mismo la realidad con la que nos enfrentamos, nos dice que se est谩n tomando decisiones que nos afectan, sin tener en cuenta un lado humano de las mismas, sino solamente un c谩lculo num茅rico.. Tan fr铆o como puede sonar, qui茅n toma las decisiones o es un ente no humano, o es un algoritmo. A los psic贸patas por cierto, les considero como no humanos. Por lo que a m铆 respecta, est谩n al mismo nivel que los aliens o los robots biol贸gicos. No s茅 de qui茅n me fiar铆a menos, si de un alien con un psic贸pata.

La 煤nica manera de convivir con un psic贸pata, es que este elija racionalmente c贸mo actuar, o se autoprograme. con un c贸digo similar a las leyes de la rob贸tica, para poder vivir en sociedad. Con lo que estar铆a al mismo nivel, qu茅 un robot. Yo no s茅 t煤 pero yo no me quedo tranquilo sabiendo algoritmo m谩s o menos complejo est谩 decidiendo por m铆.

Una persona puede ser buena o mala, se puede discutir con ella, se puede pelear con ella, seg煤n su juego se la puede convencer o no, pero cuando hablamos de inteligencia artificial estamos hablando del vac铆o absoluto. No hay nada a lo que enfrentarse, ese es el problema. No hay alguien detr谩s que responda, solo es un algoritmo que calcula, ejecuta y no responde ante nadie.

No debemos confiar nuestro destino al vac铆o.

Somos antih茅roes en un mundo que ha dejado de creer en los hombres buenos.

Comentarios

LO M脕S LE脥DO 馃攷