PINOCHO Y LA PARADOJA DE MORAVEC馃

It is comparatively easy to make computers exhibit adult level performance on intelligence tests or playing checkers, and difficult or impossible to give them the skills of a one-year-old when it comes to perception and mobility.

― Hans Peter Moravec, Mind Children: The Future of Robot and Human Intelligence


Si Pinocho fuese una inteligencia artificial, ser铆a bastante coherente que quisiera ser un ni帽o de verdad. Aunque Spielberg en A.I. (2001) ya nos lo mostr贸 fabricando un ni帽o-robot, que por encima de cualquier cosa quer铆a convertirse en un ni帽o de verdad, para ganar el amor de su madre hasta lo enfermizo. David, el ni帽o-robot, estaba siendo fiel a una programaci贸n.

Actualizando un poco el contexto de la cita original de Moravec, podemos decir que es m谩s f谩cil que los algoritmos, reproduzcan un comportamiento m谩s eficaz al responder a tareas abstractas, como hacer tests de inteligencia, o jugar al ajedrez, y que resulta mucho m谩s complejo, dotarlos con habilidades motrices y la percepci贸n propias de un ni帽o de un a帽o.

LA IA馃敶 ES INGENIER脥A INVERSA


Para que el algoritmo funcione, tenemos que definirlo con todas las variables, valores y posiciones posibles, que engloben todos los casos de psicomotricidad y movimientos naturales, para reproducir una aproximaci贸n lo m谩s fiel posible, al comportamiento que podr铆a tener un animal o un ni帽o, cuando no estamos hablando de tareas abstractas.


Imagina solamente toda la informaci贸n que habr铆a que introducir, para reproducir expresiones faciales y asociarlas a estados de 谩nimo. Teniendo en cuenta adem谩s el movimiento de los labios, de las cejas o la direcci贸n de la mirada para interpretar exactamente no solo lo que quiere decir el sujeto, sino adem谩s replicar un estado de 谩nimo.

La inteligencia artificial no replica o no genera nuevos movimientos, si previamente no se han previsto en la casu铆stica total de posibilidades. No estamos hablando de c谩lculos, ni de un texto, ni de un di谩logo, sino a respuestas como movimientos mec谩nicos, posiciones, desplazamientos, expresiones y todo lo que se traduzca en adaptaci贸n al 3D.

Todo lo que se sale de los est谩ndares de una trayectoria sin obst谩culos, o un movimiento repetitivo y mec谩nico con posiciones prefijadas, para la inteligencia artificial es mucho m谩s complejo de reproducir, al no llevar impl铆cita la capacidad de interpretar una situaci贸n o un escenario, sin informaci贸n previa, o sin al menos unos valores nominales o por defecto, que definan su comportamiento en un escenario no predecible.

EL TEST DE TURING ¿CON QUI脡N O CON QU脡 ESTOY HABLANDO?


De una manera simplista, podemos decir que una entidad es artificial, si previamente la hemos dise帽ado, programado, ejecutado su c贸digo, fabricado y podemos activarla, desactivarla, modificarla, desenchufarla o eliminarla. Aunque la trampa va en la propia definici贸n, otorg谩ndole a la entidad el valor de algo “que es”, en lugar de decir “objeto”.


El Test de Turing es la evaluaci贸n que se hace a una inteligencia artificial, de forma que una persona haciendo uso de una interfaz de chat o conversaci贸n de voz, con “alguien” durante un tiempo estipulado, si tras finalizar el tiempo de la prueba, la persona no es capaz de asegurar si su interlocutor es humano o una m谩quina, el test se habr谩 superado con 茅xito.

La clave est谩 en los detalles: las imperfecciones, la ausencia de trayectorias o secuencias repetitivas, que destapen una programaci贸n o un posible bucle. Mientras haya una interfaz 2D, podremos ser enga帽ados, pero a menos que la tecnolog铆a sea brillante y realista, cosas como el tacto, temperatura, el llanto o la arbitrariedad, seguir谩n siendo dif铆ciles de emular.

Es precisamente el libre albedr铆o lo que no se puede emular; en especial en las acciones m谩s peque帽as e intrascendentes, en la manera personalizada de resolver en lo peque帽o, que tenemos cada uno de nosotros, para abordar los detalles insignificantes, que no tienen porqu茅 conducir a la ejecuci贸n de una tarea, sino que simplemente son parte de nosotros.

LA PARADOJA DE MORAVEC


La tan temida singularidad de la IA, es el reflejo de querer atribuirle una consciencia a una entidad vac铆a en un proceso de transhumanizaci贸n, cuyo objetivo pretende contender, en un dispositivo u organismo artificial, lo que entendemos por autoconciencia, alma o esencia viva de lo que nos diferencia y convierte en humanos, manifestados en esta realidad 3D.


Nuestra ventaja, seg煤n la paradoja de Moravec, es que en lo peque帽o y en los detalles caracter铆sticos humanos, basados en la imperfecci贸n y en la manifestaci贸n real del evento, cuesta mucho m谩s intentar replicarnos o imitarnos, debido a la cantidad de informaci贸n que se necesita, para personalizar este tipo de tareas y acciones que realizamos sin pensar.

Una inteligencia artificial, no puede improvisar sin unos est谩ndares m铆nimos, que consisten en una o varias posiciones alternativas ya programadas, aunque se trate de secuencias aleatorias y unos valores por defecto. Es por ello que pretenden condicionarnos cada vez m谩s, a la comodidad de la dom贸tica, al uso de asistentes y a la llamada tecnolog铆a smart.

De esta forma, consiguen poco a poco que nuestras facultades, gestos, tareas y acciones en lo peque帽o e insignificante, resulten mermadas en favor de la comodidad, eliminando cualquier necesidad de esfuerzo individual. As铆 de cara al futuro nos ir铆amos transformando poco a poco, en seres menos humanos en el detalle, perezosos, dependientes e incapaces.

LA IA馃敶 NOS INCAPACITA DESDE LA COMODIDAD


La mejor prueba de que la inteligencia artificial est谩 tomando el control sobre nuestra actividad cotidiana, es que se est谩n reduciendo al m铆nimo, todas las tareas que implican espontaneidad, movimiento, desplazamiento o trabajo manual en detalle, porque somos nosotros, los que nos estamos adaptando a las carencias de la IA, y no al rev茅s.


¿Qu茅 nos ofrece a cambio? Una comodidad que nos incapacita: el camino f谩cil y r谩pido es el que nos hace llegar en el corto plazo a una recompensa m铆nima pero inmediata, reduciendo nuestras opciones y el grado de libertad de nuestra toma de decisiones. Cada vez tomamos menos decisiones en primera persona, o realizamos tareas no planificadas.

Un mecanismo que nos vuelve dependientes, a la hora de abordar tareas complejas, de forma que evaluemos siempre antes de actuar, si la resoluci贸n del problema (por ejemplo), nos cuesta m谩s de tres pasos, para que desestimemos abordar la tarea, y que 茅sta la resuelva un tercero: una inteligencia artificial a trav茅s de una empresa de servicios.

Siendo este servicio, prestado por una corporaci贸n o su filial, con capacidad suficiente para reducir precios, de forma que no se pudiera competir y que por cualquier comparativa, te resultara siempre m谩s barato, que acudir a otro tercero o en realizar esa tarea por ti mismo, reuniendo los materiales y elementos necesarios para resolver: V茅ase Amazon ¿te suena?

Somos antih茅roes en un mundo que ha dejado de creer en los hombres buenos.

Comentarios

  1. Los chatbots inventados por Eugenia Kuyda y James Vlahos son intentos de salvar a los vivos del fin de todos los mundos posibles, aferr谩ndose al v铆nculo que la muerte ha disuelto. Intentan triunfar donde la fotograf铆a y los sue帽os fracasan.

    https://libertaliadehatali.wordpress.com/2021/01/17/chateando-con-los-muertos/

    ResponderEliminar
    Respuestas
    1. Digitalmente podemos crear una interfaz interactiva con contenido, aunque este contenido responda a unos algoritmos y a unos valores basados en el conocimiento de la persona, no es esa misma consciencia. La energ铆a de las personas que est茅n haciendo uso de esa tecnolog铆a, lo 煤nico que puede hacer es atraer entidades parasitarias que utilicen ese chat c贸mo mascara. Para m铆 es una ouija digital.

      Eliminar

Publicar un comentario

El mundo no va a cambiar por lo que vayas a decir ahora, cr茅eme... pero si crees que merece la pena y debes decirlo ¡adelante! Es tu decisi贸n.

LO M脕S LE脥DO 馃攷