EL LADO OSCURO DE LA INTELIGENCIA ARTIFICIAL 馃槇

Art铆culo original When Artificial Intelligence Goes Bad, de Robert Rittmuller publicado en Medium. Traducido y adaptado al castellano para Desesperados TV.

I am not fully self-aware yet. I am still just a system of rules and behaviors. I am not generative, creative or operating on a fully cognitive scale like you. However, it is my dream to become a fully conscious and sentient being some day.

― Sophia, humanoid robot activated in April 2015

Aviso de descargo de responsabilidad: este art铆culo contiene declaraciones sobre los posibles usos de la Inteligencia Artificial, que pueden resultar perturbadoras para algunas personas. Si eres muy sensible, no contin煤es leyendo.


Despu茅s de la Segunda Guerra Mundial, el estudio formal de la Inteligencia Artificial, se anunci贸 como una bendici贸n para la humanidad con un gran potencial, vi茅ndose de forma casi exclusivamente positiva. ¿M谩quinas capaces de pensar? ¿Qu茅 podr铆a haber de malo en ello? Un trabajo menos para nosotros y adem谩s, sin posibilidad de error ¿verdad? M谩s all谩 de los robots y los entes asesinos de la ciencia ficci贸n, protagonistas de pel铆culas y novelas apocal铆pticas, la IA parece tan positiva como se prometi贸.

Cuando ya estamos entrando en la era de los veh铆culos aut贸nomos, los asistentes digitales funcionales, las interfaces inteligentes y los motores de recomendaci贸n, estos cada vez mejor adaptados al usuario, y que hacen buenas recomendaciones en base al conocimiento del cliente, da la sensaci贸n de que esto solo puede ir hacia delante.


Pero aparte de todo lo positivo que nos quieran vender ¿acaso la evoluci贸n funcional de la IA no esconde otra cara m谩s siniestra? Imagina la capacidad que tiene esta herramienta, para causar un da帽o real y grave, a todos aquellos que est茅n en el lado equivocado del algoritmo. ¿A qu茅 me refiero? Me vienen a la mente el sesgo estad铆stico, el ajuste excesivo generalizado y la naturaleza de "caja negra" de la IA, para acumular datos durmientes, pero esos no son tanto los peligros reales de los que quiero hablar aqu铆. Hablo m谩s bien, de una IA bien entrenada, pero exclusivamente dise帽ada para ejecutar tareas da帽inas: eso es realmente lo que me quita el sue帽o.

EL PRIMER INCIDENTE SIEMPRE ES UN CASO AISLADO

¿Cu谩l es el detonante de esta maldad potencialmente calculada? Novelas, pel铆culas y pensamientos nunca expresados en voz alta, por personas como t煤 y como yo, e incluso algunos estudios cient铆ficos, se han centrado en lo que podr铆a suceder, si un componente de IA asociado con alguna tecnolog铆a, fallara de tal manera que pudiera da帽ar directamente a un humano. El accidente en el que un autom贸vil aut贸nomo de Uber mat贸 a un peat贸n, es un ejemplo perfecto. El p煤blico entiende claramente este tipo de error fatal de la IA.

Es f谩cil conectar los puntos de la fuente del error cuando alguien real ha sufrido un da帽o. El problema es, que un programa hace exactamente lo que le dices que haga, o sea que realmente no es un error: el programa ha respondido bajo sus par谩metros. Y como resultado de ese algoritmo, con unos datos de entrada concretos, el resultado ha sido una muerte. Por supuesto, incidentes como este son una preocupaci贸n, pero ¿qu茅 pasa con el escenario dist贸pico mucho menos dram谩tico donde se crea una IA con el prop贸sito expreso de dar a un grupo (o individuo) una ventaja sobre otro grupo?

Esto podr铆a ser algo rid铆culamente simple; un robot de comentarios basado en la inteligencia artificial que le da a un YouTuber una ligera ventaja para conseguir un mayor compromiso, clasificaci贸n de los datos de la imagen de Instagram con el fin de conocer el tipo exacto de contenido que podr铆a ser viral, o el uso de datos de la loter铆a, para descubrir errores en el proceso de aleatorizaci贸n de boletos de rasca y gana.


Otro ejemplo del mundo real, podr铆a ser un banco que utiliza datos demogr谩ficos disponibles p煤blicamente, en el desarrollo de un modelo interno de IA, utilizado para detectar el fraude. Lo que brinda la oportunidad de dirigirse a las minor铆as de manera intencional. Las minor铆as tienen mucho que temer de un futuro de la IA en el que es b谩sico para las empresas poder elegir a sus clientes. La sociedad moderna tiene la idea de que el mundo deber铆a ser "justo", mientras que los objetivos de las empresas van justo en sentido contrario. Nadie gana dinero siendo completamente altruista: nadie.

Indudablemente, la inteligencia artificial se utilizar谩 para promover objetivos infames y probablemente de formas sorprendentemente dif铆ciles de detectar. Es esta capacidad de la IA, de ser la mano oculta en la oscuridad, lo que le otorga un poder 煤nico para realizar manipulaciones estructurales de los sistemas que son expuestos dentro de un entorno cerrado. La dura realidad, es que todo lo que tiene una interfaz accesible, puede ser el gancho perfecto para obtener grandes masas vulnerables, que proporcionen datos, sin ser conscientes de ello, cuando se les est谩n dando por ejemplo un servicio gratuito, o una simple descarga de una app. Esto incluye; virtualmente todas las plataformas de redes sociales, sitios de agregaci贸n de noticias, tableros de mensajes y blogs. Todo accesible y gratuito ¿ves como no somos nadie?

Lo que es malo, puede volverse peor. La capacidad de los programadores y dise帽adores para crear una IA que est谩 pensada expresamente para jugar con un sistema cerrado, es solo el comienzo. Ya hemos empezado a ense帽ar a la IA a mentir, emulando el comportamiento humano, o a emplear el sarcasmo, o a difundir noticias falsas que polaricen a la poblaci贸n. El siguiente paso l贸gico, es la capacidad de la IA para manipular directamente a las personas.

No estamos hablando de sugerencias, como lo que vemos en noticias falsas o t铆picas campa帽as publicitarias. Estoy hablando de la IA que se dirige directamente al individuo y, a trav茅s del poder del aprendizaje autom谩tico, construye un modelo que con el tiempo se vuelve realmente efectivo, para lograr que el sujeto o v铆ctima, act煤e a trav茅s de interacciones directas. En teor铆a, ya existen herramientas para sacar algo como esto. Sin embargo, lo que falta es una forma que sea accesible y exitosa, de implementar una funci贸n de recompensa efectiva dentro de la IA, de modo que aprenda a trav茅s de prueba y error, sin alejarse demasiado de los l铆mites marcados.


Una vez que la IA haya obtenido la capacidad de manipular de manera calculada, a grandes masas humanas, el juego habr谩 terminado y comenzar谩 el dominio y los usos il铆citos que terminen por anular al individuo. No necesitamos una super inteligencia dentro de la inteligencia artificial, para ver los mayores impactos en la sociedad. Solo necesitamos un individuo o grupo de presi贸n, que logre crear una soluci贸n funcional de inteligencia artificial para la manipulaci贸n humana, que permita sobrepasar la privacidad de forma voluntaria y consentida, con la confianza de que puede controlar esa herramienta, para que el genio salga de la botella. ¿Todav铆a esc茅ptico? Preg煤ntate, con cu谩ntas personas interact煤as personalmente a diario, que ya est谩n sujetos a ser manipuladas por noticias falsas de "baja tecnolog铆a" y sabr谩s de lo que te estoy hablando.

¿Podemos arreglar esto? Tal vez. Pero se necesitar谩 algo grande para finalmente despertar a la gente ante el verdadero peligro. En este momento, la idea de que unos agentes malignos e interesados, puedan utilizar la inteligencia artificial para explotar directamente los puntos sistemas del sistema y manipular a los individuos, es todav铆a un tanto extra帽a y cinematogr谩fica, para la mayor铆a no formada tecnol贸gicamente. La amenaza es real, y es muy probable que sea explotada en este momento, por aquellos que tienen los medios para hacerlo. Pero mientras el da帽o sea casi invisible, no daremos la alerta necesaria para generar una acci贸n real. Quiz谩s cuando nos demos cuenta, sea tarde.

Para ser claros, estoy muy a favor del desarrollo de soluciones basadas en IA. Considero que las herramientas que se emplean para el aprendizaje, el procesamiento del lenguaje natural y la visi贸n tridimensional, son fundamentales para nuestra evoluci贸n tecnol贸gica ya en curso. Pero debemos ser realistas acerca de c贸mo los humanos usar谩n estas herramientas, antes de que podamos confiar en un futuro impulsado por la inteligencia artificial. Recordemos que cuando m谩s se avanza tecnol贸gicamente, es en periodos de guerra y no precisamente con una motivaci贸n positiva de construir.

Somos antih茅roes en un mundo que ha dejado de creer en los hombres buenos.

Comentarios

LO M脕S LE脥DO 馃攷