LOS ALGORITMOS NOS DICEN C脫MO PENSAR Y ESTO NOS EST脕 CAMBIANDO 馃攲
Art铆culo original Algorithms Tell Us How to Think, and This is Changing Us de Orge Castellano publicada en Medium. Traducido al castellano para Desesperados TV.
Back, you know, a few generations ago, people didn't have a way to share information and express their opinions efficiently to a lot of people. But now they do. Right now, with social networks and other tools on the Internet, all of these 500 million people have a way to say what they're thinking and have their voice be heard.
― Mark Zuckerberg, Facebook founder and CEO
A medida que los ordenadores aprenden a imitarnos ¿estamos empezando a ser m谩s como ellos? Desde Silicon Valley predicen cada vez con m谩s acierto, c贸mo vamos a responder a un correo electr贸nico, al reaccionar ante una imagen de Instagram de alguien, a determinar para qu茅 servicios del gobierno somos aptos, y muy pronto un asistente de Google, podr谩 llamar por nosotros en tiempo real para pedir hora en la peluquer铆a.
Hemos dejado entrar a los algoritmos pr谩cticamente en todas partes, desde hospitales y escuelas, hasta los tribunales. Estamos rodeados de automatizaci贸n con autonom铆a. Las l铆neas de c贸digo pueden decirnos qu茅 ver, a qui茅n ver, en qu茅 fecha, e incluso a qui茅n debe enviar el sistema judicial a la c谩rcel. ¿Estamos cometiendo un error al entregar tanta autoridad y control de toma de decisiones a las l铆neas de c贸digo?
Sin ser conscientes de ello, estamos obsesionados con los procedimientos matem谩ticos porque nos dan respuestas r谩pidas y precisas, a una variedad de problemas complejos. Los sistemas de aprendizaje autom谩tico se han implementado en casi todos los 谩mbitos de nuestra sociedad moderna.
Sin embargo, lo que deber铆amos preguntarnos es: ¿estamos cometiendo un error al entregar tanta autoridad y control a la hora de tomar decisiones a las l铆neas de c贸digo? ¿C贸mo los algoritmos afectan nuestras vidas? En un mundo en constante cambio, las m谩quinas est谩n haciendo un gran trabajo al aprender a un ritmo acelerado, c贸mo se comportan los humanos: qu茅 nos gusta, qu茅 es lo que odiamos, y qu茅 es lo mejor para nosotros. Actualmente estamos viviendo bajo la mirada y control de la tecnolog铆a predictiva ¡oye, autocompleta! Estamos dentro.
Los algoritmos han transformado dr谩sticamente nuestras vidas al clasificar los datos de la masa social, introducidos por nosotros mismos y darnos resultados relevantes e instant谩neos. Al recopilar grandes cantidades de datos, a lo largo de los a帽os, hemos otorgado a las empresas el poder de decidir qu茅 es lo mejor para nosotros.
Compa帽铆as como Alphabet o Amazon, han estado alimentando sus respectivos algoritmos con los datos captados y est谩n instruyendo a su Inteligencia Artificial, para que use la informaci贸n recopilada para adaptarse a nuestras necesidades, y ser m谩s como nosotros. Sin embargo, a medida que nos acostumbramos a estas utilidades, acaso ¿No estamos ya hablando y comport谩ndonos m谩s como un ordenador? ¿No estamos acomodando nuestra percepci贸n a la hora de elegir, como si estuvi茅ramos en un men煤 de opciones en la barra lateral de una interfaz?
"Los algoritmos no son inherentemente justos, porque la persona que construye el modelo define el 茅xito". - Cathy O’Neil, cient铆fica de datos
A este ritmo tecnol贸gico, es imposible no imaginar un futuro cercano, donde nuestro comportamiento est茅 guiado o dictado por algoritmos. De hecho, ya est谩 sucediendo. Un algoritmo, dise帽ado para ayudarnos a escribir mensajes o respuestas r谩pidas. Google lanz贸 su 煤ltima funci贸n en Gmail llamada Respuestas inteligentes en octubre pasado. Desde entonces, muchas personas han criticado al asistente, diciendo que sus sugerencias personalizadas son invasivas, hacen que los humanos se vean como m谩quinas, y algunos incluso argumentan que sus respuestas podr铆an influir en la forma en que nos comunicamos, o posiblemente cambiamos la etiqueta del correo electr贸nico.
El principal problema con los algoritmos es cuando se vuelven tan grandes y complejos, que comienzan a afectar negativamente a nuestra sociedad actual, poniendo en peligro la democracia. ¡Hola, Mark Zuckerberg!. Cuando un programa o servicio gratuito, adquiere un comportamiento similar al de un programa de vigilancia dist贸pica. A medida que los sistemas de aprendizaje predictivo son cada vez m谩s generalizados en muchas 谩reas de la sociedad ¿ir谩n los algoritmos por el mundo, dominando nuestros pensamientos?
Ahora, vamos a tomar el enfoque de Facebook. En 2015, lanzaron su nueva versi贸n de News Feed, que fue dise帽ada como una forma ingeniosa de recopilar y aumentar la participaci贸n de los usuarios, en una home de noticias personalizada, que les permite ver en primeras posiciones, el contenido que les ha gustado, que han compartido y comentado anteriormente.
El problema con los algoritmos "personalizados" es que pueden colocar a los usuarios en filtros burbuja o c谩maras de eco. En la vida real, es mucho menos probable que la mayor铆a de las personas se involucren con puntos de vista que les parezcan confusos, molestos, incorrectos o aborrecibles. En el caso de los algoritmos de Facebook, les dan a los usuarios lo que quieren, y como resultado, cada feed de noticias personalizado, se convierte en un mundo 煤nico. Una realidad distintiva por s铆 misma, porque solo estamos viendo, lo que queremos ver, o lo que previamente hemos elegido ver.
Los filtros burbuja, hacen que sea cada vez m谩s dif铆cil tener un argumento p煤blico porque, desde la perspectiva del sistema, la informaci贸n y la desinformaci贸n se ven exactamente iguales. Como Roger McNamee escribi贸 recientemente en la revista Time: “En Facebook, los hechos no son un absoluto; son una opci贸n que se deja inicialmente a los usuarios y a sus amigos, pero luego se ampl铆an mediante algoritmos para promover el compromiso con la diversidad".
Los filtros burbuja crean una ilusi贸n de que todos creemos lo mismo, y que hacemos o tenemos los mismos h谩bitos. Como ya sabemos, los algoritmos en Facebook agravaron el problema al aumentar la polarizaci贸n y, en 煤ltima instancia, da帽ar la democracia. La evidencia de que los algoritmos pueden haber influido en un refer茅ndum brit谩nico o en las elecciones de 2016 en los EE. UU., ya ha quedado demostrada.
"Los algoritmos de Facebook hacen que prevalezcan en la visual de nuestra home de noticias, mensajes de contenido extremo, sobre mensajes neutrales, y esto puede darle m谩s relevancia a la desinformaci贸n sobre la informaci贸n, o las teor铆as de conspiraci贸n sobre los hechos". - Roger McNamee, inversionista de Silicon Valley
En el mundo actual, en el que grandes masas de informaci贸n compiten por verse en las primeras posiciones, filtrar la calidad del contenido plantea un gran desaf铆o para algunas personas. La inteligencia artificial (utilizada sabiamente) podr铆a potencialmente mejorar la experiencia online o ayudar a abordar de manera r谩pida, las crecientes cargas de contenido. Sin embargo, para funcionar correctamente, los algoritmos requieren datos precisos sobre lo que est谩 sucediendo en el mundo real, y as铆 tener una referencia de veracidad para evaluar.
Las empresas y los gobiernos deben asegurarse de que los datos de los algoritmos no est茅n sesgados o sean inexactos. Como en la naturaleza, nada es perfecto, se espera que los datos sesgados de forma natural est茅n ya dentro de muchos algoritmos, y eso pone en peligro no solo nuestro mundo online, sino tambi茅n el f铆sico, el real. Los canales pueden tener un funcionamiento perfecto, pero el error y el sesgo, est谩n impl铆citos en el combustible, en quien bajo su perspectiva subjetiva, ha introducido los datos.
Es imperativo abogar por la implementaci贸n de marcos regulatorios m谩s s贸lidos, para que no terminemos en un Salvaje Oeste tecnol贸gico. Deber铆amos ser extremadamente cautelosos sobre el poder que le damos a los algoritmos. El riesgo aumenta, cuando hablamos de transparencia, y las implicaciones 茅ticas detr谩s de las decisiones y los procesos que toman, con las consecuencias sociales que afectan a las personas.
Por ejemplo, la inteligencia artificial utilizada en los tribunales puede mejorar el sesgo, pero tambi茅n discriminar a las minor铆as teniendo en cuenta los factores de "riesgo", como sus vecindarios y los v铆nculos o parentescos de personas inocentes con criminales. Estos algoritmos podr铆an cometer sistem谩ticamente errores bas谩ndose en el lugar de residencia o parentescos familiares y enviar a humanos inocentes y reales a la c谩rcel, por el simple hecho de “estar all铆”.
¿Estamos en peligro de perder nuestra humanidad? Como experto en seguridad, Bruce Schneier escribi贸 en su libro Click Here to Kill Everybody, "si dejamos que los ordenadores piensen por nosotros y que los datos de entrada subyacentes est茅n da帽ados, pensar谩n mal y es posible que nunca lo sepamos".
Hannah Fry, matem谩tica del University College London, nos lleva a un mundo en el que los ordenadores funcionan libremente. En su reciente libro Hello World: Being Human in the Age of Algorithms, argumenta que como ciudadanos, deber铆amos prestar m谩s atenci贸n a las personas que est谩n detr谩s del teclado, las que programan los algoritmos.
"No tenemos que crear un mundo en el que las m谩quinas nos digan qu茅 hacer o c贸mo pensar, aunque es muy posible que terminemos en un mundo as铆", dice. A lo largo del libro, ella se pregunta con frecuencia: "¿Estamos en peligro de perder nuestra humanidad?"
Por el momento, todav铆a no estamos en la etapa donde los humanos, no salgan en la foto. Nuestro papel en este mundo no se ha dejado de lado, y parece que seguir谩 siendo as铆 por alg煤n tiempo. Los seres humanos y las m谩quinas pueden trabajar juntos con sus fortalezas y debilidades. Las m谩quinas tienen fallos y cometen errores como nosotros. Deber铆amos tener cuidado con la cantidad de informaci贸n y poder al que renunciamos, ya que los algoritmos son ahora una parte intr铆nseca de la humanidad y una vez creados, ya no van a desaparecer.
Somos antih茅roes en un mundo que ha dejado de creer en los hombres buenos.
Comentarios
Publicar un comentario
El mundo no va a cambiar por lo que vayas a decir ahora, cr茅eme... pero si crees que merece la pena y debes decirlo ¡adelante! Es tu decisi贸n.