Un glitch en la Matrix, un patrón que redefine los paradigmas de la vida en sociedad, o en palabras de Henry Kissinger, el fin de la Ilustración (2018). La inteligencia artificial (IA) se ha convertido en una de las fuerzas transformadoras más importantes de la historia reciente de la humanidad y uno de los elementos que muy probablemente definirá su futuro en los años venideros. Originalmente diseñada con el propósito de explorar las fronteras computacionales, esta tecnología se diversificó progresivamente hasta ocupar posiciones clave en el engranaje de la vida digital, aquella que se hace cada vez más indistinguible de la vida contemporánea. En vista de este desarrollo, son cada vez más los actores que encuentran en la IA un instrumento estratégico para conseguir y conservar el poder político, aun cuando en el proceso vayan en contra de los fundamentos de la democracia y la libertad. ¿Es la inteligencia artificial una amenaza para la vida política tal como la conocemos en Occidente?
El juego de la imitación. ¿A quién imita la máquina?
La idea de una máquina capaz de simular el intelecto humano ha sido explorada desde tiempos remotos en diversas leyendas y tradiciones. Los trípodes autómatas descritos por Homero son apenas una muestra de la constante aspiración del hombre por inventar un artefacto inteligente para ponerlo al servicio de sus necesidades o la comprensión de su propia naturaleza (Buchanan, 2005). Pese a estas inquietudes, los primeros avances técnicos en la materia llegaron recién en el año 1950 con la publicación de Computing Machinery and Intelligence por Alan Turing. En ese ensayo, el matemático se hizo una sencilla pregunta: “¿Pueden pensar las máquinas?” (Turing, 2009, p. 1).
Esta interrogante marcó una pauta para las posteriores investigaciones en el campo, especialmente aquellas interesadas en responder afirmativamente a la pregunta originaria de Turing; sin embargo, este afán no tardó en encontrar detractores. En este sentido, el filósofo John Searle planteó quizá el argumento más importante. A partir de un experimento mental que denominó Habitación china, Searle propone que es absolutamente plausible que una computadora pase el test de Turing siguiendo parámetros que no es capaz de entender (1984). En otras palabras, las máquinas no pueden “pensar”, al menos como piensan los humanos, porque sus operaciones se basan en estructuras sintácticas vacías de cualquier contenido semántico (Dos Santos, 2019).
El experimento de Searle fue objeto de abundantes cuestionamientos, la mayoría de ellos en defensa, aunque sea como futurible, de la inteligencia de las máquinas. Con todo, el mismo Turing (2009) advirtió lo siguiente:
The original question, ‘Can machines think?’ I believe to be too meaningless to deserve discussion. Nevertheless, I believe that at the end of the century the use of words and general educated opinion will have altered so much that one will be able to speak of machines thinking without expecting to be contradicted. (p. 10)
En efecto, el pronóstico de Turing no solo se cumplió, sino que nuevos avances tecnológicos que permitieron a las computadoras procesar grandes cantidades de información dieron lugar a un replanteamiento de la cuestión sobre la IA. Si bien las máquinas no serían momentáneamente capaces de pensar como humanos, ¿podrían aprender a hacerlo? Según Parnas (2017), el término Machine Learning, acogido en la actualidad como denominación técnica de la IA, recae en vicios de antropomorfización que abstraen el verdadero proceso detrás de su mecanismo: el uso de datos recolectados y categorizados conforme a criterios humanos. En esta línea, las máquinas “aprenderían” a resolver problemas de acuerdo con la información que le sea provista y los criterios con las que sean codificadas, lo cual significa que, para bien o para mal, sus resultados cargarían el sesgo del programador (Parnas, 2017).
Durante mucho tiempo, esta predisposición a antropomorfizar aquellos sistemas mantuvo un velo de ignorancia sobre la complejidad de sus alcances. Hasta hace solo unos años, la inocua voz de Siri o los convenientes vehículos autónomos eran las asociaciones más frecuentes que los usuarios establecían con esta tecnología, pasando por alto los códigos que, muy discretamente, recogían y procesaban su información personal. Mucho de estos datos ha sido alimentado a programas modelados con parámetros que, más que sesgos, están cargados de prejuicios (Katz, 2020). Kate Crawford (2016), quizá la voz más importante dentro de la reducida esfera de estudios sociotécnicos sobre la IA, señala que uno de los mayores retos para esta tecnología debería ser superar lo que ella llama “un problema de hombre blanco” (WGP, por sus siglas en inglés). Según la autora, detrás de la fachada aparentemente científica de la IA yacen intervenciones subjetivas con el potencial de distorsionar los hechos y agudizar desigualdades sociales (Crawford, 2021; Wood, 2021).
La dimensión de estos usos sobre la vida y bienestar de la ciudadanía se mantuvo relativamente esquiva del conocimiento público hasta el 2018, año del escándalo de Cambridge Analytica (CA). Desde su creación, esta empresa se valió de herramientas de perfilamiento psicográfico para crear, sin consentimiento, una base de datos de millones de personas que posteriormente vendió a diferentes campañas políticas en la forma de paquetes de marketing digital (Isaak & Hanna, 2018). Los perfiles sirvieron luego para el diseño de modelos predictivos que permitieron la personalización de anuncios que, presuntamente, se mostraron al individuo indicado, en el lugar requerido y en el momento adecuado. Con este objetivo, también se utilizaron algoritmos capaces de “aprender” qué frase podría generar la reacción más conveniente ante un determinado acontecimiento político (Deckler, 2020). Estas aplicaciones estuvieron detrás de la creación y difusión de algunas de las frases más polémicas de la campaña de Donald Trump, quien eventualmente se convertiría en presidente de los Estados Unidos (Tett, 2017).
Sin duda, la sustracción clandestina de información personal para fines propagandísticos es, de por sí, ominosa. Sin embargo, el caso no resalta por una práctica abiertamente conocida de estados y corporaciones, sino por la cantidad de datos que fueron procesados con una precisión a la que la destreza manual no hubiera podido igualar en siglos (Hern, 2018). Por esta razón, lo de CA no expone tan solo la refinación de algunos métodos siniestros de la mercadotecnia, sino los riesgos de un instrumento que, dependiendo de cómo se utilice, puede, entre otras cosas, disolver albedríos y programar divisiones (Taddeo & Floridi, 2018; Katz, 2020). Teniendo en cuenta que la retórica cifrada por esta táctica marcó la impronta discursiva de Trump durante su gestión, cabe cuestionarse también sobre la escala que podría adquirir cualquier estrategia de desinformación ejecutada con ayuda de la IA (Ghosh, 2018).
Por consiguiente, el WGP de Crawford no se manifestaría solo en la traslación inconsciente de los sesgos aberrantes que advierte Parnas, sino también en el interés activo por codificar consignas que trastornen el ambiente político y lo orienten hacia una polarización muy provechosa para determinadas plataformas, en este caso, las del populismo conservador. La IA, entonces, se volvería el medio exponencial a través del cual se concreten movimientos previamente constreñidos por limitaciones logísticas. Incluso aquella que no opere en función a su beneficio, podría ser apropiada; si se quiere, infestada. Así como Tay, la inocente bot de Microsoft hackeada por un grupo de troles hasta ser degenerada a un vertedero de discursos de odio (Neff & Nagy, 2019), la IA padece el riesgo patente de ser cooptada por intereses iliberales o antidemocráticos.
Del tecnopoder al cibercontrol
El WGP puede extrapolarse para la comprensión de cualquier grupo de poder que, ejerciendo un dominio hegemónico sobre la IA, tecnifica sesgos y los convierte en fórmulas de campaña o métodos de disciplina social. El caso de las últimas dos elecciones estadounidenses y el ambiente político que las precedió es muy ilustrativo pues expone la convergencia de dos actores cuya asociación no hubiera tenido consecuencias sustanciales en otras circunstancias. Por un lado, el aspirante al poder; por el otro, el grupo nicho (por ejemplo, supremacistas blancos). La capacidad algorítmica que el aspirante puede financiar le permite reconocer plataformas electorales que pueden acercarlo a su objetivo, sin que necesariamente esté de acuerdo con su contenido. Por su parte, el grupo nicho, incapaz de montar operaciones a esta escala, busca corromper los códigos mediante esfuerzos coordinados, pero primitivos. La IA conecta a ambos agentes y genera un círculo vicioso de identificación y propagación de mensajes que confirman la consigna del grupo al mismo tiempo que la convierte en tópico de debate nacional.
En tiempos en los que la discusión política se reduce progresivamente a la infoesfera del internet y las redes sociales, estas prácticas podrían influir en la decadencia de los partidos políticos (véase lo sucedido con el Partido Republicano durante y después de la presidencia de Trump) y el fin de la política como actividad para regular conflictos (el uso táctico de la IA ahora permite capitalizarlos). En ese sentido, no debería extrañar que los tecno-políticos ausculten las redes en busca de aquellos símbolos que encajen a la perfección en su estrategia de poder. La superposición de ultra-discursos a los efectos de la representación de la sociedad civil podría desfasar actitudes moderadas y suprimir la presencia del centro político. Después de todo, la IA no piensa, pero sí busca la vía más fácil para la resolución de los problemas que le plantean sus programadores. Así, el miedo, incentivo primigenio de la acción humana, reaparece como dispositivo, más expeditivo que nunca.
Si bien el proceder de CA fue llevado a juicio y multado con un billonario monto, consultoras con servicios similares siguen operando hasta el día de hoy, explotando el potencial del temor en diferentes contextos sociales (Goldhill, 2019). En el Perú, por ejemplo, durante la segunda vuelta de las elecciones generales de 2021, los algoritmos de publicidad basados en la IA jugaron un rol fundamental para la difusión de anuncios políticos dirigidos. En ese marco, la campaña de Keiko Fujimori apeló al uso de mensajes basados en el miedo y la incertidumbre: una estrategia semejante a la de CA (Cabral, 2021). En este proceso, el centro fue considerablemente desplazado de la escena política peruana y aunque Fujimori no se hizo con la victoria, los algoritmos dispuestos para ese propósito fueron trascendentales en el enrarecimiento de las perspectivas sobre oficialismo y la oposición. En el Perú, el uso de información personal para la generación de estos anuncios ni siquiera fue objeto de investigación.
Ante la sofisticación de los métodos de invasión y extracción de la privacidad de sus ciudadanos, la mayoría de los estados no solo no ha diseñado mecanismos de regulación efectiva, sino que, paradójicamente, han reproducido prácticas problemáticas de gobernanza digital. La búsqueda de soluciones facilistas para la gobernabilidad en la IA es una tendencia que, por un lado, viene deteriorando la inversión pública y la memoria institucional y, por otro, intensifica la dependencia para con empresas consultoras (Mazzucato, 2021). Estas compañías, como ya se ha visto, no necesariamente comparten los criterios o los valores de los gobiernos que las contratan.
Para Scott Timcke (2021), la captura de los recursos computacionales por parte de la clase dirigente es peligrosa por cuanto la IA puede ser instrumentalizada para el avance de agendas que automaticen desigualdades, no como consecuencia de prácticas corporativas no auditadas, sino como políticas de Estado. Con el mismo énfasis, Katz advierte sobre la introducción de sistemas de IA en los procesos judiciales y de policía predictiva, los cuales han demostrado, por ejemplo, heurísticas ostensiblemente racistas que no necesariamente resuelven el problema de seguridad de fondo (2020).
Pese a esto, las autoridades han sido ciertamente displicentes a la hora de regular el impacto de la IA en este tipo de decisiones y han protegido estos programas a través de la coartada de la seguridad nacional, dejando a la ciudadanía a merced de posibles aparatos de discriminación tecno-asistida (Crawford, 2021). Esto en un movimiento similar al de China, donde la IA ha sido abrazada como motor de desarrollo nacional a tal punto que se ha trazado un plan sectorial que apunta a convertir al país en el epicentro global de la innovación en esta tecnología para el 2030; pese a que las consideraciones éticas de su implementación son laxas por decir lo menos (Roberts et al., 2021). Este no es un dato menor si se considera que en el gigante asiático se ha diseñado ecosistemas de IA que controlan la mayoría de las actividades de millones de sus ciudadanos, micro-disciplinando “comportamientos no deseados” y articulando políticas de represión como las draconianas medidas que pesan sobre la minoría uigur (Andersen, 2020). El prospecto totalitario de este desarrollo puede seducir a más de uno, sobre todo a aquellos quienes buscan en la IA un atajo al poder. De conseguirlo, la privacidad, las libertades informáticas y la integridad de los ciudadanos enfrentarían una amenaza inminente.
¿Quo vadis IA?
La IA, como la fisión nuclear, es una tecnología multipropósito cuyos malos usos ya han repercutido en la vida de millones de personas con la particularidad de que, a diferencia de los ineluctables hongos radioactivos, sus mecanismos todavía tienen un carácter subrepticio. Por ello, es importante concluir que la agencia de esta nunca debe ser atribuida, al menos en primer grado, a la computadora. Con este principio en mente, se pueden proponer alternativas de regulación desde distintos frentes.
En un llamado contundente, Parnas sugiere la erradicación de una cultura de la programación obsesionada por imitar a los humanos aun cuando se tienen disponibles aproximaciones más prácticas (y libres de sesgos) a los problemas que se desean solucionar (2017). Además, aconseja cuestionar activamente la importancia de las decisiones que se confíen a la computadora antes de implementar este tipo de modelos.
Por otra parte, Douglas Rushkoff (2010) comenta que la inercia de los sujetos ante su dataficación es consecuencia de su “analfabetismo informático”, esto es, su incapacidad para comprender el lenguaje en el que están escritos los programas que les sirven o se sirven de ellos. Según su perspectiva, involucrarse activamente en el desarrollo de la IA, comprendiendo los mecanismos que determinan su funcionamiento e identificando los sesgos que condicionan sus directrices, es otro paso importante, aunque insuficiente. Esto se debe a que incluso quienes conocen la estructura de los programas que acechan su información personal pueden percibirse inmunes a sus perjuicios (Hinds et al, 2020). Además, las brechas tecnológicas que persisten a nivel mundial y las precarias condiciones económicas de millones de personas para las que la educación informática tiene un costo de oportunidad demasiado alto, limitan las soluciones individualistas del problema.
Por todo ello, los estados deben desarrollar marcos legales y éticos que regulen los usos y aplicaciones de la IA. Esto solo es posible si, en primer lugar, las autoridades logran comprender cabalmente las implicancias de esta tecnología, así como los grupos de interés que ya se valen de ella y los vacíos legales que puedan explotar en desmedro de los derechos de la ciudadanía. Proteger la información personal de toda persona ante intentos por convertirla en el input de programas que eventualmente atenten contra sus derechos es un acto fundamental. Además, se debe crear un estándar de lineamientos para las políticas públicas que busquen implementarse a través de esta tecnología, no solo para no perjudicar involuntariamente los derechos de la población, sino para limitar cualquier abuso de poder. Los recientes avances en materia de acuerdos internacionales sobre la ética de la IA son muy importantes en este esfuerzo, pero mientras no sean impresos en tratados vinculantes, seguirán siendo declaraciones de buena fe desprovistas de cualquier garantía (Organización de las Naciones Unidas, 2021).
La pandemia de COVID-19 fue una lección histórica sobre las consecuencias de un Estado aletargado e ingenuamente confiado acerca del control real que ejerce sobre sus desafíos. Los peligros de la Inteligencia Artificial ya tuvieron sus primeras expresiones, pero aún hay un espacio para la regulación, siempre y cuando los dirigentes adquieran conciencia de que se trata de un tren que posiblemente no admitirá rezagados. Intereses oscuros ya se encuentran a bordo y si no son neutralizados a tiempo terminarán dándole forma al fantasma en la máquina: un espectro humano, demasiado humano.