Cómo la IA podría hacerse cargo de las elecciones y socavar la democracia. Abundan las preocupaciones sobre cómo se pueden usar los modelos de lenguaje para manipular, persuadir y participar en interacciones uno a uno con los votantes para influir en su comportamiento según informa The Times of Israel.

El senador Josh Hawley le hizo esta pregunta al director ejecutivo de OpenAI, Sam Altman, en una audiencia sobre inteligencia artificial en el Senado de los EE. UU. el 16 de mayo de 2023.

 

Altman respondió que de hecho le preocupaba que algunas personas pudieran usar modelos de lenguaje para manipular, persuadir y participar en interacciones uno a uno con los votantes”.

 

También dio más detalles, pero podría haber tenido algo como este escenario en su mente. Imagine que pronto, los tecnólogos políticos desarrollan una máquina llamada Clogger, una campaña política en una caja negra. Clogger persigue incansablemente un solo objetivo maximizar las posibilidades de que su candidato, prevalezca en una elección.

Logotipo de Open Al

Mientras que plataformas como Facebook, Twitter y YouTube utilizan formas de IA para lograr que los usuarios pasen más tiempo en sus sitios, la IA de Clogger tendría un objetivo diferente, cambiar el comportamiento de votación de las personas.

Algo como Clogger podría usar la automatización para aumentar drásticamente la escala y potencialmente la eficacia de las técnicas de manipulación del comportamiento y microfocalización, que las campañas políticas han utilizado desde principios de la década de 2000.

 

“Así como los anunciantes usan su historial de navegación y de redes sociales para orientar individualmente los anuncios comerciales y políticos ahora Clogger le prestaría atención a usted, y a cientos de millones de otros votantes, individualmente”.

 

Ofrecería tres avances sobre la manipulación algorítmica de comportamiento de última generación. Primero su modelo de lenguaje generaría mensajes textos, redes sociales y correo electrónico, quizás incluyendo imágenes y videos,  adaptados a usted personalmente.

En primer lugar, mientras que los anunciantes colocan estratégicamente una cantidad relativamente pequeña de anuncios, los modelos de lenguaje como ChatGPT pueden generar innumerables mensajes únicos para usted personalmente, y millones para otros, en el transcurso de una campaña.

En segundo lugar, Clogger usaría una técnica llamada aprendizaje por refuerzo para generar una sucesión de mensajes que se vuelven cada vez más propensos a cambiar su voto.

Samuel Altman

El aprendizaje por refuerzo es un enfoque de prueba y error de aprendizaje automático en el que la computadora realiza acciones y recibe comentarios sobre qué funciona mejor para aprender cómo lograr un objetivo. Las máquinas que pueden jugar Go, Ajedrez y muchos videojuegos mejor que cualquier humano han utilizado el aprendizaje por refuerzo.

En el transcurso de una campaña, los mensajes de Clogger podrían evolucionar para tener en cuenta sus respuestas a los despachos anteriores de la máquina y lo que ha aprendido acerca de cambiar la opinión de los demás. Podría mantener “conversaciones” dinámicas contigo, y con millones de otras personas, a lo largo del tiempo. Los mensajes de serían similares a los anuncios que lo siguen en diferentes sitios web y redes sociales.

 

“Los mensajes que envía Clogger pueden o no tener un contenido político. El único objetivo de la máquina es maximizar el porcentaje de votos, y probablemente diseñaría estrategias para lograr este objetivo en las que ningún activista humano habría pensado”.

 

Una posibilidad es enviar a los probables votantes oponentes información sobre las pasiones no políticas que tienen en los deportes o el entretenimiento para enterrar los mensajes políticos que reciben.

Otra posibilidad es enviar mensajes desagradables, por ejemplo, anuncios de incontinencia, sincronizados para que coincidan con los mensajes de los oponentes. Y otra es manipular los grupos de amigos de los votantes en las redes sociales para dar la sensación de que sus círculos sociales apoyan a su candidato.

En segundo lugar, Clogger no respeta la verdad. De hecho, no tiene manera de saber lo que es verdadero o falso. Las “alucinaciones” del modelo de lenguaje no son un problema para esta máquina porque su objetivo es cambiar tu voto, no proporcionar información precisa.

En tercer lugar, debido a que es un tipo de inteligencia artificial de caja negra, las personas no tendrían forma de saber qué estrategias utiliza.

 

“Si la campaña presidencial republicana desplegara Clogger en 2024, la campaña demócrata probablemente se vería obligada a responder de la misma manera, tal vez con una máquina similar”.

 

Si los directores de campaña pensaran que estas máquinas eran eficaces, la contienda presidencial bien podría acabar en Clogger vs. Dogger, y el ganador sería el cliente de la máquina más eficaz.

Cola para votar en EE.UU.

Los politólogos y los expertos tendrían mucho que decir sobre por qué prevaleció una u otra IA, pero probablemente nadie lo sepa realmente. El presidente habrá sido elegido no porque sus propuestas políticas o sus ideas políticas persuadieran a más estadounidenses, sino porque tenía la IA más eficaz. El contenido que ganó el día habría venido de una IA enfocada únicamente en la victoria, sin ideas políticas propias, en lugar de candidatos o partidos.

En este sentido tan importante, una máquina habría ganado la elección en lugar de una persona. La elección ya no sería democrática, aunque todas las actividades ordinarias de la democracia, los discursos, los anuncios, los mensajes, la votación y el conteo de votos hayan ocurrido.

El presidente electo por AI podría entonces optar por uno de dos caminos. Él o ella podría usar el manto de la elección para seguir las políticas del partido Republicano o Demócrata. Pero debido a que las ideas del partido pueden haber tenido poco que ver con por qué la gente votó de la forma en que lo hizo (a Clogger y Dogger no les importan las opiniones políticas), las acciones del presidente no reflejarían necesariamente la voluntad de los votantes.

 

“Los votantes habrían sido manipulados por la IA en lugar de elegir libremente sus políticas y líderes políticos”.

 

Otro camino es que el presidente siga los mensajes, comportamientos y políticas que la máquina predice que maximizarán las posibilidades de reelección. En este camino, el presidente no tendría una plataforma o agenda particular más allá de mantener el poder. Las acciones del presidente, guiadas por Clogger, serían las que probablemente manipularían a los votantes en lugar de servir a sus intereses genuinos o incluso a la propia ideología del presidente.

Sería posible evitar la manipulación electoral de la IA si los candidatos, las campañas y los consultores renunciaran al uso de dicha IA política. Creemos que eso es poco probable. Si se desarrollaran cajas negras políticamente efectivas, la tentación de usarlas sería casi irresistible. De hecho, los consultores políticos bien podrían ver el uso de estas herramientas como requerido por su responsabilidad profesional para ayudar a sus candidatos a ganar. Y una vez que un candidato utiliza una herramienta tan eficaz, difícilmente se puede esperar que los oponentes se resistan desarmándose unilateralmente.

La protección mejorada de la privacidad ayudaría. Clogger dependería del acceso a grandes cantidades de datos personales para dirigirse a las personas, crear mensajes personalizados para persuadirlas o manipularlas, y rastrearlas y redirigirlas en el transcurso de una campaña.

 

“Cada parte de esa información que las empresas o los formuladores de políticas niegan a la máquina la haría menos efectiva”.

 

Concepto de bot

Otra solución está en las comisiones electorales. Podrían intentar prohibir o regular severamente estas máquinas. Hay un feroz debate sobre si ese discurso “replicante”, incluso si es de naturaleza política, puede ser regulado. La tradición de libertad de expresión extrema de los EE. UU. lleva a muchos académicos destacados a decir que no se puede.

Pero no hay razón para extender automáticamente la protección de la Primera Enmienda al producto de estas máquinas. La nación bien podría optar por otorgar derechos a las máquinas, pero esa debería ser una decisión basada en los desafíos de hoy, no en la suposición fuera de lugar de que las opiniones de James Madison en 1789 tenían la intención de aplicarse a la IA.

 

“Otra solución está en las comisiones electorales. Podrían intentar prohibir o regular severamente estas máquinas”.

 

Los reguladores de la Unión Europea se están moviendo en esta dirección. Los legisladores revisaron el borrador de la Ley de Inteligencia Artificial del Parlamento Europeo para designar los “sistemas de IA para influir en los votantes en las campañas” como de “alto riesgo” y sujetos a escrutinio regulatorio.

Trabajo con ordenadores

Un paso constitucionalmente más seguro, aunque más pequeño, ya adoptado en parte por los reguladores de Internet europeos y en California, es prohibir que los bots se hagan pasar por personas. Por ejemplo, la regulación podría exigir que los mensajes de campaña vengan con descargos de responsabilidad cuando el contenido que contienen es generado por máquinas en lugar de humanos.

 

“Esto sería como los requisitos del descargo de responsabilidad de la publicidad, pagado por el Comité de Sam Jones para el Congreso”, pero modificado para reflejar su origen de IA”. 

 

Una versión más fuerte podría enviar este mensaje generado por IA al Comité de Sam Jones para el Congreso porque Clogger ha predicho que hacerlo aumentará sus posibilidades de votar por Sam Jones en un 0.0002%”. Como mínimo, creemos que los votantes merecen saber cuándo les habla un bot, y también deberían saber por qué.

La posibilidad de un sistema como Clogger muestra que el camino hacia el desempoderamiento colectivo humano puede no requerir una inteligencia general artificial sobrehumana. Es posible que solo requiera activistas y consultores demasiado entusiastas que tengan herramientas nuevas y poderosas que puedan presionar de manera efectiva los votos de muchos de millones de personas. (Con la colaboración de Archon Fung, Escuela Kennedy de Harvard, y Lawrence Lessig, Universidad de Harvard).

Reproducción autorizada con la mención: ©EnlaceJudío