banner
Centro de Noticias
Nuestra certificación ISO garantiza la satisfacción del cliente.

Cómo la IA podría hacerse cargo de las elecciones

Jun 17, 2023

Una campaña política impulsada por IA podría ser todo para todas las personas

El siguiente ensayo se reimprime con permiso de The Conversation, una publicación en línea que cubre las últimas investigaciones. Ha sido modificado por los escritores de Scientific American y puede ser diferente del original.

¿Podrían las organizaciones usar modelos de lenguaje de inteligencia artificial como ChatGPT para inducir a los votantes a comportarse de maneras específicas?

El senador Josh Hawley le hizo esta pregunta al director ejecutivo de OpenAI, Sam Altman, en una audiencia sobre inteligencia artificial en el Senado de los EE. UU. el 16 de mayo de 2023. Altman respondió que, de hecho, le preocupaba que algunas personas pudieran usar modelos de lenguaje para manipular, persuadir y participar en interacciones uno a uno con los votantes.

Este es el escenario que Altman podría haber imaginado/tenido en mente: imagine que pronto, los tecnólogos políticos desarrollan una máquina llamada Clogger: una campaña política en una caja negra. Clogger persigue incansablemente un solo objetivo: maximizar las posibilidades de que su candidato, la campaña que compra los servicios de Clogger Inc., prevalezca en una elección.

Mientras que plataformas como Facebook, Twitter y YouTube utilizan formas de IA para lograr que los usuarios pasen más tiempo en sus sitios, la IA de Clogger tendría un objetivo diferente: cambiar el comportamiento de votación de las personas.

Como politólogo y jurista que estudia la intersección de la tecnología y la democracia, creemos que algo como Clogger podría usar la automatización para aumentar drásticamente la escala y, potencialmente, la eficacia de las técnicas de manipulación del comportamiento y microfocalización que las campañas políticas han utilizado desde principios de la década de 2000. . Así como los anunciantes usan su historial de navegación y redes sociales para orientar anuncios comerciales y políticos de forma individual ahora, Clogger le prestaría atención a usted, y a cientos de millones de otros votantes, de forma individual.

Ofrecería tres avances sobre la manipulación algorítmica de comportamiento de última generación. Primero, su modelo de lenguaje generaría mensajes (textos, redes sociales y correo electrónico, quizás incluyendo imágenes y videos) adaptados a usted personalmente. Mientras que los anunciantes colocan estratégicamente una cantidad relativamente pequeña de anuncios, los modelos de lenguaje como ChatGPT pueden generar innumerables mensajes únicos para usted personalmente, y millones para otros, en el transcurso de una campaña.

En segundo lugar, Clogger usaría una técnica llamada aprendizaje por refuerzo para generar mensajes cada vez más propensos a cambiar su voto. El aprendizaje por refuerzo es un enfoque de prueba y error de aprendizaje automático en el que la computadora realiza acciones y recibe comentarios sobre qué funciona mejor para aprender cómo lograr un objetivo. Las máquinas que pueden jugar Go, Ajedrez y muchos videojuegos mejor que cualquier humano han utilizado el aprendizaje por refuerzo. Y, por último, en el transcurso de una campaña, los mensajes de Clogger podrían evolucionar para tener en cuenta sus respuestas a envíos anteriores y lo que ha aprendido acerca de los cambios. mentes de otros. Clogger mantendría "conversaciones" dinámicas contigo, y con millones de otras personas, a lo largo del tiempo. Los mensajes de Clogger serían similares a los anuncios que lo siguen en diferentes sitios web y redes sociales.

Vale la pena señalar tres características más, o errores.

Primero, los mensajes que envía Clogger pueden o no ser políticos. El único objetivo de la máquina es maximizar el porcentaje de votos, y probablemente diseñaría estrategias para lograr este objetivo que ningún activista humano habría considerado.

Una posibilidad es enviar a los probables votantes oponentes información sobre las pasiones no políticas que tienen en los deportes o el entretenimiento para enterrar los mensajes políticos que reciben. Otra posibilidad es enviar mensajes desagradables, por ejemplo, anuncios de incontinencia, sincronizados para que coincidan con los mensajes de los oponentes. Y otra es manipular los grupos de medios sociales de los votantes para dar la sensación de que sus familiares, vecinos y amigos apoyan a su candidato.

En segundo lugar, Clogger no respeta la verdad. De hecho, no tiene manera de saber lo que es verdadero o falso. Las "alucinaciones" del modelo de lenguaje no son un problema para esta máquina porque su objetivo es cambiar su voto, no proporcionar información precisa.

Finalmente, debido a que es un tipo de inteligencia artificial de caja negra, las personas no tendrían forma de saber qué estrategias utiliza.

Si la campaña presidencial republicana desplegara Clogger en 2024, la campaña demócrata probablemente se vería obligada a responder de la misma manera, tal vez con una máquina similar. Llámalo Dogger. Si los directores de campaña pensaran que estas máquinas eran eficaces, la contienda presidencial bien podría acabar en Clogger vs. Dogger, y el ganador sería el cliente de la máquina más eficaz.

El contenido que ganó el día habría venido de una IA enfocada únicamente en la victoria, sin ideas políticas propias, en lugar de candidatos o partidos. En este sentido tan importante, una máquina habría ganado la elección en lugar de una persona. La elección ya no sería democrática, aunque todas las actividades ordinarias de la democracia –los discursos, los anuncios, los mensajes, la votación y el conteo de votos– hayan ocurrido.

El presidente electo por AI podría entonces optar por uno de dos caminos. Él o ella podría usar el manto de la elección para seguir las políticas del partido Republicano o Demócrata. Pero debido a que las ideas del partido pueden haber tenido poco que ver con por qué la gente votó de la forma en que lo hizo (a Clogger y Dogger no les importan las opiniones políticas), las acciones del presidente no reflejarían necesariamente la voluntad de los votantes. Los votantes habrían sido manipulados por la IA en lugar de elegir libremente sus políticas y líderes políticos.

Otro camino es que el presidente siga los mensajes, comportamientos y políticas que la máquina predice que maximizarán las posibilidades de reelección. En este camino, el presidente no tendría una plataforma o agenda particular más allá de mantener el poder. Las acciones del presidente, guiadas por Clogger, serían las que probablemente manipularían a los votantes en lugar de servir a sus intereses genuinos o incluso a la propia ideología del presidente.

Sería posible evitar la manipulación electoral de la IA si los candidatos, las campañas y los consultores renunciaran al uso de dicha IA política. Creemos que eso es poco probable. Si se desarrollaran cajas negras políticamente efectivas, las presiones competitivas harían que su uso fuera casi irresistible. De hecho, los consultores políticos bien podrían ver el uso de estas herramientas como requerido por su responsabilidad profesional para ayudar a sus candidatos a ganar. Y una vez que un candidato utiliza una herramienta tan eficaz, difícilmente se puede esperar que los oponentes se resistan desarmándose unilateralmente.

La protección mejorada de la privacidad ayudaría. Clogger dependería del acceso a grandes cantidades de datos personales para dirigirse a las personas, crear mensajes personalizados para persuadirlas o manipularlas, y rastrearlas y redirigirlas en el transcurso de una campaña. Cada parte de esa información que las empresas o los formuladores de políticas niegan a la máquina la haría menos efectiva.

Otra solución está en las comisiones electorales. Podrían intentar prohibir o regular severamente estas máquinas. Existe un feroz debate sobre si ese discurso "replicante", incluso si es de naturaleza política, puede ser regulado. La tradición de libertad de expresión extrema de los EE. UU. lleva a muchos académicos destacados a decir que no se puede.

Pero no hay razón para extender automáticamente la protección de la Primera Enmienda al producto de estas máquinas. La nación bien podría optar por otorgar derechos a las máquinas, pero esa debería ser una decisión basada en los desafíos de hoy, no en la suposición fuera de lugar de que las opiniones de James Madison en 1789 tenían la intención de aplicarse a la IA.

Los reguladores de la Unión Europea se están moviendo en esta dirección. Los legisladores revisaron el borrador de la Ley de Inteligencia Artificial del Parlamento Europeo para designar los "sistemas de IA para influir en los votantes en las campañas" como de "alto riesgo" y sujetos a escrutinio regulatorio.

Un paso constitucionalmente más seguro, aunque más pequeño, ya adoptado en parte por los reguladores de Internet europeos y en California, es prohibir que los bots se hagan pasar por personas. Por ejemplo, la regulación podría exigir que los mensajes de campaña vengan con descargos de responsabilidad cuando el contenido que contienen es generado por máquinas en lugar de humanos.

Esto sería como los requisitos del descargo de responsabilidad de la publicidad: "Pagado por el Comité de Sam Jones para el Congreso", pero modificado para reflejar su origen de IA: "Este anuncio generado por IA fue pagado por el Comité de Sam Jones para el Congreso". Una versión más fuerte podría requerir: "Este mensaje generado por IA lo envía el Comité de Sam Jones para el Congreso porque Clogger ha predicho que hacerlo aumentará sus posibilidades de votar por Sam Jones en un 0,0002 %". Como mínimo, creemos que los votantes merecen saber cuándo les habla un bot, y también deberían saber por qué.

La posibilidad de un sistema como Clogger muestra que el camino hacia el desempoderamiento colectivo humano puede no requerir una inteligencia general artificial sobrehumana. Es posible que solo requiera activistas y consultores demasiado entusiastas que tengan herramientas nuevas y poderosas que puedan presionar de manera efectiva los muchos botones de millones de personas.

Este es un artículo de opinión y análisis, y las opiniones expresadas por el autor o los autores no son necesariamente las de Scientific American.

Este artículo fue publicado originalmente en The Conversation. Lea el artículo original.

Arconte Funges profesor Winthrop Laflin McCormack de Ciudadanía y Democracia en la Escuela de Gobierno Kennedy de la Universidad de Harvard.

Lorenzo Lessiges profesor de Derecho Roy L. Furman en la Facultad de Derecho de Harvard.

Meghan Bartels y Andrea Thompson

los editores

Rina Diane Caballar

Archon Fung, Lawrence Lessig y The Conversation US

clara moskowitz

flora lichtman

Arconte Fung Lawrence Lessig