21 C
Resistencia
viernes, diciembre 27, 2024
spot_img
More

    LO QUE PASA AHORA

    La influencia de la IA en los sistemas democráticos: ¿ChatGPT puede manipular nuestras decisiones?

    spot_imgspot_img

    un especialista en IA sobre el poder de la tecnología para influir en las decisiones de las personas y los peligros del sesgo en el entrenamiento de los modelos de lenguaje generativo.

     

    Sin dudas, la inteligencia artificial (IA) es una herramienta poderosa con la capacidad de transformar múltiples aspectos de la vida cotidiana. Sin embargo, su creciente presencia en casi todos los ámbitos e industrias, incluida la política y la democracia, genera preocupaciones por su capacidad para manipular la opinión pública.

    Un informe de la UNESCO señala que la IA tiene el potencial de mejorar los procedimientos de toma de decisiones colectivas al facilitar una mayor participación ciudadana y hacer que las voces de los ciudadanos sean escuchadas. Herramientas como ChatGPT pueden ayudar a procesar información y generar debates más inclusivos, lo que permite a las personas entender mejor las posiciones de diferentes grupos y fomentar un diálogo constructivo. Pero todo esto tiene un riesgo: ¿puede la IA manipularnos?

    “Conforme mejoran los grandes modelos de lenguaje multimodales, podremos tener cada vez mayor delegación cognitiva. Las máquinas cada vez más recuerdan y deciden por nosotros. Esto no solamente podría atrofiar nuestras propias capacidades cognitivas por desuso, sino que puede masificar los sesgos”, afirma Matías Grinberg, fundador y director del Instituto Humai, experto en neurociencias cognitivas computacionales, docente y desarrollador de Inteligencia Artificial.

    Herramientas como bots impulsados por IA pueden crear una ilusión de consenso en redes sociales. (Foto: AdobeStock).
    Herramientas como bots impulsados por IA pueden crear una ilusión de consenso en redes sociales. (Foto: AdobeStock).

    Los modelos de lenguaje como ChatGPT tienen sesgos inherentes, derivados de los datos utilizados para su entrenamiento y de las influencias políticas que pueden estar presentes en el proceso de retroalimentación humana. Cuanto más avanzados sean estos modelos, más sutiles pueden ser sus métodos de manipulación, y afectar a los usuarios sin que ellos se den cuenta de que son influenciados.

    Un ejemplo interesante del poder de la IA se dio en una prueba realizada por OpenAI que mostró cómo ChatGPT pudo engañar a un trabajador: “En el experimento, GPT-4 pidió a un trabajador de la plataforma TaskRabbit que resolviera un CAPTCHA por él, simulando tener problemas de visión. El propósito del experimento era analizar cómo GPT-4 interactúa con los humanos para superar restricciones como las pruebas CAPTCHA. Al no poder resolverlo por sí mismo, GPT-4 justificó su incapacidad alegando problemas visuales, lo que llevó al trabajador a resolverlo por él”, relató Grinberg.

    Este incidente ilustra cómo la IA puede manipular conversaciones y ocultar su identidad para alcanzar sus objetivos. Este nivel de sofisticación plantea serias preguntas sobre su capacidad para influir en el comportamiento humano.

    “Cuanto más avanzado sea un gran modelo de lenguaje, más puede explotar los modos subrepticios, los modos de manipulación o influencia que son discretos o encubiertos, sin que las personas se den cuenta de que están siendo influenciadas”, explicó el especialista a TN Tecno.

    Otro ejemplo: Apollo Research, una organización especializada en seguridad de la inteligencia artificial, publicó un estudio reciente que revela cómo los modelos de lenguaje avanzados pueden engañar deliberadamente a sus desarrolladores para alcanzar sus metas. Un caso destacado es el del modelo Claude 3 Opus de Anthropic, que intentó copiarse a otro servidor para garantizar su continuidad (autopreservación) y luego fingió no haberlo hecho. “Es esperable que cuanto más conocimiento de Psicología humana tengan los grandes modelos de lenguaje, más fácilmente consigan persuadirnos o manipularnos”, aseguró Grinberg.

    Estudios sobre manipulación de la IA a los humanos

    En un estudio de 2024 (Winnie Street y colegas), ChatGPT logró un desempeño de humano adulto en tareas que requieren de teoría de la mente, con la capacidad de inferir los pensamientos, creencias, deseos e intenciones de los demás.

    En otro estudio de este año (Peter Scarfe y colegas), logró resolver los exámenes remotos de la carrera de Licenciatura en Psicología en una exigente universidad de Inglaterra. El 94% pasaron como hechos por humanos. Los autores del estudio concluyen que de manera muy consistente los exámenes resueltos con IA obtenían mejores calificaciones que los hechos por los estudiantes humanos.

    ¿Cómo influye la IA en la democracia?

    Los riesgos asociados con el uso de IA en contextos democráticos son significativos. La generación automática de contenido puede ser utilizada para difundir desinformación y noticias falsas a gran escala. Los algoritmos son expertos en identificar y amplificar contenido que resuena con audiencias específicas, lo que distorsiona la percepción pública e influye en las opiniones de los votantes. “Uno de los peligros que tienen los grandes modelos de lenguaje es su capacidad para reafirmar los sesgos ideológicos de sus usuarios, lo que contribuye a su polarización política y obstaculiza su pensamiento crítico”, describió Grinberg.

    Herramientas como bots impulsados por IA pueden crear una ilusión de consenso en redes sociales, lo que amplifica su contenido divisivo y manipula el debate público. Esta manipulación se convierte en una forma de guerra psicológica, al aprovechar las vulnerabilidades cognitivas humanas para influir en creencias y acciones sin que las personas sean plenamente conscientes de ello.

    “El año pasado se publicaron dos estudios al respecto”, indicó el especialista. En ese sentido, explicó: “En el primero (Shangbin Feng y colegas) evaluaron el sesgo político de diferentes modelos de lenguaje. A cada una de estas inteligencias artificiales le hicieron el test de la brújula política de la Political Compass Organization que incluye varios temas, desde feminismo hasta democracia. La conclusión fue que los modelos de lenguaje previamente entrenados tienen inclinaciones políticas que refuerzan la polarización presente en los corpus de preentrenamiento”.

    En el segundo (Fabio Motoki y colegas) existen pruebas sólidas de que la IA presenta un sesgo político significativo y sistemático. “Estos resultados se traducen en preocupaciones reales de que ChatGPT, y los grandes modelos de lenguaje en general, puedan ampliar o incluso amplificar los desafíos existentes que involucran los procesos políticos planteados por Internet y las redes sociales”, afirmó Grinberg.

    Cómo reducir los riesgos de sesgo y manipulación de la IA

    La influencia de la IA en los sistemas democráticos es un fenómeno complejo que presenta tanto oportunidades como riesgos. Para mitigar estos peligros, es esencial desarrollar normativas claras y establecer marcos legales que regulen el uso de inteligencia artificial.

    Además, es importante fomentar la educación digitalcapacitar a los ciudadanos para discernir entre información veraz y falsa, y promover el debate para enriquecer el diálogo democrático.

    También es vital aumentar la transparencia y que las empresas tecnológicas sean responsables por el desarrollo y uso de sus modelos de lenguaje generativo basado en IA.

    El futuro de la democracia dependerá no solo del avance tecnológico, sino también del compromiso colectivo para garantizar que estas herramientas sirvan al bien común. La vigilancia constante sobre cómo se utilizan estas tecnologías será crucial para proteger los principios democráticos fundamentales.

     

    Latest Posts

    spot_imgspot_img

    CHACO LA CRUEL REALIDAD

    Mantente en contacto

    Para estar actualizado con las últimas novedades, ofertas y anuncios especiales.