La empresa de inteligencia artificial OpenAI expuso sus planes y políticas para tratar de impedir que la gente utilice su tecnología para difundir desinformación y mentiras sobre las elecciones, cuando miles de millones de personas en algunas de las mayores democracias del mundo acuden a las urnas este año.

La empresa, creadora del popular chatbot ChatGPT, del generador de imágenes DALL-E y proveedora de tecnología de IA a muchas empresas, entre ellas Microsoft, declaró el lunes en una entrada de su blog que no permitiría a nadie utilizar su tecnología para crear aplicaciones para campañas políticas y grupos de presión, disuadir a la gente de votar o difundir información errónea sobre el proceso de votación.

OpenAI dijo que también comenzaría a poner marcas de agua incrustadas -una herramienta para detectar fotografías creadas por IA- en imágenes hechas con su generador de imágenes DALL-E “a principios de este año”.

Anuncios

“Trabajamos para anticipar y prevenir abusos relevantes – como ‘deepfakes’ engañosos, operaciones de influencia a escala, o chatbots suplantando candidatos”, dijo OpenAI en la entrada del blog.

Partidos políticos, agentes estatales y empresarios oportunistas de Internet llevan años utilizando las redes sociales para difundir información falsa e influir en los votantes. Pero activistas, políticos e investigadores de IA han expresado su preocupación porque los chatbots y los generadores de imágenes puedan aumentar la sofisticación y el volumen de la desinformación política.

Las medidas de OpenAI llegan después de que otras empresas tecnológicas también hayan actualizado sus políticas electorales para hacer frente al auge de la IA. En diciembre, Google dijo que restringiría el tipo de respuestas que sus herramientas de IA dan a las preguntas relacionadas con las elecciones.

También dijo que exigiría a las campañas políticas que le compraran espacios publicitarios que revelaran cuándo utilizaban IA. Meta, matriz de Facebook, también exige a los anunciantes políticos que revelen si han utilizado inteligencia artificial.

Pero las empresas han tenido problemas para administrar sus propias políticas de desinformación electoral. Aunque OpenAI prohíbe el uso de sus productos para crear material dirigido a campañas electorales, un informe de agosto de The Washington Post mostraba que estas políticas no se aplicaban.

Ya ha habido casos muy sonados de mentiras electorales generadas por herramientas de IA. En octubre, The Washington Post informó de que el altavoz doméstico Alexa de Amazon declaraba falsamente que las elecciones presidenciales de 2020 habían sido robadas y estaban llenas de fraude electoral.

La senadora Amy Klobuchar (demócrata de Minnesota) ha expresado su preocupación por que ChatGPT pueda interferir en el proceso electoral, diciendo a la gente que vaya a una dirección falsa cuando se le pregunta qué hacer si las colas son demasiado largas en un colegio electoral.

Si un país quisiera influir en el proceso político estadounidense, podría, por ejemplo, crear chatbots con apariencia humana que promovieran discursos divisivos en las redes sociales estadounidenses, en lugar de tener que pagar a agentes humanos para que lo hicieran. Los chatbots también podrían elaborar mensajes personalizados a la medida de cada votante, lo que podría aumentar su eficacia a bajo coste.

En la entrada del blog, OpenAI dijo que estaba “trabajando para entender cuán efectivas podrían ser nuestras herramientas para la persuasión personalizada”. La empresa abrió recientemente su “GPT Store”, que permite a cualquiera entrenar fácilmente un chatbot utilizando sus propios datos.

Las herramientas de IA generativa no saben lo que es verdadero o falso. En su lugar, predicen cuál podría ser una buena respuesta a una pregunta basándose en miles de millones de frases extraídas de Internet. A menudo, proporcionan textos similares a los humanos, llenos de información útil. También suelen inventar información falsa y hacerla pasar por hechos.

Las imágenes creadas por la IA ya han aparecido por toda la web, incluso en la búsqueda de Google, presentándose como imágenes reales. También han empezado a aparecer en campañas electorales estadounidenses.

El año pasado, un anuncio publicado por la campaña del gobernador de Florida, Ron DeSantis, utilizó lo que parecían ser imágenes generadas por IA de Donald Trump abrazando al ex asesor de la Casa Blanca sobre coronavirus Anthony S. Fauci. No está claro qué generador de imágenes se utilizó para hacer las imágenes.

Otras empresas, como Google y Adobe, fabricante de Photoshop, han dicho que también utilizarán marcas de agua en las imágenes generadas por sus herramientas de IA. Pero esta tecnología no es un remedio mágico contra la propagación de imágenes falsas de IA.

Las marcas de agua visibles pueden recortarse o eliminarse fácilmente. Las criptográficas incrustadas, que no son visibles para el ojo humano, pueden distorsionarse simplemente volteando la imagen o cambiando su color.

Las empresas tecnológicas dicen que están trabajando para mejorar este problema y hacerlas a prueba de manipulaciones, pero por ahora ninguna parece haber descubierto cómo hacerlo de forma eficaz.

Publicidad