La Inteligencia Artificial y en especial el chatbot de OpenAI, mejor conocido como ChatGPT han ganado relevancia durante los últimos meses, ya sea por su lanzamiento al público, uso en distintos entornos, la versión de pago, sus nuevas capacidades con GPT-4 y su integración en Bing.
A pesar de su gran avance y aceptación en múltiples situaciones, hay voces que piden detener el desarrollo de estos modelos de lenguaje generativo hasta tener claras las reglas en la industria, sumándose ahora Italia como un país donde se ha prohibido el uso de ChatGPT por la recopilación ilegal de datos personales.
De acuerdo con el GPDP, el organismo encargado de la protección de datos del país, se ordenó con efecto inmediato, “la limitación temporal del procesamiento de datos italianos contra OpenAI”, además de que se abrió una investigación contra la compañía.
Para esta prohibición, el GPDP toma como antecedente la filtración de datos sufrida por ChatGPT, donde se revelaron conversaciones de usuarios e información de pago de los usuarios de la versión Plus.
Según la autoridad, hay varias fallas en la protección de datos dentro de OpenAI. Por ejemplo, falta información para los usuarios y las partes interesadas sobre el contenido recopilado por OpenAI, pero también se encuentra ausente una base legal que justifique la recopilación y el almacenamiento masivo de datos personales que sirven para entrenar al modelo, además de que hay un tratamiento inexacto de esta información.
El organismo también detalla que en los términos de OpenAI se menciona que el servicio está dirigido a mayores de 13 años, pero que la plataforma no cuenta con filtros que permitan verificar la edad de los usuarios, lo que los expone a respuestas “absolutamente inadecuadas en comparación con su grado de desarrollo y autoconciencia”.
La autoridad también es tajante: o responden en un plazo de 20 días las medidas que adoptarán para abordar los problemas mencionados por la GPDP o se harán acreedores de una multa de hasta 20 millones de euros o el 4% de su facturación anual total mundial.
A OpenAI le está lloviendo sobre mojado
Este no ha sido el único problema al que OpenAI se ha enfrentado recientemente. Desde Estados Unidos, el Centro para la IA y Políticas Digitales (CAIDP), presentó una queja ante la Comisión Federal de Comercio (FTC) revelando que la compañía está violando la Ley de la Comisión con sus modelos de lenguaje como GPT-4.
El Centro apunta a que estas herramientas de IA son “sesgadas y engañosas”, amenazando la privacidad y hasta la seguridad pública, además de no cumplir con las directrices de la FTC sobre que las IAs deben ser transparentes, justas y fáciles de explicar.
Como resultado, el CAIDP busca que se investigue a la compañía, y se suspendan los lanzamientos de futuros modelos de lenguaje hasta que estos cumplan con las pautas establecidas por la agencia, se tengan revisiones independientes de los productos y servicios de GPT antes de su lanzamiento y se cree un sistema de informes de incidentes y estándares para todos los generadores de IA.
Algo que vale la pena destacar es que el presidente de CAIDP, Marc Rotenberg, es uno de los que firmaron la carta abierta solicitando que OpenAI y otros investigadores de IA pausaran el trabajo de desarrollo de las Inteligencias Artificiales por lo menos seis meses, tiempo en el cuál se podrían tener discusiones de ética y hasta establecer marcos de trabajo y parámetros para la construcción de IAs.