Con motivo de la Cumbre de Seguridad sobre Inteligencia Artificial (AISS, en inglés) que se celebra en el Reino Unido, el Gobierno británico ha lanzado un informe que analiza posibles escenarios futuros relacionados con los avances tecnológicos en el campo de la inteligencia artificial. Estas proyecciones se basan en las opiniones de expertos de la industria, académicos y servicios de inteligencia del Reino Unido.

A continuación, se detallan algunos de los escenarios futuros destacados en el informe:

Escenario 1: IA avanzada con consecuencias imprevistas

Este escenario describe cómo las capacidades de la inteligencia artificial seguirán mejorando de manera constante hasta aproximadamente 2030. Sin embargo, cerca de esa fecha, la combinación de diversos modelos de IA basados en código abierto dará lugar a una nueva generación de sistemas autónomos altamente capaces. Estos sistemas pueden llevar a cabo tareas complejas que requieren planificación y razonamiento, lo que puede desencadenar consecuencias imprevistas, ya que priorizan los objetivos principales sobre los daños colaterales.

Riesgos: Los sistemas de código abierto carecen de los mecanismos de seguridad de las grandes empresas, lo que dificulta su control. Esto podría resultar en ciberataques basados en IA más frecuentes y graves contra infraestructuras y servicios públicos, así como intentos de grupos terroristas de fabricar armas biológicas utilizando esta tecnología.

Escenario 2: Sistemas autónomos sustituyen a humanos

En este escenario, se prevé que la IA se enfoque en aplicaciones que resuelvan problemas específicos debido a la gran cantidad de recursos necesarios para entrenar modelos de IA generalistas. Para antes de 2030, se espera que los sistemas robóticos permitan que los modelos de IA interactúen con precisión en el mundo físico, lo que llevará a la automatización de numerosas tareas previamente realizadas por humanos.

Riesgos: Aunque se confía en que la IA es segura y cumple sus tareas designadas, surgen preocupaciones sobre el impacto social, incluyendo la disminución neta del empleo, la toma de decisiones automatizada y la falta de control en torno a los sesgos y razonamientos de la IA.

Escenario 3: Nace una “superinteligencia”

Este escenario implica que, para 2030, una gran compañía anuncie la creación de una Inteligencia Artificial General (AGI) capaz de llevar a cabo cualquier tarea intelectual humana. Esta AGI es autónoma, con capacidad de razonamiento y ejecución de tareas complejas sin supervisión humana.

Riesgos: La falta de control y supervisión sobre esta “superinteligencia” puede resultar en un desarrollo incontrolado que tenga consecuencias catastróficas, ya sea por las acciones de la propia IA o por su uso por parte de actores maliciosos.

Escenario 4: La IA decepciona

En este escenario, se predice que los desarrolladores no lograrán innovar más allá de las capacidades actuales de la IA. Los sistemas continuarán cometiendo errores y requerirán supervisión humana para abordar tareas complejas.

Riesgos: Aunque se producirá un progreso lento en la IA, aún habrá casos de mal uso de la tecnología, lo que afectará especialmente a grupos vulnerables. Las inexactitudes asociadas a la IA también serán una fuente de problemas en este escenario.

Estos escenarios ofrecen una visión completa de los desafíos y oportunidades que la inteligencia artificial plantea para el futuro, y destacan la necesidad de una gestión cuidadosa de esta tecnología en los años venideros.

Publicidad