Algunos de los nombres más importantes de la tecnología, entre ellos Elon Musk, están pidiendo que los laboratorios de inteligencia artificial (IA) detengan el entrenamiento de los sistemas más poderosos durante al menos seis meses, citando «riesgos profundos para la sociedad y la humanidad».
El escrito, que ya cuenta con más de mil firmantes, ha sido publicada por el Future of Life Institute, una organización sin ánimo de lucro dedicada a «dirigir la tecnología transformadora hacia el beneficio de la vida y alejarla de riesgos extremos a gran escala».
Entre los firmantes figuran Steve Wozniak, cofundador de Apple, y Elon Musk, consejero delegado de Twitter, así como investigadores de DeepMind, propiedad de Alphabet, y expertos en aprendizaje automático, como Yoshua Bengio y Stuart Russell.
La carta pide específicamente una pausa de al menos seis meses en el entrenamiento de sistemas de IA más potentes que el GPT-4 de Open AI, con los gobiernos preparados para intervenir y aplicar una prohibición.
«Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente una serie de protocolos de seguridad compartidos para el diseño y desarrollo de la IA avanzada, rigurosamente auditados y supervisados por expertos externos independientes», reza el escrito.
«Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes y con capacidades emergentes».
Los expertos también reclaman sistemas de gobernanza más sólidos, que deberían incluir, como mínimo, nuevas autoridades reguladoras dedicadas a la supervisión y el seguimiento de la IA; sistemas de procedencia y marca de agua que ayuden a distinguir lo real de lo sintético y a rastrear las filtraciones de modelos, y un sólido ecosistema de auditoría y certificación.
Los proveedores deben asumir la responsabilidad de los daños causados por la IA y debe haber una sólida financiación pública para la investigación técnica de la seguridad de la IA. Por último, deben crearse instituciones dotadas de los recursos necesarios para hacer frente a las «dramáticas» perturbaciones económicas y políticas que probablemente causará la IA.