que
Pausar la Inteligencia Artificial
Un grupo de más de 1.000 empresarios, inversores, investigadores y analistas, suscribieron una carta en la que solicitan frenar el desarrollo de la Inteligencia Artificial (IA). Su intención es que los laboratorios de IA detengan «de inmediato y durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4».
Entre los firmantes de esta carta figuran el empresario Elon Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque, además de investigadores de la firma DeepMind.
Durante los último días de marzo (2023) se publicaron muchas noticias de todos los medios de comunicación con respecto a este hecho. En la mayoría de ellos se hace un breve resumen de su contenido, pero no he visto a ninguno que publique la carta completa.
Por ello he procedido a su traducción al español y publicarla íntegra en este post, para que puedan leerla de primera mano. Para los que prefieran leer la original en inglés, más abajo les dejo el enlace.
La carta sobre la Inteligencia Artificial en español
Para su mejor comprensión la hemos divido en párrafos titulados
Los sistemas de IA con inteligencia competitiva humana pueden plantear riesgos profundos para la sociedad y la humanidad, como se muestra en extensas investigaciones y reconocido por los principales laboratorios de IA. Como se indica en los ampliamente respaldados Principios de IA de Asilomar, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe ser planificada y gestionada con la misma atención y recursos.
Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA están en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.
Muchas interrogantes
Los sistemas de IA contemporáneos se están volviendo competitivos con los humanos en tareas generales, y debemos preguntarnos: ¿Debemos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Tenemos que automatizar todos los trabajos, incluso los satisfactorios? ¿Hay que desarrollar mentes no humanas que eventualmente podrían superarnos en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgar la pérdida del control de nuestra civilización? Tales decisiones no deben ser delegadas a líderes tecnológicos no electos.
Los sistemas de IA poderosos deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI sobre la inteligencia artificial general afirma que «En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar futuros sistemas, y que los esfuerzos más avanzados acuerden limitar la tasa de crecimiento de la capacidad utilizada para crear nuevos modelos». Estamos de acuerdo. Ese punto es ahora.
Detener por seis meses
Por lo tanto, pedimos a todos los laboratorios de IA que detengan de inmediato durante al menos 6 meses la capacitación de sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si no se puede implementar rápidamente una pausa de este tipo, los gobiernos deberían intervenir e instituir una moratoria.
Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos independientes externos. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. [4] Esto no significa una pausa en el desarrollo de IA en general, simplemente un retroceso de la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.
La investigación y el desarrollo de IA deben centrarse en hacer que los sistemas actuales de vanguardia sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.
Regulaciones, supervisión y seguimiento
Al mismo tiempo, los desarrolladores de inteligencia artificial deben trabajar con los responsables políticos para acelerar dramáticamente el desarrollo de sistemas de gobernanza robustos para la IA.
Estos sistemas deben incluir, como mínimo: nuevas y capaces autoridades reguladoras dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes conjuntos de capacidades computacionales; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear fugas de modelos; un ecosistema de auditoría y certificación robusto; responsabilidad por el daño causado por la IA; financiamiento público sólido para la investigación de seguridad técnica en la IA; e instituciones bien dotadas de recursos para hacer frente a las dramáticas interrupciones económicas y políticas (especialmente a la democracia) que causará la IA.
La humanidad puede disfrutar de un futuro próspero con la IA. Al haber tenido éxito en la creación de sistemas de IA potentes, podemos ahora disfrutar de un «verano de la IA» en el que cosechemos las recompensas, diseñemos estos sistemas para el beneficio claro de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacer lo mismo aquí. Disfrutemos de un largo verano de la IA, en lugar de precipitarnos desprevenidos hacia una caída.
Enlace a la carta original en inglés: Pause Giant AI Experiments: An Open Letter.
Para más artículos como este visitar nuestro Blog.