Más de 1.000 expertos en inteligencia artificial (IA) 🤖 y líderes de la industria tecnológica 💻 han pedido una pausa ⏸️ de seis meses en el entrenamiento de sistemas de IA poderosos como GPT-4, debido a su potencial amenaza para la humanidad 👥. En una carta abierta 📝, 🧵
Un conjunto de especialistas en inteligencia artificial (IA) y líderes de empresas tecnológicas, incluyendo a Elon Musk, han suscrito una carta pública en la que solicitan una interrupción en la evolución de los sistemas de IA. Este documento, que ha recibido más de mil adhesiones, ha sido divulgado por el Future of Life Institute, una entidad sin fines lucrativos que busca «orientar la tecnología innovadora hacia el bienestar de la humanidad y alejarla de peligros de gran envergadura».

Entre los firmantes figuran Steve Wozniak, cofundador de Apple, y Elon Musk, consejero delegado de Twitter, así como investigadores de DeepMind, propiedad de Alphabet, y expertos en aprendizaje automático, como Yoshua Bengio y Stuart Russell.
La carta pide específicamente una pausa de al menos seis meses en el entrenamiento de sistemas de IA más potentes que el GPT-4 de Open AI, con los gobiernos preparados para intervenir y aplicar una prohibición.
«Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente una serie de protocolos de seguridad compartidos para el diseño y desarrollo de la IA avanzada, rigurosamente auditados y supervisados por expertos externos independientes», reza el escrito.
«Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes y con capacidades emergentes».
Los expertos también reclaman sistemas de gobernanza más sólidos, que deberían incluir, como mínimo, nuevas autoridades reguladoras dedicadas a la supervisión y el seguimiento de la IA; sistemas de procedencia y marca de agua que ayuden a distinguir lo real de lo sintético y a rastrear las filtraciones de modelos, y un sólido ecosistema de auditoría y certificación.
Los proveedores deben asumir la responsabilidad de los daños causados por la IA y debe haber una sólida financiación pública para la investigación técnica de la seguridad de la IA. Por último, deben crearse instituciones dotadas de los recursos necesarios para hacer frente a las «dramáticas» perturbaciones económicas y políticas que probablemente causará la IA.

Regulación heterogénea
En la actualidad, la regulación de la IA es muy heterogénea. En Estados Unidos, a principios de este mes, la Cámara de Comercio pidió más regulación para evitar que la IA obstaculice el crecimiento económico o se convierta en un riesgo para la seguridad nacional.
«La IA se utiliza cada vez más por todos los actores importantes en todos los aspectos de nuestra economía y sociedad, tanto a nivel nacional como mundial», dice el informe.
«Sin embargo, en muchos sentidos, en términos de tecnología, impacto económico y desarrollo de políticas de IA, estamos en las fases iniciales de una nueva era».
En el Reino Unido, mientras tanto, el Gobierno ha descartado la creación de un nuevo organismo dedicado a la gobernanza de la IA. En su lugar, está pidiendo a los reguladores existentes en diversos campos, como la Comisión de Igualdad y Derechos Humanos y la Autoridad de Competencia y Mercados, que desarrollen sus propios enfoques sectoriales.
Sin embargo, en la UE avanzan los planes para una nueva Ley de IA, así como una regulación más estricta de la calidad de los datos, la transparencia, la supervisión humana y la rendición de cuentas.
Aunque es muy poco probable que la carta abierta consiga sus objetivos, pone de manifiesto el malestar generalizado que suscitan las tecnologías de IA y aumenta la presión en favor de una mayor regulación.
«La sociedad ha puesto pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad», escriben los autores. «Podemos hacerlo aquí».
¡Compártelo con tus amigos con el botón al final de la página!
Si te ha gustado ¡Vamos! SUSCRÍBETE a continuación:
android Apple Ataques Malware ciberdelincuencia CiberSeguridad Desarrollo Diversion Eventos Facebook Google Hacking Hardware Innovacion Inteligencia Artificial inter Internet Iphone Legal linux Mac Malware Microsoft Movil Multimedia-TV-IOT Móvil Móviles Navegadores Novedades nube Programacion Ransoware Redes informáticas Redes Sociales Seguridad Seguridad en Internet Seguridad Movil Sistemas Operativos Tecnologia Tips Tips Móvil Uso de Smartphone utiles vulnerabilidades Window Windows