Científicos piden un "plan de contingencia" en caso de que los humanos pierdan el control de la IA

Científicos piden un "plan de contingencia" en caso de que los humanos pierdan el control de la IA

#crypto #cryptomonedas #bitcoin

Un grupo de científicos en inteligencia artificial está instando a las naciones a crear un sistema global de supervisión para prevenir posibles “resultados catastróficos” si los humanos pierden el control de la IA.

En una declaración publicada el 16 de septiembre, un grupo de científicos influyentes en IA expresó su preocupación de que la tecnología que ayudaron a desarrollar podría causar daños graves si se pierde el control humano.

“La pérdida del control humano o el uso malintencionado de estos sistemas de IA podrían llevar a resultados catastróficos para toda la humanidad”, decía la declaración antes de continuar:

“Desafortunadamente, aún no hemos desarrollado la ciencia necesaria para controlar y salvaguardar el uso de tal inteligencia avanzada”.

Los científicos coincidieron en que las naciones deben desarrollar autoridades para detectar y responder a incidentes de IA y riesgos catastróficos dentro de sus jurisdicciones, y que se debe desarrollar un “plan de contingencia global”.

“A largo plazo, los estados deben desarrollar un régimen de gobernanza internacional para prevenir el desarrollo de modelos que puedan representar riesgos catastróficos globales”.

La declaración se basa en los hallazgos del Diálogo Internacional sobre la Seguridad de la IA en Venecia a principios de septiembre, la tercera reunión de este tipo organizada por el grupo de investigación sin fines de lucro Safe AI Forum de EE.UU.

La profesora de la Universidad Johns Hopkins, Gillian Hadfield, quien compartió la declaración en una publicación en X, dijo: “Si tuviéramos algún tipo de catástrofe dentro de seis meses, si detectamos que hay modelos que están comenzando a auto-mejorarse de forma autónoma, ¿a quién vas a llamar?”

Fuente: Gillian Hadfield

Declararon que la seguridad de la IA es reconocida como un bien público global, que requiere cooperación y gobernanza internacional.

Los desarrolladores de IA propusieron tres procesos clave: acuerdos e instituciones de preparación para emergencias, un marco de garantía de seguridad y una investigación global independiente en seguridad y verificación de IA.

La declaración contó con más de 30 firmantes de Estados Unidos, Canadá, China, Gran Bretaña, Singapur y otros países. El grupo estaba compuesto por expertos de las principales instituciones y universidades de investigación en IA y varios ganadores del Premio Turing, el equivalente al Premio Nobel en computación.

Los científicos dijeron que el diálogo era necesario debido a la disminución del intercambio científico entre las superpotencias y al creciente desconfianza entre EE.UU. y China, lo que añade dificultad para alcanzar un consenso sobre las amenazas de la IA.

A principios de septiembre, EE.UU., la UE y el Reino Unido firmaron el primer tratado internacional vinculante de IA del mundo, priorizando los derechos humanos y la responsabilidad en la regulación de la IA.

Sin embargo, las corporaciones tecnológicas y los ejecutivos han dicho que la sobre-regulación podría sofocar la innovación, especialmente en la Unión Europea.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.


source
Según es.cointelegraph.com