EE. UU., Reino Unido y otros 16 países firman un acuerdo para hacer que la IA sea «segura por diseño»
Estados Unidos, el Reino Unido y otros 16 países se han unido y han firmado un nuevo acuerdo para hacer que la IA sea “segura por diseño”. aunque solo se considera una declaración básica de principios, la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA) ha mencionado que se trata de un paso en la dirección correcta.
La IA necesita ser mucho más segura de lo que es y necesitamos leyes que regulen la creación de nuevos sistemas basados en ella.
Hasta ahora, hemos visto varios usos de la IA, desde tareas básicas como calcular porcentajes entre dos números hasta algunas respuestas complicadas. Las aplicaciones de la IA son numerosas y simplemente no pueden definirse dentro de un rango de números que se nos ocurran. Cuantos más parámetros tenga un modelo, mejor será, y como la IA se está convirtiendo en una función nativa en los teléfonos de 2024, es importante.
Esto es lo que dice el informe,
Estados Unidos, Gran Bretaña y más de una docena de otros países dieron a conocer el domingo lo que un alto funcionario estadounidense describió como el primer acuerdo internacional detallado sobre cómo mantener la inteligencia artificial a salvo de actores deshonestos, presionando para que las empresas creen sistemas de IA que sean “seguros por diseño.»
En un documento de 20 páginas presentado el domingo, los 18 países acordaron que las empresas que diseñan y utilizan IA deben desarrollarla e implementarla de manera que mantenga a los clientes y al público en general a salvo del uso indebido.
Jen Easterly, directora de CISA, también habló sobre lo importante que es que los países comprendan que el desarrollo de la IA debe tener un enfoque que dé prioridad a la seguridad e incluso alentó a otros países para que también puedan unirse a esto.
«Esta es la primera vez que hemos visto una afirmación de que estas capacidades no deberían limitarse a características interesantes y a la rapidez con la que podemos llevarlas al mercado o a cómo podemos competir para reducir los costes», dijo Easterly a Reuters, afirmando que las directrices representan «Un acuerdo de que lo más importante que hay que hacer en la fase de diseño es la seguridad».
Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur también firmaron el acuerdo. Mientras tanto, para garantizar que la IA no termine convirtiéndose en una amenaza, Europa comenzará a trabajar en leyes específicas que regulen el desarrollo y lanzamiento de nuevos sistemas de IA. Esto significa que todas las empresas que implementen sus sistemas en la UE tendrán que asegurarse de que no haya vulnerabilidades que puedan permitir a los usuarios hacer un mal uso de la IA.
No se puede negar que no se debe detener el uso de la IA, especialmente si esperamos avances y mejoras en nuestra tecnología y, hasta cierto punto, en nuestra vida diaria. Este acuerdo es mucho más importante. Al mismo tiempo, es importante comprender que crear leyes que regulen el uso de la inteligencia artificial no es una tarea fácil y pueden pasar años antes de que llegue a concretarse. Al mismo tiempo, hay que darse cuenta de que la IA tendrá capacidades que irá desarrollando a lo largo de su transcurso. Esto significa que crear regulaciones y reglas que se apliquen al modelo actual de IA podría no ser suficiente dentro de un par de años, cuando el mismo modelo haya aprendido más.
Fuente de noticias: Reuters
Deja una respuesta