Big Tech presenta plataforma para promover la IA «segura»

0
Compartir

Los pesos pesados de TI, incluidos Microsoft y Google, lanzaron un foro centrado en las salvaguardas para proyectos de inteligencia artificial.

Los principales actores de la industria de la IA lanzaron un grupo dedicado al «desarrollo seguro y responsable» en el campo el miércoles. Los miembros fundadores del Frontier Model Forum incluyen Anthropic, Google, Microsoft y OpenAI.

El foro tiene como objetivo promover y desarrollar un estándar para evaluar la seguridad de la IA, al tiempo que ayuda a los gobiernos, corporaciones, responsables políticos y al público a comprender los riesgos, límites y posibilidades de la tecnología, según un comunicado publicado por Microsoft el miércoles.

El foro también busca desarrollar las mejores prácticas para abordar «los mayores desafíos de la sociedad», incluida «la mitigación y adaptación al cambio climático, la detección y prevención temprana del cáncer y la lucha contra las amenazas cibernéticas». 

Cualquiera puede unirse al foro siempre y cuando esté involucrado en el desarrollo de «modelos de frontera» destinados a lograr avances en la tecnología de aprendizaje automático y esté comprometido con la seguridad de sus proyectos. El foro planea formar grupos de trabajo y asociaciones con gobiernos, ONG y académicos.

«Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano». El presidente de Microsoft, Brad Smith, dijo en un comunicado.

Los líderes de pensamiento de IA han pedido cada vez más una regulación significativa en una industria que algunos temen que pueda condenar a la civilización, señalando los riesgos de un desarrollo desbocado que los humanos ya no pueden controlar. Los directores ejecutivos de todos los participantes del foro, excepto Microsoft, firmaron una declaración en mayo instando a los gobiernos y organismos mundiales a hacer de «mitigar el riesgo de extinción de la IA» una prioridad al mismo nivel que prevenir la guerra nuclear.

El CEO de Anthropic, Dario Amodei, advirtió al Senado de Estados Unidos el martes que la IA está mucho más cerca de superar la inteligencia humana de lo que la mayoría de la gente cree, insistiendo en que aprueben regulaciones estrictas para evitar que se utilicen escenarios de pesadilla como la IA para producir armas biológicas.

Sus palabras se hicieron eco de las del CEO de OpenAI, Sam Altman, quien testificó ante el Congreso de los Estados Unidos a principios de este año, advirtiendo que la IA podría salir «bastante mal».

La Casa Blanca reunió un grupo de trabajo de IA bajo la vicepresidenta Kamala Harris en mayo. La semana pasada, aseguró un acuerdo con los participantes del foro, así como con Meta e Inflection AI, para permitir auditorías externas de fallas de seguridad, riesgos de privacidad, potencial de discriminación y otros problemas antes de lanzar productos al mercado e informar todas las vulnerabilidades a las autoridades pertinentes.

Fuente: RT

Deja un comentario

Descubre más desde PREVENCIA

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo