El fabricante de ChatGPT ignora la amenaza fatal que representa la IA, según una fuente

0
chatgpt webpage open on smartphone

Photo by Shantanu Kumar on Pexels.com

Compartir

Los futuros avances en la tecnología de IA podrían destruir o dañar catastróficamente a la humanidad, dijo un investigador al NYT

OpenAI es consciente de los grandes riesgos si logra construir un sistema de inteligencia artificial general (AGI), pero los ignora, advirtió Daniel Kokotajlo, exinvestigador de la firma tecnológica estadounidense, en una entrevista con el New York Times.

AGI es un tipo hipotético de inteligencia artificial, capaz de comprender y razonar en una amplia gama de tareas. La tecnología, si se crea con éxito, replicaría o pronosticaría el comportamiento humano, al tiempo que demostraría una capacidad para aprender y razonar.

Según Kokotajlo, que dejó el equipo de gobernanza de Open AI en abril, la probabilidad de que «la IA avanzada» destruya a la humanidad es de alrededor del 70%, pero el desarrollador con sede en San Francisco sigue adelante con ello a pesar de todo.

«OpenAI está realmente entusiasmado con la construcción de AGI, y están compitiendo imprudentemente para ser los primeros allí», dijo el ex empleado al periódico.

El investigador de 31 años también dijo que después de unirse a OpenAI hace dos años y tener la tarea de pronosticar el progreso de la tecnología, llegó a la conclusión de que la industria no solo desarrollaría AGI para 2027, sino que había una gran posibilidad de que la tecnología dañara catastróficamente o incluso destruyera a la humanidad, según el NYT.

El ex miembro del personal dijo que le dijo al CEO de OpenAI, Sam Altman, que la corporación debería «pivotar hacia la seguridad» y dedicar más tiempo y recursos a contrarrestar los riesgos que plantea la IA en lugar de continuar haciéndola más inteligente. Kokotajlo afirmó que Altman estaba de acuerdo con él, pero que nada ha cambiado desde entonces.

Kokotajlo forma parte de un grupo de expertos de OpenAI que recientemente publicaron una carta abierta en la que instan a los desarrolladores de IA, incluido OpenAI, a establecer una mayor transparencia y más protecciones para los denunciantes.

OpenAI ha defendido su historial de seguridad en medio de las críticas de los empleados y el escrutinio público, diciendo que la compañía está orgullosa de su historial en el suministro de los sistemas de IA más capaces y seguros, y cree en su enfoque científico para abordar los riesgos.

«Estamos de acuerdo en que el debate riguroso es crucial dada la importancia de esta tecnología, y continuaremos comprometiéndonos con los gobiernos, la sociedad civil y otras comunidades de todo el mundo», dijo la firma tecnológica citada por el NYT.

Fuente RT


Descubre más desde PREVENCIA

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario

Descubre más desde PREVENCIA

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo