El CEO de OpenAI pide que el gobierno regule la nueva tecnología que podría «causar un daño significativo»

0
pessoa usando o chatgpt chat gpt ai inteligencia artificial

Photo by Alberlan Barros on Pexels.com

Compartir

«Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos ser vocales al respecto».

El CEO de una importante compañía de Inteligencia Artificial (IA) dijo a los legisladores durante una audiencia en el Senado de los Estados Unidos el martes que le preocupaba que su campo pudiera causar un «daño significativo al mundo» a través del desarrollo no regulado de sistemas de inteligencia artificial.

Durante la audiencia, el ejecutivo de IA abordó preguntas sobre el impacto de la tecnología emergente en los empleos y su potencial para causar estragos durante un ciclo electoral.

«Hemos tratado de ser muy claros sobre la magnitud de los riesgos aquí», dijo Sam Altman, CEO de Open AI, la corporación de inteligencia artificial que generó el conocido sistema de texto predictivo ChatGPT. «Mis peores temores son que causamos un daño significativo -nosotros, el campo, la industria de la tecnología- cause un daño significativo al mundo. Creo que eso podría suceder de muchas maneras diferentes».

«Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos ser vocales al respecto», dijo.

El multimillonario magnate de la tecnología Elon Musk, quien ayudó a fundar Open AI en 2015 y ha advertido con frecuencia sobre el potencial de daño de la IA no regulada, respondió a las advertencias de Altman tuiteando simplemente: «Preciso».

Durante la audiencia del martes, el senador demócrata Richard Blumenthal de Connecticut, quien dijo que su «pesadilla» es que la IA podría tener un impacto destructivo en los empleos, le pidió a Altman que opinara sobre una publicación de blog de 2015 en la que había argumentado previamente que el «desarrollo de la inteligencia artificial sobrehumana … es probablemente la mayor amenaza para la existencia continua de la humanidad».

«Al igual que con todas las revoluciones tecnológicas, espero que haya un impacto significativo en los empleos», respondió Altman. Reconoció que cree que Chat GPT4, que se lanzó el 14 de marzo, «creo que automatizará completamente algunos trabajos», aunque postuló que también «creará otros nuevos que creemos que serán mucho mejores».

Pero los senadores no solo estaban preocupados por el impacto potencial de la IA en los empleos.

El senador republicano Josh Hawley de Missouri citó un documento del MIT de abril que encontró que los sistemas de inteligencia artificial eran capaces de predecir la opinión pública, y le preguntó a Altman si creía que dicha tecnología podría tener un impacto descomunal en los votantes en las elecciones presidenciales.

«Es una de mis áreas de mayor preocupación», respondió Altman, y continuó señalando la «capacidad más general de estos modelos para manipular, persuadir, proporcionar una especie de desinformación interactiva uno a uno».

Antes de la próxima contienda presidencial de 2024, Altman recomendó que se implementen regulaciones gubernamentales para garantizar que las personas «sepan si están hablando con una IA» o si «el contenido que están viendo podría generarse o no».

Otro testigo que participó en la audiencia del martes, el profesor emérito de psicología y ciencia neuronal de la Universidad de Nueva York, Gary Marcus, se hizo eco de las preocupaciones de Altman, señalando que el ejemplo de Hawley de la capacidad de la IA para predecir el comportamiento humano es solo la punta del iceberg.

Para Marcus, la posibilidad más inquietante es que la IA podría «manipular» las creencias políticas de las personas en lugar de simplemente predecirlas.

«Una de las cosas que más me preocupa con GPT4 es que no sabemos en qué está entrenado», dijo Marcus. «En lo que está entrenado tiene consecuencias esencialmente para los sesgos del sistema».

Las preocupaciones expresadas por Altman y Marcus reflejan preocupaciones similares expresadas anteriormente y repetidamente por Musk, quien advirtió que la IA podría representar una amenaza existencial para la civilización.

«Si tienes una IA súper inteligente que es capaz de escribir increíblemente bien de una manera que es muy influyente, ya sabes, convincente … y potencialmente manipula a la opinión pública de una manera que es muy mala, ¿cómo lo sabremos?» Musk en una entrevista en abril con el entonces presentador de Fox News, Tucker Carlson.

Musk agregó que está «preocupado por el hecho de que» ChatGPT de Open AI está «siendo entrenado para ser políticamente correcto, que es simplemente otra forma de ser falso, decir cosas falsas».

«Ese es ciertamente un camino hacia la distopía de la IA», dijo.

Otros observadores de la inteligencia artificial también han estado dando la alarma sobre su potencial para causar un daño significativo desde el lanzamiento de su versión anterior el año pasado.

Este mes, el pionero de la IA, el Dr. Geoffrey Hinton, dijo a The New York Times que sentía que sería «difícil ver cómo se puede evitar que los malos actores la usen [IA] para cosas malas».

Los críticos también han señalado que el sistema de texto predictivo exhibe un sesgo político, algo que Altman ha reconocido anteriormente. En una publicación de SubStack del 5 de diciembre, el investigador David Rozado dijo que realizó tres ensayos sometiendo a ChatGPT a una prueba de brújula política y descubrió que sus respuestas a las preguntas del cuestionario estaban consistentemente asociadas con un punto de vista «liberal del establecimiento».

Durante la audiencia del martes, Altman dijo repetidamente a los senadores que cree que la regulación gubernamental será necesaria para frenar los «modelos cada vez más poderosos», y que Open AI como corporación quiere «trabajar con el gobierno para evitar» que ocurran daños graves.

Sin embargo, en los comentarios de Musk a Carlson, le preocupaba que pudiera ser demasiado tarde para imponer restricciones significativas a la IA.

«Las regulaciones realmente solo se ponen en vigencia después de que algo terrible ha sucedido», dijo Musk. «Si ese es el caso de la IA, y solo ponemos regulaciones después de que algo terrible ha sucedido, puede ser demasiado tarde para implementar las regulaciones. La IA puede tener el control en ese momento».

«¿Crees que eso es real, es concebible que la IA pueda tomar el control y llegar a un punto en el que no puedas apagarlo y tomaría las decisiones por las personas?» Carlson preguntó.

«Sí, absolutamente», respondió Musk. «Ahí es definitivamente hacia donde se dirigen las cosas, seguro».

El senador demócrata Dick Durbin de Illinois dijo que la audiencia del martes fue «histórica» y que no podía recordar otro momento en que las corporaciones pidieran urgentemente al gobierno «que las regulara».

Fuente LifeSites


Descubre más desde PREVENCIA

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario

Descubre más desde PREVENCIA

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo