Cargando...

Los riesgos de la inteligencia artificial: especialistas la comparan con las guerras nucleares y las pandemias

La declaración es firmada por personalidades como el líder de ChatGPT y los investigadores que recientemente ganaron el “Nobel de la informática”.

Un grupo de líderes y voces de referencia del ámbito científico emitió una declaración escueta aunque contundente, en la que señalan los riesgos asociados al avance de la inteligencia artificial. En la advertencia comparan los posibles peligros con las guerras nucleares y las pandemias. 

La breve declaración fue publicada por el Centro para la Seguridad de la IA, una organización que procura “reducir los riesgos a escala social de la inteligencia artificial”, según se lee en el sitio web oficial. 

El texto es el siguiente: “Mitigar (los peligros asociados a la IA) debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”. 

Conforme los sistemas basados en IA ganaron el centro de la escena en 2023, con ChatGPT de OpenAI a la cabeza, hemos oído numerosas advertencias respecto a los posibles malos usos de esas tecnologías y sobre los peligros que implica la denominada “súper inteligencia”. 

La declaración emitida por el Centro para la Seguridad de la IA no debería ser tildada de amarillista, en función de la reputación de los firmantes. Entre los que adhieren a la advertencia figuran los investigadores Geoffrey Hinton y Yoshua Bengio, calificados los “padres de la inteligencia artificial” y ganadores en 2020 del Premio Turing, que es considerado el “Nobel de la informática”. 

También firman Demis Hassabis, director de Google DeepMind, y Sam Altman, CEO de OpenAI, la organización que desarrolla a ChatGPT, el chatbot basado en IA que ha impulsado el nuevo auge en el sector. 

“Mi mayor temor es causar daños al mundo”, había dicho Sam Altman de OpenAI. 

En una petición solicitaron que los desarrollos de IA sea pausados durante seis meses, lapso en el que, aconsejaron, es menester idear regulaciones y manuales de buenas prácticas para “distinguir entre lo real y lo artificial” y hacer frente a la “dramática perturbación económica y política, especialmente para la democracia” que consideran causará el avance de esas tecnologías. 

¿Cuáles son los riesgos que trae la IA avanzada? 

Los nuevos sistemas de IA, que avanzan en forma sostenida, no ganaron fama sin exhibir méritos. En rigor, son cada vez más hábiles para ejecutar tareas que hasta hace poco eran exclusivas del ser humano. Por mencionar algunas de esas habilidades, pueden redactar textos coherentes, responder a preguntas complejas, resolver problemas matemáticos, escribir el código de los softwares, crear canciones e imágenes sorprendentes, entre otros ítems de una larga lista. 

Transparencia: ¿Sabemos con certeza cómo usan los datos estos sistemas; es decir, la información que ingresamos y que sirve para su entrenamiento? 

Derechos de propiedad intelectual: ¿Estos programas contemplan las obligaciones vinculadas al uso de contenido de terceros? Ya nos enteramos de conflictos por el uso de material sin el debido reconocimiento de la fuente y pagos asociados a las leyes de copyright. 

Niveles de autonomía: ¿Cuáles son los peligros al crear sistemas cada vez más independientes, que no necesitarán la intervención humana? Recientemente, el célebre inversor estadounidense Warren Buffett dijo sobre ChatGPT: “Puede hacer todo tipo de cosas. Y cuando algo puede hacer todo tipo de cosas, me preocupo un poco”. 

Los límites entre las creaciones humanas y las artificiales: Conforme estas tecnologías avanzan, ¿cómo podemos saber si el contenido que nos llega fue creado por una persona o por una máquina? En ChatGPT desafía a la docencia examinamos más a fondo aquel interrogante. 

En función de las variables repasadas, son cada vez más los especialistas, autoridades y empresarios recomendando la creación de normas para el desarrollo de sistemas de inteligencia artificial. En la vereda opuesta opinan que los riesgos que derivan del uso de la IA son preferibles a las regulaciones. 

 

Radio y Televisión Santafesina Sociedad del Estado. Todos los derechos reservados de uso de marca ©.

Canal y Planta Transmisora: Ruta 11 | Km 482 | Recreo | Santa Fe +54 342 4815620. Oficinas Rosario: Santa Fe 1950 | 1° Piso | Sede de Gob Rosario | +54 341 472 1757.

Visitá Nuestras Redes

Desarrollado por Onus Sistemas