Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Información General |Con elon musk al frente, científicos y ejecutivos quieren poner en pausa las investigaciones seis meses

“Humanidad en riesgo”: qué hay detrás del pedido de frenar la inteligencia artificial

Una carta abierta firmada por centenares de expertos plantea que hay una carrera “fuera de control” hacia tecnologías que pueden derivar en consecuencias “dramáticas”

“Humanidad en riesgo”: qué hay detrás del pedido de frenar la inteligencia artificial

Elon musk, dueño de twitter y tesla, se puso al frente de los reparos sobre la inteligencia artificial/web

30 de Marzo de 2023 | 03:28
Edición impresa

A partir de que se conoció ayer una carta que firmaron miles académicos y CEOs “tech”, como el dueño de Twitter y Tesla, Elon Musk, pidiendo una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) por los “grandes riesgos para la humanidad” que representan estas plataformas, expertos en la temática aseguraron que debe trabajarse en “regulaciones a nivel internacional” sobre estas tecnologías y “ponerlas al servicio de las personas”.

En la carta publicada en el sitio futureoflife.org, Musk; el confundador de Apple, Steve Wozniak, y el historiador Yuval Noah Harari, entre otras cientos de personalidades, advirtieron que “los sistemas de IA pueden plantear riesgos profundos para la sociedad y la humanidad y podrían representar un cambio profundo en la historia de la vida en la Tierra, y deben planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo”.

Los expertos criticaron que “en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”.

La polémica se generó a partir del reciente lanzamiento del programa GPT-4 de la empresa estadounidense OpenAI, a sólo cinco meses de la versión que se abrió al público y que generó que millones de usuarios se vuelquen a utilizar esta tecnología gracias a la capacidad de realizar múltiples tareas como ensayos académicos o piezas musicales.

Con la nueva versión, además de mejorar la interacción gracias a la capacidad de generar textos basados en un lenguaje autorregresivo que utiliza el “machine learning”, se incorporó el trabajo a partir de imágenes y sonidos y la generación de videos.

El pasado lunes, la fuerza policial de la Unión Europea, Europol, se unió al coro de preocupaciones éticas y legales, advirtiendo sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia. El gobierno del Reino Unido dio a conocer propuestas para un marco regulatorio “adaptable” en torno a la inteligencia artificial, que dividiría la responsabilidad de gobernarla entre sus reguladores de derechos humanos, salud y seguridad y competencia, en lugar de crear un nuevo organismo específico.

A partir de las dificultades que estas plataformas agregaron a distinguir entre lo real y lo artificial, los expertos congregados en futureoflife.org alertaron por una “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

Por su parte, el director de Open AI, Sam Altman, reconoció tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”.

“La empresa necesita tiempo para adaptarse”, declaró Altman recientemente.

“Se están lanzando productos muy potentes primero, y después se preguntan por las consecuencias. La evaluación de los riesgos debe hacerse desde el momento de la concepción”, opinó Fernando Schapachnik, director ejecutivo de la Fundación Sadosky, y aseguró que “es hora de discutir la regulación de estas tecnologías”.

Esta semana, el CEO y Fundador de Mercado Libre, Marcos Galperín, se quejó en su cuenta de Twitter por los errores en las respuestas de un chatbot.

“Según ChatGPT 4, trabajé en Boston Consulting Group, fui director de Aerolíneas Argentinas y Globant es una empresa de tecnología brasileña. Cuando le comenté que estos eran todo errores, dijo que fui director del Banco Comafi (también equivocado)”, escribió Galperín y advirtió que “cuando le consultamos por temas que no somos expertos y que son importantes, como temas de salud, esta alucinaciones pueden ser muy peligrosas”.

Esta última semana también se viralizó una foto del papa Francisco con una campera acolchada de color blanco, que fue reproducida por cientos de usuarios en las redes sociales por lo extravagante del atuendo, sin embargo luego se supo que la imagen había sido creada por un estadounidense en tono humorístico con el programa de IA Midjourney.

A partir de las implicancias que tienen los programas de IA sobre la sociedad, más de 100 expertos se congregaron a principios de marzo en Montevideo, Uruguay, en el Encuentro Latinoamericano sobre Inteligencia Artificial Khipu 2023, donde sostuvieron que estas tecnologías “deben ser puestas al servicio de las personas”.

Según manifestaron los especialistas en una declaración conjunta, las IA deben “mejorar la calidad de vida, las condiciones laborales, económicas, de salud y de bienestar general” y alertaron por el impacto “ineludible” de estas tecnologías sobre los empleos.

“Es claro el impacto en el trabajo, que van a desplazar la labor humana es insoslayable, y eso va a repercutir en mayor desigualdad. La tecnología tiene que ser valiosa para toda la sociedad, si solo enriquece a un puñado no sirve”, aseguró Schapachnik.

“El mercado digital no está acostumbrado a las regulaciones pero el potencial de cambio y daño de las IA está fuera de cualquier discusión, entonces hay que trabajar este tema a nivel de los organismos internacionales y además los países deberían avanzar en sus marcos normativos”, aseveró.

Por su parte, Laura Alonso Alemany, profesora de Ciencias de la Computación en la Universidad Nacional de Córdoba y miembro de la Fundación Vía Libre, explicó a Télam que los programas de IA “sólo muestran la factibilidad de automatizar tareas muy mecánicas, pero estamos viviendo una publicidad engañosa, cuidado que se pueden equivocar”.

“Es importante que los usuarios no se dejen amedrentar por la complejidad tecnológica. No son inteligencias competitivas con los humanos, no razonan. Debemos ser un poco críticos, no caer en estas narrativas tan entusiastas que sólo quieren vender”, advirtió Alonso Alemany y reconoció que “es urgente la regulación”.

“Hay una carrera sin control hacia mentes digitales que nadie puede predecir o controlar”

“Se lanzan productos muy potentes, y después se preguntan por las consecuencias”

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE

+ Comentarios

Para comentar suscribite haciendo click aquí

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Básico Promocional

$120/mes

*LOS PRIMEROS 3 MESES, LUEGO $2250

Acceso ilimitado a www.eldia.com

Suscribirme

Full Promocional

$160/mes

*LOS PRIMEROS 3 MESES, LUEGO $3450

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme
Ir al Inicio
cargando...
Básico Promocional
Acceso ilimitado a www.eldia.com
$120.-

POR MES*

*Costo por 3 meses. Luego $2250.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla