Sam Altman expresó que le quitaba el sueño la posibilidad de que el equipo que desarrolló esta aplicación no haya tenido en cuenta “algo difícil y complicado” que podría poner en riesgo a toda la humanidad.

El desarrollo de la inteligencia artificial (IA) viene generando una masiva preocupación en la comunidad científica e incluso entre los mismos expertos que han creado este tipo de tecnología. Los potenciales riesgos que la IA puede llegar a significar para la humanidad han desencadenado la necesidad de regular la actividad.

Este temor toma mayor relevancia, cuando quien es considerado como unos de los “padres” de la IA alerta sobre los problemas a futuro. Sam Altman, es la mente detrás del popular ChatGPT y el director ejecutivo de OpenAI, ahora aseguró que le preocupaba haber creado “algo realmente malo”.

“Lo que más me quita el sueño es la idea hipotética de que ya hemos hecho algo realmente malo al lanzar ChatGPT”, aseguró al respecto el empresario estadounidense a Business Insider.

Preocupación

En esta línea, apuntó que su principal preocupación se centraba en el hecho de que tal vez el equipo que trabajó en desarrollar esta tecnología podría haber pasado por alto “algo difícil y complicado”.

Respecto a las medidas que la compañía pueda tomar ante este escenario, afirmó que “vamos a tener un sistema en marcha para que podamos auditar a las personas que lo están haciendo, licenciarlo, tener pruebas de seguridad antes del despliegue”.
Los riesgos de la Inteligencia Artificial

Los dichos de Sam Altman se dan solo días después de que un grupo de 350 expertos, incluido él, firmaran una carta advirtiendo los riesgos que podría llegar a significar la inteligencia artificial.

El escrito,además, fue apoyado por los directores ejecutivos de las otras dos grandes compañías: Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic).
La declaración fue publicada por el Centro para la Seguridad de la IA y en ella se señalaba la necesidad de: “mitigar el riesgo de extinción (para la humanidad) de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Además, el profesor emérito de Ciencias de la Computación, Universidad de Toronto, Geoffrey Hinton, quien fue noticia por renunciar a la empresa de Google también alentó sobre las alarmas que la IA representa,

Hinton señaló que: “nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores”. Producto de esto es que advirtió que quedarían “de cinco a 20 años” para que la inteligencia artificial logre superar a la humana.

Fuente: The Clinic