¿Puede la IA «extinguir» a la humanidad?: la razón por la que nadie para su desarrollo a pesar del peligro

La inteligencia artificial (IA) será capaz de lo mejor y de lo peor. Igual se convierte en el mayor aliado en la lucha contra la pobreza y el cambio climático que, en un futuro indeterminado, pone en jaque la supervivencia de la humanidad. Al estilo de una película de ciencia ficción ochentera. Así lo afirman, aproximadamente, 350 de los mayores investigadores y ejecutivos de IA a nivel global, que ayer firmaron una declaración en la que dejaron clara la necesidad de trabajar para que este tipo de tecnología no acabe convirtiéndose en un potencial peligro, incluso, para la supervivencia del mundo. Y solo han necesitado 27 palabras en castellano: «Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear». Entre los firmantes de la declaración se encuentran algunos de los grandes nombres que capitanean esta nueva edad dorada de la IA, que arrancó hace escasos meses con la estruendosa irrupción en la red de esa máquina parlante capaz de responder, prácticamente, cualquier pregunta llamada ChatGPT. Ese es el caso de Geoffrey Hinton , que a inicios de mayo dejó su cargo como vicepresidente de ingeniería de Google para hablar abiertamente sobre los peligros de la IA sin que esto entrase en conflicto con los intereses de la empresa. También el de l profesor de Ciencias de la Computación de la Universidad de Toronto Yoshua Bengio, y el de Demis Hassabis, CEO de la firma de inteligencia artificial de Google, Deepmaind. Los tres son considerados como los padres de la inteligencia artificial, y fueron reconocidos en 2022 con el premio Princesa de Asturias de Investigación Científica y Técnica . Noticias Relacionadas estandar No Los padres de ChatGPT desvelan el momento en que esperan que la IA supere la inteligencia humana R. Alonso estandar No El lado oscuro de la IA: así la utilizaron para robarle más de medio millón de euros a un empresario R. Alonso Como la bomba atómica En la lista de firmantes también aparece, bien destacado al inicio, el nombre de Sam Altman, director ejecutivo de OpenAI , la empresa creadora de ChatGPT y de DALL-E , herramienta capaz de generar imágenes a partir de un puñado de palabras del usuario. Durante las últimas semanas, el ejecutivo ha alertado en repetidas ocasiones sobre la necesidad de que los actores públicos y privados lleguen a acuerdos con el fin de poner solución a los potenciales peligros de la IA, que tiene un gran potencial para destruir empleos y generar desinformación. Hace apenas una semana, durante una conferencia en Madrid a la que asistió ABC , Altman señaló que la inteligencia artificial debería tratarse «con el mismo cuidado» que el armamento atómico, y abogó por la creación de un organismo internacional similar a la IAEA (Organismo Internacional de Energía Atómica de la ONU) encargado de su control. También dejó claro que, a pesar de los riesgos, es bueno que los usuarios corrientes tengan a su alcance sistemas inteligentes, ya que les permite ir conociéndolos y detectar posibles riesgos. Respecto a la posibilidad de que, como alertan los expertos, la IA pueda convertirse en un peligro para la supervivencia humana, Ulises Cortés, catedrático de Inteligencia Artificial de la Universidad Politécnica de Cataluña, apunta en conversación con este periódico que «la IA es una disciplina científica», y, como tal, el ser humano tiene capacidad para limitar sus funcionalidades. Dicho de otro modo, al menos, por el momento, el desarrollador tiene capacidad de controlar la máquina para que no dañe a la humanidad: «Es cierto que cada vez tenemos algoritmos mejores. Las máquinas son capaces de tomar decisiones por su cuenta, pero siempre específicas. No van a tomar la decisión de acabar con todos por su cuenta. Y si llega una máquina de este tipo, tendremos que hablar del imbécil que la creo». La sombra de China A pesar del potencial riesgo de la inteligencia artificial, las grandes tecnológicas occidentales están convencidas de que el avance de la tecnología no se debe frenar. En su lugar, lo que hay que hacer es crear normativa que controle el desarrollo y estándares de seguridad. Y no solo por las potenciales ganancias económicas que pueden generar los sistemas inteligentes, que también, sino por el temor a que estados antagonistas aprovechen la tecnología para perjudicar los intereses de Estados Unidos y la Unión Europea, como es el caso de China. Durante los últimos meses, EE.UU. ha estado intentando limitar el acceso del país asiático a tecnología estadounidense para, entre otras cosas, frenar su avance en materia de inteligencia artificial. Algo que estaría teniendo poco impacto en la industria china. Desde 2020, organizaciones del gigante asiático han lanzado 79 modelos similares a ChatGPT, y el país está decidido a redoblabar sus esfuerzos para desarrollar su inteligencia artificial y disputarle la hegemonía a Estados Unidos, según un reciente informe estatal recogido por ‘ Reuters ‘. «Está claro que hay países que con la intención de crear armas o de competir con sus rivales, utilicen la IA para dañar a las personas», zanja Cortés.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

WP Radio
WP Radio
OFFLINE LIVE