abril 15, 2024
15.2 C
Havana

¡La Recarga MIXTA más barata aCuba! 😍

Del 2 de abril al 30 de abril ¡en Cuba recibirán 8 GB para todas las redes, 80 minutos nacionales/internacionales y 80 mensajes nacionales/internacionales!

Recargar ahora

Piden pausa al desarrollo de IA más potentes que el GPT-4 por riesgos para la sociedad

Texto: Hugo León

Una carta abierta firmada por más de mil 100 personalidades de ámbitos de los negocios, las ciencias y la tecnología que incluyen expertos en inteligencia artificial (IA), urge una pausa de al menos seis meses en el desarrollo de sistemas más potentes que el recientemente creado OpenAIs GPT-4, citando riesgos potenciales para la humanidad y la sociedad.

Por solo citar algunos ejemplos del calibre de algunos nombres detrás del texto, cabe mencionar a Elon Musk, fundador y dueño de SpaceX, CEO de Twitter y Tesla, etc.; Steve Wozniak, cofundador de Apple; Evan Sharp, cofundador de Pinterest; Jaan Tallinn, cofundador de Skype; profesores, investigadores y fundadores de grupos de desarrollo de IA; empresarios, ingenieros de Meta, entre otros.

Llama la atención que hasta el momento nadie de OpenAI, el equipo detrás del modelo de lenguaje GPT-4, haya firmado esta carta todavía. Tampoco lo ha hecho nadie de Anthropic, grupo que afirma haberse separado de OpenAI precisamente para construir un chatbot de IA más seguro.

No obstante, se trata de una carta abierta, así que los especialistas de esos dos grupos podrían firmarla en algún momento.

El texto cita investigaciones reconocidas por los principales laboratorios detrás de la creación de inteligencia artificial que demuestran que dichos sistemas con inteligencia competitiva con la humana pueden plantear profundos riesgos y representar un cambio profundo en la historia de la vida en la Tierra.

La misiva asegura que en tal sentido deben planificarse y administrarse los recursos correspondientes.

“Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas”.

¿Para qué una pausa al desarrollo de las IA?

La carta indica que ni siquiera sus creadores pueden entender, predecir o controlar de forma fiable a las IA y recuerda que estos sistemas se están volviendo competitivos para los humanos en tareas generales.

Esta misiva fue emitida por el Instituto sin fines de lucro Future of Life y ha acaparado miradas de todo el mundo, mientras que a lo largo del planeta millones de personas están seducidas por las posibilidades de la inteligencia artificial.

Pero quienes firman la carta dejan bien claro que no son solo fantasías los temores de otros millones que miran a la IA con recelo: “sistemas poderosos de IA deberían ser desarrollados solo cuando estemos seguros de que su efecto será positivo y sus riesgos serán manejables”.

Respecto a la pausa, se pide que se aproveche para desarrollar e implementar conjuntos de protocolos de seguridad compartidos para el diseño y desarollo de IA avanzadas, que sean supervisadas por expertos independientes y que garanticen que los sistemas de IA sean seguros más allá de toda duda razonable.

Las serias preguntas que hace la carta

El texto es inquisitivo y de cierta forma previsor respecto a lo que puede acontecer si no se regula de cierta forma el desarrollo de las IA.

Lanza, por ejemplo, varias preguntas como. “¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?” o “¿Deberíamos automatizar todos los trabajos, incluyendo los de cumplimiento?”

Cuestiona, además, si “deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, dejarnos obsoletas y reemplazarnos”.

Por último, pero no menos inquietante, pregunta “¿Debemos arriesgar el control de nuestra civilización?»

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí