febrero 21, 2024
22.2 C
Havana

¡La Recarga MIXTA más barata aCuba! 😍

¡En Cuba recibirán 500 CUP de Saldo Principal, 25 GB y WhatsApp Ilimitado!

Recargar ahora

«Nos matará a todos», la alarmante respuesta de uno de los principales investigadores de la IA

Texto: Hugo León

No es esta la primera vez que el ser humano se arrepiente en parte o totalmente de lo creado por él mismo, pero en pocas ocasiones como esta la alarma se ha encendido tan rápidamente: uno de los principales expertos en Inteligencia Artificial (IA) aseguró recientemente que esta tecnología podría matarnos a todos.

Las palabras provienen nada más y nada menos que de Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute, quien no firmó la carta de cientos de expertos y empresarios que piden una pausa de seis meses en el desarrollo y entrenamiento de nuevas inteligencias artificiales más potentes porque consideró que el texto se quedó corto en la descripción de la amenaza que se avecina y las medidas que solicitan los signatarios.

Yudkowsky estudia desde el 2001 el desarrollo de una IA general y los peligros que esto conlleva, y es considerado uno de los fundadores de este campo de investigación.

Para él, la humanidad está entrando en un terreno poco explorado del que todavía no se conocen sus límites y no se puede calcular por adelantado qué ocurrirá ni cuándo, y actualmente parece posible que un laboratorio de investigación cruce líneas críticas sin ni siquiera enterarse.

Las escenas de películas de ciencia ficción que describen un mundo dominado por las máquinas o situaciones post apocalípticas relacionadas con la sublevación de estas, vienen a la mente luego de leer las declaraciones de Yudkowsky.

“Tampoco estamos en el camino de estar significativamente más preparados a corto plazo”, explica. A lo que añadió “si seguimos así todos moriremos”, incluyendo quienes no eligieron esto.

En su disertación, el experto explicó que no se tiene ni idea de cómo determinar si los sistemas de IA son conscientes de sí mismos porque no se sabe cómo piensan y desarrollan sus respuestas, y que no estamos capacitados para sobrevivir a una súper IA.

Por los motivos anteriores, su propuesta es que la moratoria sobre nuevas IAs complejas debe ser indefinida y de carácter mundial, sin excepciones siquiera para ejércitos o gobiernos.

En su opinión, debe detenerse el entrenamiento de estas tecnologías hasta que sean seguras y tengan la capacidad de valorar la vida de las personas y de los seres vivos.

“No es que no se pueda, en principio, sobrevivir creando algo mucho más inteligente que tú, es que requeriría precisión y preparación y nuevos conocimientos científicos”, dijo en un editorial de la revista Time titulado “Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo”.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí