27 C
El Salvador
viernes, 22 noviembre, 2024

Teórico dice que la inteligencia artificial exterminará a la humanidad

Un teórico de la inteligencia artificial publicó un artículo en la revista Time, donde afirma que la humanidad corre peligro mortal por la IA.

El director del Instituto de Investigación de la Inteligencia de las Máquinas, Eliezer Yudkowsky, dio su opinión sobre el imponente avance que ha tenido la inteligencia artificial (IA) en los últimos meses. Lo realizó en una extensa carta publicada en la revista Time.

Primero, el teórico hizo referencia al escrito firmado por más de 1,000 expertos, incluidos Elon Musk, de Tesla, y Steve Wozniak, de Apple, entre otras personalidades, en el que piden pausar el avance de la inteligencia artificial por seis meses, por constituir una «amenaza» para la raza humana:

«Más de 1000 personas, incluidos Elon Musk y expertos en IA, han firmado una carta abierta en la que piden una pausa de seis meses en el desarrollo avanzado de IA«.

Sobre eso, el especialista declaró que tiene «respeto» por los firmantes de la carta, pero que él se abstuvo de estampar su firma porque, a su juicio, «subestima» la gravedad de la situación, y pide muy poco para resolverla.

Según él, el tema crítico no es que la inteligencia artificial se nivele a la humana, sino las consecuencias que ocurrirían si la sobrepasa. Y advierte:

«Los umbrales clave allí pueden no ser obvios. En definitiva, no podemos calcular de antemano qué sucede y cuándo. Y, en la actualidad, parece posible que un laboratorio de investigación cruce líneas críticas, sin darse cuenta».

¿La inteligencia artificial es peligrosa?: «Todos morirán»

En ese sentido, cree que, bajo las circunstancias actuales, el resultado más probable es que la humanidad se extinga:

«Muchos investigadores inmersos en estos temas, incluyéndome, creen que el resultado más probable de construir una IA superhumana e inteligente, bajo cualquier circunstancia apenas parecida a las actuales, es que, de forma literal, todos en la Tierra morirán«.

Y aclara que no es una posibilidad remota, sino que eso es lo «obvio» que sucederá, si se sigue el mismo camino.

Así recogió sus palabras la revista Time:

«Si alguien construye una IA demasiado poderosa, en las condiciones actuales, esperaría que el total de miembros de la especie humana, y toda la vida biológica en la Tierra, mueran poco después».

El investigador sentencia:

«No estamos preparados, ni en camino de estarlo en una ventana de tiempo razonable. Tampoco hay plan. 

El progreso en las capacidades de la IA es enorme, muy por delante del avance en la alineación de la IA. O incluso, del desarrollo en la comprensión de qué diablos está pasando dentro de esos sistemas. 

Si hacemos esto, todos vamos a morir«.

Razones

Yudkowsky argumenta que no es que no se pueda sobrevivir a algo más inteligente que la raza humana, creado por ella, sino que se requiere preparación, precisión, y nuevos conocimientos científicos.

Además, no ve positivo tener sistemas de IA compuestos por gigantes e «inescrutables» conjuntos de números fraccionarios.

Agrega que, sin esa preparación y precisión, el resultado más probable será una IA que no nos obedecerá, y no se preocupará por los humanos ni por la vida sensible en general.

Para ilustrar su ejemplo, compara una batalla entre un Australopithecus, y un Homo sapiens, siendo el primero la humanidad, y el segundo la IA.

¿Cómo sería el proceso?

El experto reconoce que, si bien, en un inicio, la inteligencia estaría solo confinada a las computadoras, una muy avanzada no permanecerá así por mucho tiempo.

Dice que podría enviar cadenas de ADN por correo electrónico a laboratorios, los cuales producirían proteínas a pedido. Esto permite, según él, que una IA que empezó en la red, «construya» formas de vida artificiales, y tome presencia física, o inicie, de manera directa, con la «fabricación molecular posbiológica«.

Las soluciones

El experto propone que la suspensión no debería ser solo de seis meses y en un punto específico, sino indefinida y mundial. Es decir, no puede haber excepciones ni para gobiernos ni militares, por lo que todos deben unirse, y no analizar el asunto desde la óptica geopolítica, o de roles de poder.

También, sugiere decretar, a través de leyes, que las IA solo se entrenen para resolver problemas en biología y biotecnología, no con texto de internet, y no en el nivel en el que comienzan a hablar y planificar.

Sin embargo, si eso aún representa riesgo, optaría por clausurar la exploración en el área. Apagar todo.

Otras medidas propuestas para frenar a la inteligencia artificial

  • Finalizar los clústeres de GPU grandes (las extensas granjas de computadoras donde se refinan las IA más poderosas). 
  • Cerrar las gigantes carreras de entrenamiento. 
  • Poner un límite a la cantidad de poder de cómputo que cualquiera puede usar en el intento de acondicionar un sistema de IA, y reducirlo en los próximos años, con el fin de compensar los algoritmos de entrenamiento más eficientes. Sin excepciones para gobiernos y militares. 
  • Hacer acuerdos multinacionales, con el fin de evitar que las actividades prohibidas se trasladen a otros lugares. 
  • Darle un seguimiento de todas las GPU vendidas.
  • Estar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo, si es necesario.
  • Hacer explícito, en la diplomacia internacional, que la prevención de escenarios de extinción por la IA es una prioridad por encima de los esfuerzos de evitar una batalla nuclear total.

Además, los países nucleares aliados deben estar dispuestos a correr algún riesgo de enfrentamiento nuclear, si es necesario para reducir el peligro de grandes carreras de entrenamiento de IA de otras naciones.

Te podría interesar: La Inteligencia Artificial revela cómo sería Selena Quintanilla a sus 51 años

Últimas noticias