Enrico A. Ruiz 

La idea de que la inteligencia artificial derroque a la humanidad ha estado presente durante décadas, y recientemente, los científicos emitieron su veredicto sobre si seríamos capaces de controlar una superinteligencia informática de alto nivel. Lo más probable es que no. La inteligencia artificial (IA) es la inteligencia demostrada por las máquinas, a diferencia de la inteligencia natural que muestran los animales y los humanos.  

La investigación en IA se ha definido como el campo de estudio de las entidades inteligentes, lo que se refiere a cualquier sistema que percibe su entorno y realiza acciones para lograr sus objetivos. El problema principal es poder controlar una superinteligencia mucho más allá de la comprensión humana, lo cual requeriría una simulación de esa superinteligencia que podemos analizar (y controlar). Pero si no somos capaces de comprenderla, es imposible crear tal simulación.  

Reglas como “no causar daño a los humanos” no se pueden establecer si no entendemos el tipo de escenarios que se le ocurrirán a una IA, sugieren los autores de una nueva investigación: Una vez que un sistema informático está funcionando a un nivel por encima del alcance de nuestros programadores, ya no podemos establecer límites. Así, una superinteligencia plantea un problema fundamentalmente diferente a lo hasta ahora planteado.  

Esto se debe a que una superinteligencia tiene múltiples facetas y, por lo tanto, es potencialmente capaz de movilizar una diversidad de recursos para lograr objetivos que son potencialmente incomprensibles para los humanos, y mucho menos controlables. Parte del razonamiento del equipo de investigadores provino del problema de la detención (halting problem) planteado por Alan Turing en 1936.  

El problema se centra en saber si un programa de computadora llegará o no a una conclusión y responderá (de modo que se detenga), o simplemente se repetirá para siempre tratando de encontrar una. Como demostró Turing a través de algunos de sus trabajos matemáticos más inteligentes, si bien podemos saber eso para algunos programas específicos, es lógicamente imposible encontrar una manera que nos permita saber eso para cada programa potencial que podría escribirse. Eso nos lleva de vuelta a la IA, que en un estado superinteligente podría contener todos los programas informáticos posibles en su memoria a la vez. 

Cualquier programa escrito para evitar que la IA dañe a los humanos y destruya el mundo, por ejemplo, puede llegar a una conclusión (y detenerse) o no. Es matemáticamente imposible para nosotros estar absolutamente seguros de cualquier manera, lo que significa que no es controlable. Según Iyad Rahwan, científico informático del Instituto Max-Planck para el Desarrollo Humano (y autor del estudio), esto hace que el algoritmo de contención sea inutilizable.  

Por otro lado, la alternativa sería enseñarle a la IA algo de ética y decirle que no destruya el mundo (algo de lo que no se puede estar absolutamente seguro de hacer con ningún algoritmo), además de intentar limitar las capacidades de la superinteligencia. Podría estar aislado de partes de Internet o de ciertas redes, por ejemplo.  

En el estudio también se rechazó esta idea, sugiriendo que limitaría el alcance de la inteligencia artificial. El argumento es que, si no vamos a usar la IA para resolver problemas más allá del alcance de los humanos, ¿para qué molestarse en crearla en primer lugar? La consecuencia de todo esto es que, si vamos a seguir adelante con la inteligencia artificial, es posible que ni siquiera sepamos cuándo llega una superinteligencia fuera de nuestro control. Tal es su incomprensibilidad.  

Eso significa que debemos comenzar a hacer algunas preguntas serias sobre la dirección en la que estas investigaciones se están dirigiendo. Según Manuel Cebrián, otro científico informático del Instituto Max-Planck para el Desarrollo Humano, una máquina superinteligente que controla el mundo suena como ciencia ficción, pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo lo aprendieron.  

Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad. La investigación fue publicada en el Journal of Artificial Intelligence Research, y puede ser consultada aquí: https://jair.org/index.php/jair/article/view/12202