News

6/recent/ticker-posts

Cómo una superinteligencia artificial podría realmente destruir a la humanidad

Estoy seguro de que la inteligencia artificial será nuestra última ruina. Su potencial para acabar con la humanidad es algo en lo que he estado pensando y escribiendo durante la mayor parte de los últimos 20 años. Recibo muchas críticas por esto, pero la perspectiva de que la civilización humana sea extinguida por sus propias herramientas no debe ser ignorada.

Hay una objeción sorprendentemente común a la idea de que una superinteligencia artificial podría destruir nuestra especie, una objeción que encuentro ridícula. No es que la superinteligencia en sí sea imposible. No es que no podamos evitar que una máquina deshonesta nos arruine. Esta ingenua objeción propone, más bien, que una computadora muy inteligente simplemente no tendrá los medios o la motivación para acabar con la humanidad.

Pérdida de control y comprensión

Imagínese sistemas, ya sean biológicos o artificiales, con niveles de inteligencia iguales o mucho mayores que la inteligencia humana. Los cerebros humanos radicalmente mejorados (o incluso los cerebros de animales no humanos) podrían lograrse mediante la convergencia de la ingeniería genética, la nanotecnología, la tecnología de la información y la ciencia cognitiva, mientras que es probable que la inteligencia de las máquinas sea mayor que la humana a través de los avances en las ciencias de la computación, ciencias cognitivas y emulación de todo el cerebro.

Y ahora imagina si algo sale mal con uno de estos sistemas o si se utilizan deliberadamente como armas. Lamentablemente, probablemente no seremos capaces de contener estos sistemas una vez que surjan, ni podremos predecir la forma en que estos sistemas responderán a nuestras solicitudes.

“Esto es lo que se conoce como el problema de control”, explicó en un correo electrónico Susan Schneider, directora del Center for Future Mind y autora de Artificial You: AI and the Future of the Mind. “Es simplemente el problema de cómo controlar una IA que es mucho más inteligente que nosotros”.

Para las analogías, Schneider señaló el famoso escenario de los clips de papel, en el que un fabricante de clips de papel en posesión de una inteligencia artificial mal programada se propone maximizar la eficiencia de la producción de clips de papel. A su vez, destruye el planeta al convertir toda la materia de la Tierra en clips, una categoría de riesgo denominada “instanciación perversa” por el filósofo de Oxford Nick Bostrom en su libro de 2014 Superintelligence: Paths, Dangers, Strategies. O más simplemente, está la vieja historia del genio mágico, en la que la concesión de tres deseos “nunca sale bien”, dijo Schneider. La preocupación general, aquí, es que le diremos a una superinteligencia que haga algo y, debido a que no obtuvimos los detalles del todo bien, malinterpretará gravemente nuestros deseos, lo que resultará en algo que no pretendíamos.

Por ejemplo, podríamos solicitar un medio eficiente para extraer energía solar, lo que provocaría que una superinteligencia usurpara los recursos de todo nuestro planeta para construir una matriz solar masiva. Pedirle a una superinteligencia que “maximice la felicidad humana” podría obligarla a reconfigurar los centros de placer de nuestro cerebro o cargar cerebros humanos en una supercomputadora, obligándonos a experimentar perpetuamente un ciclo de cinco segundos de felicidad por la eternidad, como especula Bostrom. Una vez que aparece una superinteligencia artificial, la fatalidad podría llegar de formas extrañas e inesperadas.

Eliezer Yudkowsky, un teórico de la IA en el Instituto de Máquinas para la Inteligencia Artificial, piensa en la superinteligencia artificial como procesos de optimización, o un “sistema que alcanza pequeños objetivos en grandes espacios de búsqueda para producir efectos coherentes en el mundo real”, como escribe en su ensayo “Artificial Intelligence as a Positive and Negative Factor in Global Risk”. El problema es que estos procesos tienden a explorar un amplio espacio de posibilidades, muchas de las cuales no podríamos imaginar. Como escribió Yudkowski:

Estoy de visita en una ciudad lejana y un amigo local se ofrece como voluntario para llevarme al aeropuerto. No conozco el barrio. Cuando mi amigo llega a una intersección de calles, no puedo predecir los giros de mi amigo, ya sea individualmente o en secuencia. Sin embargo, puedo predecir el resultado de las acciones impredecibles de mi amigo: llegaremos al aeropuerto. Incluso si la casa de mi amigo estuviera ubicada en otro lugar de la ciudad, de modo que mi amigo hiciera una secuencia de giros completamente diferente, predeciría con la misma confianza nuestro destino. ¿No es esta una situación extraña, científicamente hablando? Puedo predecir el resultado de un proceso, sin poder predecir ninguno de los pasos intermedios del proceso.

Divorciada de los contextos humanos e impulsada por su programación basada en objetivos, una máquina podría infligir daños colaterales considerables al intentar pasar de A a B. De manera sombría, una IA también podría usar y abusar de un poderoso recurso preexistente, los humanos, cuando intenta lograr su objetivo, y de formas que no podemos predecir.

Una IA programada con un conjunto predeterminado de consideraciones morales puede evitar ciertos escollos, pero como señala Yudkowski, será casi imposible para nosotros predecir todos los caminos posibles que podría seguir una inteligencia.

Una posible solución al problema del control es imbuir una superinteligencia artificial con códigos morales compatibles con los humanos. Si pudiéramos lograr esto, una máquina poderosa se abstendría de causar daño o de hacer sus negocios de una manera que viole nuestra sensibilidad moral y ética, de acuerdo con esta línea de pensamiento. El problema, como señaló Schneider, es que para que podamos “programar en un código moral, necesitamos una buena teoría moral, pero hay mucho desacuerdo al respecto en el campo de la ética”, dijo.

Buen punto. La humanidad nunca ha producido un código moral común en el que todos puedan estar de acuerdo. Y como puede decirle cualquiera que tenga un conocimiento rudimentario del problema del tranvía, la ética puede volverse muy complicada rápidamente. Esta idea, de que podemos hacer que la superinteligencia sea segura o controlable enseñándole la moralidad humana, probablemente no funcione.

Modos y medios

“Si pudiéramos predecir lo que hará una superinteligencia, seríamos así de inteligentes nosotros mismos”, explicó Roman Yampolskiy, profesor de informática e ingeniería en la Universidad de Louisville. “Por definición, la superinteligencia es más inteligente que cualquier humano y, por lo tanto, encontrará una solución desconocida para lograr” los objetivos que le asignamos, ya sea diseñar un nuevo medicamento para la malaria, diseñar estrategias en el campo de batalla o Red energética local. Dicho esto, Yampolskiy cree que podríamos predecir las acciones malignas de una superinteligencia al observar ejemplos de lo que un humano inteligente podría hacer para apoderarse del mundo o destruir a la humanidad.

Publicar un comentario

0 Comentarios