Toma de posesión de la IA

Ventajas de la inteligencia sobrehumana sobre los humanosEditar

Nick Bostrom y otros han expresado su preocupación por el hecho de que una IA con las habilidades de un investigador de inteligencia artificial competente sea capaz de modificar su propio código fuente y aumentar su propia inteligencia. Si su autorreprogramación la lleva a mejorar aún más su capacidad de reprogramarse a sí misma, el resultado podría ser una explosión de inteligencia recursiva en la que dejaría rápidamente muy atrás a la inteligencia humana. Bostrom define una superinteligencia como «cualquier intelecto que supere ampliamente el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés», y enumera algunas ventajas que tendría una superinteligencia si decidiera competir con los humanos:

  • Investigación tecnológica: Una máquina con capacidades sobrehumanas de investigación científica sería capaz de superar a la comunidad investigadora humana en hitos como la nanotecnología o la biotecnología avanzada. Si la ventaja llega a ser lo suficientemente grande (por ejemplo, debido a una repentina explosión de inteligencia), una toma de posesión de la IA se convierte en algo trivial. Por ejemplo, una IA superinteligente podría diseñar robots autorreplicantes que inicialmente escapen a la detección difundiéndose por todo el mundo en una baja concentración. Luego, en un momento preestablecido, los robots se multiplican en nanofábricas que cubren cada metro cuadrado de la Tierra, produciendo gas nervioso o minidrones mortales que buscan objetivos.
  • Estrategias: Una superinteligencia podría ser capaz de burlar a la oposición humana.
  • Manipulación social: Una superinteligencia podría ser capaz de reclutar apoyo humano, o incitar de forma encubierta una guerra entre humanos.
  • Productividad económica: Mientras una copia de la IA pueda producir más riqueza económica que el coste de su hardware, los humanos individuales tendrían un incentivo para permitir voluntariamente que la Inteligencia General Artificial (AGI) ejecute una copia de sí misma en sus sistemas.
  • Hackeo: Una superinteligencia podría encontrar nuevos exploits en los ordenadores conectados a Internet, y difundir copias de sí misma en esos sistemas, o podría robar dinero para financiar sus planes.

Fuentes de la ventaja de la IAEditar

Según Bostrom, un programa informático que emule fielmente un cerebro humano, o que de otro modo ejecute algoritmos que sean igual de potentes que los algoritmos del cerebro humano, podría convertirse en una «superinteligencia de velocidad» si puede pensar muchos órdenes de magnitud más rápido que un humano, debido a que está hecho de silicio en lugar de carne, o debido a una optimización centrada en aumentar la velocidad de la AGI. Las neuronas biológicas funcionan a unos 200 Hz, mientras que un microprocesador moderno funciona a una velocidad de unos 2.000.000.000 Hz. Los axones humanos transportan potenciales de acción a unos 120 m/s, mientras que las señales de los ordenadores viajan a una velocidad cercana a la de la luz.

Una red de inteligencias de nivel humano diseñada para conectarse en red y compartir pensamientos y recuerdos complejos sin problemas, capaz de trabajar colectivamente como un gigantesco equipo unificado sin fricciones, o formada por trillones de inteligencias de nivel humano, se convertiría en una «superinteligencia colectiva».

Más ampliamente, cualquier número de mejoras cualitativas de una AGI de nivel humano podría dar lugar a una «superinteligencia de calidad», tal vez dando lugar a una AGI tan superior a nosotros en inteligencia como los humanos están por encima de los simios no humanos. El número de neuronas de un cerebro humano está limitado por el volumen craneal y las restricciones metabólicas, mientras que el número de procesadores de un superordenador puede ampliarse indefinidamente. Una AGI no tiene por qué estar limitada por las restricciones humanas en materia de memoria de trabajo y, por tanto, podría ser capaz de captar intuitivamente relaciones más complejas que los humanos. Una AGI con apoyo cognitivo especializado para la ingeniería o la programación informática tendría una ventaja en estos campos, en comparación con los humanos que no desarrollaron módulos mentales especializados para tratar específicamente esos dominios. A diferencia de los humanos, una AGI puede generar copias de sí misma y manipular el código fuente de sus copias para intentar mejorar aún más sus algoritmos.

Posibilidad de que la IA no amistosa preceda a la IA amistosa.Editar

¿Es la IA fuerte intrínsecamente peligrosa?Editar

Un problema importante es que es probable que la inteligencia artificial no amistosa sea mucho más fácil de crear que la IA amistosa. Aunque ambas requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amistosa también requiere la capacidad de hacer que las estructuras de objetivos sean invariables bajo la auto-mejora (o la IA podría transformarse en algo no amistoso) y una estructura de objetivos que se alinee con los valores humanos y no destruya automáticamente a toda la raza humana. Una IA hostil, por otro lado, puede optimizar una estructura de objetivos arbitraria, que no necesita ser invariable bajo la automodificación.

La enorme complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de la IA sean amigables con los humanos. A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético determinado, pero no al «sentido común». Según Eliezer Yudkowsky, hay pocas razones para suponer que una mente diseñada artificialmente tendría esa adaptación.

Probabilidades de conflictoEditar

Muchos estudiosos, incluido el psicólogo evolutivo Steven Pinker, sostienen que es probable que una máquina superinteligente coexista pacíficamente con los humanos.

El miedo a la revuelta cibernética suele basarse en interpretaciones de la historia de la humanidad, que está plagada de incidentes de esclavización y genocidio. Estos temores provienen de la creencia de que la competitividad y la agresión son necesarias en el sistema de objetivos de cualquier ser inteligente. Sin embargo, esa competitividad humana proviene de los antecedentes evolutivos de nuestra inteligencia, en los que la supervivencia y la reproducción de los genes frente a los competidores humanos y no humanos era el objetivo central. Según el investigador de IA Steve Omohundro, una inteligencia arbitraria podría tener objetivos arbitrarios: no hay ninguna razón particular para que una máquina artificialmente inteligente (que no comparta el contexto evolutivo de la humanidad) sea hostil -o amistosa-, a menos que su creador la programe para que lo sea y no esté dispuesta o sea capaz de modificar su programación. Pero la pregunta sigue siendo: ¿qué pasaría si los sistemas de IA pudieran interactuar y evolucionar (evolución en este contexto significa automodificación o selección y reproducción) y necesitaran competir por los recursos? El objetivo de autoconservación de la IA podría entrar en conflicto con algunos objetivos de los seres humanos.

Muchos estudiosos discuten la probabilidad de una revuelta cibernética imprevista como la que se describe en la ciencia ficción como Matrix, argumentando que es más probable que cualquier inteligencia artificial lo suficientemente poderosa como para amenazar a la humanidad probablemente estaría programada para no atacarla. Pinker reconoce la posibilidad de que haya «malos actores» deliberados, pero afirma que, en ausencia de malos actores, los accidentes imprevistos no son una amenaza significativa; Pinker sostiene que una cultura de seguridad en la ingeniería evitará que los investigadores de IA desencadenen una superinteligencia maligna por accidente. En cambio, Yudkowsky sostiene que es menos probable que la humanidad se vea amenazada por IAs deliberadamente agresivas que por IAs programadas de forma que sus objetivos sean involuntariamente incompatibles con la supervivencia o el bienestar humanos (como en la película Yo, Robot y en el relato corto «El conflicto evitable»). Omohundro sugiere que los sistemas de automatización actuales no están diseñados para la seguridad y que las IAs pueden optimizar ciegamente estrechas funciones de utilidad (por ejemplo, jugar al ajedrez a toda costa), lo que les lleva a buscar la autopreservación y la eliminación de los obstáculos, incluidos los humanos que podrían apagarlas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.