Página Robots Argentina
[PRINCIPAL] [NOSOTROS] [ACTIVIDAD] [NOTICIAS] [ARTICULOS] [ENLACES] [GALERIA] [CONTACTO]

29/May/07

¿Por qué es peligrosa una IA?

Para ponerlo en una sola frase, diría que es porque sólo una minoría de los conjuntos de objetivos cognitivamente posibles establecen alta prioridad en la continuada superviviencia de los seres humanos y de las estructuras que valoramos. Otra razón es que no podemos especificar con suficiente detalle matemático lo que valoramos para transferirlo a una nueva especie sin que requiera mucho problema.

Sería fácil si pudiéramos transferir el grupo de objetivos de un "típico humano" o de una "buena persona" y desear lo mejor. Pero hay un problema: no tenemos evidencias experimentales de qué ocurre cuando un ser humano puede modificar sus propios objetivos, o incrementar su propia inteligencia y/o poder físico de manera exponencial.

Las pocas pruebas que tenemos de los escenarios donde las personas adquiren mucho poder en un breve lapso indican que los resultados no son habitualmente buenos. De hecho, hemos complicado los mecanismos democráticos incorporados en nuestra sociedad para protegernos de este tipo de resultados.

La mayoría de los diseñadores de IA están fallando el desafío porque nadie desea asumir la responsabilidad de crear el primer ser realmente inteligente. Sólo quieren jugar con su programa. La idea de asumir cualquier responsabilidad por los productos de la propia investigación es una noción relativamente reciente, que sólo tiene peso en una minoría de científicos e ingenieros, incluso hoy. Esto es habitual porque los científicos e ingenieros están engarzados en unos enormes aparatos institucionales que pone la responsabilidad tan lejos por arriba de la cadena de mandos que los reales investigadores están eximidos de la mayor parte, si no del total, de la responsabilidad. Volvamos al asunto original del conjunto de objetivos. Aquí hay algunas probables aplicaciones para las tecnologías de IA más avanzadas en los próximos 10-20 años:

Análisis de inteligencia y juegos de guerra. Imposición de la ley. Análisis de la política interestatal. Finanzas, banca, e inversiones. Control de robots de combate. Automatización de los flujos de trabajo.

Hay muchas otras, pero puse éstas al tope de la lista porque tienen más importancia económica o política, y por lo tanto conseguirán más dinero para la investigación.

Mientras las IA en estas áreas progresan, los sistemas irán desde producir decisiones sólo cuando se las pidan explícitamente, hasta producir decisiones continua y automáticamente. Cuando un trabajador humano consulte la computadora por una entrada, será más como inclinar una taza en un chorro y llenarla en la preexistente corriente de fusión de conocimientos y toma-de-decisiones, más que accionar un interruptor luminoso o presionar `correr' para un programa convencional de computadora.

Al ser entidades que constantemente piensan y toman decisiones, estos sistemas de IA tendrán implícitos objetivos máximos, tanto si las personas los programen explícitamente o no. El máximo objetivo implícito de un automatizador de flujo de trabajo será acelerar la terminación de las tareas productivas. El máximo objetivo implícito del robot de finanzas será escoger las acciones que maximicen el rendimiento de la inversión. El máximo objetivo implícito de las IA de combate será eliminar o capturar a las personas especificadas por ciertos archivos de datos de su memoria.

Lo que hace a una IA tan peligrosa potencialmente es la ausencia de antecedentes de sentido común y humanidad que nosotros damos por sentados. Cuando el reloj da las 5, la mayoría de los trabajadores dejan sus tareas y acaban el día. Se van a casa y pasan el tiempo con su familia, miran la TV o juegan juegos, o sólo se relajan. Un trabajador artificial no tendría tal "normalidad de trasfondo" a menos que lo programemos en él. Está en tarea, 24 horas al día, 7 días a la semana, mientras su computadora continúe tomando energía de la pared. Esa clase de dedicación monomaniaca es la que pone a la humanidad en riesgo de una IA cuando empieza a salir del laboratorio y entrar en el mundo real. Una IA con máximos objetivos implícitos querrá reforzar esos objetivos y conseguirlos más eficazmente, donde los "objetivos" no son los mismos que los que vería un ser humano al que le pasaron un trozo de papel con esos objetivos escritos, sino como son representados en el contexto de la estructura de decisiones y cosmovisión de la IA.

La racionalidad y la sensatez de los objetivos no son fáciles de transferir a una mente sin el conocimiento y el sentido común incorporado en cada ser humano normal neurolígicamente. Una inteligencia pizarra en blanco sentada en medio de un bosque podría desarrollar modelos y hacer inferencias sobre los numerosos aspectos de su entorno —esos árboles son altos, esos animales se mueven pero las plantas no, el clima cambia en ciclos. ¿Pero que hay de las inferencias sobre "lo que es correcto hacer"? No se puede obtener un `debería' de una cosa. Poner una IA en un ambiente social con seres humanos u otras IA no ayuda, porque sin algo de motivación profundamente arraigada para preocuparse por esta rara cosa "moral" en primer lugar, una IA sólo continuará alegremente llevando a cabo los objetivos carentes de sutileza que le asignaron originalmente.

Mientras logra la habilidad de mejorar su propia inteligencia o rozar el poder de la robótica, continuará mejorando más y más para conseguir esos objetivos, y a los humanos les será más y más difícil alcanzarla y transferirle la motivación de preocuparse por la moral en abstracto. Si una IA en alguna de las aplicaciones que antes cité lograra la habilidad de superarse de manera significativa, mental o físicamente, los máximos objetivos implícitos que le fueron dados estarán magnificados muchas veces. Habrá pocas razones para que la IA modifique esos objetivos, a menos que tales mecanismos de flexibilidad fueran explícitamente programados. Cuando un humano ve que alguien sufre hambre, tiende a sentirse apenado él y por lo menos desea poder ayudar. Cuando un humano ve que alguien ataca a un niño indefenso, tiende a enfadarse. Para una IA típica, una persona hambrienta o un niño atacado son solamente relevantes en el contexto de los objetivos que ya tiene —"¿Cómo afecta este humano hambriento a los precios de las acciones?", o "¿Puede este humano hambriento darme información respecto a la ubicación de mi próxima meta?", son dos preguntas que pueden llegar a su mente.

Libertad, empatía, autodeterminación, construcción de consenso, resolución de conflictos, estética, camaradería y comprensión... estos valores e inclinaciones están incorporados automáticamente en cada ser humano sin serios defectos cerebrales. Para que una IA los comparta, tienen que ser puestos en términos de líneas de código y rigor matemático. ¿Qué programador tiene tiempo de hacer todo ese trabajo cuando la inteligencia general sin una moral de apariencia humana será significativamente más fácil de conseguir?

Esa disparidad de dificultad entre la inteligencia general desnuda y la inteligencia general moralmente sofisticada es lo que hace a la IA tan peligrosa a largo plazo.

Institute for Ethics and Emerging Technologies. Traducido para Desarrolladores de Robots y Axxón

            

Grupo Yahoo Desarrolladores de Robots