29/May/07!f>
¿Por qué es peligrosa una IA?
!t>
Para ponerlo en una sola frase, diría que es porque sólo una minoría
de los conjuntos de objetivos cognitivamente posibles establecen alta
prioridad en la continuada superviviencia de los seres humanos y de
las estructuras que valoramos. Otra razón es que no podemos
especificar con suficiente detalle matemático lo que valoramos para
transferirlo a una nueva especie sin que requiera mucho problema.
Sería fácil si pudiéramos transferir el grupo de objetivos de un
"típico humano" o de una "buena persona" y desear lo mejor. Pero hay
un problema: no tenemos evidencias experimentales de qué ocurre cuando
un ser humano puede modificar sus propios objetivos, o incrementar su
propia inteligencia y/o poder físico de manera exponencial.
Las pocas pruebas que tenemos de los escenarios donde las personas
adquiren mucho poder en un breve lapso indican que los resultados no
son habitualmente buenos. De hecho, hemos complicado los mecanismos
democráticos incorporados en nuestra sociedad para protegernos de este
tipo de resultados.
La mayoría de los diseñadores de IA están fallando el desafío porque
nadie desea asumir la responsabilidad de crear el primer ser realmente
inteligente. Sólo quieren jugar con su programa. La idea de asumir
cualquier responsabilidad por los productos de la propia investigación
es una noción relativamente reciente, que sólo tiene peso en una
minoría de científicos e ingenieros, incluso hoy. Esto es habitual
porque los científicos e ingenieros están engarzados en unos enormes
aparatos institucionales que pone la responsabilidad tan lejos por
arriba de la cadena de mandos que los reales investigadores están
eximidos de la mayor parte, si no del total, de la responsabilidad.
Volvamos al asunto original del conjunto de objetivos. Aquí hay
algunas probables aplicaciones para las tecnologías de IA más
avanzadas en los próximos 10-20 años:
Análisis de inteligencia y juegos de guerra.
Imposición de la ley.
Análisis de la política interestatal.
Finanzas, banca, e inversiones.
Control de robots de combate.
Automatización de los flujos de trabajo.
Hay muchas otras, pero puse éstas al tope de la lista porque tienen
más importancia económica o política, y por lo tanto conseguirán más
dinero para la investigación.
Mientras las IA en estas áreas progresan, los sistemas irán desde
producir decisiones sólo cuando se las pidan explícitamente, hasta
producir decisiones continua y automáticamente. Cuando un trabajador
humano consulte la computadora por una entrada, será más como inclinar
una taza en un chorro y llenarla en la preexistente corriente de
fusión de conocimientos y toma-de-decisiones, más que accionar un
interruptor luminoso o presionar `correr' para un programa
convencional de computadora.
Al ser entidades que constantemente piensan y toman decisiones, estos
sistemas de IA tendrán implícitos objetivos máximos, tanto si las
personas los programen explícitamente o no. El máximo objetivo
implícito de un automatizador de flujo de trabajo será acelerar la
terminación de las tareas productivas. El máximo objetivo implícito
del robot de finanzas será escoger las acciones que maximicen el
rendimiento de la inversión. El máximo objetivo implícito de las IA de
combate será eliminar o capturar a las personas especificadas por
ciertos archivos de datos de su memoria.
Lo que hace a una IA tan peligrosa potencialmente es la ausencia de
antecedentes de sentido común y humanidad que nosotros damos por
sentados. Cuando el reloj da las 5, la mayoría de los trabajadores
dejan sus tareas y acaban el día. Se van a casa y pasan el tiempo con
su familia, miran la TV o juegan juegos, o sólo se relajan. Un
trabajador artificial no tendría tal "normalidad de trasfondo" a menos
que lo programemos en él. Está en tarea, 24 horas al día, 7 días a la
semana, mientras su computadora continúe tomando energía de la pared.
Esa clase de dedicación monomaniaca es la que pone a la humanidad en
riesgo de una IA cuando empieza a salir del laboratorio y entrar en el
mundo real. Una IA con máximos objetivos implícitos querrá reforzar
esos objetivos y conseguirlos más eficazmente, donde los "objetivos"
no son los mismos que los que vería un ser humano al que le pasaron un
trozo de papel con esos objetivos escritos, sino como son
representados en el contexto de la estructura de decisiones y
cosmovisión de la IA.
La racionalidad y la sensatez de los objetivos no son fáciles de
transferir a una mente sin el conocimiento y el sentido común
incorporado en cada ser humano normal neurolígicamente. Una
inteligencia pizarra en blanco sentada en medio de un bosque podría
desarrollar modelos y hacer inferencias sobre los numerosos aspectos
de su entorno —esos árboles son altos, esos animales se mueven pero
las plantas no, el clima cambia en ciclos. ¿Pero que hay de las
inferencias sobre "lo que es correcto hacer"? No se puede obtener un
`debería' de una cosa. Poner una IA en un ambiente social con seres
humanos u otras IA no ayuda, porque sin algo de motivación
profundamente arraigada para preocuparse por esta rara cosa "moral" en
primer lugar, una IA sólo continuará alegremente llevando a cabo los
objetivos carentes de sutileza que le asignaron originalmente.
Mientras logra la habilidad de mejorar su propia inteligencia o rozar
el poder de la robótica, continuará mejorando más y más para conseguir
esos objetivos, y a los humanos les será más y más difícil alcanzarla
y transferirle la motivación de preocuparse por la moral en abstracto.
Si una IA en alguna de las aplicaciones que antes cité lograra la
habilidad de superarse de manera significativa, mental o físicamente,
los máximos objetivos implícitos que le fueron dados estarán
magnificados muchas veces. Habrá pocas razones para que la IA
modifique esos objetivos, a menos que tales mecanismos de flexibilidad
fueran explícitamente programados. Cuando un humano ve que alguien
sufre hambre, tiende a sentirse apenado él y por lo menos desea poder
ayudar. Cuando un humano ve que alguien ataca a un niño indefenso,
tiende a enfadarse. Para una IA típica, una persona hambrienta o un
niño atacado son solamente relevantes en el contexto de los objetivos
que ya tiene —"¿Cómo afecta este humano hambriento a los precios de
las acciones?", o "¿Puede este humano hambriento darme información
respecto a la ubicación de mi próxima meta?", son dos preguntas que
pueden llegar a su mente.
Libertad, empatía, autodeterminación, construcción de consenso,
resolución de conflictos, estética, camaradería y comprensión... estos
valores e inclinaciones están incorporados automáticamente en cada ser
humano sin serios defectos cerebrales. Para que una IA los comparta,
tienen que ser puestos en términos de líneas de código y rigor
matemático. ¿Qué programador tiene tiempo de hacer todo ese trabajo
cuando la inteligencia general sin una moral de apariencia humana será
significativamente más fácil de conseguir?
Esa disparidad de dificultad entre la inteligencia general desnuda y
la inteligencia general moralmente sofisticada es lo que hace a la IA
tan peligrosa a largo plazo.
Institute for Ethics and Emerging Technologies. Traducido para Desarrolladores de Robots y Axxón
!c>
|