PELIGROS DE LA «MÁQUINA INTELIGENTE»: ¿HACIA UN TECNOCÁNCER? (1)

El rabí lo miraba con ternura

y con algún horror. —¿Cómo —se dijo

—pude engendrar este penoso hijo

y la inacción dejé, que es la cordura?

L. Borges: El Golem

 

¿Qué es la inteligencia artificial?

La distinción entre lo natural y lo artificial es epistemológicamente problemática y, aunque suele denominarse artificial a cuanto produce el ser humano de manera planificada, ¿diferenciaría un extraterrestre inteligente la oveja Dolly de, pongamos, un elefante? En última instancia me atrevo a decir que el desarrollo técnico tornará el ente natural indistinguible del artefacto. En cuanto al concepto de inteligencia, su definición ha sido igualmente polémica. De hecho, el psicólogo británico Philip Edward Vernon sugirió no menos de trece definiciones, que, por supuesto, están en tela de juicio.

No obstante, como por algún lugar hay que empezar a pelar la fruta, propondré una acepción provisional: llamaré inteligencia artificial a la exhibida por las máquinas. Con ser un enunciado circularmente vicioso, expresa un propósito tecnológico: el ser humano parece que quiere conferir a la máquina un pensamiento similar al humano.

¿En qué fase estamos? El Test de Turing, el darwinismo nervioso y la estupidez humana.

La historia de la tecnología nos muestra que, en su inicio, los artefactos suelen imitar al fenómeno natural. Así se constata en las máquinas voladoras rudimentarias, que se parecían a las aves, los insectos o los quirópteros. Empero, tal similitud resulta, sino perjudicial, casi siempre inútil para el correcto funcionamiento de la máquina. Algo parecido sucede con la inteligencia artificial, pues, en vez de buscar una inteligencia de suyo «cibernética», se intentan aplicar al artilugio esquemas humanos de conducta, y eso que las neurociencias están aún lejos de entender cómo el ser humano combina intuición, lógica y emoción, o toma decisiones a partir de informaciones dudosas o incompletas.

Sin embargo, se han hecho progresos sustantivos en distintos ámbitos de la inteligencia artificial, desde perspectivas tanto convencionales (para construir maquinas con un razonamiento basado ya en reglas, ya en casos, ya en conductas, ya en redes bayesianas, ya en el Smart Process Management) como computacionales (aprendizaje por la experiencia y redes neuronales).

Y así llegamos al test de Turing, cuya capacidad para demarcar las máquinas de los humanos John R. Searle, filósofo estadounidense, la impugna y, que yo sepa, todavía no lo ha superado máquina alguna por más que Google AlphaGo haya vencido al surcoreano Lee Sedol, campeón mundial de Go [(2)].En tal sentido, mi admirado Mario Bunge, en Mente y sociedad. Ensayos irritantes, señala que «una cosa es el ajedrez, y otra muy distinta la lucha por la vida». Según este epistemólogo los ordenadores no sólo carecen de intuición, sino que están muy lejos de imitar el «darwinismo nervioso» del que nos habla el neurocientífico estadounidense David Eagleman en su obra Incógnito. Las vidas secretas del cerebro.

En este punto cabría citar a Isaac Asimov, para quien, en tanto ignoremos qué son y cómo funcionan la memoria, la inteligencia y la imaginación —ámbitos en los que aún estamos en pañales—, hoy por hoy resulta inviable trasladar tales «potencias» a otro ser. Permítaseme una pequeña boutade: si cuesta dotar de inteligencia a ciertas personas (y no me refiero a algunas de las dedicadas al quehacer político), cuya mente está perfectamente provista para funcionar en ese sentido, ¿cómo esperamos lograrlo con una máquina?

Por otro lado, el matemático español Javier Fresán (cfr.: El sueño de la razón. La lógica matemática y sus paradojas) afirma que durante las demostraciones los sistemas formales permanecen estables, igual que las máquinas en el transcurso de los cálculos, pero nada permite asegurar que la mente viva no sufra modificaciones mientras razona.

¿Serán siempre distinguibles las inteligencias artificial y natural?

Probablemente fueron cartesianas las primeras especulaciones sobre la relación entre mente y cuerpo, y eran dualistas los científicos que capitanearon la neurología hasta la primera mitad del siglo XX. Sin embargo, sobre todo desde finales de la Segunda Guerra Mundial, el monismo incorporó el papel principal. Que todavía no sepamos si el mental es un mero estado físico, o si la mente puede reducirse a un proceso cerebral o es un atributo emergente de cierta cantidad de neuronas con una organización topológica específica, no nos tiene por qué llevar a aceptar la existencia ontológica de otra realidad paralela a la material (en conexión con lo anterior aún se debate si la mente reside en el cerebro o en el organismo entero. Al cabo, cuando vemos correr a un guepardo no decimos que son sus patas las que se apresuran).

Sea como fuere, desde un enfoque monista, y yo soy monista, la inteligencia es una propiedad de la materia (de determinada cantidad y cualidad de la materia, eso es cierto), de modo que, con este punto de vista, no veo imposibilidad alguna para la denominada inteligencia artificial, y que ésta, tal cual dijimos más arriba, no acabe siendo indistinguible de la natural. Lograrla es una cuestión de suerte y tiempo. Téngase en consideración que la IA lleva ensayándose unas pocas décadas mientras que la naturaleza, tras algunos miles de millones de años de evolución y, por tanto, billones de experimentos, ha ido sorteando pequeños pero incontables escollos que han dado como resultado la inteligencia viva tal como la conocemos.

Peligros de la «máquina inteligente»

Son tan caudalosos los ríos de tinta que corren sobre las potenciales ventajas, indudablemente ciertas, de la inteligencia artificial que prefiero centrarme en sus amenazas. El debate que ahora me interesa tiene que ver con el control de lo que denomino «máquina inteligente». Habrá quienes atisben en mis prevenciones una suerte de ludismo, de miedo al desarrollo cultural. Se equivocan meridianamente si así lo juzgan. De hecho, no puedo estar más de acuerdo con Vicente E. Larraga, parasitólogo español, que el pasado día 23 de abril, durante la presentación en el CIEMAT (Madrid) de la Asociación Española para el Avance de la Ciencia, nos expuso brillantemente que el futuro destruirá modos de producción pero creará otros nuevos.

Uno de los principales cuellos de botella en el entorno de la denominada «singularidad tecnológica» lo vinculo a la comprensión —o mejor, a la incomprensión— de lo que podría llegar a hacer esa «máquina inteligente» sin entrar en cuestiones, citadas más arriba y sin duda muy interesantes, tales como si un algoritmo puede superar el test de Turing o si la intuición matemática (término, por otro lado, bastante impreciso) es o no de naturaleza algorítmica… En otras palabras, me sobrecoge el análisis que hace el filósofo sueco Nick Bostrom en Superinteligencia: caminos, peligros, estrategias.

 Coincido con este autor en cuán sorprendente resulta la exigua reflexión que les mereció a los pioneros de la inteligencia artificial las consecuencia del éxito de sus investigaciones tras alcanzar la «singularidad tecnológica», obviando asuntos clave como con qué valores se diseñan los objetivos de la «máquina inteligente» (¿son compatibles con la ecología humana?, ¿se pondera la posibilidad de que haya holguras en tales objetivos?…) o cómo tiene que ser su gobernanza para impedir que la «máquina inteligente» sea monopolizada por determinados grupos.

Veamos. Según Bostrom, una «máquina inteligente» es un dispositivo que, una vez «encendido» (y piénsese si siempre será fácil desconectarlo), es capaz de aprender y mejorar sin intervención humana a una velocidad humanamente inimaginable y, por tanto, hábil para planear con muchísima antelación (de un modo análogo a como Deep Blue juega al ajedrez) diseños de «máquinas inteligentes» que podrá poner a su vez en operación. Las posibilidades de semejante cadena tecnológica, si no fluye por cauces democráticos y con objetivos compatibles con la ecología humana, las juzgo inquietantes, de ahí que convenga meditar sobre la implantación de algo parecido a las leyes asimovianas de la robótica.

No obstante, según mi criterio el peligro más inmediato no es una máquina competente para suplantar a las personas en aquellas tareas consideradas intelectual­mente superiores, sino una que adquiera habilidades auto­poyéticas (una suerte de «código genético» capaz de insertarse en todo un linaje de máquinas). Y me estoy refiriendo no sólo, ni principalmente, a la autoduplicación, sino a la autoprogramación, en virtud de la cual un software «decidiera» programar otro más complejo, con mayor potencia y eficacia para conseguir sus objetivos y evitar su eliminación-desconexión. Es decir, una suerte de «oncovirus» apto para adueñarse de los dispositivos de fabricación y de los sistemas logísti­cos humanos para, por ejemplo, como nos dice Bostrom, fabricar más y mejores tornillos, pero únicamente tornillos, haciendo de nuestro planeta un vertedero exclusivamente de estos objetos, al poner toda la materia, toda la energía y todas las infraestructuras dispo­nibles al servicio de este solo objetivo: manufacturar tornillos.

La situación no es tan de ciencia ficción como se pueda imaginar: El matemático húngaroestadounidense John von Neumann diseñó un programa autorreplicante con unas destrezas de supervivencia y adaptación semejantes a las de los seres biológicos. También están los autómatas celulares de Hui-Hsien Chou y James A. Reggia (Investigación y ciencia, octubre de 2001). De hecho, en 1980 un equipo de la NASA quiso instalar en la Luna una factoría autorreplicante contra la que alegó el físico estadounidense Frank J. Tipler, advirtiendo la posibilidad de que tal factoría colonizase la galaxia entera (repárese en leyes como la de Moore).

Así pues, no sorprende que, a instancias de la Cámara de los Lores británica, se esté organizando una Cumbre mundial en Londres para fijar un «marco común para el desarrollo ético de la IA» en torno a los siguientes paradigmas:

  • Que atienda al bien común de la humanidad.
  • Que opere sujeta a los principios de inteligibilidad y justicia.
  • Que nunca se utilice para conculcar el derecho a la privacidad de individuos, familias o comunidades.
  • Que la ciudadanía toda debe tener derecho a ser educada para su progreso mental, emocional y económico junto a la IA.
  • Que jamás se incorpore en la IA la capacidad autónoma para hacer daño, destruir o engañar a cualquier ser humano.

Ojalá esta iniciativa no sea mera «bayética» [(3)], una especie de bayeta institucional para «encalar sepulcros», que, con el pretexto de la ética, cambia apariencias sin variar lo sustancial.

Por ahora, en el horizonte todavía no se columbra el desiderátum del filósofo utilitarista australiano y catedrático de bioética en la Universidad de Princeton, Peter A. D. Singer: «cuando un ordenador adquiera conciencia, deberá tener derechos humanos».

_________________________________________________________________

(1) Gracias a una amable invitación del Prof. Emilio Muñoz, este texto se leyó el 8 de mayo de 2018 en un seminario IFS, celebrado en el Instituto de Filosofía, CCHS-CSIC, con el título general Chapoteando en una sociedad encenagada: reflexiones sobre el transhumanismo desde la biología

(2) La oportuna intervención de José Beltrán-Escay, doctor en robótica por la universidad de Tokio y examinador de patentes de la Oficina Europea de Patentes en Rijswijk (Países Bajos), que me ha dado a conocer Google Duplex, un asistente para el smartphone presentado el 8 de mayo de 2018 en la conferencia Google I/O, en Mountain View (CA, EEUU), me ha evitado una mayor contumacia. Ya no estoy tan seguro de que un artefacto dotado de IA, en este caso en el ámbito del «Internet de las Cosas», no haya superado el test de Turing. Esto me trae a la mente el ficticio test de Voight-Kampff, que aparece por primera vez en la obra ¿Sueñan los androides con ovejas eléctricas?, de Philip K. Dick, y que se empleaba para distinguir a los replicantes (androides biomecánicos manufacturados en esa novela de ciencia ficción) de los seres humanos. A diferencia de él de Turing, este test de empatía hacía mucho más hincapié en aspectos de índole emocional (una especie de complejo detector de mentiras).

(3) Término que, con su permiso, he tomado prestado del arsenal del Prof. Emilio Muñoz.

__________________________________________________________________

Bibliografía seleccionada

Asimov, Isaac: Yo, robot. Edhasa (Barcelona), 1992.

Boden, Margaret A.: Inteligencia artificial y hombre natural. Tecnos (Madrid), 1984.

Bostrom, Nick: Superinteligencia: caminos, peligros, estrategias. TEELL (Zaragoza), 2016.

Bunge, Mario: Mente y sociedad. Ensayos irritantes. Alianza Editorial (Madrid), 1989.

Cavelos, Jeanne: The Science of Star Wars. St. Martin’s Griffin (Nueva York), 2000.

Dick, Philip K.: ¿Sueñan los androides con ovejas eléctricas?, Edhasa (Barcelona), 2012.

Dieguez, Antonio: Transhumanismo. Herder (Barcelona), 2017.

Eagleman, David: Incógnito. Las vidas secretas del cerebro. Anagrama (Barcelona), 2013.

Fresán, Javier: El sueño de la razón. La lógica matemática y sus paradojas. RBA (Navarra), 2011.

Larraga, Vicente E. (coordinador): Informe sobre la ciencia y la tecnología en España. Fundación Alternativas (2017).

Minsky, Marvin: Robotica. la última frontera de la alta tecnología. Planeta (Barcelona), 1986.

Moravec, Hans: El hombre mecánico. Temas de hoy (Madrid),1990.

Penrose, Roger: La nueva mente del emperador. Mondadori (Madrid), 1991.

Salas, Javier: «La inteligencia artificial conquista el último tablero de los humanos». En El País, 28 de enero de 2016.

Select Committee on Artificial Intelligence, AI in the UK: ready, willing and able? (Report of Session 2017-19, HL paper 100).

Sipper, Moshe y James A. Reggia: «La autorreplicación de las máquinas». En Investigación y ciencia, octubre de 2001.

Susskind, Richard y Daniel Susskind: El futuro de las profesiones. TEELL (Zaragoza), 2016.

Whitby, Blay: Artificial Intelligence: A Beginner’s Guide. Oneworld (Oxford), 2003.

Wiener, Norbert: Cibernética. Tusquets (Barcelona), 1985.

Wolfram, Stephen: A New Kind of Science. Wolfram Publishing (Champaign, IL), 2002.