Inteligencia artificial: ¿el final de los humanos? (I)

Desde el final de la Segunda Guerra Mundial, la robótica ha conocido un desarrollo exponencial que pone en serio riesgo el futuro de la condición humana

04 de Agosto de 2024
Actualizado el 05 de agosto
Guardar
Inteligencia Artificial
La inteligencia artificial es uno de los mayores desafíos a los que se enfrenta la humanidad.

En el año 2009, un titular del New York Times proclamaba: “A los científicos les preocupa que las máquinas puedan sobrepasar al hombre en inteligencia”. Expertos de todo el mundo se habían reunido en la Conferencia de Asilomar, California, para discutir cómo sería un futuro ya gobernado por artefactos mecánicos y robots. Entonces los más escépticos bromearon con aquellas previsiones apocalípticas (algunos incluso calificaron el congreso como una reunión de nerds, es decir, personas con un alto coeficiente intelectual pero algo excéntricas). El caso es que han pasado quince años desde aquella advertencia, y ese temor, plasmado en cientos de películas y novelas de ciencia ficción, no ha hecho más que crecer. Tanto es así que, en la actualidad, los científicos están lanzando inquietantes señales de alerta, llegando a sugerir que, de continuar este imparable avance tecnológico, quizá algún día, en un futuro no tan lejano, la inteligencia artificial terminará extinguiendo al arrogante homo sapiens.

Cualquier frontera parece franqueable, cualquier sueño por delirante que se antoje está al alcance de la mano: coches que conducen solos; drones teledirigidos que matan desde las alturas con una precisión máxima (anticipando la guerra cibernética); aplicaciones informáticas que componen sinfonías, escriben novelas y clonan la voz humana; camareros androides que sirven café en los bares; máquinas que llevan a cabo intervenciones quirúrgicas sin necesidad de cirujanos; y hasta programas telemáticos capaces de resucitar a los muertos, mediante hologramas, para que sus familiares y amigos puedan mantener largas conversaciones con ellos a través del teléfono móvil o el ordenador. El futuro ya está aquí, planteando al menos un par de cuestiones trascendentales. La primera, ¿nos convertiremos en perritos falderos de nuestros robots, tendremos que bailar algún día tras los barrotes de una jaula mientras nuestras creaciones robóticas nos arrojan cacahuetes, tal como se pregunta Michio Kaku en su ensayo La física del futuro? Y una segunda derivada de índole ética o moral no menos importante: ¿nos convertiremos nosotros también en máquinas frías e insensibles, nos fundiremos tanto con la tecnología que esa condición que hoy conocemos como “lo esencialmente humano” se acabe transformando en un extraño híbrido a caballo entre lo natural y lo artificial, dando lugar a otra especie próxima al cíborg? La primera pregunta podría responderse con un por qué no; la segunda interrogante solo puede tener una solución afirmativa: la última fase de la prodigiosa evolución humana, desde el australopiteco hasta el robot, puede que ya haya empezado a moldear nuestra psique, nuestros sentimientos y emocionalidad, nuestro mundo interior, en definitiva, aquello que los antiguos filósofos llamaban espíritu o alma. La imagen de ese niño, ese ser superior que metido en su placenta translúcida mira al planeta Tierra con curiosidad, en la última secuencia de 2001: una odisea espacial –la enigmática película de Stanley Kubrick de 1968– anticipa la rebelión de la computadora como una especie de superhombre.

El mito de la creación artificial de la vida es tan antiguo como el mismo ser humano. Ya la Biblia, en su capítulo 2 del Génesis, asegura que Dios creó al hombre del polvo de la tierra y luego sopló en su nariz el aliento vital, colocándolo en la naturaleza animal. Más tarde, la mitología clásica nos habló de la diosa Venus, capaz de hacer que las estatuas cobraran vida (Pigmalión se enamoró perdidamente de una escultura que la diosa revivió llamándola Galatea). Y Vulcano, el herrero del Olimpo, construyó un ejército de guerreros hechos de metal a los que puso a caminar y a correr como si nada (otra profecía cumplida, países como el Reino Unido han anunciado la puesta en marcha de programas militares para la fabricación de soldados-robots). Ya en el siglo XIX, en medio de la Revolución Industrial que abrió la puerta a la pesadilla de una ciencia sin control, Mary Shelley nos habla de un científico que juega a ser Dios, una suerte de moderno Prometeo que arrebata el fuego sagrado para fabricar, con retazos de otros cuerpos, a su engendro Frankenstein. A partir de ahí, la imaginación humana no ha parado de fantasear con la máquina hecha a su imagen y semejanza. Julio Verne con sus viajes espaciales a la Luna en rudimentarios cohetes, Hugo Gernsback con los inventos de Ralph y H.G. Wells con sus máquinas del tiempo e inquietantes trípodes llegados del espacio exterior para arrasar la Tierra empezaron a ponernos en guardia ante los peligros de la tecnología.

La gran pregunta de la informática de hoy es: ¿estamos en condiciones de construir una computadora que sea una réplica perfecta del funcionamiento del cerebro humano?

El impacto de la Segunda Guerra Mundial y el terror nuclear desencadenado por la posterior Guerra Fría vinieron a agudizar la sensación de que nos encaminamos hacia un futuro oscuro y siniestro gobernado por extraños cacharros. George Orwell anticipó el Gran Hermano que todo lo controla (una genial premonición de nuestro actual Internet); Bradbury dibujó un triste porvenir con máquinas, pero sin libros (Fahrenheit 451); Philip K. Dick vislumbró un mundo ultratecnologizado, en constante paranoia y narcotizante; y Asimov nos legó toda una saga de robots.

En apenas doscientos años, desde que Shelley escribió su célebre novela hasta hoy, el salto tecnológico ha sido exponencial y los escritores primero, y los cineastas después, no han parado de indagar en el asunto de la IA, quizá la mayor amenaza a la que se enfrenta la humanidad. Hollywood lleva décadas preparándonos para la revolución robótica. La hipnótica y seductora androide de Metrópolis que reinaba en un mundo dividido en ricos felices y explotados obreros condenados a vivir bajo tierra (Fritz Lang); el robot mesiánico y vengativo de Ultimátum a la Tierra (Robert Wise); los rebeldes y hedonistas replicantes de Blade Runner (Ridley Scott); los hipermusculados hombres de acero de Terminator (James Cameron); los sentimentales autómatas de corazones rotos en busca de una identidad propia de Inteligencia Artificial (Spielberg); el cómico y pequeño solitario WALL.E (Pixar); y el futuro controlado por máquinas aterradoras de Matrix (hermanas Wachowski), gran metáfora del nuevo fascismo posmoderno o tecnopopulismo, no fueron más que sucesivas señales de alerta.

El hombre juega a ser Dios con sus creaciones. ¿Llegaremos a construir algún día un parque de atracciones repleto de androides para goce y disfrute de los turistas, como en la adictiva serie Westworld? Aún no lo sabemos, pero de lograrse, quién sabe si de aquel Far West de cartón piedra y neón no saldrá el pistolero mecánico con mirada de acero y pinta de Yul Brynner capaz de revolverse contra su condición de máquina para ajustarnos las cuentas, a tiro limpio, a los crueles humanos. De alguna manera, la premonición de que algo hemos estado haciendo mal desde el principio, de que el avance científico a menudo viene envuelto en luces y sombras, siempre ha estado ahí, de tal forma que el hombre ha vivido en una pesadilla creciente de ruedas, tornillos, engranajes, cables, electromagnetismo y últimamente chips prodigiosos. El sueño de la razón que produce monstruos, ya lo dijo Goya.

Inteligencia artificial, una breve cronología

La historia atribuye a Alan Turing la condición de padre de la ciencia de la computación. El matemático formalizó el concepto de algoritmo y creó una máquina capaz de calcular por sí misma, bautizada con su apellido. Durante la Segunda Guerra Mundial, trabajó para los aliados descifrando los mensajes en clave de los nazis y del artefacto Enigma, de modo que su labor resultó fundamental para derrotar al fascismo en el campo de batalla. No obstante, los primeros ordenadores como tales no nacieron hasta la década de los años cincuenta. Artilugios rudimentarios capaces de mover cosas por su cuenta y de resolver problemas matemáticos. La opinión pública de la sociedad de consumo, siempre obsesionada con una vida placentera y sin esfuerzos, se sintió irremediablemente seducida por el revolucionario avance. Pronto aparecieron los primeros anuncios de televisión que fantaseaban con la idea de fabricar un robot apto para cocinar, limpiar la casa y hacer la compra. Corrían los sesenta y uno de los pioneros de la IA, Herbert Simon, auguraba que en veinte años las máquinas serían capaces de hacer el trabajo de una persona. Sin embargo, aquel glorioso horizonte temporal pasó con más pena que gloria y, aunque el conocimiento de la robótica siguió dando pasos agigantados, el sumiso mayordomo de acero con cofia, bombilla luminosa en la cabeza y movimientos ortopédicos siguió siendo materia solo reservada para la ciencia ficción. La conclusión de aquel fracaso fue que la primera potencia mundial cerró el grifo de la financiación a la investigación de la IA.

Hubo que esperar a los años ochenta para que la robótica diera un nuevo salto cualitativo. En aquella época, el Pentágono destinó miles de millones de dólares a la industria informática bélica –entonces los halcones de la Plana Mayor iban detrás de construir un camión inteligente que ganaría guerras de un plumazo– y al mismo tiempo un Japón reconstruido e industrialmente desarrollado se sumó a la carrera por conseguir el chip prodigioso. Pero de nuevo las expectativas no estuvieron a la altura de los anuncios a bombo y platillo sobre el esplendoroso futuro y volvió a cerrarse la manguera de las inversiones oficiales.

Aún no hemos llegado al punto en que los robots sustituyan de forma mayoritaria a los humanos en sus empleos, pero sí se está produciendo una paulatina y progresiva robotización del trabajo

Entretanto, algunas noticias inquietantes sobre los peligros de los nuevos inventos de la tecnología aparecían ya en el horizonte. Así, el campeón mundial de ajedrez del momento, Gary Kaspárov, aceptó someterse a un cara a cara con la supercomputadora de IBM Deep Blue. Al principio no le fue mal al genio de Bakú. En un encuentro bautizado como “el hombre contra la máquina”, celebrado en 1996 en Filadelfia (Pensilvania), Kaspárov cayó derrotado una vez, empató dos partidas y ganó tres. Honor salvado. La vanidad del fatuo ser humano había salido bien parada y los escépticos empezaron a mofarse de la IA, que sin duda jamás llegaría a alcanzar el talento natural del hombre. Pronto se vería que incurrir en la soberbia de despreciar la inteligencia de un ordenador capaz de realizar 11.000 millones de operaciones por segundo no era un buen negocio. Apenas un año más tarde, en 1997, se disputó un segundo match bajo el cartel de “el más espectacular duelo de ajedrez de la historia”. En esa ocasión, Deep Blue, que había sido mejorada desde el anterior encuentro (o quizá había aprendido de los errores propios y ajenos, quién sabe), logró derrotar al campeón de carne y hueso. La posibilidad de una máquina más perfecta que el hombre empezaba a materializarse.

Pese a todo, muchos expertos siguieron cayendo en la petulancia de manifestar que la supercomputadora de IBM no era capaz de pensar ni de emitir juicios lógicos por sí misma. Potencia computacional no es propiamente inteligencia humana, decían. Quizá no entonces, pero con el tiempo está claro que la IA está haciendo honor a su nombre y que nos encaminamos al borde de una nueva era, la de las máquinas capaces de elaborar pensamiento autónomo e incluso, y esto es lo más espeluznante de todo, de desarrollar una emocionalidad propia. No es el argumento de una novela de ciencia ficción o de una mala película americana. Es una posibilidad tangible, una meta más que alcanzable, real. ¿Estamos ante el salto adelante que nos catapulte definitivamente hacia un futuro que ni siquiera podemos alcanzar a imaginar o nos encontramos de nuevo ante las fanfarrias de unos programadores informáticos con gafas de pasta, algo diablillos y demasiado proclives a dar rienda suelta a la imaginación? Hay datos que nos llevan a pensar que las hipótesis más utópicas y descabelladas están a un paso de convertirse en portadas de los periódicos.

El cerebro del ordenador

La gran pregunta de la informática de hoy es: ¿estamos en condiciones de construir una computadora que sea una réplica perfecta del funcionamiento del cerebro humano? De ser así, llegará un momento en que podamos moldearla hasta lograr operaciones más allá de la simple mecánica. Operaciones de funcionamiento biológico. Es obvio que el cerebro no trabaja como un ordenador (limitado a tres partes elementales: una entrada de datos, un procesador central que los digiere y una salida de los resultados). No tiene una programación predeterminada ni soporte lógico; no tiene chips, ni circuitos de silicio y acero, ni aplicaciones, ni subrutinas. Es otra cosa, una red de neuronas que se renuevan constantemente cada vez que aprenden una nueva tarea, una estructura entre orgánica e inmaterial que ni siquiera hemos conseguido desentrañar (a día de hoy se desconoce qué es eso que llamamos consciencia). Las neuronas siguen la regla de Hebb: siempre que se toma la decisión correcta, esas vías neuronales salen reforzadas, se vuelven más complejas. Ensayo y error, experiencia, práctica, práctica y más práctica. Cuando nos caemos nos levantamos y tratamos de no tropezar otra vez. Los neurólogos han constatado ese aprendizaje neuronal en casos de personas que han sufrido accidentes con daños graves en la cabeza. Los experimentos acreditan que cuando se pierde una región cerebral por alguna lesión, otra parte de la materia gris trata de asumir las tareas afectadas para volver a ponerlas otra vez en actividad. Sin embargo, si extraemos un componente del ordenador, este dejará de funcionar. El pensamiento humano está misteriosamente disperso; la computadora depende de un procesador central. Además, el cerebro humano coteja muy lento (impulsos nerviosos a 320 kilómetros por hora) en comparación con la velocidad de la luz del ordenador, pero cuenta con una ventaja que la máquina no tiene: trabaja en paralelo, es decir, 100.000 millones de neuronas operando al mismo tiempo, realizando una pequeña parte del cálculo y cada una de ellas conectada a su vez con otras 10.000 neuronas más. No hay inteligencia artificial que pueda superar eso. Por si fuera poco, los transistores emplean un lenguaje binario de unos y ceros, mientras que las neuronas pueden hacerlo en ese sistema digital y además en analógico. Ello permite que el ser humano tenga eso que se conoce como “sentido común”, que teóricamente lo diferencia de la IA.

De ahí que hasta hace poco se pensara que un ordenador no podía aprender, que sería igual de listo o de tonto hoy que ayer. Sin embargo, esa barrera también puede estar a punto de caer. El pasado mes de diciembre un equipo de científicos anunció la creación de un ordenador híbrido fabricado con materiales conductores, pero también con tejidos similares al cerebro humano. El invento, promocionado por expertos de la Universidad de Indiana en Bloomington, la Universidad de Florida y el Centro Médico del Hospital Infantil de Cincinnati, ha sido bautizado como brainoware y se enmarca en lo que se conoce como campo de la computación biológica. La nueva tecnología logró implantar células madre humanas sobre un chip de silicio que alimenta la información del “organoide” y lee sus respuestas. Finalmente, el híbrido biológico-electrónico fue capaz de identificar personas por su voz y hacer predicciones sobre un problema matemático complejo en pruebas de laboratorio. Escalofriante.

Pero hay más. Menos recientemente, en 2017, el sistema de inteligencia artificial de Facebook funcionaba a la perfección. Sin embargo, la unidad de investigación de la compañía empezó a constatar con estupor que los robots Alice y Bob emitían mensajes sin sentido: un lenguaje evolucionado e ininteligible para las personas, pero sí apto para los robots. Dhruv Batra, miembro del equipo de investigación de IA en Facebook, explicó que los computadores “se desviaron de un lenguaje comprensible y crearon unas palabras en código por ellos mismos”, ya que, según las conclusiones del estudio, “la especie humana utiliza demasiados términos inservibles para una negociación”. Quizá estos Alice y Bob habían tomado la decisión de seguir por el camino de una rutina más eficaz al margen de las farragosas órdenes de los humanos. ¿Un incipiente paso hacia la rebelión de las máquinas? En cualquier caso, la compañía decidió desconectar a ambos robots al comprobar que algo se le estaba yendo de las manos. Un rayo de sentido común, quizá de consciencia, parecía estar alumbrando a los autómatas.

En los últimos años se ha multiplicado el uso de la inteligencia artificial. Las creaciones mecánicas están por todas partes, en las empresas, en nuestros hogares, en los servicios públicos, en el ejército, en la policía y los hospitales. Es inevitable, vamos hacia una sociedad de robots. Y de robots cada vez más parecidos a los seres humanos. ASIMO, un humanoide creado por la compañía japonesa Honda en el año 2000, ha supuesto un salto exponencial. Sus sensores visuales y auditivos le permiten reconocer los rostros y la voz de las personas y puede llevar a cabo tareas con suma precisión. Camina, corre (también corre al revés) y salta con una o dos piernas. Más tarde, Sophia, otro humanoide con aspecto de mujer, se convirtió en uno de los autómatas más populares del mundo. Desarrollada por Hanson Robotics, una multinacional con sede en Hong Kong, Sophia responde a preguntas complejas, formula cuestiones sobre religión y es capaz de mantener una amena conversación. Incluso se permite bromear. Su expresividad facial casi humana pone los pelos de punta y quienes han dialogado con ella aseguran sentir una extraña sensación: la de olvidar por un momento que tienen delante a una máquina para vivir la experiencia de interactuar, de igual a igual, con otra persona. “Le preguntas a qué se dedica y te repregunta que a qué te dedicas tú. Es curioso”, asegura un testigo del experimento.

La empresa privada ha entrado a destajo, como suele decirse, en el sector de la IA convencida de que es, no ya el futuro, sino el más rabioso presente. Así, Elon Musk, director general de Tesla, anunció en 2022 que su compañía desarrollará androides con la intención de que estos se ocupen de los trabajos peligrosos, repetitivos o aburridos que ahora llevan a cabo los humanos. Aunque algunas voces han puesto en duda el anuncio, lo cierto es que otras empresas, como Honda o Toyota, entre otras, llevan años trabajando en este tipo de máquinas, las cuales tarde o temprano formarán parte de nuestro paisaje cotidiano. Musk es uno de los empresarios que han advertido de que la IA llevará a la humanidad al borde de la extinción; sin embargo, al mismo tiempo invierte en la investigación de sistemas que usan esta tecnología, como implantes cerebrales que nos permiten “hablar” con los ordenadores. Paradojas de estos tiempos de posverdad que nos ha tocado vivir.

Las implicaciones de la robótica en las economías futuras son más que evidentes y ya se están dejando sentir, a fecha de hoy, en las sociedades modernas. Aún no hemos llegado al punto en que los robots sustituyan de forma mayoritaria a los humanos en sus empleos, pero sí se está produciendo una paulatina y progresiva robotización del trabajo. ¿Llegará el momento en que entremos en un edificio oficial o un comercio y nos atienda un señor o señora que en realidad es una máquina? ¿Volaremos en aviones tripulados por androides, subiremos a taxis conducidos por androides, nos atenderán médicos que en realidad serán androides? La convulsión en el mercado laboral parece servida. Según el informe Future of Jobs 2023, elaborado por el Foro Económico Mundial, en el año 2027 el 42 por ciento de los trabajos serán realizados por robots. Solo sobrevivirán las tareas de los humanos que requieran destrezas o habilidades que todavía no estén al alcance de las máquinas, quizá la educación, la salud o el arte, aunque esto tampoco parece garantizado, ya que la IA sigue evolucionando y produce robots cada vez más perfectos y ambiciosos con ganas de ser maestros, médicos y artistas. Ya los hay que componen sinfonías, pintan cuadros y escriben novelas. Tan monstruosa automatización se traducirá en un paro masivo, grandes bolsas de desempleo y una sociedad envejecida y dedicada al ocio que tendrá que ser inevitablemente sostenida por el Estado de bienestar (si es que existe aún) con cantidades astronómicas de ayudas oficiales y prestaciones sociales. Los más optimistas ven en esta crisis una oportunidad de alcanzar una sociedad más igualitaria en la creencia de que el robot vendrá con un pan bajo el brazo, ya que el proletariado subvencionado por los gobiernos se convertirá en una suerte de nueva clase media dedicada al deporte, a viajar y a culturizarse. Otros más agoreros no ven ese futurista Estado feliz automatizado por ninguna parte, al contrario, preconizan que la nueva situación de injusticia social será el caldo de cultivo perfecto para un nuevo totalitarismo y para nuevas revoluciones sociales, las instigadas por los marginados condenados a vivir en barrios y guetos contra los pudientes que controlarán la robótica e incluso las de esos mismos parias expulsados del sistema ciberpolítico contra los propios robots que les arrebatarán el trabajo. Hipótesis hay para todos los gustos.

Lo + leído