Publiqué hace años una Tercera de ABC sobre este tema que se iniciaba con la afirmación de Paul Saffo, en su tiempo profesor de Stanford, de que «el problema no es si habrá o no inteligencia artificial, sino cuál será el lugar que ocuparán los humanos en un mundo cada vez más influenciado y dirigido por máquinas».

Tengo escrito sobre esta cuestión que la diferencia entre máquinas y seres humanos podría residir fundamentalmente en el terreno de las emociones y los sentimientos, y la pregunta inevitable es la de si las máquinas podrán llegar a tenerlos. En ese terreno no hay duda de que las máquinas podrán crecer asombrosamente en inteligencia, pero la idea de que algún día pudieran también tener emociones (miedo, alegría, celos, amor, envidia, vanidad, etcétera) resulta para una mayoría de científicos inasumible, aunque haya también excepciones a esta posición. Para muchos expertos la evolución y la sinergia de la nanotecnología y de una ciencia como la biotecnología podrían lograr que los átomos de un robot pudieran funcionar de tal forma que dieran lugar a emociones auténticas. El médico y filósofo Pedro García Barreno afirma, en este sentido, que «la apropiación exclusiva por la especie humana del mundo de las emociones es un mero acto de soberbia».

El estamento jurídico, como todos los demás estamentos sin excepción alguna, va a tener que plantearse con rigor cuál puede ser y cuál debe ser su protagonismo en una sociedad en donde se están produciendo convulsiones políticas y sociológicas inquietantes, y una revolución tecnocientífica cuya profundidad y alcance desconocemos todavía. Asuntos como la robótica, la nanotecnología, la manipulación genética, el espacio digital y su vulnerabilidad, y otros muchos se integran en el mundo de la inteligencia artificial y su relación con la humana.

Stephen Hawking ha planteado la confrontación entre ambas en términos dramáticos: «La inteligencia artificial puede suponer el fin de la humanidad». Según este científico los sistemas avanzados de inteligencia artificial tendrán la capacidad de «tomar el control de los mismos, rediseñándose a un ritmo que aumentará cada vez más», un ritmo que «los humanos, limitados por su evolución biológica, no podrán seguir y serán superados».

Ray Kurzweil –para algunos un visionario narcisista y para Bill Gates «el mejor predictor del futuro de la inteligencia artificial»– tiene una visión más optimista sobre el futuro de la raza humana, aunque acepta que en el año 2029 los computadores alcanzarán nuestro nivel de inteligencia.

Entre estas dos posturas hay opiniones de todo género y para todos los gustos. El ‘Wall Street Journal’ reunió recientemente a varios expertos para organizar este debate. Un directivo de IBM, Guruduth Banavar, cree que el ‘peligroso’ conflicto entre máquinas y seres humanos es un conflicto falso alimentado por las películas y las novelas de ciencia ficción y que lo que ha mejorado y va a seguir haciéndolo es la colaboración entre ambos y que esa sinergia ha dado lugar ya a avances espectaculares y seguirá haciéndolo en el futuro. Las máquinas aportarán lo que no pueden hacer los humanos –y en concreto el manejo de datos masivos, los ‘bigdata’– y los humanos aquello para lo que las máquinas no están capacitadas como la formulación de preguntas y los razonamientos lógicos.

Jean Tallin –creador de un ‘Centro sobre el riesgo existencial y el futuro de la vida’– es más sensible a los potenciales peligros de la inteligencia artificial y aconseja que se adopten desde ya las debidas precauciones para que las máquinas no estén en condiciones de tomar por sí mismas –como ya ha sucedido en el mundo financiero y en el médico– decisiones irresponsables. «Es importante –afirma– que mantengamos un cierto control sobre la posición de los átomos en nuestro universo y no cederlo inadvertidamente al mundo de la inteligencia artificial».

El ya citado Paul Saffo, profesor de Stanford y también de la Singularity University (Universidad de la Singularidad), afirma que las máquinas podrán hacer cualquier cosa, ¡incluso sushi!, y que, de hecho, ya estamos rodeados de máquinas que hacen todo mejor que nosotros.

Siguiendo en esta línea, la revista ‘Edge’ preguntó a varios expertos si las máquinas podrían llegar a pensar y las reacciones están llenas de interés: el físico y premio Nobel Frank Wilczek lo ve como una posibilidad remota pero asumible y afirma que «conforme avanzan la neurociencia molecular y los ordenadores reproducen cada vez más los comportamientos que denominamos ‘inteligentes’ en humanos, esa hipótesis parece cada vez más verosímil». El astrofísico John Mather coincide con Wilczek y afirma que «hasta ahora no hemos encontrado ninguna ley natural que impida el desarrollo de la inteligencia artificial así que veo que será una realidad y bastante pronto» teniendo en cuenta las ingentes inversiones que se están realizando. Por el contrario, el filósofo Daniel Dennett, considera esta posibilidad una leyenda urbana y afirma que el peligro no está en que existan máquinas más inteligentes que nosotros sino en la cesión de nuestra autoridad a máquinas estúpidas e irresponsables, que es justamente lo que estamos haciendo hasta hoy.

No es fácil ahora mismo llegar a conclusiones claras y seguras, pero merece la pena, desde luego, que abramos distintos foros sobre esta inteligencia y que nos obliguemos a pensar en profundidad. Es un ejercicio inquietante y al mismo tiempo apasionante. Aprenderemos muchas y buenas cosas.

Artículo publicado en el diario ABC de España


El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!