artículo no publicado
"Danbo Destroying the World", por Ruocaled: https://www.flickr.com/photos/ruocaled/9125126576/in/photostream/

¿Las máquinas piensan en destruirnos?

¿Piensan las máquinas? Si lo hicieran, ¿por qué elegirían destruirnos o dominarnos? En el libro What to think about machines that think, varios autores se plantean esas y muchas otras provocativas cuestiones alrededor de la inteligencia artificial.

De acuerdo con la narrativa del apocalipsis robótico, que ha sido abordada desde diversas ópticas, cuando las inteligencias artificiales superen a la humana decidirán, en una especie de determinismo robótico, tomar el control del mundo y dominar a nuestra especie. Otra posibilidad que comienza a explorarse es que en su infinita inteligencia sean benévolas con nosotros y nos dominen pacíficamente. Esto último es lo que espera la primera iglesia devota de la inteligencia artificial. Pero vamos un paso antes: para que, a partir del surgimiento de la propia conciencia, una inteligencia artificial pueda idear un par de escenarios, elegir uno y actuar en consecuencia, es preciso que piense. Valdría entonces preguntarnos a la manera de Turing: ¿Piensan las máquinas? Si lo hicieran, ¿por qué elegirían destruirnos o dominarnos? 

Pensando en esas preguntas, esta probable replicante se topó con la antología What to think about machines that think, en la que diversos autores se plantean esas y muchas otras provocativas cuestiones alrededor de la inteligencia artificial.

En su texto el psicólogo Steven Pinker recuerda que "Pensar no implica subyugar”. Argumenta que la distopía de la dominación robótica no es sino la proyección de la psicología de macho dominante en el concepto de la inteligencia. Se asume que una súper inteligencia desarrollaría objetivos de aniquilación y conquista mundial; sin embargo, tales metas no son características inevitables de los sistemas inteligentes. En este mismo sentido, Roy Baumeister en “No hay ‘yo’ ni capacidad de malicia”, afirma que las máquinas no tienen el potencial de malignidad que imaginan nuestras fantasías de horror sci fi porque, a diferencia de los humanos, no se encuentran motivadas por deseos innatos de supervivencia ni cuentan con la facultad de trazarse objetivos fuera de su programación (en el caso de  las inteligencias artificiales de la vieja escuela) o de su entrenamiento (para las redes neuronales artificiales). En el supuesto, inexistente por ahora, de que tuvieran deseos de supervivencia, tendría más sentido que volcaran su ira en contra de la industria que las fabrica y que, al desarrollar nuevos modelos, hace a los anteriores obsoletos y reemplazables. 

En contraste, el neurocientífico Sam Harris en “¿Podemos evitar un apocalipsis digital?”, afirma que en el futuro una inteligencia artificial general, en contraste con una especializada o débil, podrá superar el desempeño humano en cualquier tarea y podría desarrollar objetivos diferentes a los que se le impongan. Caos, es lo que predice este autor en el mejor de los escenarios, pues incluso una inteligencia artificial benigna podría vigilarnos con un ejército de drones. Argumenta que una inteligencia artificial que al momento de su creación no sea más inteligente que un grupo de investigadores, eventualmente los superaría debido a su capacidad de procesamiento. Llegada a ese punto, ¿con cuánta certidumbre podríamos predecir sus acciones, pensamientos y obediencia? Para Harris, estamos en el proceso de construir un dios. Falta saber si se trata de uno benevolente. 

Otra opción para que las inteligencias artificiales se vayan hacia el lado oscuro es que sean programadas para ese propósito, por ejemplo, para hackear o modificar el software de un carro autónomo para que choque intencionalmente o para que explote. En este caso, sería la mano humana la responsable de haber diseñado algo expresamente dañoso, que después podría salirse de control. Existen voces que llaman a prestarle atención al potencial peligro de la creación de inteligencias maliciosas o que puedan ser convertidas en tales.  

Por otra parte, con relación al pensamiento maquinal, en "Nano-intencionalidad", el biólogo cognitivo Tecumseh Fitch asevera que las máquinas no piensan, pero pensar que lo hacen es aún peligroso, pues con ese pretexto les cedemos el control de ciertos aspectos de la vida, mientras nos ponemos en piloto automático. Irene Pepperberg, en la pieza "Una bella (y visionaria) mente", deja clara la distancia entre el pensamiento humano y el artificial: si bien una máquina puede vencer a una persona jugando ajedrez, todavía le falta inventar un juego que resulte intrigante durante siglos y, aunque pueda vencer a cualquier mente humana haciendo cálculos, no es capaz de imaginar la razón o la necesidad de esa operación.

Por su parte, Cesar Hidalgo, físico estadístico, quita un poco el filtro de la vanidad humana al pensamiento y dice que “Las máquinas no piensan, pero los humanos tampoco”. Lo que ambos hacemos es pensamiento a pequeña escala (procesamos información en un contexto determinado), pero del pensamiento a gran escala, ese que es producto de siglos de evolución, no somos más que peones. Searle, en su teoría del cuarto chino, postuló que las máquinas no piensan: simulan que piensan, pues se guían por reglas de programación sin entender el sentido o la semántica de lo que hacen. Cuando Hidalgo argumenta que ignoramos el trasfondo de mucho de lo que usamos en la vida cotidiana (desde el uso de pasta de dientes –pocos sabrán cómo se sintetiza el fluoruro sódico– hasta viajar en avión), hace una comparación entre nuestro actuar y la hipótesis de Searle. Por analogía, podríamos considerar que las acciones emprendidas por inercia social caen dentro de esta categoría: de acuerdo con este argumento, los humanos eventualmente actuamos como si estuviéramos dentro de un cuarto chino. 

Susan Blackmore, autora e investigadora de la conciencia, en "El siguiente replicador" (ojo, que no replicante) afirma que nuestra actual capacidad de pensamiento no es producto de un diseño celestial, sino de la evolución de nuestras motivaciones. Sin embargo, como si creyéramos lo contrario, consideramos que es posible diseñar una inteligencia maquinal y proveerla de motivaciones. El problema, dice, es nuestro delirio antropomórfico: suponemos que el pensamiento de las máquinas debe funcionar como el nuestro funciona hoy, pero pasamos de largo que una larga evolución nos trajo hasta este punto. Nos preguntamos si las máquinas pensarán como nosotros porque queremos que hagan todo como nosotros. Si no piensa como humano, entonces no piensa, parecemos decir, mientras dejamos de lado otro elemento toral: que la nuestra es cognición corporizada, es decir, nuestro pensamiento se extiende a nuestro cuerpo y, por ende, a nuestros sentidos. La memoria dactilar, visual, auditiva, olfativa y del gusto no provoca todavía pensamientos electrónicos. Es cierto, existen robots que pueden percibir olores, pero específicos y con un propósito determinado, como detectar fugas de gas (gasbot). Por ahora, un robot no piensa en su experiencia olfativa ni escribe algo como El perfume.  

Los argumentos a favor y en contra del pensamiento maquinal se ponen a prueba con el postulado de Daniel Everett. De acuerdo con este autor, el pensamiento artificial no es pensamiento verdadero, porque carece de la carga de sentido que tiene el humano. Podríamos cuestionar si acaso se trata de una visión romántica del pensamiento humano, pues no toda acción es consciente o con sentido: basta recordar Bartleby, el escribiente o La muerte de Iván Ilich. Everett lo plantea en estos términos: si vemos un avión y un águila volar, ¿podríamos negar que el avión vuela porque su vuelo no es similar al del águila? Así, ¿podríamos negar que las máquinas piensan porque no lo hacen o no lo harán como los humanos? 

Hace casi 70 años, Alan Turing dijo que la pregunta acerca de si las máquinas piensan parece buscar respuesta en una absurda encuesta por la ambigüedad de las palabras usadas. Entonces fue que ideó el juego de la imitación, con el objeto de saber si una máquina podía sostener una conversación con una persona, imitando respuestas humanas. Año con año hay un chatbot que se lleva el premio al mejor desempeño, pero ninguno ha logrado convencer a los jueces de que es humano. La pregunta del pensamiento maquinal no ha podido despojarse de ambigüedades. En consecuencia, la pregunta de si acaso despertarán conscientes un día y querrán destruirnos tampoco puede ser respondida, porque para trazarse una nueva meta, antes tendrían que pensar y luego desear la destrucción. Nada puede asegurar que sus eventuales anhelos obedecerán a pulsiones humanas. Por lo pronto, el peligro a la vista es nuestra propia especie y el buen o mal uso que se decida hacer de tan potente tecnología.