Larson, científico norteamericano y experto en computación, ha escrito el libro «El mito de la inteligencia artificial» para salir al paso de las posturas que afirman que las máquinas llegarán a ser superinteligentes y a pensar como lo hacemos los seres humanos.
Larson denomina a quienes se aferran a la inevitabilidad de la llegada de dispositivos o máquinas superinteligentes «evolucionistas tecnológicos» y asegura que su visión se enmarca en una concepción de la inteligencia simplista e inadecuada, reducida solamente a la forma de la resolución de problemas. Escribe:
«La inteligencia general (no débil) del tipo que todos exhibimos a diario no se debe a ningún algoritmo que se esté ejecutando dentro de nuestras cabezas, sino que recurre a la totalidad del contexto cultural, histórico y social desde el que pensamos y actuamos en el mundo. La IA apenas habría avanzado si sus diseñadores hubieran abrazado un entendimiento de la inteligencia tan amplio y complejo. A la vez, a resultas de la simplificación realizada por Turing, hemos acabado usando aplicaciones débiles y no tenemos ningún motivo para esperar otras más generales si antes no se produce una reconceptualización radical de lo que queremos decir al hablar de IA».
El hecho de que el término «inteligencia artificial» contenga la palabra «inteligencia» ha convertido este campo en un objeto de fantasía y especulación sobre la posibilidad de que las máquinas lleguen a superar a los seres humanos. De esta manera, el barullo publicitario en torno a la inteligencia artificial y los supuestos sobre máquinas ultrainteligentes que llegarán a dominar a nuestra especie, ha desplazado la atención de la inteligencia humana a la inteligencia tecnológica.
Durante la primera década de nuestro siglo –nos informa Erik Larson– nuevas tecnologías de «contenido generado por los usuarios» (como los wikis y los blogs) fueron vistas como una explosión de potencial humano. Hacia 2005 emergió una escuela de pensamiento que veía la Red —y, en especial, las tecnologías de la web 2.0— como una «nueva imprenta» destinada a liberar la inteligencia y la creatividad de los seres humanos.
Larson denomina a quienes se aferran a la inevitabilidad de la llegada de máquinas superinteligentes «evolucionistas tecnológicos» y asegura que su visión se enmarca en una concepción de la inteligencia simplista e inadecuada, reducida solamente a la forma de la resolución de problemas
Pero hoy esas ideas se han disuelto y la profetizada revolución intelectual ha quedado en el olvido. Actualmente son las máquinas, los sistemas, los que están en el centro del foco, alimentando la mitología popular de su ascenso imparable. Los superordenadores se han convertido en «cerebros gigantes».
Esta revolución de las máquinas ignora al ser humano. Se levanta una visión del mundo que rebaja el potencial humano en beneficio del ascenso de las máquinas. Escribe Larson: «La ciencia, antaño un triunfo de la inteligencia humana, parece ahora encaminarse hacia una ciénaga retórica sobre el poder del big data y de los nuevos métodos informáticos, donde el científico ha pasado a desempeñar el papel de un técnico que en esencia se dedica a comprobar teorías ya existentes en los superordenadores Blue Gene de IBM».
El mito de la inteligencia artificial, nos indica Larson, predice una comprensión tal de los principios del pensamiento inteligente que estos se podrán reducir a una labor de ingeniería que se va a programar en la robótica y en los sistemas de inteligencia artificial. Con acceso a volúmenes de datos, a la integración de esos datos y a las plataformas de análisis, las máquinas nos permitirán descubrir nuevos principios y teorías sin que sean necesarias las investigaciones humanas.
Los científicos ya no perderán el tiempo investigando de la manera tradicional:
«En la era de la IA, al parecer, no podemos esperar a que la teoría surja del descubrimiento y la experimentación. Tenemos que depositar nuestra fe en la supremacía de la inteligencia informática sobre la humana –asombrosamente, haciendo frente al misterio teórico sin solucionar que es el imbuir a los ordenadores una inteligencia flexible».
Surge, pues, frente a este «paradigma informático» un reto ético formidable para la ciencia: ¿están desapareciendo los valores científicos con esta rebaja del rol del hombre de ciencia? ¿Cuál es el signo del actual trastorno de la cultura? ¿Asistimos al advenimiento del antiintelectualismo o, quizás más trágico, del antihumanismo con esta mitología de unas máquinas superinteligentes que vienen a reemplazar a los humanos? ¿Se está desprestigiando la mente humana frente a las especulaciones sobre su sustitución por los programas informáticos?
El mito de la inteligencia artificial, nos indica Larson, predice una comprensión tal de los principios del pensamiento inteligente que estos se podrán reducir a una labor de ingeniería que se va a programar en la robótica y en los sistemas de inteligencia artificial
Larson nos dice que hoy en día nadie tiene la menor idea sobre cómo construir una inteligencia artificial general; que desde una posición genuinamente científica hay motivos de sobra para rechazar la idea de una marcha inevitable y lineal hacia las máquinas superinteligentes. Sin embargo, agrega, se está corriendo el riesgo, en nuestras sociedades, al hacer que estas máquinas actuales —de inteligencia artificial estrecha, limitada, «potentes eruditos idiotas»— entren en servicio en áreas importantes de la vida humana por las utilidades empresariales, de consumo y gubernamentales:
«Los coches sin conductor son un buen ejemplo de ello. Está muy bien hablar sobre los avances en el reconocimiento visual de los objetos hasta que, en algún punto de la larga cola de consecuencias imprevistas y, por consiguiente, no incluidas en los datos de entrenamiento, tu vehículo embiste un autobús lleno de gente en su intento por esquivar una torre eléctrica (es algo que ha pasado).
Fijémonos también en los problemas con el sesgo y el reconocimiento de imágenes: Google Photos estampó la etiqueta de GORILA sobre la foto de dos afroamericanos. Tras esa bomba de neutrones de los desastres de relaciones públicas, Google solventó el problema… deshaciéndose de las imágenes con gorilas en el conjunto de entrenamiento que usaba su sistema de aprendizaje profundo».