COGNICIÓN
ARTIFICIAL
DELEGACIÓN DE INTELIGENCIA
EN LA ERA DIGITAL
artificial
cognition: intelligence delegation in the digital era
Andrés Pachón
Universidad de Coimbra
………………………….
Recibido: 26 05 2019
Aceptado: 14 07 2019
Publicado:30 09 2019
………………………….
http://doi.org/10.5281/zenodo.7656610
Cómo citar este artículo
Pachón, A. (2019). Cognición artificial: delegación
de inteligencia en la era digital.
ASRI. Arte y Sociedad. Revista de Investigación en
Arte y Humanidades Digitales (17), 93-107
Recuperado a
partir de http://www.revistaasri.com/article/view/5383
Resumen
El fenómeno de la Inteligencia
Artificial (IA) se presenta en la actualidad como un objeto de estudio
relevante para pensar cómo se construye y se distribuye nuestra cognición entre
los humanos y las tecnologías, una vez
que la IA modificará, de forma
significativa, las formas en las que producimos y accedemos al conocimiento del
mundo, al mismo tiempo que mantiene una posición controvertida sobre los
límites entre lo humano y lo artificial.
Palabras clave
Inteligencia Artificial,
ecologías cognitivas, caja negra, mito del progreso, neuromitología
Abstract
The Artificial
Intelligence (AI) phenomenon is currently a relevant case study to understand
how cognition is constructed and distributed between humans and technologies,
considering that AI will alter, significantly, the forms in which knowledge is
produced and accessed while maintaining a controversial position on the limits
between the human and the artificial.
Keywords
Artificial
Intelligence, cognitive ecologies, black box, myth of progress, neuromythology.
1. Introducción
El fenómeno de la Inteligencia
Artificial (IA) se presenta en la actualidad como un objeto de estudio relevante
para pensar cómo se construye y se distribuye nuestra cognición entre los humanos
y las tecnologías, una vez que la IA modificará, de forma significativa, las
formas en las que producimos y accedemos al conocimiento del mundo, al mismo
tiempo que mantiene una posición controvertida sobre los límites entre lo
humano y lo artificial. Más allá de producir bienes
que cubren la mera necesidad (como es definida la tecnología por la Modernidad
(Pfaffenberger 1992)), la actividad sociotecnológica de la IA construirá
símbolos materiales que enmarcan el comportamiento humano y que determinan
nuestra ecología cognitiva[1].
De esta forma, la IA se extenderá más allá del ámbito laboral (Sistemas
Expertos), encontrándose presente en nuestra vida cotidiana a través de múltiples
artefactos que ofrecen soluciones inteligentes y adaptables a cualquier necesidad:
teléfonos inteligentes, redes sociales, motores de búsqueda como Google, coches
inteligentes, diagnóstico de enfermedades, controles biométricos, asistencia
por voz, etc.
El texto comenzará por
abarcar la cuestión de la cognición humana como un proceso en construcción, ubicando las
características específicas que determinan la ecología cognitiva de nuestra
sociedad científica, dentro de la cual se enmarcará la era digital y en
particular el nuevo paradigma cognitivo que supone la implementación masiva de
la Inteligencia Artificial. A través del análisis del léxico empleado en la
actividad sociotecnológica de la IA, centrándonos para ello en la fabricación
de modelos de Redes Neuronales Multicapa, se identificarán las articulaciones
mediante las cuales delegamos inteligencia en los artefactos tecnológicos donde
se implementa la IA, lo cual modificará y determinará la forma en la que vemos
el mundo, así como la forma en la que nos entendemos a nosotros mismos y a
nuestras tecnologías. El objetivo de este texto es señalar la importancia de
abrir las cajas negras[2]
que se producen con la operatividad (o buen funcionamiento) de las tecnologías
de IA, para así conocer cómo se construye nuestra cognición, con el propósito
de restar poder a aquellas personas e instituciones que gestionan los
mediadores necesarios para que tengamos acceso al conocimiento del mundo. Por
último, nos preguntaremos qué alternativas se nos ofrecen para futuras ecologías
cognitivas, una vez que la solución no pasa por eliminar las tecnologías de IA,
sino por multiplicar los mediadores que dan lugar a su desarrollo, evitando así
perpetuar el mito del progreso (Latour 2001)
propio de la Modernidad, que persigue el acceso a un conocimiento objetivo
separado de la subjetividad de los sujetos.
2. Actividad sociotecnológica y cognición artificial
De acuerdo con Lévy (1994),
nuevas temporalidades sociales y modos de conocimiento inéditos y específicos
emergerán de la utilización de aquello que el autor denomina tecnologías de
la inteligencia, como los computadores, la imprenta, la escritura o los
métodos nemotécnicos de las sociedades orales. "Al deshacer y rehacer las
ecologías cognitivas, las tecnologías intelectuales contribuyen para abalar los
grandes pilares culturales que dirigen nuestra precepción de lo real"
(Lévy 1994, 12), marcando así las categorías propias de la filosofía del
conocimiento, como el mito, la ciencia, la teoría, la interpretación o la objetividad.
Por ejemplo, el texto, producido por la tecnología de la escritura, se aísla de
las condiciones particulares de su creación y de su recepción, disociando así
el conocimiento de las personas que lo producen, separando el emisor del
receptor, e imposibilitando la interacción entre ambos. Parafraseando a Lévy
(1994), esta comunicación fuera de contexto provocaría que los autores crearan
discursos que se bastasen por sí mismos, dando lugar a una ambición teórica y a
una pretensión de universalidad. A diferencia del régimen de la oralidad
primaria, donde no se disponía de ninguna técnica de registro exterior, más
allá de la memoria por repetición que marcaba un tiempo cíclico (el mito), la
escritura marcará un tiempo lineal, es decir, una sociedad histórica que
se caracteriza por una pretensión de objetividad del recuerdo. Esto generó una
preocupación por la verdad objetiva, elemento característico de las transmisiones
escritas del saber y de la ciencia moderna, lo que modificará para siempre
nuestra forma de acceder al conocimiento del mundo.
Según Latour (1998), será
la especificidad de algunas aportaciones de la escritura y de las técnicas de
visualización lo que determinó el origen y las características especificas de
nuestra cultura científica, simples modificaciones que cambiarían los modos en
que los grupos humanos discuten entre sí, utilizando para ello papel, signos,
impresos, diagramas, etc. La clave de
las transformaciones de nuestras sociedades científicas nos dirá Latour (1998),
se encuentra en aquellos aspectos que contribuyeron a reunir, presentar,
aumentar, favorecer y asegurar la fidelidad de nuevos aliados a la hora de
explicar y convencer, para conseguir así el reconocimiento de la autoridad y
originalidad del primer autor. Para convencer al oponente de un determinado hecho,
el autor tendría que acompañar los textos de objetos que pudiera mostrar, y
estos debían ser aliados fiables y estables que demostraran el enunciado. Para
ello fue clave la creación de nuevas inscripciones visibles y combinables entre
sí, que permitieran trasladar información en el espacio y en el tiempo sin que
esta sufriera cambios en el camino. Las técnicas de visualización como la
perspectiva, la cámara oscura, los grafismos (tablas, diagramas, etc.), los
mapas o la fotografía serían estos móviles inmutables (Latour 1998), los cuales
podían estar acompañados de etiquetas y leyendas que facilitarían su
comparación, superposición y reproducción.
Las instituciones
(economía, criminología, pedagogía, psiquiatría, medicina, etc.) que fueran
capaces de acelerar la movilidad e intensificar la inmutabilidad de estas
inscripciones, reuniendo el mayor número de ellas en categorías homogéneas,
serían dotadas de una consistencia óptica (Latour 1998) que
permitiría instaurar un poder a gran escala, pues son las técnicas de registro
y de procesamiento de las representaciones las que posibilitan o condicionan
determinadas evoluciones culturales. Podemos afirmar junto a Latour (1998) que
la forma en la que contemplamos el mundo es lo que lo hace visible; es decir, una
nueva cultura visual, como la instaurada por el nuevo paradigma cognitivo de la
IA que será aquí analizado, redefinirá y determinará lo que significa ver y lo
que hay que ver, al ofrecer nuevas formas de visualizar y clasificar la
información.
Bajo estas premisas,
propias de una antropología de la actividad sociotecnológica[3],
podemos decir que las capacidades cognitivas no se pueden explicar dividiendo mentes
primitivas de mentes racionales, o separando culturas precientíficas y
científicas, como si estas fronteras (categorías) fueran naturales en lugar de
ser construidas. Para entender la evolución (o revolución(es)) científica y técnica,
no podemos recurrir a respuestas mentalistas, pues el texto, la imprenta
o el computador no aportan nada a la mente, sino que generan (y procederán de)
una actividad sociotécnica que determinará una cierta ecología cognitiva, donde
el estado de verdad solo puede ser visto como la producción contextualizada de
actividades particulares. No hay nada especialmente objetivo en la ciencia, nos
dirá Latour (2013), si no que se trata de una mediación que genera un tipo
particular de transferencia de la información, donde algo es referenciando al
mismo tiempo que se proyecta la idea de "una mente calculadora y un mundo
calculable" (p. 427).
Esta característica de la
mediación científica dará lugar a un mito del progreso que perdurará
hasta nuestros días, extendiéndose "la certeza de que el pasado diferirá
del futuro porque lo que antes se veía confuso aparecerá por fin clara y distintamente
a nuestros ojos: la objetividad y la subjetividad dejarán de estar
enmadejadas" (Latour 2001, 238). Pero, lejos de este punto
de vista estándar[4] sobre el progreso
científico y tecnológico, el paso del tiempo ha ido entrelazando cada vez más
los sujetos con los objetos. Esto se debe a la multiplicación incesante de
técnicas, las cuales no son un medio, sino mediadores (medios y fines al mismo
tiempo) que nos hacen intercambiar propiedades con los objetos (Latour 2001).
Esto producirá una cadena de usos (Lévy1994) donde cada vez es más difícil
encontrar el "primer motor" (Latour 2001, 217) o el "último
utilizador" (Lévy 1994, 75), por lo que diferenciar objetos de sujetos en
la actividad sociotecnológica se hace una tarea complicada. Los objetos, entre
los que se encuentran las tecnologías, compuestas a su vez por otros tantos e
innumerables objetos, ya no pueden ser vistos como algo externo a nuestra
cognición, separado de nuestras acciones y de nuestra existencia, sino que
deben ser entendidos como no humanos, en la medida en la que también actúan y
comparten responsabilidades con nosotros. Esto dará lugar a aquello que Latour (2001)
denominó híbrido, un colectivo entre humanos y no humanos, donde la
cognición será cada vez más distribuida[5]
entre los sujetos y aquello que ya no puede ser denominado simples objetos. De
esta forma,
La acción es una propiedad
de entidades asociadas. [...] El atribuir a un actor el papel de primer motor
no debilita en modo alguno la necesidad de una composición de fuerzas para explicar
la acción. [...] Sencillamente, la acción no es una propiedad atribuible a los
humanos sino a una asociación de actantes [...]. (Latour 2001, 217 y
218)
Sostener esta actitud nos
hará abandonar los binarios de objetividad/subjetividad, humano/no humano,
visible/invisible propios de la Modernidad, y con ello nos distanciaremos de
las promesas del mito del progreso, pues este nos impide ver el
carácter mediador de la técnica y, como consecuencia, anula la composición que
caracteriza nuestra ecología cognitiva. Por el contrario, debemos multiplicar
los mediadores que las corporaciones e instituciones han absorbido y oscurecido
en cajas negras. La importancia de abrir estas cajas negras radica en la
necesidad de restar poder a aquellas instituciones, o dispositivos[6],
que regularán los artefactos que producen las nuevas formas de acceso al
conocimiento. Al propagar la idea de progreso, estos dispositivos determinarán
lo que es la realidad, normalizándose nuevas ecologías cognitivas que les permitirán
ejercer un poder basado en el conocimiento.
3. La Inteligencia Artificial como paradigma cognitivo
en la era digital
Una vez que aceptamos el
carácter social del conocimiento podemos entender "las máquinas como un objeto
legítimo para un estudio sociológico" (Woolgar, 1985, p. 558), y por tanto
como un objeto de estudio cognitivo. Al afrontan con gran ambigüedad la
frontera que separa al hombre de la tecnología, el fenómeno de la IA se ofrece
como un objeto de estudio que puede ayudarnos a entender en qué medida la
cognición y la inteligencia humana han mudado, o están mudando, con la continua
expansión de las nuevas tecnologías de la informatización y la digitalización,
donde la IA jugará un rol fundamental.
Desde que, en 1956, se
acuñara el término por parte de un grupo de investigadores de matemáticas y
ciencias de la Universidad de Dartmouth (Hanover, EEUU), la IA es entendida
como el conjunto de técnicas que permiten a los computadores realizar una serie
de tareas cognitivas, simulando así la inteligencia humana. Pero, al igual que
sucede con toda actividad sociotecnológica, la IA sufrirá una serie de
transformaciones a lo largo de su evolución, haciendo que su definición y sus
objetivos no se mantengan estables. Si bien es cierto que el punto de partida
de los actuales laboratorios de IA continúa siendo que los computadores aprendan
de forma autónoma a programar tareas para cada uno de los potenciales
escenarios de aplicación, ya no podemos decir que su principal objetivo sea el de
simular las operaciones realizadas por la mente humana, y ni mucho menos emular
una cognición única y autónoma. Es por ello, que términos como Machine
Learning o Deep Learning han cobrado tanta fuerza en los últimos
años, pues estos se refieren a subprogramas de la IA que permiten al software aprender
y mejorar en el desarrollo de aquellas tareas que les son determinadas, gracias
a la experiencia que consigue al entrenarse así mismo. Para comprender cómo estas transformaciones de la IA determinan la ecología cognitiva actual, debemos analizar su
evolución en el contexto de la era digital en la que esta tecnología se
inscribe.
Los computadores están compuestos
por camadas de interfaces (que a su vez funcionarán como cajas negras) a
través de los cuales accedemos a la información de forma simulada e
interactiva. Tal y como ocurrió con otras tecnologías de visualización (como el
microscopio o el telescopio; el diagrama o el mapa), la implementación del
interfaz digital alargaría el campo de lo visible, provocando la movilización
de muchos más aliados (set de datos). Según Lévy (1994), se instauraría así un conocimiento
por simulación que será fundamental para la investigación científica, pues
permitió ver y mostrar abstracciones de datos codificados digitalmente,
estudiar fenómenos inaccesibles a la experiencia o predecir eventos que todavía
no han tenido lugar. Entre estos interfaces podríamos ubicar los sistemas
inteligentes de gestión de bases de datos, los cuales serían los primeros
modelos de IA en ser implementados de forma funcional. Se trata de Sistemas
Expertos que agilizan las tareas de profesionales en áreas específicas del
conocimiento, como la medicina, la genética, la astronomía o la ingeniería. Estos
sistemas parten de la información disponible y del núcleo de saberes establecidos
previamente por los profesionales, para poder extraer nuevas conclusiones y así
evolucionar con mayor rapidez en el conocimiento experto.
Con la expansión de la
digitalización a todos los ámbitos de la vida, la producción y almacenamiento
de datos crecería exponencialmente, lo que provocó un aceleramiento en el
desarrollo de la IA. Al disponer de grandes y diversas bases de datos se
pudieron entrenar y testar nuevos modelos de aprendizaje que, de forma simultanea,
permitirían extraer la potencialidad inherente a todos estos datos, cuyo
volumen, variabilidad y velocidad de crecimiento escapaban a las ecologías cognitivas predecesoras. Esto
provocaría una modificación en las metas y objetivos de las investigaciones en
IA: los intentos por emular
computacionalmente las capacidades cognitivas humanas, cuya máxima pretensión
fue generar una cognición única y autónoma, desembocaron en el desarrollo de un
tipo de súpercognición (Manovich 2018a) que permitía analizar conjuntos de
datos situados en todas partes. Actualmente podemos destacar tres grandes subsets
de la IA que persiguen esta nueva meta, aquello que Manovich (2018b) definirá
como tipos de cognición de la sociedad de la AI/data: la visualización de
datos, el aprendizaje automático no supervisado y el aprendizaje automático
supervisado. De esta forma, podríamos decir que los modelos de IA se han
convertido en un nuevo paradigma cognitivo dentro del conocimiento por simulación,
pues esta tecnología nos
promete una rápida movilización, visualización e inscripción de información que
hasta ahora escapaba a nuestro conocimiento.
Las técnicas de IA, como
mediadores tecnológicos que son, vendrán a transformar y reforzar ciertas
características de la ecología cognitiva de la era digital, al mismo
tiempo que mantienen los reflejos de anteriores tecnologías
de la inteligencia, como por ejemplo el caso
del paradigma estadístico cuantitativo. Así, podríamos decir que dos de las
características principales de la IA son el tiempo real y la delegación de
inteligencia. El tiempo real, nos dirá Lévy (1994), se produce a partir del
conocimiento por simulación a través de interfaces, un conocimiento operacional
que es solicitado y reorganizado de forma puntual y en el momento (en tiempo
real); se trata de obtener la información más fiable lo más deprisa posible
mediante un acceso online, es decir, desde cualquier lugar. El tiempo de
la informatización, por tanto, procura velocidad y operatividad,
diferenciándose así del tiempo lineal de la historia y de la preocupación por la
verdad crítica de las teorías, ambas características desencadenadas por la
tecnología de la escritura (Lévy, 1994). Esto provocará que el conocimiento se
encuentre en una reorganización constante y en permanente metamorfosis, por lo
que las teorías cederán terreno a los modelos, como es el caso de las propias
técnicas de IA, las cuales son continuamente rectificadas y mejoradas.
Por tanto, la ecología cognitiva de la era digital, marcada
actualmente por la escala de los datos digitales así como por el tiempo real, requiere una inteligencia que sea cualitativamente
semejante a las capacidades cognitivas humanas (o mejor dicho, semejante a las
ecologías cognitivas predecesoras, pues dichas capacidades pasan también por la
movilidad y la fiabilidad obtenida de los móviles inmutables que ya
configuraban nuestra cognición científica), "pero que opere en una escala
cuantitativamente diferente" (Manovich 2018a). Es aquí donde el compendio
de técnicas de la IA se ofrecerá como la respuesta para estas nuevas necesidades,
una herramienta que nos promete un acceso al conocimiento libre de
subjetivación, pues podremos delegar nuestra inteligencia en la máquina sin
comprometer la objetividad mecanizada de esta.
Como vemos, estos
argumentos nos devuelven a la idea estándar de la Modernidad, donde las
tecnologías se ofrecen como la respuesta a necesidades específicas, y no como
mediadoras que son. Así, nos encontramos nuevamente con el mito del progreso, donde los objetos (set de
datos digitales en este caso) serán separados con mayor efectividad de los
sujetos que operan con ellos, lo cual facilitará la constante redefinición de
los correlatos operacionales de la IA[7].
Pero, tal y como se indicó anteriormente, esta separación entre sujetos y
objetos no existe, y la tecnología no es simplemente un fin en sí misma, sino
mediadora, por lo que si la IA se presenta como una solución que funciona cada
vez mejor (con mayor operatividad) es precisamente, y paradójicamente, porque
cada vez sabemos menos sobre su funcionamiento. Cuanto mejor funciona la IA
más oscuras se vuelven las cajas negras que ocultan los híbridos y los mediadores necesarios
para que se produzca esta delegación de inteligencia: programadores, hardware,
diseñadores, interfaces, instituciones, algoritmos... El precio que pagar por la movilización de
todos estos datos, en favor de un conocimiento operacional y en tiempo real, será
una "opacidad algorítmica" (Burrel 2016. Citado en Elish y Boyd 2017,
14) que nos hará confiar "en un gran número de acciones delegadas que, por
sí mismas, me impulsan a hacer cosas en favor de personas que no están aquí y
de cuya existencia ni siquiera puede tener atisbo" (Latour 2001, 227).
Esto implicará un poder-saber[8] que normalizará el poder de
aquellos pocos sujetos e instituciones capaces de gestionar los algoritmos
necesarios para que podamos ver y conocer en esta nueva ecología cognitiva, y en los cuales delegaremos
decisiones y responsabilidades, lo cual provocará que estos algoritmos "tengan éxito incluso
cuando fallan" (Magnet 2011, 3), pues, una
vez implementados, permitirán ejercer un poder efectivo basado en la delegación de inteligencia
y en la operatividad, independientemente de los resultados que ofrezcan. Por
contra, y siguiendo la línea argumental planteada por Magnet (2011) en su
estudio sobre los fallos de las tecnologías biométricas, podemos decir que al
sustentarse en el mito del progreso las tecnologías de IA también
"fallan incluso cuando tienen éxito" (Magnet 2011, 3).
Lo que a continuación se
plantea es que podemos comenzar a abrir las cajas negras de la IA (siguiendo la
cadena de delegaciones y mediaciones que en ellas se ocultan) a través del análisis
del léxico empleado en la actividad
sociotecnológica de la IA, el cual se extiende desde las prácticas de programación
de los modelos hasta su implementación profesional y uso cotidiano. Se trata de
un lenguaje humano/mecánico que, como veremos, se caracteriza por ser flexible
y ambiguo (neuronas/artificiales, aprendizaje/automatizado, visión/computacional,
inteligencia/artificial, smart/phones...). Su estudio puede ayudarnos
a discernir los discursos en los que sustenta esta tecnología, y cómo estos
modifican nuestra forma de entendernos a nosotros mismos y a nuestras tecnologías,
al delegar en ellas funciones tan determinantes como la inteligencia, lo
que sin duda afectará a nuestra ecología cognitiva.
4. Neuromitología y
delegación de inteligencia: el léxico de la Inteligencia Artificial
Para comprender cómo actúa
el lenguaje empleado en la actividad de la IA nos detendremos en las prácticas
de programación de sus modelos[9],
particularmente en los subprogramas de la IA denominados Deep Learning o
Deep Neural Networks (también llamados en español modelos de Red Neuronal
Multicapa), una de las técnicas de aprendizaje automatizado más desarrollada e
implementada en la actualidad. Entre estas redes neuronales artificiales
encontramos el modelo Convolutional Neural Network (CNN), subprograma empleado
en Visión Artificial para clasificación y segmentación de imágenes. A través de
la CNN la máquina podrá reconocer y etiquetar imágenes que no ha visto con
anterioridad, gracias a un entrenamiento (Backpropagation o algoritmos
de aprendizaje supervisado) realizado a partir de una base de datos previamente
adaptada y etiquetada. Las Redes Neuronales podrán incluso generar nuevas
imágenes que no existían previamente, gracias a la combinación de las CNNs con
otro tipo de redes neuronales, denominadas Generative Adversarial Neural Network
(GANs).
Cuando se emplea el término Red Neuronal,
los desarrolladores de IA se están refiriendo a la arquitectura
de un software que es modelado a partir de la forma en la que se entiende que
funcionan las redes neuronales del cerebro, en lugar de construirlo a través de
instrucciones rígidas y predeterminadas por el programador, lo cual permitirá
que no sea necesario programar todas las instrucciones necesarias para realizar
una tarea. El programador implementará al modelo un algoritmo de aprendizaje adecuado
a la tarea específica que se quiere desarrollar, "se diseñará la arquitectura de
una Red Neuronal" (creative coder,
comunicación personal, 8 de enero de 2019) y se entrenará con un set de cientos
o miles de datos específicos, de tal forma que el modelo descubra, de manera
autónoma, la forma óptima para reconocer nuevos inputs asociándolos a los outputs
preestablecidos. Es decir, el algoritmo implementará automáticamente las
variantes necesarias en el cálculo computacional para extraer patrones de los
nuevos inputs, lo cual le permitirá generar un output correcto para cada input. Esto servirá,
por ejemplo, para que el software pueda reconocer imágenes
que no había
visto antes, pero que comparten
características con los datos con los que se entrenó el modelo.
Estas Redes Neuronales nos interesan
para el análisis del lenguaje sociotecnológico empleado en la actividad de la
IA, pues en sus definiciones y prácticas encontramos un léxico de la neuromitología (Tallis, 2004) que nos
permitirá comprender cómo se genera la delegación de inteligencia en esta
tecnología. El término neuromitología
será acuñado por Tallis (2004) para
referirse a la manera en que la filosofía de la mente
pasó a convertirse en una neurofilosofía, al asimilar, de forma pasiva y no crítica,
los hábitos del lenguaje provenientes de la neurociencia. Tallis (2004) argumentará
que fueron las ciencias cognitivas las que generaron el mito de que la ciencia
neurológica moderna podía explicar lo que realmente es la consciencia,
explotando el justificado prestigio de la neuroanatomía, la neurofísica, la
neuroquímica y de otras neurociencias legítimas. En su intento por explicar la
mente (consciencia), el discurso neurofilosófico dará un mal uso de los
términos neurocientíficos, haciendo que el cerebro sea visto como mecánico y
antropomórfico al mismo tiempo. Esto es, el cerebro es entendido como una
maquinaria que ha sido diseñada para su utilidad funcional, y por tanto
nuestras intenciones, proposiciones o pensamientos "son incorporados a las
cadenas causales que simplemente pasan a través del tejido neuronal [...] y salen por el otro sitio" (Tallis 2004, 24), vinculando la
entrada sensorial (input) con la salida motora (output). Tallis (2004) nos dirá
que según este punto de vista todo se reduce a las conexiones
neuronales que no están bajo la acción de un yo como agente
(cerebro-mecánico), siendo el cerebro, sobre la base de su utilidad funcional y
como resultado de una cadena causal, el que decide por mí
(cerebro-antropomórfico).
La aceptación de estos
modelos de consciencia por parte de las ciencias cognitivas, que unifican lo
biológico (basado en las neurociencias) y lo computacional (basado en la Inteligencia
Artificial), dependen del uso de ciertos términos ambiguos que tienen una
multiplicidad de significados, un léxico neuromitológico que permite saltar de un área
a otra con facilidad. Por ejemplo, la idea de que las máquinas tengan memoria,
que almacenen información, que hagan cálculos o que detecten elementos, es
aceptada de forma común por todos nosotros; "La característica más importante
de esos términos es que tienen un pie en ambos campos: se pueden aplicar tanto
a las máquinas como a los seres humanos, y su despliegue elude o erosiona las
barreras entre el hombre y la máquina, entre la consciencia y lo mecánico"
(Tallis 2004, 34).
Para ejemplificar el uso de
este léxico neuromitológico en las prácticas de IA, usaremos un ejemplo clásico
para iniciarse en la programación de Redes Neuronales Multicapa: la
programación de una CNN que permite detectar números escritos a mano. Las imágenes
de números contienen poca información, pocos píxeles en escala de grises, por
lo que será más fácil seguir el funcionamiento de esta Red Neuronal que el de
otras Redes que detectan imágenes más complejas, como imágenes fotográficas a color
o imágenes tridimensionales. Además, este ejemplo servirá al programador para
mostrar las grandes posibilidades que pueden ofrecer estos modelos, pues la
máquina será capad de reconocer algo tan manual, y que ofrece tantas variantes,
como un número escrito a mano por una persona. La relación manualidad/automatismo
que se destaca en este ejemplo de CNN convierte a este modelo en un objeto de
estudio interesante para nuestro análisis del léxico y de la actividad
sociotecnológica de la IA. A continuación, se transcribe un fragmento de un
video explicativo muy popular entre aquellos que se están iniciando en la
programación de los modelos de Red Neuronal[10]:
Tu cerebro no tiene
problemas en reconocer un 3 en una pequeña imagen de un 3 escrito a mano [...], es decir, hay muchas formas de escribir un 3 [...], que el cerebro pueda hacer esto sin esfuerzo es fascinante. [...] Las células fotosensibles que se disparan en el ojo cuando ves la
imagen de un 3, son muy diferentes de las que se disparan cuando ves la imagen
de otro 3, pero algo en la increíble e inteligente corteza visual que tienes
dentro de ti, resuelve que las dos imágenes representan la misma idea, y, al
mismo tiempo, reconoce otras imágenes con sus distintas ideas. [...] Realizar un programa que me diga que número piensa que es, nos
muestra lo difícil que es esta tarea, lejos de lo cómicamente fácil que
creíamos que era diferenciar un número de otro. [...] De esta forma, la Red
Neuronal me permite automatizar la tarea al igual que lo hace el córtex cerebral
(Sanderson 2017).
Esta explicación recurre a un
lenguaje ambiguo que nos hace constantemente saltar y diluir la frontera que separa
al hombre de la máquina. En primer lugar, se realiza un antropomorfismo del
cerebro (el córtex cerebral es inteligente porque reconoce números, lo cual lo
convierte en increíble), después se mentaliza la máquina (el programa me dice
el número que piensa que es), y finalmente se acaba por mecanizar la mente (el
córtex cerebral automatiza la tarea de reconocer números), lo cual ensalzará el
valor de la Red Neuronal, pues esta consigue realizar una tarea compleja de
forma automática, igual que lo haría el cerebro/mente. En este ejemplo se puede
ver cómo hemos interiorizado un lenguaje que, a través de metáforas, facilita que
los computadores sean empleados como modelos para la mente y viceversa.
Tallis (2004) nos dirá que
la aceptación de este lenguaje neuromitológico nos hace simplificar los
problemas filosóficos de la mente y la consciencia, lo cual nos hará asumir la
existencia de cerebros antropomórficos y mecánicos que conocen la idea de 6, y
que reconocen automáticamente todas las imágenes que se corresponden con esta
idea. Por otro lado, nos encontramos con que este lenguaje propaga el mito de
una inteligencia artificial con capacidades increíbles y una multitud de
posibilidades (operatividad), pues esta tecnología es capad de emular las
complejas tareas que el cerebro realiza de forma automatizada. Pero si una máquina conoce la idea de 6 (para
reconocer posteriormente todas las posibles imágenes del 6) es porque nosotros
se lo hemos determinado; somos nosotros los humanos quienes hemos construido esta
idea de 6, dentro de nuestra cultura particular y gracias al desarrollo de
otras tecnologías que preceden a esta máquina, como es el caso de la propia
tecnología de la escritura. Puede que el uso metafórico de este lenguaje
comience de forma consciente por parte de los especialistas ("una forma de
hablar, porque necesitamos de metáforas para explicar lo que hacemos"
(creative coder,
comunicación personal, 8 de
enero de 2019)), pero la base que sustenta este lenguaje antropomórfico se
puede olvidar, haciendo que "las ropas metafóricas en las que se envuelve
el pensamiento se conviertan en su piel" (Tallis 2004, 36).
Tallis (2004) nos dirá que
podemos entender estas atribuciones metafóricas de intencionalidad como el
resultado de una relación cultural que establecemos con los artefactos
tecnológicos que desarrollamos y a los cuales extendemos nuestros propósitos,
un animismo que puede llegar a hacernos olvidar que las máquinas no son más que
autómatas inconscientes. Pero "un programa antifetichista" (Latour,2001,
227) basado en este presupuesto solo reivindicaría la mano humana que se
encuentra detrás de estas técnicas, lo cual sería un planteamiento asimétrico e
incompleto pues, como vimos, los humanos ya no están solos, delegamos
continuamente acciones en los demás
actantes[11]
(no humanos), los cuales comparten nuestra existencia y la modifican, y sin
cuya mediación estaríamos perdidos y discapacitados cognitivamente. En
cualquier caso, podemos decir que el lenguaje neuromitológico no es el
resultado del empleo de simples metáforas, ni la consecuencia de un animismo:
Las técnicas modifican el fondo
de lo que expresamos, no sólo su forma. Las técnicas tienen significado, pero
lo generan gracias a un tipo especial de articulación [...] que sobrepasa los límites que el sentido común traza entre los
signos y las cosas. [...] Abandonamos la relativa comodidad de las metáforas lingüísticas y
nos adentramos en un territorio desconocido, [...] permanecemos en la esfera
del significado, pero hemos abandonado la del discurso (Latour 2001, 222-224).
Latour (2001) nos dirá que
es a través de las modificaciones producidas por las técnicas que los no humanos
son socializados, de modo que puedan entablar relación con los humanos. De esta
forma, las traducciones y modificaciones que se producen con la evolución de
las técnicas de la IA, no solo establecen nuevas metas y funciones para esta
tecnología (de una cognición única a un Sistema Experto, y de este a una supercognición),
sino que genera un cambio en el fondo mismo de aquello que se expresa, lo que
convierte al léxico neuromitológico en un tipo de disyunción más que en simples
metáforas (Latour 2001). Las técnicas que componen la IA actuarán como modificadoras
de forma y fondo, pues en el momento en el que el significado de esta
tecnología cambia (cuando los cálculos computacionales
pasan a significar inteligencia artificial,
o cuando la Inteligente
Artificial pasa a significar supercognición), se produce una traducción que
modificará la naturaleza misma del significado (lo que significa inteligencia,
o lo que significa cognición): "el asunto que constituía el objeto de la
expresión ha quedado modificado" (Latour 2001, 224). Por tanto, podemos
entender este léxico como el resultado de un proceso de socialización que
consiste en el intercambio de propiedades entre los humanos y los no humanos,
donde algunas características de la inteligencia humana se convierten en una
máquina de cálculo computacional, y, como consecuencia, algunas características
de la máquina se convierten en humanas.
De esta forma, "la
distinción entre apariencia superficial y esencia subyacente, en este caso la
distinción entre 'lo que realmente es la inteligencia' y 'meros signos de
inteligencia'" (Woolgar 1985, 564) se diluye. Puede que para un usuario común
el impacto que genera esta tecnología allí donde se implemente sea el mismo, se
presente como una máquina con meros signos de inteligencia o como una máquina
que es inteligente, pero lo cierto es que esta diferencia genera un cambio en
las expectativas y las metas de los usuarios. La primera forma (la IA presenta meros
signos de inteligencia) apela a un usuario activo, que puede sacar beneficios
del automatismo de esta tecnología allí donde la cognición humana (o la
anterior ecología cognitiva) no podía llegar; mientras que la segunda (la IA se
presenta como lo que es ser inteligente) apela a una entidad autónoma, que opera bajo la objetividad
del cálculo algorítmico y con la adaptabilidad del raciocinio humano,
modificando así el significado mismo de inteligencia. Esta cualidad, que hasta
ahora era exclusivamente humana, se caracterizará por ser automática, objetiva
y mecanizada. Al modificar el fondo de la expresión y presentarse como lo que es ser inteligente,
estas tecnologías nos prometen el acceso a un conocimiento libre de
subjetivación, tanto del mundo exterior (las cosas, convertidas en sets de
datos) como del funcionamiento de nuestro mundo interior (los sujetos,
convertidos en una cadena de estímulos neuronales automatizados).
5. Conclusiones preliminares: por una futura
reterritorialización de nuestra máquina abstracta cognitiva
El léxico neuromitológico
empleado durante el trabajo de programación se propagará en nuestra vida
cotidiana a través de nuevos artefactos en los cuales también delegaremos inteligencia
y responsabilidades[12]
(teléfonos inteligentes, cámaras fotográficas, coches inteligentes...). Pero en muchas ocasiones no
seremos conscientes de estar utilizando tecnología de IA, pues esta se
encuentra cajanegrizada en los distintos mediadores tecnológicos que empleamos
a diario. Además, estas cajas negras se multiplicarán en la medida en que
deleguemos más funciones en la tecnología y según se establezcan nuevas metas
para la IA, lo cual creará nuevos artefactos que se separarán de los objetivos
predecesores, provocando que la IA acabe por operar de forma silenciosa e invisible.
Siguiendo el planteamiento de Manovich (2018a) podemos decir que las redes
sociales, los motores de búsqueda o las apps se sirven del análisis cuantitativo de los datos extraídos de
Internet para predecir nuestros gustos e intereses, y así recomendar y/o
sugerir contactos, fotografías, videos, música, noticias o fake news, lo cual influirá en
nuestras decisiones e imaginaciones. Por tanto, como se ha pretendido demostrar
en este texto, podemos afirmar que el paradigma cognitivo de la IA nos ofrece
un conocimiento operativo en la medida en que fomentamos, de forma más o menos
consciente, la dataficación de nuestra realidad (Big Data), lo que provocará un mayor
poder entre aquellas instituciones que gestionan los mediadores necesarios para
su funcionamiento, encerrándolos en cajas negras que propagarán el mito del
progreso.
Es por ello por lo que se
hace necesario multiplicar los mediadores que dan lugar a esta tecnología, con
el objetivo de tener un mayor (y mejor) conocimiento de cómo se configura nuestra
ecología cognitiva actual. Es especialmente interesante y significativo el
estudio de las cajas negras presentes en la actividad
sociotecnológica de la IA, una vez que este término es empleado en la propia
práctica de programación de Redes Neuronales: caja negra, capas ocultas, "donde
ocurre la magia" o allí donde "el software aprende a comportarse
inteligentemente" (creative coder, comunicación personal, 1 de noviembre de 2018) serán algunas de las expresiones usadas por
los programadores para referirse a los cálculos algorítmicos en los que delegan
inteligencia. Estos cálculos o capas ocultas de la Red Neuronal establecerán
patrones que relacionan nuevos inputs con los outputs preestablecidos (categorías
y/o etiquetas), lo que hará que el software aprenda a reconocer y clasificar
nuevas imágenes, sonidos, textos, etc. Al tratarse de cálculos imposibles de
revisar por un humano, se generará un desconocimiento, incluso entre los
expertos, de aquello que sucede en el interior de la caja negra de los modelos. Es decir,
aún siendo funcional (o precisamente debido a su funcionalidad) existirá un
desconocimiento de los patrones que hacen que la IA tome ciertas
decisiones.
De esta forma, y aunque el automatismo
de la IA se haya convertido en un pilar fundamental para el progreso de las
nuevas tecnologías de la informatización, así como para el devenir de nuestra
era digital, no podemos limitar u obviar nuestra responsabilidad ante sus
resultados, pues esto propagaría el paradigma cuantitativo de las ciencias sociales
del siglo XIX y XX, donde el ideal de las matemáticas sociales (Gould 2017), basado
en la clasificación de la realidad en sistemas cuantificables, reductores y manejables,
prometía un conocimiento que ocultaba la ideología y el poder subyacente a estas
prácticas. Pero al igual que sucede hoy con la IA, era y es la mano humana,
junto a las técnicas y las cosas (no humanos), la que establece, fija y normaliza las
categorías con las que pensamos el mundo, mediante un
proceso de visualización y cognición (Latour 1998) que tuvo lugar gracias a las
inscripciones-mediadores que Latour (1998) describe como móviles inmutables.
Por ejemplo, las categorías supuestamente neutrales y evidentes, aquello que
denominamos de sentido común, como la raza o los tipos de enfermedad, surgen de contextos
políticos y sesgos culturales que tienen necesidad de movilizar ciertas
inscripciones. Por tanto, podemos afirmar que la programación de la IA no puede
separarse de la actividad sociotécnica en la que se desarrolla y a la cual
modifica.
En este sentido, sigue
siendo un reto para los expertos en Visión Artificial (subprograma de la IA donde
se inscriben las CNNs y las GANs anteriormente señaladas) entender con
precisión qué es lo que provoca que la máquina clasifique correctamente
ciertas imágenes pero se equivoque con otras, lo cual conlleva una serie de
consecuencias graves (de carácter ético, como el racismo implícito en los
controles de seguridad biométricos y de reconocimiento facial (Magnet 2011), o
fatales, como las muertes en accidentes que implican vehículos inteligentes).
Por ello, los investigadores en IA están desarrollando de forma urgente mapeos
de los datos visuales que utilizan estos sistemas, para comprender los patrones
que estos softwares generan durante el proceso de predicción. El objetivo de
estas investigaciones es "'ver a través de los ojos' de la red"
(Carter, Armstrong y Schubert 2019), hacer comprensibles las capas ocultas de
las Redes Neuronales Multicapa (abrir la caja negra, desvelar la magia) para
intentar responder a la siguiente pregunta: "¿qué han aprendido estas
redes que les permite clasificar tan bien las imágenes?" (Carter et al.
2019).
Más allá de encontrar
respuestas para fallos concretos, o de separar el buen del mal funcionamiento
de los modelos de Visión Artificial (lo cual solo suscribiría el punto de vista estándar de la Modernidad), estos softwares de descajanegrización pueden
ser particularmente interesantes para especular sobre futuras ecologías
cognitivas. Lo que proponemos aquí es una investigación que se sirva del
potencial del paradigma cognitivo de la IA a través de la experimentación con
estos softwares de mapeo[13],
con el objetivo de acceder a nuevas articulaciones entre las categorías y sus
significados, en lugar de fijarlas y automatizarlas, escapando así a la
herencia estadística[14].
En resumen, al concienciarnos de la artificiosidad y la distribución de nuestra
cognición, al comprender cómo se genera la delegación
de inteligencia que realizamos en las tecnologías de nuestra era
digital, al abrir el mayor número posible de cajas negras que conforman
la IA, y al visualizar las articulaciones algorítmicas que se dan en el
interior de las Redes Neuronales que configuran la Visión Artificial, podremos
experimentar con los límites y
las posibilidades de la IA, con el objetivo de reterritorializar
nuestra propia máquina abstracta[15] cognitiva.
Referencias Bibliográfícas
Carter, S., Armstrong, Z. y Schubert,
L. (2019) Activation Atlases [Atlas de activación]. Distill.
DOI: 10.23915/distill.00015
Deleuze, G. y Guattari, F. (2015) Mil
mesetas (José Vázquez Pérez, trad.). Pre-textos.
(Obra original publicada en 1980)
Elish, M.C. y Boyd,
D. (2017) "Situating methods in the magic of Big Data and AI", Communication
Monographs. DOI: 10.1080/03637751.2017.1375130
Foucault, M. (1994) L´Histoire
de la sexualité 1. La volonté de savoir. Gallimard
Gould, S. (2017) La falsa medida del
Hombre (Ricardo Pochtar y Antonio Desmonts, trad.) Editorial Planeta. (Obra
original publicada en 1996)
Huawei Mobile España. (27 de marzo de 2018) Huawei
P20 / Huawei P20 PRO: la fotografía renace hoy [archivo de video].
Recuperado de https://www.youtube.com/watch?time_continue=28&v=XqNSdjs3THg (Fecha de consulta: 15 de
abril de 2019).
Hutchins,
E. (1995) Cognition in the Wild [Cognición en la
naturaleza].
The MIT Press.
Latour, B. (1998) "Visualización
y cognición: pensando con los ojos y con las manos", La balsa de la
Medusa. nº 45-46.
Latour, B. (2001) La esperanza de
Pandora (Tomás Fernández Aúz, trad.). Gedisa.
(Obra original publicada en 1999)
Latour, B. (2013) "How to be Iconophilic in Art, Science, and
Religion?", en: Jones, C.A. y Galison, P. (ed.). Picturing
Science Producing Art. Routledge.
Lévy,
P. (1994) As Tecnologias da Inteligência. O Futuro do Pensamento na Era da
Informática (Fernanda Barão, trad.) [Las tecnologías de la inteligencia. El
futuro del pensamiento en la era de la informática]. Lisboa, Portugal: Piaget. (Obra original publicada en 1990).
Magnet, S. A.
(2011) When Biometrics Fail. Gender, Race, and the Technology of Identity
[Cuando la
biometría falla. Género, raza, y la tecnología de la
identidad]. Durham
y Londres, Reino Unido: Duke University Press.
Manovich, L. (2018a)
AI Aesthetics [Estética de la IA].
Moscú, Rusia: Strelka Press. Recuperado de https://www.amazon.com
Manovich, L.
(2018b) "Can We Think Without Categories?" [¿Podemos
pensar sin categorías?] en: Reichert, R. y Fuchs, M. (ed.). "Rethinking
AI: Neural Networks, Biometrics and the New Artificial Intelligence". Digital
Culture & Society (DCS). Vol. 4, (1).
Pfaffenberger,
B. (1992) "Social Anthropology of Technology" [Antropología
social de la tecnología]. Annu.
Rev. Anthropology. 21: 491-516.
Quintáis,
L. (2001) "Modernidade e pesadelo: um ensaio sobre ciência, localização
cerebral e economia explicativa" [Modernidad y pesadilla: un ensayo sobre ciencia,
localización cerebral y economía explicativa]. Antropologia
portuguesa. Vol.
18.
Sanderson, G. (5 de octubre
de 2017) But what is a Neural Network? [Pero ¿qué es una Red Neuronal?] [archivo de video].
Recuperado de https://www.3blue1brown.com/videos-blog/2017/10/9/neural-network
(Fecha
de consulta: 20 de febrero de 2019).
Tallis,
R. (2004) Why the Mind is not a computer. A pocket lexicon of
neuromythology [Por qué la mente no es un computador. Un léxico de
bolsillo de la neuromitología]. Imprint Academic.
Woolgar,
S. (1985) "Why not a Sociology of Machines? The Case of Sociology and Artificial Intelligence" [¿Por qué no una sociología de las máquinas? El caso de
la sociología y la Inteligencia Artificial]. Sociology. Vol. 19, (4).
BIO
[1]
Aquí, la idea de ecología cognitiva se refiere al término empleado por
Lévy: "Al desarrollar el concepto de ecología cognitiva, defenderé la idea
de un colectivo pensante hombres-cosas, un colectivo dinámico poblado de
singularidades actuantes y de subjetividades mutantes" (Lévy 1994, 13).
[2]
Aquí, el término caja negra se refiere al proceso de cajanegrizar,
concepto desarrollado por Latour: "Cuando una
máquina funciona eficazmente, cuando se deja sentado un hecho cualquiera, basta
con fijarse únicamente en los datos de entrada y los de salida, es decir, no
hace falta fijarse en la complejidad interna del aparato o del hecho. [...] cuando más se agrandan y difunden los sectores de la ciencia y de la
tecnología que alcanzan el éxito, tanto más opacos y oscuros se vuelven" (Latour 2001, 362).
[3]
Para una guía de estudios antropológicos sobre la actividad tecnológica véase Pfaffenberger. (1992).
[4]
Véase la idea punto de vista estándar de la Modernidad desarrollada por Pfaffenberger (1992), la cual se relaciona con las
ideas de mito del progreso y solución moderna
(Latour 2001).
[5]
Para una comprensión de cognición distribuida véase el estudio de
antropología sobre marineros y navíos de guerra desarrollado por Hutchins (1995).
[6]
Aquí el concepto dispositivo se refiere al planteamiento teórico
desarrollado por Foucault (1994).
[7]
Para una relación de la
retórica del progreso con
el desarrollo de la IA y los Sistemas Expertos véase Woolgar
(1985).
[8]
Aquí el concepto poder-saber se refiere al planteamiento teórico
desarrollado por Foucault (1994).
[9]
Este análisis del lenguaje se ha realizado en base a un trabajo de campo
colaborativo y experimental junto a un creative coder, cuyo resultado
fue la programación de una serie de modelos de Machine Learning basados en
Redes Neuronales Multicapa, específicamente dos modelos de CNN (Convolutional
Neural Network) y una GAN (Generative Adversarial Network)
[10] El análisis de este tipo de referencias puede servir para comprender la economía explicativa
(Quintáis 2001) que realizan tanto los medios, como los expertos y divulgadores
del conocimiento tecnológico, al presentar las técnicas y novedades de la
Inteligencia Artificial.
[11]
Aquí el término actante se refiere al binomio de actuación actor-actante
(humano-no humano), concepto desarrollado por Latour: "Dado que en inglés
el uso de la palabra 'actor' se suele restringir a los humanos, la palabra
'actante', tomada en préstamo de la semiótica, se utiliza a veces como el elemento
lingüístico que permite incluir a los no humanos en la definición" (Latour
2001, 361).
[12]
Véase el spot
publicitario del smartphone Huawei P20 PRO: "Inteligencia que desafía la
fotografía smartphone. El primer smarthphone del mundo con triple
cámara asistida por Inteligencia Artificial" (Huawei Mobile España, 2018).
[13]
Actualmente me encuentro desarrollando una investigación teórico-práctica
basada en la experimentación con softwares de visualización y análisis de
características de Redes Neuronales.
[14]
Para una relación entre la herencia estadística y las técnicas de IA véase
Manovich (2018a, 2018b)
[15] Aquí
el concepto máquina abstracta se refiere al planteamiento teórico
desarrollado por Deleuze y Guattari (2015) en referencia al funcionamiento de
nuestras experiencias perceptivas y cognitivas cotidianas, al enfrentarnos al
reconocimiento y categorización del rostro del otro, marcado por el poder
implícito que conlleva nuestra necesidad de imponer normas de significancia y
de subjetivación.