¿Está cambiando la tecnología digital nuestra forma de pensar?

Antes de repasar que dicen los expertos y por qué lo dicen, parece que todos contestaríamos que, por supuesto, la tecnología digital que usamos todos los días y sin la que nuestra rutina diaria sería bien diferente, no sólo influye en nuestros procesos mentales, sino que modifica nuestra forma de ver el mundo, al igual que lo hicieron los mapas, los libros o los trenes. La pregunta entonces no es si esa tecnología está variando nuestra forma de pensar, sino por qué lo está haciendo, y si los cambios que está produciendo son diferentes a los que ocasionaron otras tecnologías anteriores.

Está claro que cada avance técnico que se generaliza, cambia en mayor o menor proporción nuestra percepción de la realidad, ya que la manera en que hacemos las cosas varía, aunque sea imperceptiblemente, y eso inevitablemente modifica nuestra forma de relacionarnos con el mundo. Sólo podemos suponer el cataclismo cultural que significó aprender a encender fuego, la construcción de las primeras embarcaciones, o el desarrollo de la agricultura. Pero las técnicas necesarias para hacer esas cosas, aunque sin duda cambiaron la manera en que los hombres nos relacionábamos con nuestro medio ambiente y nuestro patrimonio simbólico -sólo hay que atender a los mitos que se forjaron en torno a ellas-, se mueven en el terreno del ‘saber como’, es decir, saber como hacer una cosa, que bien transforma el mundo y nuestra visión de él accidentalmente, pero no son medios de mirar el mundo, de conocerlo, no buscan mirar directamente a lo que hay y apresarlo para poder comprenderlo. Son los conocimientos que buscan este último objetivo los que organizan en mayor medida nuestra manera de ver la realidad y pensarla. En ese sentido, un ejemplo perfecto es la cartografía. Esta disciplina quiere describir lo que hay, pero sabiendo que esa descripción es falsa; es una traslación de su objeto de estudio, una visión deformada plasmada en forma de plano -puesto que la tierra es elipsoide-, pero necesaria para lograr su objetivo. Este conocimiento se plantea como útil, pero por un proceso de naturalización, que se justifica en la invisibilidad en el mapa final de los procesos que implica cartografiar, puede llegar a entenderse como verdadero: el consabido problema de confundir el mapa con el territorio, el modelo con la realidad. En este sentido la tecnología digital es similar, pero incluso más compleja, ya que sirve para ‘conocer las cosas’, pero también para ‘hacer cosas’ y, a la vez, en cierto sentido, es ciencia en sí misma, la ciencia computacional.

Todos esos elementos son los que pone en juego David M. Berry en su obra The Philosophy of Software (Palgrave, 2011), y los que voy a tener en cuenta para intentar responder a las preguntas que antes he planteado. Más allá de textos tan conocidos sobre el tema como Superficiales (Taurus, 21011) de Nicholas Carr (que confieso no haber leído todavía), Berry (profesor en la Universidad de Sussex, y creo que sin traducir al castellano, de momento) aborda la cuestión desde la filosofía y, concretamente, desde la fenomenología de Heidegger. Parte de la cabal idea de que existe una relación específica entre el uso de la tecnología digital y nuestra experiencia del mundo, mucho más flexible que la que ha venido a entender cierto tipo de determinismo tecnológico, que comprende que el desarrollo de la tecnología sigue una lógica inalterable que condiciona el devenir histórico y cultural, y contra la cual resulta infructuoso luchar. Así, Berry piensa que la tecnología condiciona el mundo de una manera más dúctil, estableciendo límites y ejerciendo presiones, puesto que actúa como plataforma, pero no como fuerza determinante. Es decir, se erige como marco -plataforma- dentro del cual, entiendo, son posibles infinitas combinaciones y desarrollos de sus términos, e incluso rupturas y actuaciones fuera del marco, que posteriormente pueden penetrar en él. De esta forma, al igual que pasaba con las prácticas cartográficas, la tecnología digital tiende a volverse invisible, puesto que el espectro de lo digital cada vez funciona en mayor medida como medioambiente concreto donde desarrollamos nuestras prácticas cotidianas, por lo que tendemos a darlo por supuesto, a desproblematizarlo. Hasta aquí todo normal, el problema se plantea cuando empezamos a darnos cuenta de que estamos delegando procesos cognitivos complejos en sistemas computacionales, y por ello estamos perdiendo capacidades. Por supuesto, esta crítica no es nueva, ya Platón hablaba de la escritura como forma de olvido, pero parece que la cuestión se vuelve más preocupante cuando la cantidad de procesos delegados se acelera considerablemente con la irrupción de los dispositivos digitales. Eso por una parte, pero además Berry aduce que la mediación de esos dispositivos entre el hombre y su visión de la realidad, le lleva a tener que pensar de forma computacional, transformando al usuario en objeto de la tecnología digital, frente a la condición de sujeto que tiene respecto de la tecnología no digital. La estructura cognitiva de la que nos provee lo digital para acceder y comprender el mundo, nos esclaviza en cierta medida (no quería utilizar este término tan alarmista, pero no se me ocurre uno mejor), puesto que en vez de situarnos como operarios de la misma en busca de un resultado, nos obliga a formar parte de su mecanismo de acción, a ejecutar nosotros predeterminada una acción dentro de la cadena de ellas que forman esa estructura. Simplificando: si tenemos que pensar de una determinada manera -computacionalmente- para lograr la mayoría de objetivos que nos planteamos en nuestra rutina diaria, ¿dónde queda nuestra propia gobernanza? ¿No supone eso una pérdida de libertad psicológica?

Para contestar a esas cuestiones, Berry atiende a la ya mencionada distinción, que recoge del pensamiento de Heidegger, entre el ‘saber que’ y el ‘saber como’. El campo de la primera forma de saber es el de la ciencia, y el de la segunda el de la técnica -si bien, la ciencia necesita del ‘saber como’ para realizar sus análisis-. La ciencia, en su búsqueda de conocimiento, apuesta por individualizar las cosas para saber que son, dividir el mundo que el hombre percibe como un continuo en elementos discretos -contables, por lo tanto-, y por eso tiende a la cuantificación. De esta forma, la ciencia computacional necesita también de esa individuación; funciona con elementos discretos que gozan de gran facilidad para modularizarse y así poder acoplarse. El código binario sobre el que se asientan los elementos computacionales, no son más que ceros y unos que se organizan y reorganizan guiados por algoritmos, para así componer los objetos digitales. Pero la ciencia computacional es singular en el sentido en que es una ciencia práctica, es decir, necesita conocer su materia de estudio, lo computable, pero su objetivo final es ejecutar acciones sobre esos objetos computables. Por supuesto, no es la única ciencia práctica, la medicina o la psicología también lo son, curiosamente aquellas ciencias que Foucault identificó como algunas de las más eficaces para ejercer el control social de una manera velada. De todas formas, la computación es diferente a éstas últimas desde una perspectiva concreta, que hace más visible la necesidad de variar la forma en que pensamos cuando la utilizamos, puesto que lo digital en su conjunto, el software -pero también el hardware-, que es al fin y al cabo el que gobierna las operaciones de los dispositivos digitales, está en continuo cambio, en permanente estado beta. Como explica Lev Manovich en El software toma el mando (UOCPress, 2013), éste es por naturaleza experimental, está diseñado para ser continuamente desarrollado, lo que explica, en parte su triunfo cultural. Es razonable que una sociedad que necesita nuevos productos para consumir continuamente, reciba con los brazos abiertos una tecnología fácil de modificar y rápida de desarrollar, y además modular, por lo que permite añadir módulos -o programas- que ejecutan fiablemente determinadas acciones a un proyecto mayor. Pero a la vez y, concretamente, debido a su inestabilidad e imprevisibilidad, al contrario que otras herramientas, el software no puede desdibujarse del primer plano de la experiencia, por lo que, puesto que no tiene tiempo de adaptarse a la realidad, intenta modificar nuestra forma de percibirla para que sea nuestro razonamiento el que se ajuste a los principios computacionales (discrección, modularidad, cuantitatividad, etcétera), y así también lo haga la manera en que vemos y experimentamos el mundo.

Para explicar por qué el software impone su lógica, Berry recurre de nuevo a Heidegger, éste menciona la capacidad de otras herramientas, como un martillo, para desdibujarse del primer plano de la existencia, lo que permite asumir la condición de sujeto -libre y responsable- cuando lo utilizamos. El martillo ha mantenido su funcionalidad a lo largo de los siglos, por lo que el hombre ha tenido tiempo para asimilar su funcionamiento. Los cambios que se han producido en el diseño de los martillos son tan sutiles que no afectan a la forma en que se utilizan. Así, la lógica del uso del martillo se difumina en la tarea general en que ese uso se inserta, por ejemplo, en la carpintería, y cuando lo usamos nos concentramos en la actividad global, no en el funcionamiento concreto de esta herramienta, algo que resulta imposible con los dispositivos digitales. Estos siempre requieren atención a la lógica de su manejo, ya que ésta se renueva rápidamente y, además, es bastante más compleja, por lo que no podemos extraer conclusiones certeras de la forma en que se utilizan observando su funcionamiento. Todo ello hace que el individuo tenga que pensar computacionalmente para hacer uso de los dispositivos digitales; que tenga que asumir cierta lógica para descifrar como funciona la tecnología que está utilizando, sin poder distanciarse de la misma para poder observar -digámoslo así- la tarea global en la que se insertan las acciones que está ejecutando, renunciando, por lo tanto, a su posición de sujeto que las gobierna. De esta forma, puesto que la realidad completa circula actualmente a través de la tecnología en su versión computerizada, esa visión de la realidad -la que implica lo computacional- tiende a imponerse frente a otras visiones del mundo posibles.

Resumiendo, Berry, entre otros, piensa que los dispositivos digitales nos hacen delegar capacidades cognitivas importantes, tales como la orientación o la memoria, en sistemas computacionales complejos, lo que se traduce en cierta pérdida de capacidades. La cuestión entonces sería estudiar si esa dejación de nuestras facultades puede causar cambios irreversibles y, también, en que medida esos cambios atienden a nuestra capacidad de adaptación compensándose con nuevas habilidades, las necesarias para ‘sobrevivir’ en el medioambiente digital. También considera, que el uso de esas tecnologías hace que cambiemos nuestra forma de pensar, asumiendo una racionalidad computacional por las razones que más arriba hemos visto. Esa racionalidad tiende a analizar el mundo desde una perspectiva cuantitativa, tal y como atestiguan las formas de análisis social y cultural que la computación está generando, formas utilísimas para el análisis social como la visualización de datos o la minería de datos, por lo que esto, inicialmente, no debería ser negativo. Lo preocupante es la tendencia a naturalizarse de esa racionalidad -y lo interesante sería ahondar en una explicación del porqué de esa tendencia, que abordase los aspectos políticos y económicos de la misma-, a ser considerada como la única y, por lo tanto, verdadera, es decir, no como una racionalidad o como una forma de organizar nuestra percepción, sino como la realidad misma, obstaculizando otras visiones del mundo, con lo que ello supondría: el desdeño por todo aquello que no atiende al número, la incapacidad para el análisis crítico del contenido o la desaparición de las disciplinas que no pueden atender al análisis cuantitativo.

Deja un comentario