Lectura
¿Nos hace más tontos la tecnología?
Fragmento del libro ‘Crítica del hipercapitalismo digital’
Albino Prada 22/05/2019
En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí
CTXT se financia en un 40% con aportaciones de sus suscriptoras y suscriptores. Esas contribuciones nos permiten no depender de la publicidad, y blindar nuestra independencia. Y así, la gente que no puede pagar puede leer la revista en abierto. Si puedes permitirte aportar 50 euros anuales, pincha en agora.ctxt.es. Gracias.
En relación a la naturaleza de las numerosas actividades hoy digitalizadas y automatizadas conviene recordar que ya cuando corría el año 1967 Lewis Mumford (2010) resumía los atributos de la oleada automatizadora y maquinista que le había tocado vivir en los siguientes términos: potencia, velocidad, estandarización, movilidad, producción en masa, cuantificación, regimentación, uniformidad, precisión, regularidad y control.
Según su minucioso análisis, las consecuencias del creciente poder del maquinismo en nuestras sociedades habrían venido acompañadas de la conformación de dichas sociedades a la medida de las mismas. En palabras de Mumford: algo se habría torcido a resultas de lo que él denominaba usos indebidos del conocimiento científico.
Sin citar a Mumford, Nicholas Carr (2011) realiza casi cincuenta años después una actualización sobre los atributos más problemáticos de nuestra última oleada automatizadora y digital 4.0. Atributos que, como veremos a continuación, sugieren que algo aún más profundo se estaría torciendo en relación a la naturaleza de no pocas actividades hoy simplificadas al extremo en sus requerimientos de trabajo (vivo) directo.
Pues asistimos, en primer lugar, a una creciente vulnerabilidad, en el sentido de una dependencia acusada y continuada de la omnipresente automatización informática, lo que puede erosionar la pericia, los reflejos, la salud o la concentración de los trabajadores.
Así lo pondrían de manifiesto, por poner un ejemplo, las trescientas bajas diarias en la planta de PSA-Citröen en Vigo, ya que “según estudios internos de la multinacional francesa, en el 75% de los casos de baja analizados, se trata de absentismo por incapacidad temporal provocadas por trastornos neuróticos y depresivos, articulares, de espalda, esguinces y tendinitis”, bajas que los sindicatos relacionan con “la intensidad del trabajo que tienen que realizar los empleados asignados a la cadena de ensamblaje de piezas; que la clave de todo está en que la plantilla se ha ajustado al límite.”
Por no hablar de accidentes aéreos, vinculados al desequilibrio entre automatización y recursos humanos, o de recurrentes colapsos del tráfico aéreo. Todo ello debido a que al convertir cada vez más labores en rutinarias se estrecha nuestra perspectiva, con lo que tendemos a cambiar talentos sutiles y especializados por otros más rutinarios y menos distintivos.
Esa estrechez y rutina provocaría otro sesgo de conducta no poco peligroso: la complacencia. Cuando tal cosa sucede deja de ser verdad que la maquinaria automatizada requiera mayores habilidades, lo opuesto será lo más frecuente. El coste de estas complacencias y conveniencias sería una progresiva pérdida de nuestra autonomía como personas y como grupos sociales. Como ponen de manifiesto los reiterados casos de robos masivos de datos personales en portales como Google, British Airways, eBay o Spotify.
Rutinas y complacencias que se combinarían en un creciente riesgo de superficialidad. Un empobrecimiento de nuestra experiencia personal (N. Carr se refiere al caso de la tecnología GPS) y, en general, al hecho de que con un software menos agresivo la imaginación de los usuarios tendría más oportunidades de florecer.
Nos tornaríamos más superficiales porque, por ejemplo, “los motores de búsqueda, al automatizar la indagación intelectual dan preeminencia a la popularidad y a la actualidad sobre la diversidad de opinión, el rigor de los argumentos o la calidad de la expresión” (Carr 2014: 236). Es entonces cuando lo funcional y las correlaciones en el análisis de los big data sustituyen a la indagación causal, o bien –simplemente– se convierte en verdad online aquello que más miradas atrae.
Lo más funcional, lo más popular o lo que más miradas atrae serían así conformadores de una cierta superficialidad sobre los más diversos asuntos, frente a una matizada y personal indagación analítica. Se conformaría lo que Manuel Vázquez Montalbán (1997: 255-256) denominó ya hace veinte años como una “hipnosis mediática” que recomendaba enseñar a descodificar en las escuelas. O a prohibir el uso de dispositivos móviles en las aulas como se estudia en España y ya es realidad en Francia.
Una dicotomía que encajaría en varias otras que podrían establecerse entre una emergente cultura digital-audiovisual y la tradicional alfabética-impresa, tal como recogemos en el recuadro que insertamos.
Dos culturas
Fuente: elaboración propia sobre Harvey, 1990; Simone, 2001 y Carr, 2011
Será así, como ya sostenía nada menos que Platón en Fedro, que “…recibirán mucha información sin la instrucción apropiada y, en consecuencia, se pensará que son muy eruditos, cuando serán en gran medida ignorantes”.
Sin olvidarnos de una galopante vulnerabilidad derivada de la gigantesca complejidad de las componentes en acción (lo que Mumford denominaba mega-técnica). Situación que abre la puerta a amplificar las consecuencias de un fallo minúsculo en una de esas componentes a escala planetaria. Algo que ya había intuido hace más de medio siglo Jonh von Neumann (1958: 68, 107-109) como problemas de imprecisión asociados a la acumulación y amplificación de los numerosos cálculos a realizar.
Fallos o manipulaciones, como sucedió con la caída del índice Dow Jones en 2010 nada menos que en 900 puntos en cinco minutos (flash crash) por las manipulaciones de una sola persona. Según informó en su día la prensa: “El descalabro relámpago puso en evidencia la vulnerabilidad de unos parqués dominados por las máquinas, que ejecutan operaciones en milésimas de segundo siguiendo complejas fórmulas matemáticas para anticiparse a las tendencias”.
Y ello porque, además, “los ingenieros y programadores agravan los problemas al esconder los manejos de sus creaciones a los operarios, lo cual convierte cada sistema en una caja inescrutable” (Carr 2014: 190). Abriendo camino a manipulaciones que pueden ser conscientes y generadoras de graves distorsiones económicas y sociales, como se sabe ya que sucedió con importantes marcas de la automoción. Así el caso de Volkswagen y las emisiones trucadas en millones de vehículos en todo el mundo, siendo a veces esas mismas empresas las que retardan la implementación de tecnologías 4.0 para continuar haciendo negocios multimillonarios.
Pensemos, por ejemplo, en los riesgos de ataques informáticos (como los virus Stuxnet y otros) a centrales nucleares, que no parece que estén siendo gestionados con la precaución necesaria, según recientes informes internacionales.
Gigantismo y complejidad (pensemos en Google, Facebook o Microsoft) asociadas a una cada vez menor maleabilidad de la tecnología que hay detrás de esta galopante automatización digital ya que “… modificarla es enormemente difícil, constituye en este momento un componente integral del statu quo social” (Carr 2014: 200).
Es el caso de Microsoft, donde su progresión del Basic al MS-DOS, de éste al Windows, Excel, Word, PowerPoint, … después al Explorer siempre estuvo basada en convertirse en la opción estándar, abusando de su posición dominante en el sector de los sistemas operativos para asegurarse una ventaja en el campo de las aplicaciones.
Se conforma así un gigantesco poder de esta nueva megatécnica. Frente al que los poderes públicos y los gobiernos son a cada paso más irrelevantes. El ejemplo de Uber (en el transporte urbano) es paradigmático: presiona a municipios porque controla todos nuestros datos de movilidad a través del teléfono, pero, al tiempo, no integra la movilidad a pie, en más carriles bici o en transportes colectivos. Practica un solucionismo que solo es rentable para quien controla los datos.
Sin olvidarnos de que con todo ello se amplifica el creciente riesgo de control monopólistico (tecnológico, financiero, comercial o de comunicaciones) por un número muy reducido de empresas que crean y moldean el mercado (y la obsolescencia) en grandes corporaciones (Google, Microsoft, Facebook, Apple, etc.) a pesar de ocuparse de productos infinitamente reproducibles a coste casi cero. Oligopolios que reducen una oferta potencialmente ilimitada y la dirigen a una demanda de nivel medio-alto a escala mundial.
Como sentenció sobre Microsoft un juez federal en Estados Unidos usando “su prodigioso poder sobre el mercado y sus inmensas ganancias para perjudicar a cualquier otra compañía que ose competir con sus principales productos” (Staglianò, 2005: 236). O la reciente multa de la Comisión Europea a Google por prácticas contrarias a la libre competencia derivadas de ciertas manipulaciones en su algoritmo
También se anotan otros riesgos emergentes derivados del hecho de que de los algoritmos se pueden derivar predicciones brutalmente erróneas, que todo vaya demasiado rápido, o los derivados de que pasemos cada vez más tiempo frente a un teclado pero menos tiempo pensando. En su conjunto, todo ello aumentaría las probabilidades de desencadenar operaciones erróneas. Errores e imperfecciones que en no pocos casos podrían ser letales.
En este contexto la entrada en vigor de la normativa europea sobre protección de datos en internet (Reglamento (UE) 2016/679) coincidió, no por casualidad, con escándalos en relación a usos indebidos de dichos datos y sobre la intrusión en la privacidad de los usuarios.
Dos argumentos de mucho peso, sobre todo si se enlazan: invasión de la privacidad de millones de usuarios para ganar dinero y poder (publicitario o político), mientras no se paga un duro por contenidos con los que atraer a esos millones de usuarios. Un círculo vicioso que se retroalimenta, pues a más usuarios más dinero a ganar, suministrando (a empresas, publicistas o Gobiernos) datos que me salen gratis, y a la vez más poder de negociación para conseguir contenidos gratuitos con los que atraer a más usuarios.
Sobre esta ley del embudo reflexionó premonitoriamente Tim Berners-Lee (2000) marcando distancias respecto de aquellos que querían apropiarse de la Web para hacer dinero, frente a su planteamiento de no hacerse multimillonario con la Web.
Fue así como el Laboratorio Europeo de Física de Partículas (CERN), para el que trabajaba, permitió, en 1993, a todo el mundo el uso del protocolo y el código web gratuitamente. Así se explica que el Consorcio W3C que impulsó, y que hoy gobierna la Web, no valga en bolsa miles de millones.
Berners-Lee nos alertaba, ya entonces, de los riesgos de lo que podría ocurrir en cuanto los algoritmos se perfeccionasen. Riesgos de que mega compañías, de facto cuasi monopolios globales, acumulasen información personal para dañar o aprovecharse de sus usuarios (a los que alguien podría no hacerles, por ejemplo, un seguro médico). O bien, citando el Gran Hermano de la distopía de George Orwell, que al controlar el más mínimo movimiento y opinión de una persona, las sociedades quedasen a merced de potenciales tendencias dictatoriales o, como mínimo, a muy graves corrupciones de la democracia. Negocio y poder.
Y es por eso más que probable que el artículo siete del citado reglamento europeo no pueda garantizar un consentimiento libre y limitado entre un humilde usuario y un monopolio.
Porque entre el Consorcio W3C y las empresas transnacionales que tejen negocio y poder en la web existe una diferencia abismal. M.L. Dertouzos, director del laboratorio informático del MIT hasta su fallecimiento en 2001, la resumió así: “Mientras los técnicos y los empresarios lanzaban o fusionaban compañías para explotar el Web, parecían fijarse sólo en una cuestión: ‘¿Cómo puedo hacer mío el Web?’. Mientras tanto Tim preguntaba: ‘¿Cómo puedo hacer vuestro el Web?’” (citado en Berners-Lee, 2000: xvi). Un matiz crucial que nos lleva de Encarta a Wikipedia.
-------------------------------
Este texto reproduce un fragmento del libro Crítica del hipercapitalismo digital (Los libros de la Catarata), de Albino Prada.
-----------------------
Este artículo se publica gracias al patrocinio del Banco Sabadell, que no interviene en la elección de los contenidos.
CTXT se financia en un 40% con aportaciones de sus suscriptoras y suscriptores. Esas contribuciones nos permiten no depender de la publicidad, y blindar nuestra independencia. Y así, la gente que no puede pagar...
Autor >
Albino Prada
Suscríbete a CTXT
Orgullosas
de llegar tarde
a las últimas noticias
Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí