EL Rincón de Yanka: 📱📺🔌📧💻 "MUNDO ORWELL". MANUAL DE SUPERVIVENCIA PARA UN MUNDO HIPERCONECTADO Y CONTROLADAMENTE MANIPULADO

inicio








martes, 2 de abril de 2019

📱📺🔌📧💻 "MUNDO ORWELL". MANUAL DE SUPERVIVENCIA PARA UN MUNDO HIPERCONECTADO Y CONTROLADAMENTE MANIPULADO


Manual de supervivencia 
para un mundo hiperconectado.


Introducción
El verdadero problema 
de la humanidad es el siguiente: 
tenemos emociones del Paleolítico, 
instituciones medievales 
y tecnología propia de un dios. 
Y eso es terriblemente peligroso. 
EDWARD OSBORNE WILSON

Se cumplen setenta años desde que George Orwell escribió, en 1949, su famosa novela 1984, una distopía futurista en la que el Gran Hermano manipula la información y ejerce una vigilancia masiva y represiva contra los individuos. No me atrevo a considerar Mundo Orwell como un homenaje a la obra ni a su autor, pero sí como un aviso de que el mundo que describía el escritor británico parece, ahora sí, haber empezado a esbozarse en muchos de los rasgos de nuestra sociedad.
En 1984, Orwell describe un mundo gris controlado por el Gran Hermano, líder de una de las potencias que se mantienen enfrentadas entre sí en una guerra permanente. La sociedad está sometida a una vigilancia constante, la verdad oficial se revisa en función de los intereses del Estado bajo la idea de dominar la Historia para construir sobre ella el futuro. El lenguaje se ha reconstruido para transmitir el mensaje del partido y privar a los ciudadanos de un instrumento útil para la interpretación de la realidad. De hecho, el nombre se convierte en el objeto dejando a este sin identidad. La realidad se convierte en irrelevante; lo importante es el mensaje, la percepción, la narrativa.

Mundo Orwell no trata de tecnología. Ni siquiera sobre su aplicación. Es, o quiere ser, una reflexión sobre las implicaciones de la tecnología. Sobre cómo esta afecta a nuestra forma de ser, a nuestra forma de vivir, a nuestra forma de relacionarnos. Quiere integrar conocimientos y disciplinas: psicología, sociología, política, economía... e incluso tecnología. Pero sin olvidar nunca que las personas son lo que más interesa.
Después de redactar una enciclopedia de casi nueve mil páginas, La historia completa de la civilización, los esposos Will y Ariel Durant resumieron su contenido en otra obra con tan solo cien, Las lecciones de la Historia. Finalmente, comprimieron todo ese conocimiento en una única frase: «La única revolución real está en la ilustración de la mente y en la mejora del carácter; la única emancipación real es individual, y los únicos revolucionarios reales son los filósofos y los santos».
Con ese ánimo de ilustración de la mente y emancipación individual, Mundo Orwell pretende trazar una historia de nuestro futuro reciente, ese que está a punto de haber sucedido ya. Una historia de la gente que vivirá en ese mundo y de cómo llegaremos a él.
La Historia, el pasado, es igual que el futuro. Con la única diferencia de que ya no podemos hacer nada al respecto delo que ocurrió, mientras que lo que está por venir depende de nosotros y de nuestras actuaciones. Los cocineros de ambos, pasado y futuro, somos los mismos, solo cambian los ingredientes con los que contamos en cada momento.

En estas páginas intento dar algunas pistas sobre cuáles son esos ingredientes y cuáles sus características. Me atrevo a apuntar algunas ideas sobre qué podemos esperar y qué podemos hacer para obtener el futuro más sabroso. Cada capítulo incluye un «manual de supervivencia», más una lista de ingredientes sobre la que improvisar, sobre la que reflexionar, que una receta para seguirla al pie de la letra.
El mundo está cambiando muy deprisa. El futuro se vuelve pasado casi sin discurrir por el presente. El ser humano no está diseñado para asimilar cambios tan rápidos y profundos. Ni tan irreversibles. Ya no sirve el método de ensayo y error, ni podemos esperar ser capaces de incorporar los avances tecnológicos al ritmo que se producen. Es un mundo de máquinas y humanos en el que los algoritmos -para simplificar, las instrucciones que siguen las máquinas en su funcionamiento- condicionan nuestras vidas en función de los datos que nosotros mismos les proporcionamos. Por este motivo es especialmente importante que sepamos decidir hacia dónde queremos avanzar y a qué ritmo deseamos hacerlo.
Y debemos decidirlo antes, preferiblemente, de que hayamos llegado a donde no queríamos ir. 

NÚMEROS Y LETRAS: DATOS E IDEAS

Hasta no hace mucho, se solía pensar en el ciberespacio como un mundo de unos y ceros. Bueno, en parte, lo es. Pero solo en parte. Internet contiene números, datos concretos de todos nosotros. Incluso las letras las descompone en números -ceros y unos-para que la máquina las entienda y sepa interpretarlas.
Sin embargo, esos unos y ceros se combinan de millones de formas distintas para generar mucho más que los blancos y negros que podríamos intuir a primera vista. Igual que los píxeles de una fotografía, que no dejan de ser puntos de luz de determinados colores, esos dígitos terminan por activarse o desactivarse de tal forma que conforman una imagen con muchos más colores que los que tenían por separado. Los matices se determinan por proporciones de unos y de otros. Algo similar a lo que ocurre a nivel físico con el ojo humano.

Así, con los números en mente, nos preocupa que nos roben el dela cuenta bancaria o el de la tarjeta de crédito. Estamos, en casos más sofisticados, inquietos con la idea de que alguien pueda acceder a nuestros perfiles o a nuestros avatares, incluido el correo electrónico. En general, nos asusta que un hacker, un pirata informático, pueda sustraer nuestros datos, nuestras ideas, nuestros contactos.
Pero el ciberespacio nos ha acogido dentro de él y nos sirve para mucho más que como repositorio de nuestros datos. Incluso llega más allá de ser la biblioteca de nuestros pensamientos y el medio más conveniente para transmitirlos. Internet es bidireccional. Muchas veces lo olvidamos o tendemos a pensar que todo lo que pueda llegar desde fuera de nuestro ordenador o nuestro teléfono móvil no puede ser más que información o algún tipo de virus que nos infecte.

Conscientes como somos de volcar nuestras ideas en las redes o en los chats, lo somos mucho menos -o lo éramos, hasta que los últimos escándalos han ido despertándonos a esta realidad- de que también llegan ideas a través del mismo medio. Y la forma en la que llegan es mucho más potente que el mensaje que envían los medios de comunicación no interactivos.

La Red utiliza los números para funcionar, contiene datos como materia prima, pero la combinación adecuada de números termina por formar letras que, acumuladas ordenadamente, pueden constituir ideas.Y estas las carga el diablo.Mucho más peligrosas que los números y los datos son esas ideas cargadas en un entorno controlado por intereses comerciales, pero en el que nos sentimos a salvo. La falta de sentido del peligro -y de la responsabilidad- que nos asalta cuando estamos detrás de una pantalla dificulta la consciencia del riesgo a que podemos estar sometidos o del daño que podemos causar «en zapatillas y antesde la primera taza de Earl Grey», como le dice Q a 007 en la película Skyfall (Sam Mendes, 2012).
En el ámbito de la ciberguerra se han creado secciones dedicadas a ejecutar o controlar operaciones militares de influencia en el ciberespacio. Tal influencia depende de los vínculos que se establecen, no del número bruto de componentes de un grupo.
Tenemos unos 86.000 millones de neuronas en nuestro cerebro humano. Cada una de ellas está equipada con miles de dendritas. El conjunto es capaz de establecer tiillones de conexiones. Por tanto, disponemos de una máquina impresionante que se basa en la capacidad de sus células para relacionarse entre ellas e intercambiar información.
Del mismo modo, las redes se sirven de la impresionante capacidad de Internet para identificar personas, clasificarlas y agruparlas para generar conjuntos homogéneos, sociedades uniformizadas que se autogestionan.

La distopía 1984 se colocó en el número uno de ventas en Amazon tras la toma de posesión del presidente Trump el 20 de enero de 2017. Las declaraciones de Kellyanne Conway, consejera del presidente Trump, relativas a los «hechos alternativos» que contradecían la verdad evidente -la escasa afluencia de público a la investidura- plasmada en diversas fotografías, parecían sacadas de sus páginas (véase capítulo 2). El mundo había cambiado delante de nuestros ojos y fuimos incapaces de verlo hasta que nos lo explicaron desde el atril de la Casa Blanca. A los efectos de Orwell, la investidura podría haber tenido lugar el 20 de enero de 1985.
No se trata de un hecho aislado. Ni siquiera es incongruente con el resto dela realidad en que vivimos.Algo ha cambiado desde que los monitores de los ordenadores -por algo Internet fue inicialmente un desarrollo militar-despedían solo destellos blancos o verdes. Lo que el Ministerio de la Verdad del Gran Hermano no habría podido hacer con la burda tecnología que imaginó Orwell puede conseguirlo hoy, fácilmente, cualquier imberbe armado con un teléfono móvil... y su cargador de batería.

Ha cambiado la tecnología, sin duda, pero no hablaré aquí de bits y bytes. Este libro se centra en cómo hemos cambiado nosotros. En cómo han cambiado las personas y cómo lo ha hecho la sociedad en su conjunto. No se hablará tanto de la inteligencia de silicio, la de las máquinas, como de la de carbono, la humana.
Ahí fuera hay miles de millones de cámaras que nos vigilan a diario. Casi todos llevamos un par de ellas en nuestro bolso o nuestro bolsillo. Una imagen captura un instante de nuestras vidas, un aspecto parcial. Miles de ellas terminan por delinear quiénes somos. La privacidad -en mi opinión, exageradamente elevada por algunos a la categoría de derecho humano-ha muerto, desnuda, en las celdas del Ministerio del Amor de Orwell. Ha caído cuando más importante era que siguiera viva: ahora que los ojos y los oídos del Gran Hermano realmente pueden seguirnos a todas partes. Seguirnos ... y entender qué hacemos y lo que somos.

Mientras veía con el corazón encogido a unas adolescentes haciéndose selfis al borde de un acantilado, no podía evitar pensar en sí la tecnología nos ha cambiado o, por el contrarío, nos hace más genuinos. Sí nos dejamos seducir por los diseños de Apple o estamos diseñando la tecnología como un marco a la mayor gloría de nuestros egos. El problema que se plantea es nuevo en la Historia. Tenemos la capacidad para cambiar el mundo. Su realidad y la forma en que lo percibimos. No estamos transformando lo existente. Por primera vez, estamos creando. Estamos jugando a ser dioses en un mundo nuevo -virtual, eso sí-hecho a nuestra medida. Y estamos desnudando nuestra alma descubriendo que lo que creamos no hace sino reflejar, corregido y aumentado, al mismo ser humano al que queríamos trascender.
Refleja, quizás, incluso al mono que sigue habitando dentro de nosotros. La inteligencia perfecta de las máquinas -cuando llegue a serlo- contrasta con nuestra «capacidad» para equivocarnos. Nos obliga a añadir calificativos a cómo nos definimos para separarnos del mono no racional y de la inteligencia no viva. Nuestra creación nos aplasta y nos constriñe, empujando nuestra cara contra el espejo para encontrar nuestro lugar en el mundo.
Orwell definió los ministerios del Amor, la Paz, la Abundancia y la Verdad. Lo hizo en el lenguaje con dobles significados de la Oceanía en que ambienta su novela. Más pavoroso que el doble o triple sentido, sin embargo, es la falta absoluta de este. Más horripilante que un monstruoso enemigo al que ves es otro sigiloso que no puedes detectar. La imposición y el engaño que se describen en 1984 y Un mundo feliz se han transformado en confusión e indiferencia en nuestro mundo.
La llegada de las máquinas inteligentes, de los robots industriales, va a suponer un desafío para muchos trabajadores.Pero también los algoritmos que operan desde los ordenadores y los servidores. Ya se ha visto el efecto de la digitalización en los medíos de comunicación. Se aprecia ahora en los bancos y las entidades financieras. Y se hará patente en tareas relacionadas con multitud de otros trabajos.
Este desafío puede verse como un desastre que nos desaloja o bien como una oportunidad para reinventarnos, para redefinirnos como seres humanos sin ataduras. Pero, claro, eso supone salirse de la zona de confort que hemos habitado durante cientos de años.

El mundo Orwell, al contrario que el monótono ambiente de 1984, no da respiro. Cada día, cada minuto, es una experiencia nueva. La competición es feroz. No solo con otras personas, no solo de las empresas entre sí, también de los Estados. Todos contra todos.Algunos empiezan a entender ya hoy esa realidad. En una red en la que todo está conectado, la fuerza está en los vínculos que tengas con otros nodos. Estados, empresas y ciudadanos atacan y son atacados por ciudadanos, empresas y Estados indistintamente.

Las armas que se emplean son las mismas en todos los casos. La diferencia entre una gamberrada, un delito, un acto terrorista o uno de guerra solamente está en los actores implicados, en la escala a la que se sienten los efectos y, sí se quiere, en la intención del atacante. El mismo virus informático puede servir -sirve- para todas esas funciones. Las distinciones entre ámbitos, entre jurisdicciones, entre calificaciones se diluyen, nublan y oscurecen.

Por eso la guerra -como afirmó Carl von dausewítz (1780-1831), el gran teórico bélico prusiano-deja de ser la continuación de la política por otros medíos, pues todo es un proceso sin solución de continuidad. Vivimos en guerra permanente. No es una guerra que ocurra todoslos días, sino que tiene lugar cada minuto. No es un conflicto que se libre entre la gente, como el terrorista, sino que se libra dentro de cada uno de nosotros. Una guerra «en» la gente. Una batalla incruenta casi siempre, inmisericorde siempre. En la que la carcasa,la parte física de nosotros mismos, puede no recibir daños. Pero en la que nuestro interior más íntimo queda expuesto públicamente.

En las mazmorras del Ministerio del Amor, los carceleros explican a Winston Smith, el protagonista de 1984, la filosofía y los principios de su régimen. Lo que no cuenta Orwell en su novela son los detalles de cómo se llegó hasta la situación que describe. No dice en qué momento se dio el salto cualitativo hacía el abismo. Se puede deducir que esa filosofía se gestó sobre la base de una sociedad cuyos valores habían desaparecido. Ahora nos acercamos al abismo y estamos a tiempo de saltar a él o evitarlo, pero, sobre todo, de tomar la decisión basándonos en valores y principios sólidos. Se impone un renacimiento que nos recuerde que el ser humano esla medida de todas las cosas. Por mucha tecnología que desarrollemos y por muy «inteligente» que esta pueda ser.

Me habría gustado escribir este libro en tres dimensiones.O en más. En las suficientes para que se vieran las relaciones cruzadas entre todos los aspectos de nuestras vidas. Porque, para entender el mundo, no basta con captar cada uno de sus aspectos, hay que comprender cómo se relaciona con los restantes. Atado a la exposición secuencial de cada tema, dejo a los lectores la tarea de colocar las piezas del puzle para obtener una visión de conjunto. La única que sirve.

En su día, 1984 fue una suerte de réplica a "Un mundo feliz", la novela de Aldous Huxley. Orwell describía una sociedad en blanco y negro, en la que el Estado controla a la población con castigos y engaños. Huxley, por su parte, mostraba un mañana en color cuyos habitantes son sometidos y manipulados mediante un condicionamiento psicológico. Palo o zanahoria. Un mundo triste y otro feliz... pero los dos carentes de libertad.
El reto que tenemos por delante es que el ansia de felicidad no nos lleve a sacrificar nuestra libertad.

Si pretendemos adentrarnos en el mundo del Gran Hermano, si vamos a vivir la distopía descrita por Orwell, necesitaremos un manual de supervivencia.


Al igual que otros muchos niños en la generación que protagoniza la serie de televisión "Cuéntame", ambientada en las décadas de 1960 a 1980, yo me críe como Carlitos, el hijo pequeño de la mítica familia Alcántara. Mi vida iba un tanto a caballo entre el colegio, la merienda de una rebanada de pan con chocolate (cuatro cuadradillos) y la vida en la calle o en la plaza. En realidad, salvo por el hecho de la posguerra que les tocó vivir a ellos, no había grandes diferencias con el ritmo de vida que habían llevado mis padres o, incluso, mis abuelos.

Hasta no hace mucho, la evolución de las costumbres y de las posibilidades o la movilidad social solían ser cosa de generaciones. Incluso la llegada de una tecnología tardaba años en tener un reflejo en la vida diaria del común de la población. Para mis padres, sin embargo, muchas generaciones se han concentrado a lo largo de su vida. Los cambios de los que han sido testigos son mayores que los que pudieran experimentar sus antepasados en varios siglos.

De hecho, han visto aparecer y desaparecer más tecnologías que ninguna otra generación en la Historia. Incluso series completas de tecnologías. Fueron testigos del nacimiento de los discos de vinilo y las casetes de audio, aquellas que amenizaban las excursiones en el Seat 600 o en el 850 y en las que grabábamos las canciones de Los 40 Principales que se oían en la radio. Años después, vieron cómo estas eran superadas por los discos compactos, los CD. Tampoco estos tuvieron una larga vida antes de ser reemplazados por los DVD, de los que acumulo centenares en casa sin ningún aparato que pueda ya reproducirlos.

DE LOS PUNTOS Y LOS PLANOS

Hace unos años -a mí no me parecen tantos-nuestra red social era nuestra pandilla. Los «colegas» -muchos siguen siéndolo-eran sagrados y dignos de cualquier esfuerzo y de toda confianza. La red que se tejía entre todos era el fruto de muchas horas de preguntarnos adónde ir esa noche para luego acabar quedando en el sitio habitual, de escaparnos a escondidas, de hacernos confidencias sobre noviazgos, y de algunas noches yendo a conciertos y fiestas.
En mi pandilla, como en todas, éramos forofos del mismo grupo musical -recuerdo como si fuera hoy descubrir a los Pink Floyd en casa de Ángel o a Jean-Michel Jarre en la de Luis-, seguidores del mismo equipo de fútbol y asiduos de los mismos cómics. Incluso, más de una vez, acabamos compartiendo los mismos amores (eso sí, ordenadamente y uno después del otro). En todas las pandillas había un líder, aunque este papel no lo desempeñaba siempre el mismo individuo, pero nunca sabré si los gustos que compartíamos tenían que ver con su personalidad o con la idiosincrasia del grupo.

Porque lo importante era la pandilla. Podía faltar uno o añadirse otro de forma circunstancial, pero el grupo era un algo homogéneo con el que todos nos identificábamos. Dicho con un símil geométrico,la pandilla era un plano que venía definido por los puntos que representábamos cada uno de nosotros. Y todos estábamos en el mismo plano y, hasta mucho después, en ninguno más. Solo había un plano porque nuestros intereses eran comunes. Eso nos daba cohesión, aunque es posible que nos privase de entrar en contacto con otros puntos de vista. Hoy vivimos una vuelta a la importancia de la identidad, del sentimiento de pertenencia que nos daban aquellas pandillas de mí juventud.


Ahora, nuestros hijos -y nosotros también- han alcanzado el colmo de la individualidad. La tecnología lo ha hecho posible.Ya no tenemos que ser borregos del rebaño. Ya podemos pensar por nuestra cuenta sin depender dela aprobación del grupo para sentirnos integrados en un colectivo. Porque tenemos todos los colectivos posibles a nuestra disposición.


Hoy, cada cual tiene su grupo de amigos en Spotífy o en YouTube con los que comparte las canciones ochenteras (que, por cierto, siguen siendo lo mejor que ha dado el pop español). Todo quisque tiene su grupo en Twitter con el que sigue las noticias de su opción política, y con el que comparte puntos de vista relativos a un tema sin importar sí los demás aprecian la música de Mecano o de Los Secretos, o son más de Britney Spears o de Antonio Machín.



El barrio se ha ampliado. La pandilla ya no colma nuestras necesidades de aprobación grupal porque queremos conjugarlas con las de la demostración de nuestra individualidad, de nuestra personalidad diferenciada. En el colmo del cinismo, nos lo dicen los anuncios publicitarios: tenemos que ser (se supone que todos y cada uno delos consumidores) nosotros mismos.

Entonces, cuando nos posicionamos en planos de intereses diferentes, el foco -volviendo a la imagen geométríca- pasa de estos al punto. Sí un plano -la pandilla, el grupo- es definido por los varios puntos que contiene, el punto es la intersección de los infinitos planos que pasan por él. Cada plano, cada conjunto de intereses, converge sobre nosotros y nos convierte en seres únicos y perfectamente libres e independientes de ataduras. Elegimos cada plano que nos define, cada interés que tenemos, cada creencia, filia y fobia que nos marca. Y en esos distintos planos de intereses encontramos una infinidad de internautas que comparten ese aspecto concreto de nuestra personalidad y nos acompañan en la definición de ese plano, en la configuración de un sentido grupal.

Planos y puntos se siguen definiendo mutuamente, pero estos últimos -las personas-se han impuesto. El acceso universal e instantáneo a la información proporciona la posibilidad infinita de elegir y, por tanto, de ejercer la libertad como jamás antes había ocurrido en la Historia. Regresamos a un humanismo en el que el ser humano es la medida de todas las cosas. La persona vuelve a ser el centro del universo, pero esta vez con toda la información disponible para saber dónde quiere ubicarse.

Perfecto... salvo que la situación no es exactamente esa. 

ATRAPADOS EN LA RED

La información que nos permite ser libres para elegir tiene que ser, ante todo,veraz. La única limitación a la libertad del individuo es, como escribió en 1959 el economista y filósofo político alemán Friedrich August von Hayek, la que pueda ejercer el Estado en función de su monopolio del uso de la fuerza. El contrato social habilita a los poderes públicos para asegurar el orden y la convivencia ejerciendo una mínima coacción sobre las libertades individuales.

Sin embargo, incluso sin ejercer coerción alguna sobre la capacidad para elegir, tanto el Estado como un número creciente de actores están en disposición de alterar la información que cada uno de nosotros recibe para hacer que nuestra elección se base en hechos distorsionados o de muy difícil valoración. Nadie obliga a un borracho a tomar una decisión equivocada, es su propia percepción distorsionados o de muy difícil valoración. Nadie obliga a un borracho a tomar una decisión equivocada, es su propia percepción distorsionada de la realidad y su juicio disminuido lo que termina por hacer que su coche caiga por un barranco (su libertad la ejerció cuando decidió emborracharse).

La situación actual implica que nuestra capacidad para acercarnos a la verdad está muy limitada por la misma estructura que hemos elegido para acceder a ella. En Estados Unidos, más del 60 % de las personas utiliza las redes sociales para informarse en lugar de hacerlo por medíos de solvencia contrastada y de tendencias diversas. Esto priva a tales ciudadanos de las «ciertas» garantías que ofrece la ética profesional de los periodistas. «Ciertas» porque -tal y como dijo Paul Sethe, fundador del prestigioso rotativo Frankfurter Allgemeine
Zeitung , en 1965- «la libertad de prensa es la libertad de que doscientas personas ricas expresen sus opiniones».

Sin embargo, cuando Sethe escribió esa frase sobre la prensa, la profesionalización, los controles establecidos y el prestigio de las publicaciones, muy restringidas en cuanto a su número, evitaban una intoxicación masiva y universal, en su alcance y en su procedencia. De alguna manera, la narrativa oficial era filtrada por una serie de profesionales que, en distintos medios, ofrecían versiones más o menos partidistas pero coherentes con una línea editorial.

La mundializacíón llegó hace unas décadas, cuando se generalizaron los viajes internacionales y fue posible acceder a informaciones generadas por medíos extranjeros con sesgos diferentes. No había llegado todavía la globalizacíón que todo lo uniformiza, de modo que aún se podía contrastar posturas y formarse un juicio propio sobre versiones diferentes de una misma noticia. Pocos años después, la generación de la información comenzó a concentrarse en unas pocas manos y, ya monopolizada , se dejaba a los medíos la elección del titular y la contextualización del contenido. En la década de 1990, por ejemplo, aquello que no estaba en la CNN simplemente no existía.

Las redes sociales, en general, son otro de esos servicios aparentemente gratuitos que nos ofrece Internet. No pagamos por acceder a ellas, ni por introducir nuestra información en las mismas, ni por mantenerla ahí a nuestra disposición y a la de aquellos que nosotros decidamos.Sin embargo, Facebook informó de unos ingresos superiores a los 40.000 millones de dólares en 2017. Todos sabemos que son los anunciantes los que pagan por aparecer en sus páginas, pero resulta una cantidad sorprendente (equivale a unas cuatro veces el presupuesto de Defensa español). Incluso teniendo en cuenta que las redes sociales se han «comido», literalmente, el negocio dela publicidad arrancándoselo a la prensa tradicional de las manos.
Aunque ya es un tópico, si Google o las redes sociales son los vendedores y los anunciantes son los que pagan -por tanto, el cliente-, ¿qué somos nosotros, los usuarios? Evidentemente, nos hemos convertido en el producto que se compra y se vende. Nosotros, nuestros datos, nuestro tiempo, nuestra atención. El producto es nuestro pasado y nuestro presente, y el resultado es la configuración de nuestro futuro, la decisión sobre qué va a ser de nosotros. Lo que puede resultar más triste es que ni los unos ni los otros tienen el menor interés en ese producto, en nosotros, pues únicamente les mueve el poder adquisitivo que podamos tener, el valor de nuestros votos o el de nuestras opiniones.

ALGORITMOS PARA ATRAER AL INTERNAUTA

La razón está en los algoritmos que utilizan las redes sociales. Estos programas (o grupos de programas) informáticos están diseñados para trabajar en lo que se denomina la economía de la atención. Se trata, en términos simples, de sacar el máximo partido al tiempo que cada usuario pasa «enganchado » a una página web para hacerle llegar la publicidad (o la propaganda) a la que sea más sensible. Y, al mismo tiempo, conseguir que ese tiempo que se «consume» en Internet transcurra, en lo posible, dentro de las páginas de la red social. Es decir, se trata de retener nuestra atención todo lo que sea factible, y aprovechar ese tiempo y esa dedicación para hacernos llegar los mensajes y que los veamos, algo por lo que alguien está pagando a dicha red.

Lógicamente, una fórmula así es más eficiente que la inserción de un anuncio en la página de un periódico, o que un anuncio en televisión o radio. En primer lugar, por las audiencias millonarias que van a acceder al mismo. Facebook tiene más de 2.000 millones de usuarios, ¡la cuarta parte de la población mundial! En segundo lugar, mucho más importante, porque los algoritmos solo mostrarán el anuncio a aquellas personas que consideren susceptibles de interesarse por él y lo harán en el momento preciso en el que sea más probable que lo tengan en cuenta.

La oportunidad en cuanto al receptor del mensaje y al momento en que lo recibe hace que la publicidad sea más eficiente -aunque los porcentajes nos parecerían despreciables- que cuando simplemente se lanza un anuncio en un medio y se espera a que alguien se interese por él. Los anunciantes pagan por ese diferencial de eficiencia en el anuncio, por esa mayor probabilidad de éxito, por «empujar» (push) el anuncio hacia nosotros en lugar de esperar a que seamos los lectores o los oyentes los que «tiremos» (pull) de él.

Aunque pensemos que esto se reduce a la publicidad comercial, que pretende mostrarnos un producto con fines meramente económicos, la propaganda -la información de carácter político- utiliza los mismos medios y con igual o mayor efectividad. Nuestra capacidad para elegir de una forma libre se ve, por tanto, mediatizada por el enorme conocimiento que el algoritmo tiene sobre nosotros en función de la información que le proporcionamos, bien de forma directa, bien a través de las acciones que llevamos a cabo en la red o en páginas asociadas a esta.

Todavía hay un segundo aspecto que tener en cuenta. Para maximizar el tiempo que pasamos en su web, las redes sociales -además de presentarnos los anuncios de los que se nutren sus arcas-aplican unos criterios economicistas respecto a las noticias que nos presentan. La información es prácticamente infinita en Internet, pero la capacidad para acceder a ella que tiene una persona es limitada; por tanto, se hace necesario filtrar la información más relevante para sacar el máximo partido a ese tiempo y a esa atención.

SESGOS DE CONFIRMACIÓN Y BURBUJAS DE FILTRO

Cada día de 2017 se publicaron, de media, más de 67 millones de posts en Instagram y más de 657 millones de tuits en Twitter. Ese mismo día estándar se enviaron 269.000 millones de correos electrónicos y 21.900 millones de mensajes de texto. Los algoritmos eligen, de entre toda la información disponible, aquella que mejor puede captar nuestra atención, de modo que invirtamos más tiempo en leerla... dentro de sus páginas.

Y la información que más nos puede interesar es aquella que refuerza nuestras creencias previas. La mente humana tiende a prestar una mayor atención y credibilidad a aquellas ideas que refuerzan los conceptos en los que ya cree. Y, al mismo tiempo, cuestiona todo aquello que contradice su visión del mundo. De alguna manera, es más fácil que visitemos una noticia que no nos saque de nuestra zona de confort que otra que nos lleve a replantearnos los criterios ya asentados en nuestra forma de entender el mundo. Es lo que, en psicología, se denomina percepción selectiva.

Lo más probable es que aquella noticia, o vídeo, que buscamos inicialmente incluya recomendaciones sobre otras noticias o vídeos de contenido similar que nos refuercen todavía más en nuestra idea inicial. ¿Cuántas veces hemos entrado a ver un vídeo en YouTube y hemos terminado visualizando docenas de vídeos que inicialmente no habíamos considerado? El algoritmo que emplea YouTube es uno de los más logrados en ese sentido. Los vídeos suelen resultar atractivos en cuanto a su relación con la primera búsqueda y, además, resultan muy sencillos de consumir al no requerir prácticamente esfuerzo alguno. Curiosamente, el atractivo de tales vídeos no es algo que YouTube haya tenido que elaborar, sino que se debe a quienes los han subido y que, a su vez, se benefician dela visibilidad que les proporciona la plataforma.

Una vuelta de tuerca más en este sentido es Douyin. Esta aplicación china, propiedad de ByteDance, distribuye vídeos cortos de entre quince segundos y unos pocos minutos. Su algoritmo ofrece a cada usuario aquellos contenidos que más encajan en sus gustos en función de lo que ellos mismos expresan o de si ven los vídeos hasta el final. Su éxito adictivo sin precedentes preocupa al Gobierno de Pekín (Beijing), no por la adicción misma, sino por los contenidos que prefieren los usuarios. Ya en abril de 2018 Toutiao, también del grupo ByteDance, y Kuaishou, una página de streaming en directo, fueron apercibidas por el contenido obsceno o violento de muchos de sus contenidos más virales.

Simultáneamente, estamos sometidos a lo que se denomina burbuja de filtro (aunque también puede encontrarse como filtro burbuja). Los algoritmos de los buscadores presentan en primer lugar aquellas noticias que mejor encajan con nuestro historial. El ideólogo de Internet y político Eli Pariser -director ejecutivo de Upworthy, una web para contenido viral «significativo»- lo descubrió haciendo que dos amigos introdujeran el término «BP» en un buscador. Uno de ellos recibió información bursátil sobre la compañía energética británica; el otro, información medioambiental sobre un derrame producido recientemente. El motor de búsqueda devolvió los resultados en función del perfil que tenía asignado a cada uno de los usuarios, de los que conocía su identidad por la dirección IP desde la que estaban conectados, por el hecho de hacerlo una vez que habían iniciado una sesión como usuarios o, incluso, por sus hábitos al teclado.
Al financiero le ofreció información sobre las cotizaciones, en tanto que al medioambientalista lo reforzó en sus convicciones «verdes».

La burbuja de filtro, según Pariser, decide mucho más que nuestros gustos. También tiene una idea preconcebida sobre nuestro lugar en el mundo y hasta dónde podemos o debemos llegar. Con la misma «lógica» con que a un varón no le hará llegar anuncios sobre productos de higiene íntima femenina, a un habitante de barrios marginales tampoco le enviará información sobre becas o proyectos de formación superior que, supondrá, quedan fuera de su alcance y expectativas.Si una IP, la dirección que define a un equipo, está localizada en una urbanización de lujo, tiene muchas más probabilidades de recibir ofertas de productos de calidad que una situada en un suburbio de clase trabajadora.
El sesgo de los algoritmos no nos impide avanzar social o laboralmente, pero tiende a mantener el statu quo partiendo de datos del pasado y asumiendo que se mantendrán inalterados. Para las máquinas, en general, el mundo es tal y como se les ha definido o tal y como ellas han deducido que es. Salvo que estén entrenadas para alterar el presente, su asunción será que deben sacar el máximo partido de la situación actual y preservarla cuanto sea posible.
David Sumpter, profesor de Matemáticas Aplicadas en la Universidad de Uppsala (Suecia), cita en su libro Outnumbered un ejemplo muy ilustrativo y de gran actualidad a este respecto. Amit Datta, doctorando entonces en la prestigiosa Universidad Carnegie Mellon de Pensilvania, y su equipo crearon 500 perfiles masculinos y 500 femeninos con los que llevaron a cabo búsquedas en Google esencialmente similares desde presuntos puestos de trabajo. A pesar de la coincidencia en todo, excepto en el sexo, los varones tenían muchas más probabilidades de recibir ofertas de empleo para directivos con sueldos superiores a los 200.000 dólares mientras que a las mujeres se les ofrecían puestos directivos medíos.

Es evidente que el entrenamiento que recibió la inteligencia artificial de la empresa de cazatalentos (en este caso, The Barret Group y su web -ya cerrado- www.carreerchange.com) o del propio Google llevaba implícita una forma concreta de pensar. Del mismo modo, hay sistemas de inteligencia artificial para el reconocimiento facial que son incapaces de identificar a personas -e incluso de catalogarlas como tales- sí no son de raza caucásica. El filtro de la burbuja lo establece su creador, el humano que hay detrás de él, aunque no siempre de forma consciente.

En todo caso, la burbuja es más un fenómeno sociológico que psicológico. El filtro funciona mejor dentro de ella porque atiende al sentimiento de pertenencia al grupo. El yo tribal reacciona en manada incluso cuando recibe informaciones contrarías a su forma de pensar. En los grupos digitales se funciona como en los estadios de fútbol -salvo muy honrosas excepciones-, no como en los congresos académicos. Donde no llega la manipulación individual,lo hace la presión del grupo.
En un instituto francés llevaron a cabo un experimento con ocasión de las últimas elecciones presidenciales, en las que resultó elegido Emmanuel Macron. Dividiendo la clase en varios grupos, se crearon perfiles en las redes sociales con características afines a cada uno de los candidatos, y perfiles de control. Desde el principio, el motor de búsqueda sugirió resultados distintos para cada uno de los grupos.
Resultados que reforzaban su posición política simulada inicial. Para aquellos que expresaban inicialmente ideas cercanas a las de Marine Le Pen, por ejemplo, las sugerencias de noticias provenían de prensa afín al sector,los comentarios sobre temas candentes -como la migración- se alineaban siempre con las tesis de la candidata del Frente Nacional. El experimento llevó a sus desarrolladores a cuestionarse sus propias convicciones en algunos casos, a pesar de ser conscientes del entorno de simulación en el que estaban inmersos.

La periodista y locutora Alnandine Rosset realizó en el mismo período otro experimento similar creando en Facebook una página en la que fingía ser un grupo de apoyo a Le Pen. Los resultados también confirmaron la existencia de una burbuja informativa que filtra los mensajes en función de los perfiles de los usuarios. 

En resumen, el que ahora tengamos una capacidad casi infinita para acceder a la información y elegir entre toda ella no nos hace necesariamente más libres.
Entramos en lo que los expertos llaman una «cámara de eco», en la que todo lo que recibimos es aquello queya hemos expresado nosotros, en la que el mundo nos responde con el mismo discurso que hemos lanzado, aunque las palabras puedan ser diferentes.
Estas cámaras de eco no se crean en el vacío. Es decir, tienen un sustrato basado en las mismas comunidades que existen en el mundo físico. Hay estudios que prueban que el acceso universal a la información y a los contactos se ve muy restringido por los sesgos de los algoritmos de búsqueda. Nuestro barrio, nuestra pandilla se amplía con miembros en todo el mundo, pero no se enriquece normalmente con opiniones distintas a las que ya teníamos y que puedan favorecer el debate.

Si se añade a estos sesgos la priorización que los proveedores de servicios de Internet -las compañías de telecomunicaciones que proporcionan la infraestructura en la cual se sustenta la Red- pretenden dar a unos contenidos sobre otros, las opciones de universalidad quedan claramente restringidas. Resulta evidente que los intereses comerciales de unos y otros parecen correr en dirección contraria a la facilidad de acceso a la totalidad de los contenidos.Sin olvidar las burbujas que crean algunos Estados, como la de la cibermuralla china, filtrando los contenidos que el Gobierno no desea que se visualicen o que considera perjudiciales para sí mismo o para la armonía social.
El periodista estadounidense Chris Hayes denuncia en Twitter (@chrislhayes) un ejemplo de la «toxicidad informativa» del algoritmo de YouTube. Una búsqueda que comienza en un interés genuino por la Reserva Federal de Estados Unidos termina por redirigir nuestra atención hacia asuntos muy distintos. A su búsqueda del término «Federal Reserve», el programa responde con una primera sugerencia sobre la historia de la institución con un sugerente título: Un siglo de esclavización: la historia de la Reserva Federal.

Lo curioso es que, cuando concluye ese primer vídeo, YouTube sugiere otro: Lo que se espera que sepas de la fundación de Estados Unidos. Este segundo vídeo incluye referencias a una supuesta conspiración de los comunistas y los Illuminati en la génesis de la guerra de Secesión (1861-1865). La sugerencia inmediata que recibió Chrisa continuación fue un nuevo enlace a un tercer vídeo, en el que el presidente Donald Trump explica quién creó los Illuminati, un grupo que tiene un papel protagonista en una de las novelas de Dan Brown.

Una búsqueda perfectamente lógica y aséptica ha pasado, en el trascurso de tres vídeos enlazados por un algoritmo, por dos relatos conspiratorios y una explicación más o menos surrealista. Más allá de la obviedad de que YouTube privilegia contenidos llamativos sobre los meramente informativos en relación con el banco central estadounidense, habría que saber qué historial de búsquedas tiene Chris Hayes para que el algoritmo del buscador haya decidido que esos temas le interesaban. La misma búsqueda efectuada por otra persona arrojaría resultados completamente distintos. Si no cambiamos de dirección IP o no iniciamos sesión en el ordenador, los resultados obtenidos serán distintos a si lo hacemos. El algoritmo carecerá de información en la que basarse para intentar «mejorar nuestra experiencia de producto». Un algoritmo para controlarlos a todos El problema no son los algoritmos, sino los sesgos que introducen quienes los programan. 

El algoritmo de YouTube, como muchos otros, simplemente busca maximizar el beneficio económico que se obtiene al capturar la atención de los visitantes. Igual que la belleza —y el pecado— está en los ojos del que mira, también el receptor de la información influye en el resultado con los datos que aporta a la máquina. Chris Hayes, el protagonista del ejemplo anterior, no es únicamente el receptor de las sugerencias del buscador, sino también el proveedor de datos al algoritmo para que este base en ellos el resultado que proporciona. La respuesta que los motores de búsqueda y los sistemas de algoritmos de las redes sociales dan a cada consulta está condicionada por quién la hace, desde dónde y en qué momento. La verdad, por tanto, se personaliza en función de lo que queremos escuchar y de lo que somos capaces de asimilar. Antes de catalogar las respuestas que nos dará, la máquina nos cataloga a nosotros mismos como demandantes de información. E intentará conocernos lo suficientemente bien antes de interactuar con nosotros para, así, «contar sus batallas por victorias», como ordenaba el general chino Sun Tzu (siglos vi-v a. de C.) en su célebre tratado de ciencia militar El arte de la guerra.


La creación de algoritmos que redactan algoritmos ha llevado a muchos a imaginar un proceso completamente autónomo en el que las máquinas mejorarán sus características lógicas a partir de su propia generación de conocimiento. Ese algoritmo maestro, el padre de todos los algoritmos, se retroalimentaría con el conocimiento generado por el comportamiento de sus creaciones hasta, teóricamente, los límites de la autonomía que le hubiera sido concedida. Hay argumentos a favor y en contra del uso de los algoritmos por parte de las máquinas para todo tipo de procesos. Es importante tener en cuenta que nosotros mismos los utilizamos en nuestra vida diaria en cualquier toma de decisiones. Por tanto, no se trata de estar de acuerdo con el uso de los mismos, sino con el hecho de que sean las máquinas las que lo hagan y con el grado de autonomía que se les pueda conceder. 

Existen numerosos ejemplos de decisiones algorítmicas que mitigan los sesgos humanos en la toma de decisiones e, incluso, reducen el grado de desigualdad que muchas veces les hemos atribuido. El experto en sistemas de información y tecnología Alex P. Miller, doctorando de la Wharton School de la Universidad de Pensilvania, expone varios casos. En todos ellos, la decisión que toma la inteligencia artificial resulta menos sesgada que las que venían adoptando los humanos. Miller concluye que las personas no somos particularmente hábiles tomando decisiones. Y es difícil no estar de acuerdo. La duda que podemos plantearnos es si queremos dejar determinadas decisiones directamente a las máquinas. Los ejemplos que expone Miller muestran que, en muchas ocasiones, ya estamos en manos de procesos automatizados cuando pedimos un préstamo, presentamos nuestra candidatura a un empleo o aspiramos a un ascenso. Pero también en decisiones judiciales sobre la concesión de la libertad condicional o, incluso, la custodia de niños.


Sin entrar todavía en cuestiones éticas, se plantea una cuestión más allá del acierto o el error en la toma de decisiones. Nos hemos acostumbrado a los errores e, incluso, a las deficiencias de juicio o de imparcialidad humanas, pero ¿estamos listos para asumir que sea una máquina la que tome decisiones que afectan a nuestra vida más íntima tras ese supuesto manto de infalibilidad? Es más, ¿queremos, nosotros, seres maravillosamente imperfectos, ser tutelados y abroncados o multados por máquinas diseñadas para ser inflexibles? Algoritmos y «egoritmos» 

El ejercicio de nuestra libertad está condicionado por la información que recibimos y la que dejamos de recibir. Nuestros intereses convergen en un «nosotros» influido por lo que percibimos. Cada red social nos presenta aquello que, según considera, maximiza el tiempo que pasamos en ella. De esta manera, una parte de la información en la que deberíamos basar nuestras decisiones sobre cómo interpretar una realidad concreta nos es hurtada por no corroborar los prejuicios que el algoritmo piensa que tenemos. No solo eso, el perfil que nos asigna la red social se corresponde con el de un grupo de personas que comparten los indicadores que la máquina ha identificado en nosotros. A partir de ese momento, nuestra pertenencia a ese grupo no solo deja de hacernos libres, sino que condiciona aún más la información por recibir. Luego, claro está, hay que contar con la naturaleza humana y el poder del ego. Dentro de esa comunidad de personas —o de bots, programas informáticos o máquinas que simulan ser personas— existe tal uniformidad de criterio que la conversación sería poco atractiva. Salvo que alguien ofrezca un gramo más de ideología o de picante al grupo.

Esa opinión, más provocativa y ligeramente más radical, suele ganar la aceptación del grupo en forma de likes, corazoncitos, pulgares levantados o cualquier otro símbolo de apoyo. Unos pocos de estos apoyos son gratificantes; un número elevado supone un reconocimiento público al originador que, además, llega de un grupo concreto cuya opinión es relevante para este. La lección para todos es que lo provocador genera apoyos y relevancia social. Por tanto, de forma casi imperceptible, los grupos tienden a escorarse y radicalizarse en función de la búsqueda de notoriedad de sus miembros más osados. La tribu digital, la pandilla, altera ligeramente su identidad para seguir siendo una referencia para el grupo de usuarios. De este modo, se establecen relaciones por oposición a los otros grupos. Después de la distorsión que introducen los algoritmos, los egos añaden confusión con afirmaciones tan guiadas por el afán de notoriedad como para prescindir de su veracidad o, incluso, de la coherencia con el propio pensamiento. 

El individuo empuja al grupo y este arrastra a los individuos. Nuestra identidad, basada en la información que hemos recibido y en la forma de estructurarla, deja de pertenecernos para estar condicionada tanto por esa información parcial como por la presión social anónima a la que cada miembro del grupo contribuye. Radicalismos, populismos, extremismos Hay muy pocos estudios en Europa sobre los efectos de las redes sociales en nuestra identidad política o social. El semanario británico The Economist publicó en noviembre de 2017 uno relativo a la sociedad en Estados Unidos. En él se aprecia cómo en 1994, antes de la era digital, los estadounidenses compartían un 70 % de sus valores e ideas políticas con independencia del partido político en que militasen. La sociedad era homogénea, con apenas un margen diferenciador para los más «puristas» de cada extremo político. Años después, en 2017, la tendencia del votante medio de cada partido se había escorado claramente hacia su vertiente política (aunque el cambio parecía mucho más acusado en el Partido Demócrata) y el espacio de entendimiento y de consenso se había reducido de manera notable. 

Las campañas del demócrata Bernie Sanders y del republicano Trump para las elecciones presidenciales de 2016 fueron un fiel reflejo de esta mayor polarización de las posturas. De hecho, poco faltó para que el enfrentamiento final por la Casa Blanca fuera entre ellos dos. En septiembre de 2017 la periodista filipina Maria Ressa había puesto de manifiesto, durante su intervención en la Conferencia Asiática sobre la Comunicación Política, que esta polarización de las posturas entre los dos grandes partidos estadounidenses podía apreciarse en las redes sociales ya en 2011. Sin embargo, pocos parecían haberse percatado de este fenómeno hasta el éxito de los dos candidatos antisistema en la campaña presidencial de 2016. Más allá de las acusaciones de manipulación de la opinión pública que puedan haberse vertido contra terceros países, la digitalización es un factor importante a la hora de explicar los resultados obtenidos por los candidatos en las elecciones de 2016. Cuando más de la mitad de los estadounidenses se informa regularmente a través de las redes sociales, la influencia que estas pueden tener es muy significativa. Como referencia, mientras en Estados Unidos el 70 % de las visitas que se hacen en Internet utilizan el motor de búsqueda de Google para localizar el producto, en Europa ese porcentaje alcanza el 90 %. La inmensa mayoría de las conclusiones a las que llegamos o de los datos que las fundamentan están mediatizadas por los algoritmos de cuatro o cinco empresas a nivel mundial.

Esta relevancia va incluso más allá de lo aparente: el uso de las mismas redes sociales por parte de la prensa convencional como fuente de noticias o de referencias incrementa el peso específico de aquellas en el cómputo global de la influencia que tales noticias tienen sobre los votantes. Y esto incluye y arrastra el sesgo introducido por los algoritmos, trasladándolo a medios cuya credibilidad está asentada en una larga trayectoria y en el prestigio de sus profesionales. También se aprecia que, con independencia de la igualdad de trato hacia todos los candidatos que se supone existe en los medios públicos, lo llamativo o disruptivo de los titulares que ofrece cada presidenciable también conlleva una presencia diferente en las redes. El candidato Trump destacó en este aspecto por encima del resto de los aspirantes, con o sin la colaboración de cuentas robotizadas que replicasen sus mensajes y que, por otro lado, están al alcance de cualquiera. Un vistazo al enorme salto que hay entre la cobertura mediática digital que obtuvieron los comentarios de Trump y la del resto relativiza bastante la sorpresa que supuso su victoria para algunos analistas. Dominar el discurso Un análisis más pormenorizado de las palabras clave asociadas a las campañas de Trump y de Hillary Clinton muestra que los asuntos cubiertos en las redes respecto de cada uno de ellos fueron enormemente distintos. Basta con agrupar en una nube de palabras —una representación visual en la que el tamaño de los términos que la forman es proporcional a su frecuencia de aparición— aquellas que más veces aparecieron en las noticias relativas a los dos candidatos. Esta nube permite visualizar los temas recurrentes con que se les asociaba y, por tanto, la imagen que tenía el espectador sobre Trump y Clinton.

En la nube correspondiente al candidato republicano aparece una multitud de temas que, en la mayor parte de los casos, él mismo puso sobre la mesa. Trump dirigía el discurso y seleccionaba los temas de los que quería que se hablara. El magnate lideró el debate desde su cuenta de Twitter, marcó las pautas y el tempo, obligó a su rival a moverse en el terreno de su elección e, incluso cuando el tema era potencialmente dañino para él —como en el caso de su comportamiento con las mujeres—, maniobró para relativizar su importancia o para presentar algún aspecto que sus potenciales votantes pudieran considerar positivo. Trump fue el dueño de la escena. Mientras tanto, en las noticias relativas a Clinton, la referencia a los correos electrónicos gestionados imprudente mente por la candidata demócrata ocupó el papel protagonista en la nube de palabras resultante. Para colmo, los siguientes temas recurrentes más destacados fueron los rumores sobre su estado de salud y las acusaciones de ser una mentirosa que Trump vertía sobre ella. Su rival tenía mucha mayor presencia mediática, pero, incluso cuando la noticia se centraba en Clinton, el foco se ponía en un tema elegido por su adversario y no por su propio equipo. Una parte importante de la presencia mediática de Clinton era negativa, formaba parte del relato de Trump. De hecho, esta circunstancia obligó a Hillary a mantener una estrategia defensiva durante buena parte de la campaña, un error provocado tanto por la falta de control del discurso como por un exceso de confianza y el temor a perder una batalla que consideraba ganada por defecto.

La palabra «presidente» aparecía en un tamaño más pequeño en la nube de la demócrata que en la del republicano, una señal inequívoca de que Hillary no iba por buen camino. Toda la campaña para las elecciones del 8 de noviembre de 2016 se limitó a discutir los mensajes que Trump lanzaba sobre sus propias propuestas y sobre las deficiencias de su rival. El control del discurso, del tema del que se habla, es fundamental para alcanzar el resultado deseado en la configuración de las narrativas. Una parte esencial del éxito mediático de los grupos terroristas es, precisamente, su presencia desproporcionada en los medios de comunicación. Si su objetivo es provocar el miedo y su vector de propagación es la prensa, el legítimo interés de los periodistas por informar y por atraer la atención hacia su noticia juega a favor de los intereses de los terroristas. Como dato ilustrativo, en 2012 murieron 56 millones de personas en el mundo. De ellas, 620.000 tuvieron como causa la violencia ejercida por otros seres humanos. Al contrario de lo que pueda parecer, 500.000 de estas últimas se produjeron en actos criminales, mientras que las guerras fueron responsables de «solo» 120.000 bajas. Frente a estas cifras, hubo 800.000 personas que se suicidaron en todo el mundo (más, por tanto, que todos los muertos a manos de terceros) y 1,5 millones, casi el doble, fallecieron a causa de la diabetes. Sin embargo, aquello donde no está el foco mediático desaparece. La mano que mueve el ratón. 

Precisamente por lo expuesto en el apartado anterior, la mano que mueve el ratón es la mano que domina el mundo (parafraseando el título de la película que, en 1992, lanzó al estrellato a Rebecca De Mornay). La mano que mueve el ratón es la que domina la narrativa, el relato, el discurso en Internet. Es la que lleva la iniciativa. Los ojos siguen el puntero en la pantalla, pero el puntero obedece a la mano. El movimiento del ratón es el control de las cuerdas de la marioneta que somos todos los demás. No existe alternativa a la presencia en el ciberespacio. Aquel que decida no «mover el ratón» se arriesga a que alguien lo mueva en su nombre, a que alguien usurpe su identidad digital y rellene el vacío dejado. De hecho, ni siquiera es necesario que exista el vacío para que puedan intentar desplazarnos del escaparate cibernético.