
Decía Arthur Schopenhauer: «Todo individuo considera que los límites de su propia visión son los límites del mundo». Y qué razón tenía con eso. Qué fácil es detectarlo en las demás personas y qué difícil es escapar de esa realidad, y, sin embargo, qué necesario.
Esa visión de la realidad, la de definir los límites del mundo en los límites de la visión personal, se entiende en la infancia, pues en ese momento faltan experiencias y conocimiento para poder confirmar que hay un mundo gigantesco más allá del nuestro. Y también se entiende en la estación de la adolescencia, en la que casi todo lo que sucede sigue ocurriendo alrededor de la única realidad percibida, la propia.
En ese momento de autoconfirmación y autoconocimiento que es la adolescencia, la generación que hoy la atraviesa, se encuentra con algunos condicionantes que difieren, en parte, de los que tuvieron generaciones anteriores. Uno de ellos es la incorporación a sus decisiones de un guía externo que, sin ser visto, escondido en los vericuetos de la virtualidad, dirige sus gustos y, en muchos casos, sus opiniones.
Arquitectos Invisibles de su realidad
Vivimos en una era de hiperconexión, esto lo decimos mucho en Educación Conectada, en un flujo infinito de contenido que nos llega a través de redes sociales, plataformas de vídeo y motores de búsqueda. Navegamos por un océano de información diseñado para captar nuestra atención. Esto lo hacemos las personas adultas y lo hacen, sin prácticamente filtros, jóvenes y adolescentes.
¿Alguna vez se ha detenido tu hija o tu hijo a pensar quién decide qué ve?
Le puedes abrir la curiosidad con una respuesta simple y compleja a la vez: los algoritmos.
Los algoritmos son los arquitectos invisibles de nuestra realidad digital, sistemas que filtran, priorizan y personalizan cada pieza de información que llega a nuestras pantallas y a nuestro cerebro.
Esta personalización ofrece una experiencia cómoda y eficiente que tiene un coste oculto que afecta de modo directo a nuestra forma de pensar, de debatir y de percibir el mundo.
La indignación, el miedo o la rabia son combustibles mucho más potentes que el simple agrado, y ahí aparecen las famosas polarizaciones
Es posible que estén dentro de una burbuja cómoda (y algo oscura)
Eli Pariser, hace algo más de una década, acuñó el término «burbuja de filtros» (The Filter Bubble) para describir cómo los algoritmos crean un universo informativo único y a medida para cada persona usuaria.
Diseñan una habitación confortable donde todo confirma lo que ya se piensa. Y ese filtrado aísla de perspectivas, ideas y realidades diferentes.
Esa burbuja se transforma, de paso, en una “cámara de eco” donde solo resuenan opiniones similares a las que ya tenemos, reforzando constantemente las creencias preexistentes.
Esta burbuja es cómoda, pero sus consecuencias pueden empobrecer la capacidad de debatir con argumentos al aceptar consignas sin previa reflexión y de respetar opiniones diferentes de quienes se ven en ella. También refuerzan estereotipos y prejuicios.
Los algoritmos saben de química cerebral
Las plataformas digitales son maestras en mantener la atención, explotan un mecanismo psicológico fundamental: el ciclo de la dopamina.
El diseño de ese enganche se realiza teniendo en cuenta los planos de nuestra neuroquímica. Cada vez que encontramos contenido que nos gusta, nuestro cerebro libera dopamina, generando una sensación de placer y recompensa.
La búsqueda constante de esa pequeña recompensa química fomenta comportamientos compulsivos y una adicción real, y en el mismo momento se va erosionando alguna de nuestras capacidades más interesantes, como la imaginación, la memoria a largo plazo, la originalidad de pensamiento.
Comportamientos predecibles y moldeables
Es un error considerar a las plataformas digitales como intermediarios neutrales que simplemente nos conectan con el contenido. Su modelo de negocio se basa en captar nuestra atención para vendérsela a los anunciantes. Por eso no se conforman con predecir lo que haremos, sino que, ya puestas, moldean activamente el comportamiento para alinearlo con sus intereses comerciales.
La socióloga y profesora de la Harvard Business School, Shoshana Zuboff, en su análisis de lo que ella ha llamado «capitalismo de la vigilancia», lo explica de forma concluyente al dejar claro cómo el alcance de estos sistemas es mucho más profundo de lo que imaginamos:
«los algoritmos no sólo predicen nuestro comportamiento, sino que también lo moldean activamente al manipular la información que se nos presenta».
A veces creen elegir lo que ya viene elegido
La mayoría cree que elegimos libremente qué ver o consumir, pero la realidad es que su capacidad de elección está fuertemente condicionada. En la edad adulta y aún más notablemente en la adolescente.
Un dato de una de las plataformas de vídeo más conocidas ilustra de forma contundente el poder de los algoritmos de recomendación: el 80% de las películas más vistas en ella son resultado directo de sus sugerencias.
Y este fenómeno no es exclusivo del vídeo. En el mundo de la música, una de las plataformas de música y podcast más utilizada revela que, nada más y nada menos que el 99% de las pistas más escuchadas, representan solo el 10% de su catálogo total.
En lugar de explorar un universo de posibilidades, la mayoría sigue los caminos trazados por el sistema. Tal cual.
No es difícil entender que esto limita la diversidad cultural y reduce drásticamente la posibilidad de descubrir algo genuinamente nuevo.
Y si eso sucede con la música y las películas, puedes imaginar lo que ocurre con las noticias o con los mensajes políticos.
Entender cómo funcionan estos sistemas es el primer paso para mitigar su impacto y reclamar nuestra autonomía
Las recomendaciones no se quedan en lo que les gusta, les lleva a los extremos
Como el objetivo último de los algoritmos es conseguir interacciones —pulgares hacia arriba, comentarios, enlaces compartidos—, no se quedan sólo en mostrar simplemente contenido afín a los gustos de cada persona, sino que priorizan presentar cosas que generan emociones intensas.
La indignación, el miedo o la rabia son combustibles mucho más potentes que el simple agrado, y ahí aparecen las famosas polarizaciones.
Este “sesgo emocional” provoca que los contenidos más extremos, provocadores y polarizados obtengan una visibilidad desproporcionada, ya que son los más compartidos, no necesariamente los más veraces o equilibrados.
Porque que sean o no verdad da un poco igual a la hora de conseguir mucho tráfico.
Esta inclinación hacia lo emocional radicaliza las posturas de quienes reciben la información sin contrapesos.
El mensaje fundamental para un cambio: ¡Tú también puedes decidir!
Aunque la influencia de los algoritmos es innegable, hay fórmulas de resistencia. La herramienta más poderosa que tenemos es la conciencia crítica.
Entender cómo funcionan estos sistemas es el primer paso para mitigar su impacto y reclamar nuestra autonomía.
Debemos asumir la responsabilidad de buscar activamente fuentes diversas, de seguir a personas que piensan distinto y de hacer el esfuerzo consciente de derribar los muros de nuestra propia burbuja.
Cabría preguntar a nuestras hijas e hijos:
El algoritmo diseña para ti un camino de mínima resistencia mental. La pregunta no es si seguirás ese sendero, sino si te atreverás a tomar el mapa y trazar tu propia ruta.
En un mundo diseñado para confirmar tus creencias, ¿te atreverás a buscar la complejidad en lugar de la comodidad?