Vivat Academia (2025).

ISSN: 1575-2844  


Recibida: 20/03/2025      Aceptada: 30/04/2025       Publicada: 19/05/2025

 

COMPRENDIENDO LA DINÁMICA DE LAS BURBUJAS DE FILTROS EN LA COMUNICACIÓN EN REDES SOCIALES: UNA REVISIÓN DE LITERATURA


descargaTănase Tasențe[1]: Universidad Ovidius de Constanța, Rumania.  

tanase.tasente@365.univ-ovidius.ro  

 

Cómo citar este artículo:

Tasențe, Tănase (2025). Comprendiendo la dinámica de las burbujas de filtros en la comunicación en redes sociales: una revisión de literatura [Understanding the Dynamics of Filter Bubbles in Social Media Communication: A Literature Review]. Vivat Academia, 158, 1-22. https://doi.org/10.15178/va.2025.158.e1591 

RESUMEN

Introducción: Esta revisión de literatura sintetiza la investigación actual sobre las burbujas de filtro en la comunicación en redes sociales, explorando cómo la personalización algorítmica moldea las experiencias de los usuarios y la diversidad informativa. Metodología: Se revisan marcos teóricos y estudios empíricos que identifican los mecanismos por los cuales se forman las burbujas de filtro en plataformas como Facebook, Twitter y YouTube. Resultados: Los algoritmos, impulsados por el comportamiento de los usuarios y las métricas de interacción, seleccionan contenido que frecuentemente refuerza creencias preexistentes, lo que puede llevar a una homogeneidad ideológica. Se presenta evidencia sobre la prevalencia e impacto de estas burbujas en el discurso público, la polarización política y la participación democrática. Discusión: Se consideran estrategias de mitigación, incluyendo la transparencia algorítmica, iniciativas de alfabetización digital y modificaciones en el diseño de plataformas para promover la exposición a perspectivas diversas. Se evalúan críticamente tanto los puntos de vista que apoyan como los que cuestionan estas dinámicas, subrayando el papel matizado de las burbujas de filtro en la comunicación digital. Conclusiones: El estudio destaca las implicaciones más amplias de las burbujas de filtro para la sociedad y hace un llamado a la investigación interdisciplinaria continua para desarrollar soluciones efectivas que fomenten la diversidad informativa y un diálogo democrático saludable en la era digital.

Palabras clave: burbujas de filtros, comunicación en redes sociales, personalización algorítmica, diversidad informativa, implicaciones democráticas.

1. INTRODUCCIÓN

En la última década, las plataformas de redes sociales se han convertido en canales fundamentales para el intercambio de información, el entretenimiento y el debate público. El fenómeno de la burbuja de filtro, la situación en la que la personalización algorítmica y las preferencias de los usuarios configuran los entornos en línea de tal manera que las personas ven e interactúan cada vez más con contenidos que se ajustan de manera predominante a sus visiones del mundo existentes, ha suscitado un gran interés tanto entre los académicos como entre los profesionales. Desde el trabajo seminal de Pariser (2011), los académicos han debatido el impacto de la personalización algorítmica en la diversidad de la información y la vida cívica (Bruns, 2019; Bechmann y Nielbo, 2018; Puschmann, 2019; Terren y Borge, 2021; Whittaker et al., 2021).

Esta revisión bibliográfica sintetiza los resultados de una amplia gama de estudios empíricos, teóricos y metodológicos sobre las burbujas de filtro, centrándose especialmente en los entornos de las redes sociales tales como Facebook, Twitter y YouTube. De este modo, responde a la necesidad de comprender si los algoritmos de las redes sociales, a través de la personalización, los sistemas de recomendación y las interacciones de los usuarios, fomentan la homogeneidad informativa o, por el contrario, permiten un mayor acceso a contenidos diversos (Seargeant y Tagg, 2019; Plettenberg et al., 2020; Lin et al., 2023).

A menudo se confunden las burbujas de filtro con las cámaras de eco. Aunque ambos conceptos implican el refuerzo de opiniones existentes, difieren en aspectos clave (Kaiser y Rauchfleisch, 2020; Ferro-Santos et al., 2024). Según Bruns (2019), las cámaras de eco son fenómenos impulsados por los usuarios que implican la autoselección de comunidades con ideas afines, mientras que las burbujas de filtro suelen surgir de procesos de clasificación algorítmica que no siempre implican una elección deliberada por parte del usuario. No obstante, estas dos ideas con frecuencia se solapan en la investigación y el discurso público. Las cámaras de eco, la curación algorítmica, la homofilia, la polarización política, las noticias falsas y la desinformación son temas que se entrelazan con el debate sobre las burbujas de filtro (Knudsen, 2023; Kanai y McGrane, 2021; Ackland et al., 2019; Mueller y Saeltzer, 2022).

Mientras que algunos académicos sostienen que las burbujas de filtro son un fenómeno marginal o sin demostrar (Dubois y Blank, 2018; Bruns, 2019; Zuiderveen Borgesius et al., 2016), otros afirman que las recomendaciones de las redes sociales crean espacios en los que los usuarios predominantemente se encuentran con contenidos que reafirman sus creencias, lo que reduce su exposición a puntos de vista alternativos (Roechert et al., 2020; Kaiser y Rauchfleisch, 2020). Otra controversia se centra en si las burbujas de filtro socavan los procesos democráticos, y algunos investigadores expresan su preocupación por la interacción entre la personalización y la desinformación (Puschmann, 2019; Burbach et al., 2019; Valdez, 2020). 

El objetivo de esta revisión es aclarar y sintetizar el complejo panorama de las burbujas de filtro en las redes sociales, centrándose en varios objetivos interrelacionados. En primer lugar, organiza de forma sistemática las investigaciones existentes sobre las burbujas de filtro y conecta diversos estudios para presentar una imagen clara de cómo la personalización algorítmica influye en la experiencia de los usuarios en plataformas como Facebook, Twitter y YouTube. Al sintetizar esta bibliografía, la revisión no solo traza un mapa del terreno, sino que también siente las bases para un análisis más profundo. En segundo lugar, el trabajo distingue las burbujas de filtro de conceptos relacionados, como las cámaras de eco, y describe los principales marcos teóricos y debates que explican los mecanismos subyacentes a la curación de contenidos impulsada por algoritmos y los entornos de información homogéneos resultantes. Esta aclaración conceptual allana el camino para una comprensión matizada de cómo se interpretan estos fenómenos desde diferentes perspectivas académicas.

Partiendo de esta base, la revisión profundiza en los conocimientos empíricos y analiza los resultados que respaldan y cuestionan la prevalencia y el impacto de las burbujas de filtro. Al examinar las pruebas sobre cómo los algoritmos pueden dar lugar a flujos de contenido homogéneos, junto con los contraargumentos que sugieren que los usuarios aún pueden encontrar diferentes puntos de vista, la revisión ofrece una visión equilibrada del fenómeno. Este análisis conduce de forma natural a una exploración de las implicaciones para la democracia y la vida cívica, donde el debate se extiende a los posibles efectos sobre la polarización política, el discurso público y la exposición de los ciudadanos a una variedad de opiniones. Estas implicaciones son fundamentales para comprender cómo las burbujas de filtro pueden influir en el comportamiento electoral y la deliberación democrática.

Por último, la revisión reflexiona sobre las estrategias propuestas para mitigar los efectos negativos de las burbujas de filtro, teniendo en cuenta las recomendaciones sobre transparencia algorítmica, educación de los usuarios, intervenciones políticas y cambios en el diseño de las plataformas. Esta síntesis exhaustiva no solo arroja luz sobre las dimensiones históricas, teóricas y metodológicas de la investigación sobre las burbujas de filtro, sino que también sugiere futuras líneas de actuación para abordar estos retos en un panorama digital en constante evolución.

2. METODOLOGÍA

La presente investigación emplea una metodología sistemática y estructurada para explorar el fenómeno de las burbujas de filtro en la comunicación en las redes sociales. Las siguientes subsecciones detallan cada paso del proceso metodológico, desde la identificación de la bibliografía hasta el análisis temático.

2.1. Estrategia de búsqueda

Para identificar de forma exhaustiva la bibliografía relevante, se diseñó una fórmula de búsqueda que incluía las principales plataformas de redes sociales, como Facebook, Twitter (ahora rebautizada como X), Instagram, LinkedIn, TikTok, Snapchat, YouTube y Reddit. La búsqueda se realizó en la base de datos Web of Science, donde se incorporó el término “burbuja de filtro” (filter bubble) en combinación con estas plataformas y la categoría más amplia de “redes sociales”.

 ("filter bubble") AND ("social media" OR "Facebook" OR "Twitter" OR "Instagram" OR "LinkedIn" OR "TikTok" OR "Snapchat" OR "YouTube" OR "Reddit")

Los resultados se filtraron en la categoría “Comunicación” de Web of Science para garantizar su relevancia para esta disciplina. Gracias a esta estrategia, se garantizó que se incluyeran estudios que abordaban cuestiones clave de la comunicación, como la participación del público, los efectos de los medios de comunicación y las prácticas de los medios digitales.

2.2. Recopilación de Datos

El proceso de búsqueda dio como resultado una recopilación de 33 artículos, todos ellos extraídos de la categoría “Comunicación” de Web of Science. Estos artículos abordaban de manera explícita las burbujas de filtro en el contexto de las plataformas de redes sociales y se publicaron en medios revisados por pares relevantes para los estudios de comunicación y medios de comunicación. Los criterios de inclusión exigían que los artículos (1) estuvieran revisados por pares, (2) abordaran explícitamente las burbujas de filtro en el contexto de las plataformas de redes sociales y (3) estuvieran publicados en inglés o español. Se excluyeron los estudios que se centraban de forma exclusiva en las cámaras de eco o que no abordaban en directo los aspectos de la comunicación. Los artículos seleccionados abarcaban revisiones conceptuales, estudios empíricos, análisis comparativos y comentarios críticos, lo que proporcionó una base sólida para la revisión de la literatura.

2.3. Análisis Bibliométrico

Como se muestra en la Figura 1, el número de publicaciones que abordan el tema de las burbujas de filtro ha aumentado notablemente desde 2019, con un pico significativo en 2020. Esta tendencia al alza pone de manifiesto el creciente interés académico por este fenómeno, en particular en el ámbito de los estudios de comunicación y medios de comunicación. La figura se ha generado con Microsoft Excel a partir de los resultados del análisis bibliométrico realizado con el paquete Biblioshiny en RStudio.

Para analizar la evolución temporal de la producción científica en este ámbito, se realizó un análisis bibliométrico con el paquete Bibliometrix en RStudio. Mediante el uso de la función Biblioshiny, se obtuvo una visión general detallada de las tendencias de publicación. El análisis reveló un aumento progresivo en el número de artículos, con un crecimiento significativo a partir de 2019. Esta tendencia refleja un interés creciente por las burbujas de filtro como fenómeno pertinente en los estudios de comunicación digital, impulsado por su creciente relevancia tanto en el ámbito académico como en el social. Por ejemplo, el número de artículos pasó de uno o dos al año en las primeras etapas a un aumento constante en los últimos años, alcanzando su punto máximo en 2024.

Figura 1. 

Evolución temporal de las publicaciones científicas sobre “burbujas de filtro” en el campo de la comunicación (Web of Science, 2016-2025)

Fuente: Elaboración propia mediante Bibliometrix

2.4. Agrupación Temática

La Figura 2 muestra el mapa de coocurrencia de palabras clave elaborado mediante VOSviewer, que identifica los grupos temáticos más relevantes en la literatura sobre burbujas de filtro. Estos grupos incluyen personalización algorítmica y sesgo (color rojo), comunicación y polarización política (color verde), consecuencias ideológicas y cívicas (color azul) y fragmentación de los medios y diversidad de exposición (color amarillo). Esta estructura temática sirvió de guía para la organización de las secciones posteriores de la revisión.

Tras el análisis bibliométrico, se realizó una agrupación temática de la bibliografía con el software VOSviewer. Esta herramienta permitió identificar y visualizar grupos de palabras clave, lo que resultó fundamental para organizar la revisión bibliográfica por temas. Se identificaron cuatro grupos principales:

Figura 2. 

Grupos temáticos basados en la concurrencia de palabras claves en la literatura sobre “busbujas de filtro” (VOSviewer, datos de Web of Science)

A diagram of a network

Description automatically generated

Fuente: Elaboración propia mediante VOSviewer

2.5. Estructura de revisión de la literatura

Estos grupos sirvieron de base para estructurar la revisión bibliográfica en secciones coherentes. La revisión comienza estableciendo los fundamentos conceptuales de las burbujas de filtro, incluyendo su definición, las diferencias con respecto a las cámaras de eco y su aparición en entornos mediáticos con gran variedad de opciones. Esta base teórica sirve de punto de partida para explorar los hallazgos empíricos. Los hallazgos se dividen en pruebas que respaldan la formación de burbujas de filtro y pruebas que cuestionan su prevalencia. Las pruebas que la respaldan se centran en la personalización algorítmica, la dinámica similar a la de las cámaras de eco y el papel de la desinformación y la exposición selectiva. Los contraargumentos incluyen los efectos mitigadores de la exposición incidental y las posibilidades que ofrecen las plataformas, que pueden reducir la probabilidad de que se formen burbujas de filtro.

2.6. Análisis de factores y consecuencias

La revisión también examina los factores moderadores y mediadores que influyen en los efectos de las burbujas de filtro. Estos factores incluyen los comportamientos y motivaciones de los usuarios, el diseño de las plataformas y los incentivos corporativos, así como los contextos sociopolíticos y culturales. En esta sección se destaca la interacción entre la agencia individual y las influencias sistémicas en la configuración de la exposición a la información. Además, se analizan las consecuencias de las burbujas de filtro para la democracia y la vida cívica. Entre los temas tratados se incluyen el impacto en la deliberación democrática, los retos para la esfera pública, el compromiso cívico, la participación política y los riesgos asociados a la manipulación y la microsegmentación. Estos debates ponen de manifiesto las implicaciones sociales más amplias de las burbujas de filtro y su relevancia para los actuales debates sobre los medios de comunicación y la democracia.

2.7. Estrategias de Mitigación

Por último, el informe analiza estrategias para mitigar los efectos negativos de las burbujas de filtro. Las soluciones propuestas incluyen intervenciones a nivel de plataforma, como la transparencia y el rediseño algorítmico, así como enfoques centrados en el usuario, como la mejora de la alfabetización digital y la auto-concientización. También se analizan consideraciones normativas y reglamentarias, haciendo hincapié en el papel de la gobernanza para fomentar un ecosistema digital equilibrado e informado. Se identifican herramientas transversales y la participación de curadores de contenido como vías adicionales para promover la exposición a información diversa y mitigar la polarización.

3. FOUNDAMENTACIONES CONCEPTUALES

La introducción del término burbuja de filtro por Eli Pariser (2011) despertó un gran interés y debate. El concepto describe un entorno seleccionado algorítmicamente en el que los usuarios de las redes sociales ven principalmente contenidos que se ajustan a sus preferencias o creencias, lo que inhibe la exposición a opiniones discrepantes (Seargeant y Tagg, 2019). Este mecanismo, a menudo impulsado por métricas basadas en la personalización y la participación, puede dar lugar a un entorno muy agradable, pero potencialmente aislante o polarizador (Bruns, 2019; Jacobson et al., 2016).

En general, los académicos coinciden en que las burbujas de filtro se originan en los sistemas de personalización algorítmica que predicen las preferencias de los usuarios basándose en interacciones previas, como me gusta, comparticiones, clics y duración de visualización (Pariser, 2011; Yang et al., 2021). Estos algoritmos personalizan el contenido de manera que parece adaptado a los intereses individuales en plataformas como Facebook, Twitter y YouTube (Roechert et al., 2020). Como resultado, el contenido que contradice las opiniones del usuario puede volverse menos visible o desaparecer por completo, lo que limita la diversidad de la exposición (Bechmann y Nielbo, 2018).

Es importante señalar que los académicos diferencian las burbujas de filtro y las cámaras de eco. Si bien ambos fenómenos conducen al refuerzo ideológico, las cámaras de eco suelen estar impulsadas por los usuarios, ya que se forman cuando las personas buscan conscientemente comunidades con ideas afines (Kaiser y Rauchfleisch, 2020). Las burbujas de filtro, por otro lado, se crean de forma algorítmica: los sistemas “aprenden” el comportamiento del usuario y muestran contenidos similares de forma selectiva, incluso sin una curación intencionada por parte del usuario (Ferro-Santos et al., 2024; Bruns, 2019).

Graham (2017) se basa en el concepto de Pariser para destacar cómo el filtrado algorítmico no solo responde a las preferencias individuales, sino que también refuerza la homogeneidad ideológica con el tiempo, creando silos de información personalizados. Aunque existe cierto solapamiento entre las burbujas de filtro y las cámaras de eco, ya que el comportamiento de los usuarios da forma a los algoritmos y viceversa, la distinción entre la agencia del usuario y la automatización algorítmica sigue siendo fundamental (Mueller y Saeltzer, 2022; Lin et al., 2023).

En el panorama mediático actual, caracterizado por una gran variedad de opciones, las burbujas de filtro cobran importancia a medida que los sistemas de aprendizaje automático priorizan las métricas de interacción, que a menudo se correlacionan con el reforzamiento de contenidos (Puschmann, 2019). Esto puede exacerbar el sesgo de confirmación y reducir la amplitud de la información, especialmente cuando los usuarios se exponen repetidamente a flujos de contenidos alineados (Knudsen, 2023; Lopes et al., 2023).

No obstante, otro conjunto de trabajos afirma que el entorno en línea, debido a su naturaleza amplia y variada, también puede promover encuentros fortuitos con puntos de vista diversos (Ackland et al., 2019; Bruns, 2019). Estos encuentros pueden producirse de forma involuntaria (exposición incidental) o mediante una exploración deliberada, en dependencia de las motivaciones individuales (Jones-Jang y Chung, 2024).

4. RESULTADOS TEMÁTICOS

Para mayor claridad analítica, la amplia investigación sobre las burbujas de filtro se puede agrupar en: (a) pruebas que confirman el fenómeno de las burbujas de filtro, (b) pruebas que cuestionan o refutan su prevalencia, (c) complejidades y factores contextuales, como los contextos políticos o las posibilidades que ofrecen las plataformas, que moderan o median los efectos de las burbujas de filtro, y (d) implicaciones más amplias para la democracia, la polarización política y la autonomía de los usuarios.

Múltiples estudios documentan que los algoritmos de recomendación de las plataformas de redes sociales fomentan las comunidades homófilas y la segregación política. Por ejemplo, Kaiser y Rauchfleisch (2020) descubrieron que el algoritmo de recomendación de canales de YouTube daba lugar a grupos muy homófilos de canales políticos de derecha, lo que creaba una burbuja de filtro para los usuarios que inicialmente interactuaban con ese tipo de contenido. Del mismo modo, Roechert et al. (2020) demuestran que las redes de recomendaciones políticas en YouTube muestran una fuerte tendencia a dirigir a los usuarios hacia grupos ideológicamente coherentes, lo que refuerza sus creencias previas.

La personalización algorítmica también puede amplificar la repetición del contenido preferido por el usuario, como descubrieron Whittaker et al. (2021). Estos autores argumentan que, una vez que los usuarios interactúan con contenido de extrema derecha, el algoritmo de YouTube sugiere de forma sistemática canales similares o más extremos, lo que podría agravar las divisiones políticas. En otras palabras, el imperativo comercial de la plataforma de maximizar el compromiso interactúa con las señales de los usuarios para crear un sistema de refuerzo que intensifique la alineación del contenido (Knobloch-Westerwick y Westerwick, 2023).

Aunque las cámaras de eco no son sinónimo de burbujas de filtro, a menudo coinciden en la práctica. Los estudios demuestran que seguir a personas con ideas afines es una decisión deliberada que amplifica los efectos algorítmicos (Mueller y Saeltzer, 2022). Cuanto más invierten los usuarios habituales en comunidades homogéneas, más les lleva el mecanismo de personalización a reforzar la información (Bechmann y Nielbo, 2018). En Twitter, por ejemplo, las personas suelen retuitear publicaciones que reflejan sus inclinaciones ideológicas, creando redes en las que las perspectivas discrepantes están ausentes de forma sistemática (Yang et al., 2021).

Las investigaciones sobre la desinformación han reafirmado aún más las preocupaciones sobre las burbujas de filtro. Valdez (2020) descubre que, cuando las “noticias falsas” coinciden con los prejuicios preexistentes de los usuarios, estos son más propensos a interactuar con ellas. Dado que los algoritmos de las redes sociales privilegian los contenidos con altos índices de interacción, esto puede dar lugar a un entorno en el que los usuarios reciben fácilmente historias desinformativas, lo que refuerza aún más sus burbujas. De hecho, Rhodes (2022) muestra cómo los participantes en “burbujas” políticamente afines a menudo evalúan los contenidos engañosos como más creíbles que aquellos expuestos a fuentes heterogéneas.

Una corriente de la literatura sostiene que las burbujas de filtro son un fenómeno exagerado. Bruns (2019) sostiene que el “mito de la burbuja de filtro” se perpetúa mediante pruebas anecdóticas en lugar de datos empíricos sólidos. Dubois y Blank (2018) se hacen eco de este escepticismo y muestran que, si bien las personas seleccionan en cierta medida redes homófilas, también buscan fuentes de noticias diversas, lo que sugiere que la dieta mediática de los usuarios es más variada de lo que se podría suponer.

Puschmann (2019) señala de manera similar que las preocupaciones sobre la personalización en Google News u otros motores de búsqueda pueden ser exageradas, ya que las mediciones empíricas reales de personalización suelen mostrar efectos modestos o mínimos. Esto está respaldado por Haim (2018), quien no encontró evidencias de personalización significativa en los resultados alemanes de Google News.

Varios estudios destacan que la exposición incidental a perspectivas diferentes sigue siendo posible y quizás habitual (Jones-Jang y Chung, 2024). En plataformas como Facebook, los usuarios se encuentran con frecuencia con contenidos compartidos por “lazos débiles” o conocidos que pueden tener opiniones diferentes (Ackland et al., 2019). Esta exposición incidental puede mitigar la polarización, ya que la mera presencia de información diversa puede reducir la gravedad de los efectos de la burbuja de filtro (Knudsen, 2023).

Además, Fletcher y Nielsen (2017), citados en Bruns (2019), muestran que encontrar noticias en las redes sociales puede ampliar las dietas generales informativas de los usuarios, no limitarlas. Por lo tanto, aunque se produzca la personalización, esta no impide necesariamente que los usuarios vean o interactúen con puntos de vista alternativos.

Uno de los retos de la investigación sobre las burbujas de filtro es que los resultados varían según la plataforma. Twitter, Facebook, YouTube y TikTok emplean algoritmos de clasificación, diseños de interfaz de usuario y lógicas de intercambio de contenidos (Lopes et al., 2023). Por lo tanto, la existencia y la gravedad de las burbujas de filtro pueden depender de la arquitectura de la plataforma, la demografía de los usuarios o los algoritmos específicos empleados en un momento dado (Lin et al., 2023).

Además, las burbujas de filtro pueden ser más pronunciadas para los usuarios con fuertes preferencias partidistas o intereses especializados (Valdez, 2020; Ferro-Santos et al., 2024), mientras que los usuarios moderados pueden experimentar una curación de contenidos menos pronunciada. En otras palabras, diferentes comunidades y contextos pueden experimentar burbujas de filtro en distintos grados, lo que dificulta generalizar afirmaciones universales.

La investigación sobre la burbuja de filtro también destaca el papel mediador de la agencia y de las motivaciones de los usuarios. Por ejemplo, Seargeant y Tagg (2019) sostienen que las acciones de los usuarios, dar “me gusta”, comentar o buscar intencionadamente determinados contenidos, pueden influir de forma significativa en la percepción que tiene la plataforma de las preferencias de los usuarios y, por lo tanto, alimentar los algoritmos de personalización. Los usuarios que están más abiertos a conocer puntos de vista diversos, o que siguen de forma proactiva cuentas fuera de su esfera ideológica habitual, podrían diluir eficazmente el refuerzo algorítmico (Lin et al., 2023).

La alfabetización digital de los usuarios y su conocimiento de la curación algorítmica también influyen en la intensidad con la que se manifiestan las burbujas de filtro (Burbach et al., 2019). Las personas que comprenden que se está produciendo una personalización pueden adoptar estrategias para eludir o subvertir estos filtros, como navegar en incógnito, desactivar el historial del navegador o explorar de manera activa contenidos contrarios (Bechmann y Nielbo, 2018).

Las decisiones de diseño de las plataformas afectan de forma significativa a los resultados de la personalización. Muchas plataformas se basan en modelos de negocio impulsados por la publicidad, en los que una mayor participación de los usuarios se traduce en mayores ingresos publicitarios (Whittaker et al., 2021). Esto puede incentivar inadvertidamente la creación de burbujas de filtro, ya que mostrar a los usuarios más contenido de su interés, tanto político como de otro tipo, tiende a mantenerlos en la plataforma durante más tiempo (Meineck, 2018).

Al mismo tiempo, algunos diseñadores han comenzado a experimentar con funciones para reducir el eco algorítmico y fomentar la exposición a puntos de vista alternativos. Kaiser y Rauchfleisch (2020) proponen cambios en los sistemas de recomendación que destaquen el contenido transversal. Otros, como Wiard et al. (2022), reclaman marcos que midan y promuevan la “diversidad de fuentes.”

Más allá de los factores específicos de cada plataforma, los contextos culturales y políticos también influyen en la dinámica de las burbujas de filtro (Ackland et al., 2019). En entornos políticos polarizados, es posible que las personas ya tengan prejuicios fuertes y utilicen las redes sociales para reforzarlos (Postill, 2018). En contextos menos polarizados o en contextos en los que la censura funciona de manera diferente, la interacción entre los algoritmos de personalización y las normas sociales podría dar lugar a formas distintas de curación de la información.

Una preocupación recurrente en la investigación sobre la burbuja de filtro es si la personalización de las redes sociales fomenta de forma activa la polarización política. Muchos estudios sugieren que la clasificación algorítmica y la homofilia de los usuarios empujan colectivamente a estos hacia posiciones más extremas (Roechert et al., 2020; Kaiser y Rauchfleisch, 2020). Según Terren y Borge (2021), la consiguiente reducción de la exposición a puntos de vista opuestos profundiza la segregación ideológica, lo que puede obstaculizar la función deliberativa del discurso público.

Sin embargo, otros sostienen que la polarización surge de una miríada de factores que van más allá de las redes sociales (Bruns, 2019; Bechmann y Nielbo, 2018). Algunos grupos menos activos en línea muestran cambios iguales o mayores en la polarización a lo largo del tiempo, como se ejemplifica en los datos de Boxell et al. (2017), citados en Bruns (2019), lo que pone de relieve la complejidad de atribuir la polarización exclusivamente a las burbujas de filtro.

Académicos como Burbach et al. (2019) y Dahlgren (2021) expresan su preocupación por que las burbujas de filtro puedan limitar el discurso público y sofocar el debate crítico. Si los ciudadanos se encuentran predominantemente con puntos de vista afines, los valores democráticos fundamentales, como la exposición a ideas contrapuestas, los argumentos razonados y el compromiso político, pueden verse afectados (Lin et al., 2023). Estas dinámicas son especialmente relevantes dada la amplia dependencia de las redes sociales como fuente de noticias (Yang et al., 2021).

En casos extremos, las burbujas de filtro pueden generar “autopropaganda”, por la que los feeds personalizados protegen a los usuarios de los desacuerdos, lo que da lugar a estructuras similares a cámaras de eco (Whittaker et al., 2021). Este autorrefuerzo puede transformar el debate público en monólogos paralelos entre grupos con escaso entendimiento mutuo. Como resultado, los procesos democráticos que dependen del compromiso y la búsqueda de consenso pueden verse de forma grave obstaculizados.

Un aspecto especialmente preocupante de las burbujas de filtro es su intersección con la desinformación y las noticias falsas (Valdez, 2020). Las campañas políticas o los actores malintencionados podrían explotar las preferencias de los usuarios para difundir contenidos engañosos o manipuladores, incrustándolos en feeds personalizados donde los usuarios son más receptivos (Burbach et al., 2019). De hecho, la participación de Cambridge Analytica en las elecciones presidenciales estadounidenses de 2016 se cita con frecuencia para ilustrar cómo los anuncios microdirigidos pueden aprovechar las burbujas de filtro para moldear las percepciones de los usuarios (Burbach et al., 2019; Puschmann, 2019).

Al mismo tiempo, algunos autores sostienen que la desinformación no solo es el resultado de las burbujas de filtro, sino que también es síntoma de cambios socioeconómicos y tecnológicos más amplios en el entorno de la información (Knobloch-Westerwick y Westerwick, 2023). No obstante, la sinergia entre la personalización algorítmica y las predisposiciones de los usuarios sigue siendo fundamental para comprender la dinámica de la desinformación digital.

5. FACTORES MODERADORES Y MEDIADORES EN LOS EFECTOS DE LA BURBUJA DE FILTRADO

Los estudios de Plettenberg et al. (2020) y Burbach et al. (2019) sugieren que los usuarios que conocen cómo funcionan los algoritmos de personalización exhiben menos vulnerabilidad a formas extremas de burbujas de filtro. Estos individuos pueden manipular de forma deliberada sus comportamientos en las redes sociales (haciendo clic en contenido diverso o buscando de manera activa fuentes alternativas) para mostrar al algoritmo intereses más amplios. Cuando los usuarios lo hacen, los sistemas de personalización pueden registrar estas señales y presentar material más heterogéneo (Bechmann y Nielbo, 2018).

Por otro lado, los usuarios que ignoran la clasificación algorítmica o asumen un feed inherentemente “objetivo” son más propensos a encontrar solo contenido que el algoritmo considere relevante para sus patrones existentes (Rhodes, 2022). Un tema constante es que los programas de alfabetización digital, la transparencia de las plataformas y la educación de los usuarios pueden mitigar colectivamente los impactos más nocivos de las burbujas de filtros (Meineck, 2018).

No toda la personalización es igual de potente. La variación en el diseño algorítmico, ya sea manual o basado en el aprendizaje automático, puede influir significativamente en la exposición del usuario. Las plataformas con sistemas de recomendación que privilegian las señales de “compromiso” y “contenido similar”, como el tiempo de visionado y las tasas de clics, tienden a intensificar la creación de burbujas de filtros (Kaiser y Rauchfleisch, 2020). Por el contrario, los algoritmos que incorporan métricas de diversidad o estrategias de aleatorización pueden reducir el riesgo de dietas de información homogénea (Knudsen, 2023).

Así pues, las burbujas de filtros no son un subproducto inevitable de las redes sociales. Surgen de opciones de diseño específicas en la intersección de limitaciones técnicas, imperativos comerciales y valores corporativos (Ferro-Santos et al., 2024). Han surgido debates sobre regulación en los que se cuestiona hasta qué punto deberían estar obligadas las plataformas en aras de garantizar un determinado nivel de diversidad de puntos de vista (Lin et al., 2023).

Otro factor de mediación es la dinámica de grupo. De hecho, en una misma plataforma, algunas comunidades forman burbujas de filtros más cohesionadas que otras (Mueller y Saeltzer, 2022). Por ejemplo, las comunidades extremistas o de nicho ideológico pueden mostrar un intenso refuerzo dentro del grupo, mientras que las comunidades de intereses más amplios experimentan un compromiso más transversal. En una gran población de usuarios mayoritarios, las interacciones pueden producir ocasionalmente una mayor mezcla ideológica, aunque esto no está garantizado (Jones-Jang y Chung, 2024).

Además, la polarización de los grupos no solo es un resultado algorítmico, sino también un proceso social en el que los grupos con ideas afines se refuerzan mutuamente sus creencias a lo largo del tiempo (Valdez, 2020). Por ejemplo, pueden proliferar las “pseudorealidades de burbuja de filtros”, que llevan a ciertos colectivos a interpretar las afirmaciones principales como sesgadas o a adoptar puntos de vista conspirativos (Kanai y McGrane, 2021).

6. CONSECUENCIAS PARA LA DEMOCRACIA Y LA VIDA CÍVICA

Muchos autores abordan cómo las burbujas de filtros pueden socavar el diálogo democrático. Dahlgren (2021) advierte de que la personalización y los entornos mediáticos de alta elección pueden fragmentar la esfera pública en micropúblicos que no se cruzan de forma significativa, lo que dificulta el entendimiento mutuo. En paralelo, Roechert et al. (2020) muestran cómo las recomendaciones algorítmicas de contenidos políticos cada vez más homogéneos pueden limitar el conocimiento de las diversas opciones políticas, lo que sesga potencialmente el juicio de los votantes. Rodríguez-Ferrandiz (2019) advierte que los algoritmos personalizados no solo estrechan los horizontes informativos de los usuarios, sino que también fragmentan la esfera pública en “mercados de la verdad” segmentados, lo que exacerba la polarización y amenaza el diálogo democrático.

No obstante, la evidencia empírica sigue siendo mixta sobre la magnitud precisa de esta amenaza. Bruns (2019) y Dubois y Blank (2018) sugieren que, si bien existen burbujas de filtros en ciertos segmentos de la población, las generalizaciones amplias corren el riesgo de pasar por alto cuántos usuarios ven realmente información transversal. Además, en algunos contextos, las redes sociales pueden facilitar la exposición incidental a perspectivas alternativas, lo que fomenta así la deliberación democrática (Seargeant y Tagg, 2019).

La investigación sobre la interacción entre las burbujas de filtros y la participación política también es matizada. Por un lado, las burbujas de filtros pueden movilizar la participación política dentro de comunidades muy unidas al reforzar identidades y agravios compartidos (Postill, 2018). Por otro lado, estos efectos pueden exacerbar las tensiones, reducir la voluntad de compromiso y avivar la hostilidad partidista (Roechert et al., 2020).

Lopes et al. (2023) observan que ciertas plataformas, como TikTok, generan de forma rápida feeds personalizados que captan la atención de los usuarios, intensificando potencialmente un flujo unilateral de mensajes políticos. Mientras tanto, otras, como Twitter, pueden utilizarse tanto para impulsar movimientos de protesta como para reforzar grupos internos a través de redes de retuits (Ferro-Santos et al., 2024).

El microtargeting, es decir, el uso de los datos de los usuarios para enviar mensajes o anuncios muy personalizados, plantea cuestiones éticas críticas sobre la intersección entre las burbujas de filtros y la democracia (Burbach et al., 2019). Si los individuos habitan en capullos informativos personalizados, las campañas políticas podrían explotar esos capullos mediante la distribución de narrativas falsas o engañosas específicamente regeneradas para amplificar los prejuicios existentes (Valdez, 2020). Esta táctica puede socavar el libre mercado de ideas, ya que a los votantes nunca se les presentan perspectivas neutrales o alternativas, sino que se ven involucrados en contenidos que coinciden con sus prejuicios (Kaiser y Rauchfleisch, 2020).

Al mismo tiempo, algunos académicos consideran que el microtargeting es sin más una versión refinada de la publicidad política convencional y no lo consideran algo totalmente novedoso o particularmente peligroso (Bechmann y Nielbo, 2018). El debate gira en torno a la eficacia con la que pueden explotarse las burbujas de filtros con fines manipuladores.

7. ESTRATEGIAS DE MITIGACIÓN PROPUESTAS

Muchos académicos han defendido cambios en el diseño de las plataformas para contrarrestar la creación y el refuerzo de burbujas de filtros. Entre las recomendaciones se incluyen la incorporación de métricas de diversidad explícitas en los algoritmos de personalización, la aleatorización de una parte del contenido sugerido o la inclusión de interruptores fáciles de usar para ajustar la “fuerza” de la personalización (Puschmann, 2019; Kaiser y Rauchfleisch, 2020).

Tanto Lin, Wang, Lee y Kim (2023) como Knudsen (2023) destacan la importancia de los «escenarios contrafactuales», en los que las plataformas podrían probar versiones de algoritmos que diversifiquen de forma activa los feeds de los usuarios y hacen seguimientos de los resultados. Estos experimentos podrían arrojar luz sobre si los usuarios prefieren o se benefician de una exposición heterogénea. Otros proponen un “requisito de transparencia algorítmica”, en el que los usuarios puedan ver con precisión por qué se recomiendan determinados contenidos, lo que les daría una sensación de control (Burbach et al., 2019; Rhodes, 2022).

Varios estudios empíricos indican que las estrategias impulsadas por los usuarios pueden reducir los riesgos de las burbujas de filtros. Bechmann y Nielbo (2018) y Plettenberg et al. (2020) demuestran cómo los programas de alfabetización digital que enseñan a los usuarios sobre personalización pueden incitarles a buscar de forma activa puntos de vista alternativos. Fomentar prácticas como suscribirse a medios de comunicación de diversas ideologías, evaluar de manera crítica la credibilidad de las fuentes y borrar con periodicidad las cookies o los historiales de búsqueda puede ayudar a ampliar los grupos de recomendaciones (Mueller y Saeltzer, 2022).

Además, los marcos de “responsabilidad algorítmica” podrían ayudar a educar a los usuarios sobre cómo sus comportamientos retroalimentan los sistemas de personalización (Seargeant y Tagg, 2019). Las plataformas también podrían incorporar mensajes similares a “¿Estás seguro de que quieres ver más de esto?” — para incitar a los usuarios a que reflexionen sobre sus patrones de consumo.

A menudo, las burbujas filtros se cruzan con acalorados debates sobre la gobernanza y la política de las plataformas. Algunos académicos abogan por intervenciones políticas que impongan la transparencia en torno a los algoritmos, el uso de los datos de los usuarios y las prácticas de microtargeting (Whittaker et al., 2021; Dahlgren, 2021). La idea es que, si la personalización se revela abiertamente, los usuarios estarán mejor equipados para contrarrestar las posibles limitaciones en sus dietas mediáticas (Knudsen, 2023).

Al mismo tiempo, los críticos se preocupan por la extralimitación gubernamental y la posible asfixia de la innovación (Bruns, 2019). Se argumenta que los marcos reguladores deben equilibrar la necesidad de proteger el discurso público de la manipulación o polarización personalizadora con el principio de libertad de expresión.

Organizaciones externas han desarrollado toda una serie de herramientas para “reventar burbujas” y ayudar a los usuarios a comprender cómo los algoritmos configuran sus contenidos. Por ejemplo, existen sitios web o plugins que comparan el contenido de las redes sociales de un usuario con puntos de vista alternativos o que muestran cómo aparecen determinados temas desde diferentes posturas ideológicas (Plettenberg et al., 2020). Algunos investigadores alientan a las organizaciones de noticias a incorporar contenidos puente o transversales para promover de manera activa una cobertura equilibrada en todo el espectro político y mitigar así los efectos de la burbuja de filtros desde el lado de la oferta (Bechmann y Nielbo, 2018).

8. DEBATES

La bibliografía sobre las burbujas de filtros revela un panorama polifacético e intrincado en el que interactúan de forma compleja la personalización algorítmica, la agencia del usuario y el contexto sociopolítico. Por un lado, algunos estudios (por ejemplo, Kaiser y Rauchfleisch, 2020; Roechert et al., 2020) aportan evidencias de grupos homófilos impulsados por algoritmos que guían a los usuarios hacia flujos de contenido uniformes desde un punto de vista ideológico. Por otro lado, otros estudiosos (Bruns, 2019; Dubois y Blank, 2018) cuestionan la idea de que estos procesos estén tan extendidos o sean tan graves como a menudo se retrata. Este discurso sugiere que, si bien existen burbujas de filtros, su influencia puede no ser tan monolítica o determinista como se temía en un principio.

Un tema recurrente en la investigación hace hincapié en el papel fundamental de la agencia del usuario tanto para reforzar como para contrarrestar la formación de burbujas de filtros. Mueller y Saeltzer (2022) señalan que, aunque la selección algorítmica amplifica con frecuencia los sesgos de confirmación al reaccionar al comportamiento del usuario, el resultado no está predeterminado. Los usuarios inteligentes pueden utilizar activamente las funciones de la plataforma para diversificar su exposición a los contenidos. Por ejemplo, al buscar una variedad de fuentes o seguir deliberadamente cuentas con puntos de vista diferentes, los usuarios pueden indicar a los algoritmos que sus intereses son amplios, lo que mitiga el efecto restrictivo de las recomendaciones homogéneas. Seargeant y Tagg (2019) respaldan esta idea al mostrar cómo las interpretaciones y anticipaciones individuales del comportamiento algorítmico moldean significativamente los resultados de filtrado. Esto sugiere que el empoderamiento a través de la alfabetización digital y el compromiso crítico son estrategias claves para combatir el aislamiento que podrían causar las burbujas de filtros.

Además, el argumento de que las burbujas de filtros erosionan de manera uniforme el diálogo democrático simplifica en exceso la ecología mediática más amplia. Bechmann y Nielbo (2018) destacan que Internet, en particular las redes sociales, ofrece un acceso sin precedentes a diversas fuentes y puntos de vista. Que el entorno mediático de un usuario sea más diverso u homogéneo depende de una interacción matizada de factores: preferencias personales, estructuras de redes sociales, elecciones de diseño tecnológico e influencias contextuales. Esta complejidad significa que las generalizaciones sobre los efectos perjudiciales de las burbujas de filtros pueden pasar por alto las distintas experiencias de los usuarios y comunidades. Knudsen (2023) y Lin et al. (2023) sostienen que dicha interacción debe examinarse detenidamente para comprender el impacto neto sobre la diversidad de la información.

El debate sobre las burbujas de filtros también debe situarse dentro de las tendencias más amplias de la comunicación digital, como la mercantilización de los datos de los usuarios, el aumento de la vigilancia y la transición de los modelos de difusión tradicionales a interacciones en red más descentralizadas y de muchos a muchos (Puschmann, 2019; Kanai y McGrane, 2021). En este entorno en rápida evolución, el debate pasa de una cuestión binaria sobre la existencia de burbujas de filtros a una investigación más profunda sobre cómo estos fenómenos influyen en la autonomía del usuario, en la formación de su identidad política y en la potencial exageración de las divisiones partidistas. Valdez (2020) advierte que las consecuencias pueden ir más allá del consumo pasivo de contenidos y afectar a la forma en que los individuos perciben sus realidades políticas y participan en la vida cívica.

El propio término burbuja de filtros se ha convertido en una poderosa metáfora en el discurso público, que a veces provoca pánico moral. Whittaker et al. (2021) critican este tono alarmista y sugieren que centrarse demasiado en las burbujas de filtros puede hacer que se pasen por alto otras cuestiones importantes, como la privacidad de los datos, el acoso en línea o las campañas de desinformación orquestadas por entidades extranjeras (Badawy et al., 2019). Esto pone de manifiesto la necesidad de debates equilibrados que consideren las burbujas de filtros dentro de un marco más amplio de desafíos digitales, en lugar de tratarlas como una cuestión aislada o catastrófica.

Para comprender esta complejidad, es necesario tener una comprensión más dinámica y matizada de las burbujas de filtros. En lugar de considerar a los algoritmos como fuerzas inexorables que atrapan a los usuarios en silos ideológicos, es conveniente reconocer el papel de la toma de decisiones humana y de factores sistémicos más amplios. Por ejemplo, como sugieren Mueller y Saeltzer (2022), el comportamiento de los usuarios puede ampliar o contrarrestar las tendencias algorítmicas. Si los usuarios buscan de manera consciente perspectivas diversas, pueden interrumpir el bucle de retroalimentación que refuerza la homogeneidad. Esto pone de manifiesto que el determinismo tecnológico no es absoluto y que las decisiones e intervenciones humanas importan.

Además, es crucial reconocer la variabilidad entre plataformas y contextos. Las distintas plataformas de redes sociales aplican algoritmos y posibilidades diferentes que determinan la formación de burbujas de filtros. La gravedad y la naturaleza de estos efectos pueden variar en función del diseño de la plataforma, la demografía de los usuarios y el clima sociopolítico imperante. Reconocer estas variaciones puede orientar estrategias de mitigación más específicas e informar sobre las intervenciones específicas de cada plataforma.

El discurso sobre las burbujas de filtros también invita a reflexionar sobre cómo valoran las sociedades la diversidad de pensamiento y debate. En una democracia sana, la exposición a una serie de opiniones es fundamental para la toma de decisiones informadas y el entendimiento mutuo. Aunque las burbujas de filtros pueden dificultar esta exposición, no son del todo irremediables. Las iniciativas dirigidas a aumentar la transparencia algorítmica, a educar a los usuarios en alfabetización digital y a alentar a las plataformas a diseñar características que promuevan contenidos diversos pueden contribuir a contrarrestar estas tendencias de aislamiento.

En resumen, el debate sobre las burbujas de filtros está muy lejos de haberse cerrado. Este fenómeno existe, pero sus efectos dependen de las acciones de los usuarios, de las opciones de diseño de las plataformas y de fuerzas sociales más amplias. Una comprensión clara y lógica de estas interdependencias enriquece el debate, que va más allá de los binarios simplistas de existencia o inexistencia. En su lugar, enmarca a las burbujas de filtro como parte de un sistema más amplio y dinámico en el que convergen la acción humana, el diseño tecnológico y las decisiones políticas. Esta perspectiva permite adoptar enfoques más constructivos para mitigar los efectos negativos, lo que hace hincapié en la capacitación del usuario, el diseño transparente y las intervenciones sensibles al contexto.

9. CONCLUSIÓN

El fenómeno de las burbujas de filtros en las redes sociales desafía las caracterizaciones simples e invita a una comprensión matizada que surge de una interacción de algoritmos, comportamientos de los usuarios y contextos sociopolíticos. Tras una revisión exhaustiva de la bibliografía, pueden extraerse varias conclusiones interesantes, que apuntan tanto a la complejidad del problema como a posibles vías de avance.

En primer lugar, aunque la idea de las burbujas de filtros suscitó en un principio preocupación por la posibilidad de que las redes sociales aislaran a los usuarios en silos ideológicos, la evidencia muestra un panorama más complejo. Está claro que la selección algorítmica no funciona en el vacío, sino que está influida por las interacciones de los usuarios, las opciones de diseño y las fuerzas culturales más amplias. Los algoritmos reaccionan ante el comportamiento y las preferencias de los usuarios y, aunque pueden guiarlos hacia contenidos que los refuercen, también los exponen ocasionalmente a encuentros fortuitos con puntos de vista diversos. Esta doble capacidad indica que las repercusiones de las burbujas de filtros no son uniformes, sino que varían ampliamente entre plataformas y entre distintos grupos demográficos de usuarios.

Una idea clave de la literatura es la relación recíproca entre la agencia del usuario y la personalización algorítmica. Los usuarios no son meros receptores pasivos de contenidos; sus elecciones, acciones y conciencia determinan en gran medida el alcance de los efectos de la burbuja de filtros. Aquellos con una mayor alfabetización digital o que buscan de manera consciente perspectivas divergentes pueden mitigar activamente la insularidad de su dieta mediática. Esto sugiere que dotar a los usuarios de conocimientos y herramientas para comprender y sortear los sesgos algorítmicos puede ser tan importante como realizar reformas técnicas en las propias plataformas. Enmarca la conversación no solo en torno a lo que hacen los algoritmos, sino a cómo las personas pueden interactuar con esos algoritmos, y de hecho lo hacen, para dar forma a sus ecosistemas de información. Enmarca la conversación no solo en torno a lo que hacen los algoritmos, sino a cómo las personas pueden interactuar con esos algoritmos, y de hecho lo hacen, para dar forma a sus ecosistemas de información.

Además, la investigación subraya que las burbujas de filtros deben considerarse en el contexto más amplio del consumo de medios y del discurso político. La preocupación no radica solo en que los algoritmos creen cámaras de eco, sino también en que puedan ampliar prejuicios preexistentes y acelerar la polarización. Sin embargo, atribuir la polarización política exclusivamente a las burbujas de filtros entraña el riesgo de simplificar en exceso. La polarización es multifacética y depende de numerosos factores sociales, económicos y psicológicos. Aunque las burbujas de filtros pueden contribuir a aislarse de opiniones contrarias, deben considerarse como un elemento dentro de un complejo mosaico que influye en la opinión pública y en los procesos democráticos.

Otra conclusión importante es que el diseño y los modelos de negocio de las plataformas de redes sociales determinan en gran medida el grado de formación de burbujas de filtros. Las plataformas optimizadas para la participación suelen favorecer contenidos que coinciden en gran medida con las preferencias de los usuarios, lo que crea entornos propicios para flujos de información homogéneos. Sin embargo, está demostrado que esas mismas plataformas pueden reorientarse o modificarse para introducir diversidad. Al rediseñar los algoritmos de recomendación para dar prioridad a puntos de vista equilibrados o incorporar funciones que destaquen perspectivas alternativas, las plataformas pueden empujar sutilmente a los usuarios fuera de su zona de confort informativo. La voluntad de los diseñadores y las empresas de experimentar con este tipo de intervenciones es crucial e indica el camino hacia unos entornos digitales más diversos.

El papel de la política y la regulación es otro factor importante. Las medidas de transparencia que obligan a las plataformas a revelar cómo funcionan sus algoritmos y cómo los datos de los usuarios impulsan las recomendaciones de contenidos podrían empoderar tanto a los usuarios como a los investigadores. Los marcos reguladores deben encontrar un equilibrio entre la protección de la esfera pública y la preservación de la libertad de expresión. De cara al futuro, las intervenciones políticas eficaces probablemente requerirán esfuerzos de colaboración que reúnan a tecnólogos, responsables políticos, académicos y grupos de la sociedad civil para crear conjuntamente directrices que garanticen tanto la innovación como la integridad democrática.

Las consecuencias para la democracia y la vida cívica también son profundas y polifacéticas. Por un lado, las burbujas de filtros corren el riesgo de reducir el discurso público y socavar los procesos deliberativos, que son vitales para el buen funcionamiento de una democracia, al crear comunidades segmentadas e insulares. Por otro lado, las mismas tecnologías en red que hacen posibles las burbujas de filtros también encierran la promesa de conectar grupos diversos, fomentar la empatía y facilitar nuevas formas de compromiso cívico si se utilizan de manera deliberada. Por lo tanto, una conclusión prometedora es que combatir los efectos negativos de las burbujas de filtros no solo consiste en prevenir la insularidad, sino también en fomentar con activismo espacios para el diálogo transversal y el compromiso crítico.

Lo que la literatura sugiere es que las intervenciones para contrarrestar las burbujas de filtros pueden ser tanto tecnológicas como sociales. Las campañas educativas que mejoran la alfabetización digital capacitan a los usuarios para cuestionar y diversificar sus fuentes de información. Las iniciativas comunitarias y los proyectos ideológicos cruzados pueden fomentar el entendimiento y salvar las diferencias, lo que reduce la probabilidad de radicalización dentro de burbujas aisladas. Estos esfuerzos de base complementan las estrategias de arriba abajo y proporcionan un enfoque holístico que aborda tanto la oferta como la demanda de la ecuación de la información.

Al reflexionar sobre estas ideas, se llega a la conclusión de que el discurso sobre las burbujas de filtros debería pasar de las narrativas fatalistas del aislamiento inevitable a los debates sobre la agencia, la responsabilidad y el diseño. En lugar de considerarlas una amenaza insoluble, la comunidad puede explorar formas de aprovechar las tecnologías subyacentes con fines positivos. Este replanteamiento invita al optimismo y sugiere que, mediante una combinación de empoderamiento del usuario, diseño reflexivo, gobernanza transparente y marcos políticos receptivos, se pueden mitigar los efectos adversos de las burbujas de filtros.

Por último, el camino hacia la comprensión de las burbujas de filtros sigue su curso. A medida que evolucionen las plataformas de los medios sociales y cambien los comportamientos de los usuarios, será necesaria una investigación continua para detectar nuevos patrones, probar intervenciones y adaptar estrategias para mantener un entorno de información saludable. El trabajo futuro debería adoptar enfoques interdisciplinarios que combinen las ideas de los estudios de comunicación, informática, teoría política y psicología para desarrollar una comprensión más rica y práctica de cómo fomentar una esfera pública digital diversa y democrática.

10. REFERENCIAS

Ackland, R., O’Neil, M., y Park, S. (2019). Engagement with news on Twitter: Insights from Australia and Korea. Asian Journal of Communication, 29(3), 235-251. https://doi.org/10.1080/01292986.2018.1462393 

Badawy, A., Addawood, A., Lerman, K., y Abdul-Mageed, M. (2019). Characterizing the 2016 Russian IRA influence campaign. Social Network Analysis and Mining, 9, Article 31.  

Bechmann, A., y Nielbo, K. L. (2018). Are we exposed to the same “news” in the news feed? An empirical analysis of filter bubbles as information similarity for Danish Facebook users. Digital Journalism, 6(8), 990-1002. https://doi.org/10.1080/21670811.2018.1510741

Bruns, A. (2019). Filter bubble. Internet Policy Review8(4). https://doi.org/10.14763/2019.4.1426

Burbach, L., Halbach, P., Ziefle, M., y Valdez, A. C. (2019). Bubble trouble: Strategies against filter bubbles in online social networks. In V. Duffy (Ed.), Digital human modeling and applications in health, safety, ergonomics and risk management: Healthcare applications (DHM 2019, Pt. II) (Lecture Notes in Computer Science, 11582, pp. 441–456). Springer. https://doi.org/10.1007/978-3-030-22219-2_33

Dahlgren, P. M. (2021). A critical review of filter bubbles and a comparison with selective exposure. Nordicom Review, 42(1), 15-33. https://doi.org/10.2478/nor-2021-0002

Dubois, E., y Blank, G. (2018). The echo chamber is overstated: The moderating effect of political interest and diverse media. Information, Communication & Society, 21(5), 729-745. https://doi.org/10.1080/1369118X.2018.1428656

Ferro-Santos, S., Cardoso, G., y Santos, S. (2024). Bursting the (filter) bubble: Interactions of members of parliament on Twitter. Media & Jornalismo, 24(44). https://doi.org/10.14195/2183-5462_44_3

Fletcher, R., y Nielsen, R. K. (2017, June 20). Using social media appears to diversify your news diet, not narrow it. Nieman Labhttps://www.niemanlab.org/2017/06/using-social-media-appears-to-diversify-your-news-diet-not-narrow-it/

Graham, T., y Ackland, R. (2017). Do socialbots dream of popping the filter bubble? The role of socialbots in promoting deliberative democracy in social media. In R. Gehl & M. Bakardjieva (Eds.), Socialbots and their friends: Digital media and the automation of sociality (pp. 187-206). Routledge.

Haim, M., Graefe, A., y Brosius, H.-B. (2018). Burst of the filter bubble? Digital Journalism, 6(3), 330–343. https://doi.org/10.1080/21670811.2017.1338145

Jacobson, S., Myung, E., y Johnson, S. L. (2016). Open media or echo chamber: The use of links in audience discussions on the Facebook pages of partisan news organizations. Information, Communication & Society, 19(7), 875-891. https://doi.org/10.1080/1369118X.2015.1064461

Jones-Jang, S. M., y Chung, M. (2024). Can we blame social media for polarization? Counter-evidence against filter bubble claims during the COVID-19 pandemic. New Media & Society, 26(6), 3370–3389. https://doi.org/10.1177/14614448221099591

Kaiser, J., y Rauchfleisch, A. (2020). Birds of a feather get recommended together: Algorithmic homophily in YouTube’s channel recommendations in the United States and Germany. Social media + Society, 6(4). https://doi.org/10.1177/2056305120969914

Kanai, A., y McGrane, C. (2021). Feminist filter bubbles: Ambivalence, vigilance and labour. Information, Communication & Society, 24(15), 2307–2322. https://doi.org/10.1080/1369118X.2020.1760916

Knobloch-Westerwick, S., y Westerwick, A. (2023). Algorithmic personalization of source cues in the filter bubble: Self-esteem and self-construal impact information exposure. New Media & Society, 25(8), 2095–2117. https://doi.org/10.1177/14614448211027963

Knudsen, E. (2023). Modeling news recommender systems’ conditional effects on selective exposure: Evidence from two online experiments. Journal of Communication, 73(2), 138-149. https://doi.org/10.1093/joc/jqac047

Lin, H., Wang, Y., Lee, J., y Kim, Y. (2023). The effects of disagreement and unfriending on political polarization: A moderated-mediation model of cross-cutting discussion on affective polarization via unfriending contingent upon exposure to incivility. Journal of Computer-Mediated Communication, 28(4). https://doi.org/10.1093/jcmc/zmad022

Lopes, D. F., Frogeri, R. F., de Souza, M. A., y Portugal Junior, P. dos S. (2023). Information bubbles and the relevance of information from social networking sites for Brazilian teenagers. Teknokultura: Revista de Cultura Digital y Movimientos Sociales, 20(2), 229-238. https://doi.org/10.5209/tekn.79698

Meineck, S. (2018, May 28). Deshalb ist “Filterblase” die blödeste Metapher des Internets [Why the “filter bubble” is the internet’s dumbest metaphor]. Motherboardhttps://motherboard.vice.com/de/article/pam5nz/deshalb-ist-filterblase-dieblodeste-metapher-des-internets

Mueller, S. D., y Saeltzer, M. (2022). Twitter made me do it! Twitter’s tonal platform incentive and its effect on online campaigning. Information, Communication & Society, 25(9), 1247-1272. https://doi.org/10.1080/1369118X.2020.1850841

Pariser, E. (2011). The filter bubble: How the new personalized Web is changing what we read and how we think. Penguin Press. 

Plettenberg, N., Nakayama, J., Belavadi, P., Halbach, P., Burbach, L., Valdez, A. C., y Ziefle, M. (2020). User behavior and awareness of filter bubbles in social media. In V. Duffy (Ed.), Digital human modeling and applications in health, safety, ergonomics and risk management: Human communication, organization and work (DHM 2020, Pt. II) (Lecture Notes in Computer Science, 12199, pp. 81-92). Springer. https://doi.org/10.1007/978-3-030-49907-5_6

Postill, J. (2018). Populism and social media: A global perspective. Media, Culture & Society, 40(5), 754–765. https://doi.org/10.1177/0163443718772186

Puschmann, C. (2019). Beyond the bubble: Assessing the diversity of political search results. Digital Journalism, 7(6), 824-843. https://doi.org/10.1080/21670811.2018.1539626

Rhodes, S. C. (2022). Filter bubbles, echo chambers, and fake news: How social media conditions individuals to be less critical of political misinformation. Political Communication, 39(1), 1-22. https://doi.org/10.1080/10584609.2021.1910887

Rodríguez-Ferrándiz, R. (2019). Post-truth and fake news in political communication: A brief genealogy. Profesional de la Información, 28(3). https://doi.org/10.3145/epi.2019.may.14

Roechert, D., Weitzel, M., y Ross, B. (2020). The homogeneity of right-wing populist and radical content in YouTube recommendations. In Proceedings of the 11th International Conference on Social Media & Society (SMSociety ’20) (pp. 245–254). Association for Computing Machinery. https://doi.org/10.1145/3400806.3400835

Seargeant, P., y Tagg, C. (2019). Social media and the future of open debate: A user-oriented approach to Facebook’s filter bubble conundrum. Discourse, Context & Media, 27, 41-48. https://doi.org/10.1016/j.dcm.2018.03.005

Terren, L., y Borge, R. (2021). Echo chambers on social media: A systematic review of literature. Review of Communication Research, 9, 99-118. https://doi.org/10.12840/ISSN.2255-4165.028

Valdez, A. C. (2020). Human and algorithmic contributions to misinformation online: Identifying the culprit. In C. Grimme, M. Preuss, F. Takes, & A. Waldherr (Eds.), Disinformation in open online media (Lecture Notes in Computer Science, 12021, pp. 3-15). Springer. https://doi.org/10.1007/978-3-030-39627-5_1

Whittaker, J., Looney, S., Reed, A., y Votta, F. (2021). Recommender systems and the amplification of extremist content. Internet Policy Review, 10(2). https://doi.org/10.14763/2021.2.1565

Wiard, V., Lits, B., y Dufrasne, M. (2022). “The spy who loved me”: A qualitative exploratory analysis of the relationship between youth and algorithms. Frontiers in Communication, 7. https://doi.org/10.3389/fcomm.2022.778273

Yang, C., Nunes, B. P., dos Santos, J. C., Matsui Siqueira, S. W., y Xu, X. (2021). The BiasChecker: How biased are social media searches? In M. Coscia, A. Cuzzocrea, y K. Shu (Eds.), Proceedings of the 2021 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining (ASONAM 2021) (pp. 305–308). Association for Computing Machinery. https://doi.org/10.1145/3487351.3489482

Zuiderveen Borgesius, F., Trilling, D., Möller, J., Bodó, B., de Vreese, C., y Helberger, N. (2016). Should we worry about filter bubbles? Internet Policy Review, 5(1). https://doi.org/10.14763/2016.1.401


Autor:

Tănase Tasențe: El autor es profesor de la Facultad de Derecho y Ciencias Administrativas de la Universidad Ovidius de Constanza. Es licenciado, tiene un máster y un doctorado en Ciencias de la Comunicación, así como un máster en Administración, Instituciones y Políticas Públicas Europeas. Con más de 100 artículos científicos publicados y 4 libros sobre comunicación institucional a través de los medios sociales y estrategias de política pública, el autor ha realizado importantes contribuciones a la comunidad académica. Además, es director de dos empresas internacionales de relaciones públicas, Plus Communication e International Communication & PR, donde ha supervisado campañas de marketing, publicidad y relaciones públicas para conocidas empresas multinacionales. Su combinación de experiencia académica y profesional le ha proporcionado las habilidades y conocimientos necesarios para destacarse en diversos campos de la comunicación y la administración.

tanase.tasente@365.univ-ovidius.ro 

Orcid IDhttps://orcid.org/0000-0002-3164-5894 

Google Scholar: https://scholar.google.es/citations?hl=es&user=EBcuQDma2XoC 


Artículos relacionados:

Ceballos del Cid, Y. (2024). Jóvenes y redes sociales: divergencias y similitudes en el consumo informativo en distintas comunidades autónomas españolas. European Public & Social Innovation Review, 9, 1-19. https://doi.org/10.31637/epsir-2024-605

Egido Piqueras, M. (2024). Ética, identidad y empleabilidad en la revisión de las redes sociales de los candidatos por parte de los empleadores. Revista de Comunicación de la SEECI, 57, 1-20. https://doi.org/10.15198/seeci.2024.57.e889

López Julca, R., Julca Guerrero, F., Nivin Vargas, L., Allauca Castillo, W., Robles Trejo, L., y Robles Blacido, E. (2024). El filtro burbuja y el derecho a la información en la web. Desde el Sur, 16(1). http://www.scielo.org.pe/scielo.php?pid=S2415-09592024000100017&script=sci_abstract&tlng=pt  

Oscuvilca Tapia, E. C., Albitres Infantes, J. J., Cadenas Calderón, P. C., Aguinaga Mendoza, G. M., Paredes Jiménez, H. R., y Andrade Girón, E. C. (2024). Health and medical informatics research: Identifying international collaboration patterns at the country and institution level. Iberoamerican Journal of Science Measurement and Communication, 4(3), 1-16. http://dx.doi.org/10.47909/ijsmc.137 

Pérez Ordóñez, C., y Castro-Martínez, A. (2023). Creadores de contenido especializado en salud en redes sociales. Los micro influencers en Instagram. Revista de Comunicación y Salud, 13, 23-38. https://doi.org/10.35669/rcys.2023.13.e311 


[1] Tănase Tasențe: Conferencista, Doctor en Filosofía en la Facultad de Derecho y Ciencias Administrativas, Universidad de Ovidius de Constanta, Rumanía.