Publicado

2023-07-01

Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja

Information, Democracy and Freedom in the Age of Segmentation: Notes on a Complex Relationship

Informação, democracia e liberdade na era da segmentação: notas sobre uma relação complexa

DOI:

https://doi.org/10.15446/frdcp.n24.104385

Palabras clave:

Medios de comunicación, periodismo, segmentación, democracia, redes sociales (es)
media, journalism, segmentation, democracy, social networks (en)
media, jornalismo, segmentação, democracia, redes sociais (pt)

Descargas

Autores/as

En este artículo se analiza desde una perspectiva crítica la influencia y el impacto que ejerce la mediación algorítmica y la segmentación de las redes sociales y buscadores de internet con el fenómeno de las fake news y la posverdad. Entendiendo dichos fenómenos como debilitadores de la democracia deliberativa y el derecho de acceso a la información, pues a través de los sesgos cognitivos e informativos, propios de las cámaras de resonancia, se limita la posibilidad de los ciudadanos de elegir e informarse de manera plural y diversa, cuestión que influye directamente en la polarización social y en la desinformación. Estos riesgos para la democracia no se pueden ignorar con discursos a conveniencia de los monopolios tecnológicos y se presenta como una de las luchas políticas más importantes de nuestro siglo.

In this article, we critically analyze the influence and impact that algorithmic mediation wields, as well as its following segmentation in social networking sites and internet browsers, with the phenomena of fake news and Post Truth. Such phenomena weaken deliberative democracy and freedom of information. These cognitive, and informative biases in search filters or “echo chambers” limit citizens’ freedom of choice in a diverse and plural arena that directly influences social polarization and misinformation. These risks to democracy are issues that we cannot ignore with speeches at the convenience of technological monopolies and are presented as one of the most important political struggles of our century.

O artigo analisa, a partir de uma perspectiva crítica, a influência e o impacto da mediação algorítmica, a segmentação das redes sociais e dos motores de busca da Internet no fenómeno das fake news e da pós-verdade. Entendendo estes fenómenos como enfraquecedores da democracia deliberativa e do direito de acesso à informação, pois através dos vieses cognitivos e informativos das câmaras de eco, limita-se a possibilidade de os cidadãos escolherem e serem informados de forma plural e diversa, o que influencia diretamente a polarização social e a desinformação. Estes riscos para a democracia não podem ser ignorados com discursos de conveniência dos monopólios tecnológicos, e é uma das lutas políticas mais importantes do nosso século.

Recibido: 22 de agosto de 2022; Aceptado: 18 de noviembre de 2022

Resumen

En este artículo se analiza desde una perspectiva crítica la influencia y el impacto que ejerce la mediación algorítmica y la segmentación de las redes sociales y buscadores de internet con el fenómeno de las fake news y la posverdad. Entendiendo dichos fenómenos como debilitadores de la democracia deliberativa y el derecho de acceso a la información, pues a través de los sesgos cognitivose informativos, propios de las cámaras de resonancia, se limita la posibilidad de los ciudadanos de elegir e informarse de manera plural y diversa, cuestión que influye directamente en la polarización social y en la desinformación. Estos riesgos para la democracia no se pueden ignorar con discursos a conveniencia de los monopolios tecnológicos y se presenta como una de las luchas políticas más importantes de nuestro siglo.

Palabras clave

medios de comunicación, periodismo, segmentación, democracia, redes sociales.

Abstract

In this article, we critically analyze the influence and impact that algorithmic mediation wields, as well as its following segmentation in social networking sites and internet browsers, with the phenomena of fake news and Post Truth. Such phenomena weaken deliberative democracy and freedom of information. These cognitive, and informative biases in search filters or “echo chambers” limit citizens’ freedom of choice in a diverse and plural arena that directly influences social polarization and misinformation. These risks to democracy are issues that we cannot ignore with speeches at the convenience of technological monopolies and are presented as one of the most important political struggles of our century.

Keywords

media, journalism, segmentation, democracy, social networks.

Resumo

O artigo analisa, a partir de uma perspectiva crítica, a influência e o impacto da mediação algorítmica, a segmentação das redes sociais e dos motores de busca da Internet no fenómeno das fake news e da pós-verdade. Entendendo estes fenómenos como enfraquecedores da democracia deliberativa e do direito de acesso à informação, pois através dos vieses cognitivos e informativos das câmaras de eco, limita-se a possibilidade de os cidadãos escolherem e serem informados de forma plural e diversa, o que influencia diretamente a polarização social e a desinformação. Estes riscos para a democracia não podem ser ignorados com discursos de conveniência dos monopólios tecnológicos, e é uma das lutas políticas mais importantes do nosso século.

Palavras-chave

media, jornalismo, segmentação, democracia, redes sociais.

Introducción

Pasadas las primeras décadas del siglo XXI la incertidumbre, incredulidad, sorpresa y la imprevisibilidad de los acontecimientos parecen marcar a fuego estos momentos de la historia. Pandemia, asalto al capitolio, guerra y ascenso de la ultraderecha en el corazón de Europa, populismos, desinformación, calentamiento global, desastres medioambientales, la amenaza latente de un desastre nuclear —según el secretario general de la Organización de Naciones Unidas [ONU] (“El mundo está a un error de cálculo de la aniquilación nuclear”, advierte el secretario general de la ONU, 2022)—, sumado al reciente intento de golpe de Estado en Brasil, son algunos de los fenómenos que impactan en el corazón de la era digital y han puesto en duda muchas de las promesas que a principios de siglo se escucharon venir desde amplios sectores de la sociedad que, sin lugar a duda, auguraban el advenimiento de sociedades más justas, plurales y democráticas gracias al desarrollo exponencial de las tecnologías y sus múltiples aplicaciones. La globalización y las tecnologías de la información y la comunicación acabarían con la distancia y las brechas norte-sur, el calentamiento global, la pobreza y las desigualdades; incluso los más optimistas confiaban en que gracias a la inteligencia artificial y los datos seríamos capaces de prevenir futuras pandemias y evitar su propagación (Mayer-Schönberger y Cukier, 2013). Todas estas promesas y utopías han chocado frontalmente con la realidad y han dejado más preguntas, dudas y preocupaciones que respuestas. Todo indica que aquel edificio montado sobre el absoluto tecnológico lleno de soluciones y utopías tambalea desde sus cimientos y deja abierta una serie de incertidumbres.

En este artículo se plantean algunos interrogantes, principalmente en lo que tiene que ver con los impactos que la segmentación y la personalización, basadas en algoritmos de inteligencia artificial, tiene para la sociedad; especialmente en el ámbito comunicativo y político, en cuanto a ejes vertebradores de la democracia liberal. En un contexto donde la desinformación y la polarización parecen dominar los intercambios en las redes sociales y en los medios de comunicación, muchas veces con consecuencias negativas para el ejercicio de la ciudadanía y la participación.

En el primer apartado, haremos una aproximación al diseño algorítmico que hace posible la segmentación que se utiliza en las redes sociales y en los buscadores de internet para personalizar los contenidos que llegan a los usuarios. Dentro de esta revisión abordaremos en términos generales algunas de las repercusiones que conlleva esta segmentación en la manera de informarse y relacionarse con la realidad de los usuarios de las redes sociales. Resaltaremos algunos ejemplos que reflejan claramente los impactos sociales negativos de la personalización de los contenidos.

En el segundo apartado, profundizaremos en la relación que tiene la segmentación con la proliferación de las fake news y la posverdad en las redes sociales. Fenómenos que tienen una relación directa con la personalización de la información y el diseño de los filtros de información operado por los algoritmos de las redes sociales que favorecen en gran medida la difusión o viralización de contenidos engañosos o falsos; y no solo eso, sino que al mismo tiempo se han transformado en importantes catalizadores de la polarización social y política. Afectando de manera destacada la capacidad de los ciudadanos digitales de relacionarse o dialogar con posiciones distintas, fomentando asimismo grupos de autoafirmación o tribus digitales radicalizadas.

En el tercer apartado, presentaremos los problemas que supone la segmentación algorítmica para la democracia liberal, sistema que se sustenta primordialmente en la capacidad de sus ciudadanos de elegir libre y soberanamente sin imposiciones o manipulaciones de ningún tipo. Esta capacidad de decisión sobre los propios asuntos y los de la sociedad como eje de la vida política y social estaría en peligro por el poder cada vez más omnipresente de la inteligencia artificial y los algoritmos de internet y las redes sociales.

En el último apartado, revisaremos algunas características de este nuevo ecosistema informativo, caracterizado, entre otras cosas, por la desintermediación que ejercían los medios de comunicación tradicionales y el periodismo. Cuestión que se interpretó en términos muy positivos en los inicios de internet y las redes sociales, pero que necesita una nueva mirada capaz de sopesar los impactos negativos en la sociedad de las nuevas maneras de informarse guiados por la segmentación y la personalización.

A modo de conclusión, resaltaremos que los problemas relacionados con la segmentación y la personalización de los contenidos en las redes sociales terminan siendo un asunto político, dado que impactan en la calidad de la información, la democracia y el ejercicio de la ciudadanía; es decir, cuestiones que no pueden ser soslayadas o dejadas en un segundo plano con el discurso de la neutralidad de la tecnología.

Una breve aproximación sobre el significado y alcance de la segmentación algorítmica

Capitalismo de datos

Hace más de cincuenta años advertía Herbert Marcuse (1970; 2009) sobre el componente ideológico y político sobre el que se sostenía aquella interpretación basada en la razón técnico-científica que parecía dominar sin contrapeso la cultura occidental en aquel entonces y que avanzado el tiempo adquiría alcance planetario. Múltiples fueron las voces que ponían la voz de alerta por el avance sin contrapeso de esta forma de pensar sustentada principalmente en el cálculo y la planificación como única forma de enfrentar los problemas humanos y sociales (Heidegger, 2002; Horkheimer, 1973). Primacía del cálculo racional que sería solo la expresión histórica del dominio de clase (Vattimo, 2020). El planteamiento de Marcuse tenía como foco principal la crítica al capitalismo y a la sociedad industrializada. Sin lugar a duda dicha crítica a la sociedad contemporánea obtiene plena vigencia en las primeras décadas del siglo XXI, pues si bien gracias a la globalización y al despliegue técnico científico el panorama mundial se ha modificado radicalmente por el desarrollo exponencial de las tecnologías de la información y la comunicación, la inteligencia artificial, las biotecnologías, la big data, etcétera; algunos de los problemas sociales y políticos parecen persistir o incluso agudizarse con la reaparición de grupos radicales de ultraderecha y el aumento de los caudillismos (Forti, 2022).

Estos desarrollos tecnológicos han sido la punta de lanza de un sin fin de utopías, discursos y planteamientos ideológicos que prometían y prometen todavía una serie de avances y progresos en todas las esferas de la existencia. Así, pues, la tecnología de última generación nos brindaría beneficios de todo orden, incluidos claro está la emergencia de nuevas formas de ciudadanía, comunicación, educación, acción política y participación; como si de un plumazo, gracias al desarrollo tecnológico, se pudieran borrar las desigualdades, autoritarismos, dictaduras y antagonismos de las sociedades contemporáneas. “Nos habían anunciado la accesibilidad de la información, la eliminación de los secretos y la disolución de las estructuras de poder” (Innerarity, 2020, p. 362). Es decir, gracias a internet y a las redes sociales, viviríamos en un nuevo espacio público sin mediaciones interesadas de políticos, empresarios o periodistas; una verdadera democracia en línea. Ahora bien, dado el poder incontrarrestable que ejerce la inteligencia artificial y los algoritmos en las redes sociales y en las aplicaciones de las más diversas índoles, se ha venido a discutir la influencia que estos tienen en la toma de decisiones de los usuarios y que ha puesto en tela de juicio una serie de promesas fundacionales o utopías surgidas en el seno de la era digital; especialmente en lo que tiene que ver con la idea de ciudadanía digital, la cual, supuestamente, “estimularía la transparencia gubernamental y empresarial. Circularía más información y, en consecuencia, se enriquecería el debate público sobre asuntos de interés general, lo cual derivaría en una democracia más sana, participativa y transparente” (García-Ramírez y Valle-Jiménez, 2020, p. 20).

Ahora bien, las primeras décadas del siglo XXI parecen marcadas por una suerte de transformación del capitalismo decimonónico que ha mutado hacia una forma de capitalismo que se adapta y muta a merced de las transformaciones tecnológicas. Esta forma de capitalismo del siglo XXI recibe distintas denominaciones tales como capitalismo de vigilancia (Zuboff, 2020), capitalismo cognitivo (Lassalle, 2019), capitalismo de plataformas (Srnicek, 2018), tecno ideología (Sadin, 2020) o capitalismo de la información (Han, 2022). Denominaciones que intentan dar cuenta de esta nueva forma del sistema capitalista en la cual la importancia y valor de los medios de producción, como motor del crecimiento económico, deja su lugar a un sistema social, político y económico mediado por las tecnologías que:

Reclama unilateralmente para sí la experiencia humana, entendiéndola como una materia prima gratuita que puede traducir en datos de comportamiento[…] la dinámica competitiva de estos nuevos mercados impulsa a los capitalistas de la vigilancia a adquirir fuentes de excedente conductual cada vez más predictivas: desde nuestras voces hasta nuestras personalidades y nuestras emociones incluso. Con el tiempo, los capitalistas de la vigilancia descubrieron que los datos conductuales más predictivos se obtienen interviniendo en la marcha misma de las cosas para empujar a, persuadir de, afinar y estimular ciertos comportamientos a fin de dirigirlos hacia unos resultados rentables. (Zuboff, 2020, pp. 17-18)

Como podemos ver, el motor de esta fase del capitalismo sería la experiencia humana transformada en datos de comportamiento que a través de las huellas que vamos dejando en internet con cada búsqueda, interacción, click o like se transforma en la gran mina de oro del presente siglo, lo que incluso ha llevado a algunos a decir que los datos son el nuevo petróleo (Humby, 2017). Todo lo cual es capitalizado por las Big Tech a través de la inteligencia artificial, los algoritmos y la big data, pues estos monopolios a través del registro y vigilancia de nuestras búsquedas, interacciones y conductas alimentan una gigantesca base de datos de los usuarios, logrando adquirir un alto grado de conocimiento de cada uno, perfilando y estableciendo patrones de personalidad de millones de internautas. Gracias a este conocimiento, adquirido por medio de la vigilancia masiva a la que somos sometidos y al desarrollo de los algoritmos de inteligencia artificial, pueden perfilar, predecir y persuadirnos de forma subrepticia, a través de las recomendaciones, a comprar el producto que estábamos buscando, pasando por una película o una canción, hasta votar por un candidato que no sabíamos era el nuestro; o también a creer la última fake news o teoría conspiratoria. Es decir, la influencia de estas plataformas va desde recomendar, sugerir o hasta dirigir nuestras decisiones; por no decir, determinar lo que vamos a elegir.

Es menester aclarar que el fenómeno de la vigilancia no es algo completamente nuevo para la sociedad occidental, pues tal como había adelantado Michel Foucault (2003) la vigilancia ha sido un mecanismo de control y ordenamiento social en la sociedad moderna; realidad que el filósofo francés, retomando el modelo carcelario de Bentham, denominó panóptico. Cuestión que más adelante reformulará Bauman y Lyon (2013) al hablar del pospanóptico, entendido como la estructura de vigilancia propia de la era digital. Más allá del costo humano y social para las libertades civiles que tiene la invasión de la privacidad y la intimidad provocada por esta vigilancia a la que somos sometidos las veinticuatro horas del día cuando utilizamos nuestros dispositivos digitales; la pérdida más significativa o el eslabón más peligroso de esta cadena estaría por el lado de la clasificación social resultante de esta vigilancia.

Por mucho tiempo las discusiones respecto a este asunto se enfocaban en advertir del peligro para las libertades de esta invasión de la privacidad y la intimidad, sin embargo, ahora el centro de la discusión está en lo que hacen los monopolios tecnológicos con esa información y datos; cuestión que afectaría directamente la capacidad decisoria de los usuarios y la capacidad de ampliar sus horizontes cognitivos según la clasificación de los algoritmos. Esto tendría consecuencias directas en nuestra manera de informarnos, interpretar la realidad y darle sentido, lo que termina por repercutir en el rumbo de la política y la decisión informada de los llamados ciudadanos digitales. En este sentido,

La amenaza que las grandes tecnologías supone para la democracia es multifacética. En primer lugar, las principales plataformas de medios sociales —Twitter, Facebook, Google y otras— recetarían, promoverían y restringirían la información recibida por los ciudadanos de las sociedades democráticas e incluso sus opiniones. Este poder sobre la palabra y la expresión, y por tanto sobre nuestra política y nuestro sistema de gobierno no tiene parangón en la historia. (Baer y Chin, 2021)

Este escenario ha llevado al planteamiento de una disminución o empeoramiento de las democracias y del acceso a la información de carácter pluralista en la era digital, lo que por ende afectaría nuestra capacidad de elegir libre e informadamente (Saran y Mattoo, 2022).

Segmentación algorítmica

Un ejemplo paradigmático de este fenómeno se presenta en el devenir político de Estados Unidos en los últimos años, donde la campaña de Donald Trump de 2016 mostró de qué manera se podía influir en las decisiones de la ciudadanía gracias a la utilización de los datos extraídos de los usuarios, pues los algoritmos de la inteligencia artificial permitieron perfilar y explotar las debilidades y miedos de cientos de miles de usuarios de Facebook para brindar mensajes acordes con esas debilidades y miedos. Es decir, en virtud de la clasificación y segmentación de los usuarios, fue posible brindar una propaganda política acorde a sus perfiles psicológicos (Galdon-Clavell, 2019; O’Neil, 2018). Sin embargo, esta es solo la punta del iceberg, pues al finalizar su periodo presidencial en 2021 el entonces presidente de los Estados Unidos mostró el poder destructivo y dañino de la utilización maliciosa de las redes sociales, cuando sin prueba alguna acusó de fraude electoral a sus adversarios y a través de estas redes incitó a sus partidarios a atacar el capitolio en un evidente intento de golpe de estado. Asalto que mostró la capacidad de cohesión y acción de estos grupos de autoafirmación que inundan las redes sociales con contenidos extremistas, teorías conspirativas y bulos (Colomina, 2021).

Estos acontecimientos nos permiten recoger dos perspectivas a tener en cuenta cuando se habla de los peligros o problemas que plantea el uso sin control de la Inteligencia Artificial (IA), algoritmos y big data en las redes sociales. Si bien todos estamos acostumbrados a recibir cierta publicidad o recomendaciones acorde a nuestros intereses gracias a las búsquedas y a la trazabilidad a la que nos sometemos en la red; otra cosa muy distinta es que dichas sugerencias nos lleven a comprar, creer o votar en virtud de cierta modificación conductual guiada por los algoritmos de la IA. Cuestión que se puede llevar a cabo a través de la segmentación o microtargeting, pues si bien:

Facebook parece una moderna plaza de pueblo, la empresa decide, conforme a sus propios intereses, qué vemos y que descubrimos en su red social, todo esto gracias a que en cuestión de horas[…] Facebook podía recopilar información sobre decenas de millones de personas y calcular el impacto de sus palabras y los enlaces que compartían tenían los unos sobre los otros. Y además, podía usar ese conocimiento para influir en las acciones de las personas. (O´Neil, 2018, p. 145)

El objetivo de la segmentación en un primer momento era puramente comercial, es decir, gracias al registro, recopilación y extracción de miles de millones de datos de comportamiento de los usuarios de las plataformas de internet y redes sociales, los algoritmos de inteligencia artificial, se podían establecer patrones, predicciones y perfiles psicológicos de los usuarios, con un nivel de conocimiento nunca visto en la historia.

Todo esto permitía recomendar determinados productos a los usuarios, incluso antes que ellos mismo supieran lo que querían; esta sería solo la punta del iceberg y el efecto menos peligroso de esta segmentación. Pues bien, la cada vez más frecuente microsegmentación “proporciona cobertura a los políticos, alentándolos a ser muchas cosas para muchas personas […]desde la publicidad depredadora hasta los modelos de vigilancia, castigan sobre todo a las clases más desfavorecidas, la microsegmentación política afecta a los votantes de cualquier clase económica” (O´Neil, 2018, p. 156).

Como podemos ver, el problema fundamental es que estas estrategias de marketing han pasado rápidamente a invadir prácticamente todo espacio abierto en las redes sociales y aplicaciones de diversa índole, lo que tiene amplias repercusiones en nuestra forma de adquirir información, en la discusión política y por ende en nuestra forma de interpretar al mundo. Como dice Galdon-Clavell (2019):

De ahí que, en el uso de datos, el paso de un contexto de consumo a un contexto político implique un salto cualitativo de profundas consecuencias[…] Si los entornos virtuales que nos rodean nos clasifican de una forma que escapa a nuestro control, y esa clasificación determina aquello (bienes de consumo, ideas, conversaciones) a lo que tenemos acceso, ¿dónde quedan la libertad y el libre albedrío? ¿Cuán difícil puede resultar escapar del escaparate personalizado perpetuo que acompaña todas las acciones que realizamos en Internet?

Ciertamente, esta segmentación entrega a los partidos o políticos poderosas herramientas para enviar a los electores un mensaje o publicidad de acuerdo con los intereses concretos de los votantes, con un mensaje adecuado según dicha segmentación. Esta fue la estrategia utilizada por Donald Trump en su campaña, gracias a la cual logró un triunfo contra todo pronóstico, donde gracias a los perfiles psicológicos de los electores se les enviaba determinado mensaje dependiendo de dichos datos 1 . Como señala O’ Neil (2018), “usaron esta información para llevar a cabo análisis psicográficos […]clasificándolos dentro de la escala del ‘modelo de los cinco grandes factores de la personalidad’: apertura a nuevas ideas, responsabilidad, extrovertidos, amabilidad e inestabilidad emocional” (p. 153).

Asimismo, el asalto al Capitolio que tuvo lugar en 2021 nos permite visualizar otra arista de la segmentación o personalización propia de los filtros de información o también llamadas cámaras de resonancia que actúan según la programación de los algoritmos de la inteligencia artificial; y siguiendo la segmentación o perfil de cada usuario envían cierta información, contenido que se ajusta a cada perfil ideológico. Fomentando de manera automatizada un sesgo de confirmación (McIntyre, 2018) y el compromiso de los usuarios, limitando así las posibilidades cognitivas de los usuarios previamente perfilados. Estas cámaras de resonancia, definidos por Eli Pariser (2017) como filtro burbuja, intentan por todos los medios de mantenernos cómodos y confortables para que pasemos la mayor cantidad del tiempo entregándoles nuestra atención que supone jugosas ganancias con los datos obtenidos.

El problema con todo esto es que gracias a la segmentación, fruto de la mediación algorítmica, se limita todavía más nuestro acceso a la información y a visiones de la realidad distintas a la nuestra, pues “los filtros personalizados presentan cierta clase de autopropaganda invisible, adoctrinándonos con nuestras propias ideas, amplificando nuestro deseo por cosas que nos son familiares y manteniéndonos ignorantes con respecto a los peligros que acechan en el territorio oscuro de lo desconocido” (Pariser, 2017, p. 24). Y más problemático aún es que muchas veces ni siquiera somos conscientes de dicha influencia algorítmica y las limitaciones que conlleva, creyendo que lo que vemos es la única verdad; y casualmente cuadra perfectamente con nuestros pensamientos e ideología; razón por la cual tendemos sin mayor reflexión a creer a buenas y a primeras lo que nos aparece en nuestras redes. Este modelo de negocios, aplicado a nuestra forma de ver la realidad tiene amplias repercusiones que influyen en nuestra manera de interpretar el mundo, pues si tenemos una visión sesgada del mundo y de la información, que se va retroalimentando constantemente, difícilmente podemos situarnos en otra perspectiva distinta a la que vemos una y otra vez repetida en nuestra pantalla.

Como denuncia Imran Ahmed (2021), director ejecutivo del Centro para Contrarrestar el Odio Digital (CCDH), Instagram en plena pandemia ponía a disposición de los usuarios una nueva función que los instaba a ver teorías conspiratorias y mentiras relacionadas con el COVID-19 y las vacunas con la sola finalidad de mantener a la gente utilizando la aplicación y poder mostrarles mayor cantidad de anuncios. Pues, “los algoritmos que recomiendan contenidos son obra de un editor (programador) que elige lo que ven los lectores, no una plataforma neutral. Esto tiene serias implicaciones legales y regulatorias para las compañías de medios sociales y evidencia su responsabilidad ante el daño a los individuos y a la sociedad” (Ahmed, 2021).

Ahora bien, estos procedimientos no serían tan problemáticos si esa personalización solo tuviera que ver con la publicidad dirigida, sin embargo, la fuente de noticias personalizadas de Facebook y de otras redes sociales se han convertido en fuente de noticias fundamentales. Es más, Facebook y Twitter se han convertido en la mayor fuente de noticias y medios de información del planeta. En este sentido, si asumimos que “la estructura de nuestros medios de comunicación afecta el carácter de nuestra sociedad” (Pariser, 2017, p. 18), podemos concluir que algunos de los problemas mencionados tienen relación directa con la segmentación. Incluso, como sostiene Byung Chul Han, nos encontraríamos frente a una nueva forma de dominio, un:

Régimen de la información […]en la que la información y su procesamiento mediante algoritmos e inteligencia artificial determinan de modo decisivo los procesos sociales, económicos y políticos. A diferencia del régimen de la disciplina, no se explotan cuerpos y energías, sino información y datos. El factor decisivo para obtener el poder no es ahora la posesión de los medios de producción, sino el acceso a la información, que se utiliza para la vigilancia psicopolítica y el control y pronóstico del comportamiento. (2022, p. 6)

Ciertamente, las redes sociales e internet han abierto un conjunto de posibilidades para las luchas sociales y la democratización de la información. Sin embargo, sus efectos nefastos han adquirido notoriedad cuando se habla de desinformación, teorías conspiratorias, posverdad, fake news, cultura de la cancelación y un largo etcétera. Todo esto ha llevado a poner en tela de juicio el carácter emancipatorio de las tecnologías, pues hemos pasado en el presente siglo de la utopía a la distopía, de la euforia a la preocupación, de las esperanzas de emancipación al temor relacionada con el control y la falta de libertad.

Segmentación algorítmica como catalizador de las fake news, la posverdad y la polarización

Fake news y posverdad en la era de la personalización

Las fake news, por una parte, se han definido como aquellas noticias falsas que circulan en los medios de comunicación, las cuales se pueden difundir rápidamente a través de las redes sociales y servicios de mensajería. Esta desinformación tiene como objetivos principales, por una parte, influir en la opinión pública, alterar la realidad y beneficiar o perjudicar un ideal, interés o pensamiento. También la difusión y creación de este tipo de desinformación tiene objetivos meramente comerciales, pues generan grandes ganancias a sus creadores gracias a la viralización y circulación de este tipo de desinformación (Kuisz y Wigura, 2021). En términos generales se podría afirmar que las noticias falsas no se crean solamente como una diversión o juego, sino que para obtener determinados dividendos que pueden ser económicos (Kuisz y Wigura, 2021), políticos o ideológicos. Por ende, no hablamos exclusivamente de informaciones tendenciosas o manipuladas sino lisa y llanamente de mentiras (Amorós, 2018).

Por otra parte, como comenta Fernando Buen-Abad (2017) al referirse a la posverdad: “sus definiciones la pintan como una forma emotiva de la mentira para manipular la opinión pública[…] para subordinar los hechos a las habilidades emocionales del manipulador. Es la mentira que prescinde de los hechos[…]. La realidad se convierte en un estorbo o en una anécdota decorativa —o prescindible— del enunciado”. Es decir, la posverdad se comprende como una distorsión de la realidad empleada para hacer creer a alguien algo determinado, apelando principalmente a las emociones, sentimientos, o incluso las creencias personales del usuario; es decir, los hechos pasan a un segundo plano o son derechamente ignorados. En este contexto, como aclara D’Ancona: “la web es el vector definitivo de la Posverdad precisamente porque es indiferente a la falsedad, la honestidad y la diferencia entre ambas (2017, p. 37).

En las distintas plataformas de redes sociales abunda la desinformación y las teorías conspirativas por eso el fenómeno de la posverdad y las fake news se encuentran muchas veces en el centro de las discusiones y debates sobre la labor de los periodistas y la importancia de realizar un trabajo riguroso en un mundo globalizado, donde la velocidad e inmediatez se transforman en valores absolutos. La forma en la que los medios de comunicación actúan frente al manejo, distribución y abundancia de información, determina en cierta medida la calidad con la que llegan las noticias a los usuarios. Comenta Ramonet:

Esto se complejiza en un entorno donde la “conspiranoia” y el fanatismo forma parte de un sistema atacado, además, por la incertidumbre de la Covid-19, lo que domina a las redes es el pensamiento mágico. La verdad es cada vez más emocional y no real. Las redes están hechas para emitir y no para recibir. Existe una repolitización salvaje en un sentido antropológico. (2021)

La posverdad tiene lugar cuando alguien intenta moldear la opinión e interpretación de las masas a través de narrativas construidas desde engaños (McIntyre, 2018). Debido a esto la veracidad de un hecho se alimenta de la emoción o sentimientos que estos causan en las personas. “Así, la posverdad equivale a una forma de supremacía ideológica, a través de la cual sus practicantes tratan de obligar a alguien a que crea en algo, tanto si hay evidencia a favor como si no. Y esta es la receta para la dominación política” (McIntyre, 2018, p. 41). En este contexto, es que ciertos dirigentes políticos definen qué es verdad y qué no; cuáles sucesos son importantes y deben ser tomados en cuenta, haciendo creer a sus simpatizantes hechos que justifican o apoyan su ideología.

Profundizando en esto, McIntyre (2018) aclara que una cosa es proferir una falsedad o cometer un error de juicio, de lo cual nadie estaría exento; y otra cosa muy distinta es cuando “nuestra intención es manipular a alguien para que crea algo que sabemos que no es verdad, hemos pasado de la mera ‘interpretación’ de los hechos a su falsificación” (p. 37). Es decir, la posverdad puede pasar de una interpretación de hechos a una falsificación de la realidad.

Ahora bien, cabe preguntarse de qué forma se relacionan los algoritmos, la segmentación y la posverdad y las fake news. Muchas veces se tiende a confundir el fenómeno de la posverdad y las noticias fake, creyendo que son lo mismo y no se establecen diferencias entre ellas. Sin embargo, si bien son fenómenos que están estrechamente relacionados, las noticias falsas son el sustento o alimento del que se nutre la posverdad. Vale preguntarse, como hace Amorós (2018), por el rol de las fake news en la posverdad; la información falsa es el tren de alta velocidad que nos lleva rápidamente y sin atajos a la posverdad. La posverdad, en tanto dominada por las emociones, creencias e ideologías personales por encima de los hechos, adquiere su fisonomía y se constituye como tal gracias a las informaciones falsas, esto es, con narrativas que nos hagan creer que la realidad o el mundo es tal cual como queremos que sea, como un reflejo de nuestros propios gustos o ideologías. En términos similares expresa McIntyre: “las noticias falsas son un intento deliberado de hacer que la gente reaccione a la propia desinformación, tanto si es con el objetivo del beneficio como del poder. Pero, en cualquier caso, las consecuencias pueden ser nefastas” (2018, p. 124) como, por ejemplo, en el caso del asalto al capitolio o el intento de golpe de Estado en Brasil.

En relación con esto Sadin (2022) afirma que en la era de la posverdad los ciudadanos no desean escuchar ningún relato que ponga en riesgo sus ideas, los usuarios de las redes sociales tienen una tendencia a seguir cuentas que refuerzan sus opiniones (p. 131). En otras palabras, una de las consecuencias más visibles del diseño de las redes digitales está relacionado con la segmentación y que actúan como cámaras de resonancia que filtran contenidos e invisibilizan perspectivas distintas; generando en el usuario una apariencia de verdad y reafirmación de las propias ideologías, donde no tienen cabida posiciones distintas o antagónicas; se privilegia así una visión única y absoluta de la realidad. De acuerdo con Jandrić, la posverdad es “un concepto social de gran alcance, que amenaza los conceptos tradicionales de conocimiento, toma de decisiones y política, es una compleja mezcla de datos, información, conocimiento y sabiduría; verdad y engaño; hecho y emoción; razón e instinto, que ha establecido relaciones cada vez más complejas en la era digital” (2018, p. 47).

Remedios Zafra resume las consecuencias de la segmentación:

En las redes la cantidad de información y voces esta filtrada por nuestro perfil y por la máquina, y el filtro dificulta (o incluso anula el escrutinio). No es extraño entonces que la información se haga propaganda. No ya por no detenernos a contrastar datos, sino porque ante el exceso solo vemos lo más accesible, los generados por las voces con más influencia online, o por las redes que habitamos, casi siempre formadas por personas que piensan de manera muy similar. (2017, p. 185)

De acuerdo con esto es más fácil apelar a las emociones de los internautas, teniendo en cuenta sus perfiles para enviar determinada información y no otra, lo que permite difundir en mayor cantidad y precisión tanto fake news como posverdad. Esto nos habla del tipo de participación y cultura política en la que estamos inmersos, pues “seguramente esta falta de aprecio por los hechos es uno de los factores que explica la polarización de la vida política. El combate político se desarrolla sin que la realidad esté de por medio y gira en torno a ficciones útiles” (Innerarity, 2018, p. 26).

En definitiva, “la tecnología digital ha sido la principal infraestructura de la posverdad. Pero sería ridículo, y profundamente antidemocrático recomendar el retroceso de esta revolución. La cuestión es qué hacer mejor dentro de sus fronteras, que cambian rápidamente” (D’Ancona, 2017, p. 70). En otras palabras, lo importante es de qué manera enfrentamos estos fenómenos dentro del contexto y los escenarios planteados por la revolución tecnológica, sin desvalorizar los aportes que han hecho a la democratización de la información y la comunicación.

Polarización social y participación política

Resulta oportuno resaltar que estos fenómenos tales como la segmentación algorítmica y la personalización de la información influyen claramente en la proliferación de fake news, posverdad, desinformación, teorías conspiratorias; además de estimular, con sus modelos comerciales, la polarización política y social que se ha agudizado en el último tiempo. Claro está que con esto no queremos decir que estos fenómenos sean el resultado del uso de redes sociales o de la omnipresencia de internet; sin embargo, dado el alcance de las redes de internet y la segmentación es que se puede conocer a la perfección a los usuarios y de esta forma dirigir la información de acuerdo a sus preferencias; lo que ha hecho mella en la capacidad de los usuarios de abrirse a perspectiva plurales y diversas de la realidad.

En otras palabras, a la desinformación, polarización y manipulación como fenómenos presentes desde hace tiempo en los medios de comunicación y en el quehacer político debemos agregar: “la perfilación de datos psicométricos extraídos de las redes sociales para anticipar con precisión las ideas y decisiones individuales, la personalización de la propaganda y la capacidad de los bots para imponer agendas y manipular el peso de las informaciones que se difunden” (Forti, 2022, p. 78).

Ahora bien, junto a las predicciones definidas por los algoritmos están aquellas que elegimos personalmente, de esta forma se terminan de constituir las cámaras de resonancia o eco. Se produce así un aislamiento intelectual, lo que impide que nos situemos en el punto de vista de otros, pues las burbujas informativas refuerzan las propias ideologías o puntos de vista personales y por lo mismo afectan nuestra visión de la realidad. Llegando a influir o determinar nuestra idea respecto a temas de alto impacto como el tratamiento de la Covid-19 y la vacunación o los problemas medioambientales (Blanco-Prieto, 2021).

Es más, tal como afirma Galdon-Clavell (2019), parece ser que ese diseño permite y estimula la proliferación de grupos en la autoafirmación de sus principios, prejuicios e ideologías, dado que por la influencia de las cámaras de resonancia se distancian completamente de visiones o interpretaciones distintas de la realidad. Ahora bien, como señala la autora, una de las consecuencias más visibles sería la escasa visibilidad que para estos grupos de autoafirmación o tribus (Han, 2022) tienen las ideas distintas o contrapuestas, pues la estructura comunicativa que imponen los algoritmos:

Implica que la expansión de Internet a segmentos cada vez más amplios de población, combinada con su capacidad movilizadora, de acceso a información, opinión, desinformación o propaganda, y de construcción de identidad a través de la búsqueda de otros usuarios similares, genera nuevos universos donde encontrar pares, aliados, colaboradores, o conversos (ibídem). Por lo que es más probable que nos creamos un rumor o una teoría de la conspiración si concuerda con nuestra visión del mundo. (Thompson, 2017, citado en Innerarity y Colomina, 2020, p. 15)

Quedando así poco espacio para el disenso, el debate y el intercambio dialógico, pues aquella visión compartida por el grupo será muy difícil de poner en tela de juicio y menos rechazar. Se dirige y direcciona el compromiso, el engagement con el grupo y sus ideas. En este sentido, es importante resaltar que:

En su análisis sobre la propagación de noticias falsas, Del Vicario y otros (2016) muestran que la velocidad y estructura de las noticias falsas que son virales no se distinguen de las de las noticias verdaderas, excepto por la mayor homogeneidad de la comunidad que las comparte. Es decir, la creencia en distintos “hechos” hace que las noticias falsas se viralicen tan solo en la comunidad que es cognitivamente congruente con el contenido reportado. (Calvo y Aruguete, 2020)

En este contexto es que muchas veces se confunde: la información con la propaganda, la verdad con la mentira y lo que es más grave aún, se confunden los propios pensamientos, ideas o decisiones con los que imponen los algoritmos, creyendo que somos nosotros quienes tomamos las decisiones, desde las más nimias a las importantes; y todo esto la mayoría de las veces trabaja de forma inconsciente. Asimismo, estas cámaras de resonancia nos empujan muchas veces a adherir, pensar o actuar según los designios de esa red de amigos, contactos o gente cercana que piensa de manera muy parecida a la nuestra y que constituye nuestro círculo algorítmico. En este sentido, según concluyen algunos estudios, parece ser que al momento de cumplir con un deber ciudadano motiva mucho más el juicio de los amigos o la gente cercana en las redes sociales que la convicción íntima de hacerlo (O´Neil, 2018, p. 144).

En este mismo sentido expresa Stuart Russell (Adamo-Idoeta, 2021), investigador en inteligencia artificial de la Universidad de California, quien advierte que los algoritmos de las redes sociales son cada vez más peligrosos, pues los diseñadores los programan con la tarea de optimizar sus procesos a cualquier costo, sin considerar los daños sociales e individuales. Lo que consiguen entregándoles contenidos que se ajusten a sus gustos para que permanezcan frente a la pantalla el mayor tiempo posible, sin tener en cuenta si esto afecta la salud mental y bienestar del usuario o afecta a la ciudadanía global. A su juicio, las redes sociales producen adicción, depresión, disfunción social e incluso pueden fomentar el extremismo. Y resalta que lo más preocupante de todo es que:

Al optimizar estas cantidades, podemos estar causando enormes problemas a la sociedad. (Las redes sociales) no solo están optimizando lo incorrecto, sino que también están manipulando a las personas, porque al manipularlas consigue aumentar su compromiso. Y si puedo hacerte más predecible, por ejemplo, transformándote en un ecoterrorista extremo, puedo enviarte contenido ecoterrorista y asegurarme de que hagas clic para optimizar mis clics. (Adamo-Idoeta, 2021)

En efecto, las críticas o juicios respecto a los impactos negativos de las redes sociales o de internet van dirigidas al diseño y estructura de dichas plataformas que según su modelo de negocios pueden permitir o, más aún, estimular la desinformación o polarización si ello permite una mayor viralización o circulación de los contenidos. A pesar de que estos contenidos sean nocivos o perjudiciales para la sociedad, pues lo importante es la optimización y que pasemos la mayor cantidad de tiempo entregándoles nuestra atención sin tomar en cuenta la calidad del contenido que estamos recibiendo; tanto si es de mi equipo de fútbol favorito, la última teoría conspiratoria o un grupo de ultraderecha. No es difícil concluir que “vivimos una época de fake news, trolls y lawfare que se caracterizan por crear y promover discursos de intolerancia apelando a una matriz ideológica compartida en busca de polarización y enfrentamiento” (Bilyk y Ciappinac, 2022, p. 8).

En esta perspectiva se expresa Martín Hilbert (2021), funcionario de la Cepal y experto en redes digitales, big data y algoritmos informáticos, quien comenta respecto a la proliferación de las teorías de conspiración, poniendo el caso de YouTube: “históricamente, se estimaba que el 10 % de sus recomendaciones eran videos con noticias falsas. Hasta que, en 2019, Google decidió hacer algo para combatirlas y logró reducirlas a la mitad. Ahora rondan el 5 %. Así que, si una persona dedica una hora por día a YouTube, verá al menos 3 minutos diarios de teorías conspirativas”.

De manera oportuna, resaltar que esos mismos diseños y estructuras de las redes sociales y las tecnologías podrían servir y utilizarse para fines más loables, como sería estimular nuestras fortalezas, pensamientos positivos y propios para mejorar la calidad de vida de los usuarios (Adamo-Idoeta, 2021; Hilbert, 2021; Innerarity, 2020; O´Neil, 2018; Zuboff, 2020). Usos y aplicaciones que lamentablemente para los usuarios no generan las ganancias económicas y rédito que los monopolios tecnológicos esperarían y por ende no son aplicados en los mentados diseños algorítmicos.

Democracia, libertad y segmentación

Segmentación y democracia

Este recorrido nos ha permitido poner en el centro del debate ciertas consecuencias negativas que conlleva la segmentación propia de los algoritmos de las redes sociales. En este contexto, sobresale una dimensión todavía más preocupante de este poder omnisciente de la inteligencia artificial y la segmentación, pues según algunos autores el verdadero peligro que se esconde tras esto no es nada menos que la pérdida de la soberanía y la libertad de decisión de los usuarios; en otras palabras, nos enfrentaríamos a una verdadera crisis de la democracia liberal. Asunto que podríamos abordar desde dos perspectivas distintas, dado que, por una parte, se discuten las consecuencias y la influencia de la segmentación y las cámaras de resonancia; y, por otra, lo que tiene que ver con la delegación de la capacidad de decisión 2 .

En primer lugar, retomaremos la crítica de Pariser (2017) al filtro burbuja, que es como denomina el autor a los algoritmos que filtran los contenidos en los buscadores y redes sociales de internet. Su principal preocupación es por las consecuencias que tiene para la democracia la utilización de estos filtros, pues la democracia necesita de ciudadanos que puedan situarse desde otros puntos de vista, que puedan ponerse en el lugar de otros; es decir, que sean capaces de plantear un diálogo respecto a hechos compartidos. No obstante, estamos cada vez más encerrados en nuestro propio punto de vista, encerrados en nuestras burbujas o cámaras de resonancia. Por ende, en vez de tener un mundo compartido sobre el cual discurrir o discutir nos encontramos con un mundo hecho a nuestra medida y gustos, limitando la posibilidad de ver otros contenidos o información distinta a mi propio perfil. En otras palabras, “los algoritmos que orquestan la publicidad orientada están empezando a dirigir nuestra vida” (Pariser, 2017, p. 18). En definitiva, están orientando y definiendo nuestras posibilidades de informarnos y conocer el mundo.

En la elaboración de una narrativa emotiva, se evidencia la ignorancia, la mentira, el engaño y el giro político. Cuestión peligrosa y perjudicial para la sociedad contemporánea porque puede terminar generando un debilitamiento de la democracia, como lo manifiesta Han, al afirmar que hay una crisis de la esfera pública discursiva de Habermas, pues en este contexto, los algoritmos, los datos y la inteligencia artificial influencian y determinan la discusión y el diálogo (2022, p. 69). Esto afectaría la construcción de los acontecimientos, su interpretación y la toma de decisión por parte de la ciudadanía en temas relevantes, pues una sociedad bien informada cuenta con herramientas para hacer parte de una democracia que se ha construido históricamente desde la esfera pública y que utiliza como mecanismo privilegiado de convencimiento el mejor argumento (Habermas y Rawls, 2015, p. 61).

El ejercicio de la democracia deliberativa se alimenta de la conversación, la plaza pública y los argumentos razonados (Habermas y Rawls, 2015). Antes bien, lo que realmente hace falta en este escenario, completamente digitalizado, es el debate de la esfera pública, dado que las narrativas propias de las nuevas tecnologías han llevado a una pobreza argumentativa de los líderes de opinión, que están más enfocados en trabajar sobre las emociones que generan en los ciudadanos que en profundizar y trabajar en propuestas concretas de acción política. En términos todavía más claros, Pariser (2021) concluye que “las plataformas tecnológicas que muchos utilizamos constantemente, ya sea Facebook, YouTube o Twitter, nos han defraudado a nosotros y a la democracia”, dado que las redes sociales han permitido y estimulado con sus diseños la proliferación y propagación de la desinformación. Cuestión que ha provocado fisuras importantes en la democracia, en virtud de la proliferación de ideas radicales y extremistas en las redes sociales que prontamente son viralizadas, poniendo en riesgo los sistemas democráticos de muchos países (Tsalikis, 2019).

Como hemos podido ver, son múltiples las implicancias que tiene la segmentación algorítmica para la sociedad del siglo XXI, que parece estar signada en su comienzo por la incertidumbre postpandémica y la volatilidad (Innerarity, 2020). No es difícil concluir que las promesas y esperanzas democratizadoras de las tecnologías parecen haberse desvanecido, sino del todo, sí en gran medida. Hemos asistido a importantes luchas democráticas y emancipadoras a través de las redes sociales e internet, como ejemplo la primavera árabe, el 15-M o la revuelta de octubre de 2019 en Chile; movimientos que sin embargo parecen haberse disuelto al unísono con las utopías libertarias de internet.

capitalismo de datos: las amenazas contra la libertad y la ciudadanía democrática

En segundo lugar, persiste una preocupación todavía más profunda respecto al poder que han adquirido estos desarrollos y avances de la inteligencia artificial, algoritmos y big data, manejados a su antojo por las Big Tech en su afán de alcanzar mayores cuotas de poder y conocimiento para de esta manera aumentar sus ganancias y monetizar todo aquello que es posible recoger a través de sofisticados sistemas de vigilancia, recolección y clasificación a las que somos sometidos las veinticuatro horas del día cuando usamos un teléfono inteligente. No obstante, la pérdida de la privacidad o intimidad pasa a segundo plano cuando nos referimos a la utilización que se puede hacer con dicho caudal de datos e información.

Shoshana Zuboff (2020) expone la figura emergente del capitalismo de la era digital para el que la experiencia humana se transforma en la materia prima fundamental a explotar, gracias a la cual los monopolios tecnológicos pueden fabricar productos predictivos que pueden predecir lo que cualquiera de nosotros hará ahora y en el futuro. Es por esto, que “con el tiempo, los capitalistas de la vigilancia descubrieron que los datos conductuales más predictivos se obtienen interviniendo en la marcha misma de las cosas para empujar a, persuadir de, afinar y estimular ciertos comportamientos a fin de dirigirlos hacia unos resultados rentables” (Zuboff, 2020, p. 18).

En otras palabras, gracias al conocimiento y perfilamiento que adquiere el capitalismo de vigilancia y a partir de la reorientación que va desde el conocimiento hacia el poder no solo se pretende la automatización de los flujos de información que vamos recibiendo, sino que la intención última es automatizar a los usuarios y sus decisiones. De esta forma los medios de producción quedan supeditados a complejos y finamente estructurados medios de modificación conductual. El usuario queda, así, a merced de un poder instrumental que conoce con total precisión el comportamiento humano, sus emociones, su personalidad y lo puede modificar orientándolo a los objetivos de terceros (Zuboff, 2020).

Ciertamente, esta forma de capitalismo socavaría las bases de la democracia y la capacidad de decisión de los usuarios, limitando profundamente su capacidad de elegir libremente ajeno a estos moldeamientos conductuales. En definitiva, “como un derrocamiento de la soberanía del pueblo y como una fuerza prominente en la peligrosa deriva hacia la ‘desconsolidación’ de la democracia que actualmente amenaza a los sistemas democráticos liberales de Occidente” (Zuboff, 2020, p. 36).

En esta misma línea se expresa José María Lassalle (2019), cuando interpreta la era digital, erigida sobre la base de una nueva divinidad estructurada según los parámetros de la tríada algoritmos, big data e inteligencia artificial, como un Ciber Leviatán que sería la manifestación de una nueva forma y expresión de poder, puesto que: “los datos que generan internet y los algoritmos matemáticos que los discriminan y organizan para nuestro consumo son un binomio de control y dominio que la técnica impone a la humanidad” (Lassalle, 2019, p. 11).

Definido en términos de un Leviatán tecnológico, resultante de la convergencia de un tecnopoder constituido por los monopolios tecnológicos o Big Tech que promueven un capitalismo cognitivo basado en la economía de los datos; y que al mismo tiempo se sostiene en las multitudes de usuarios o internautas que se integran sin capacidad crítica en los dispositivos de control y vigilancia que impone la revolución digital. Esta concentración de poder exige un nuevo contrato social que permita aunar bajo un poder absoluto y centralizado tecnológicamente una nueva idea de soberanía mediada por la tecnología que promete optimizar y hacer más eficientes las decisiones y soluciones a los problemas del hombre contemporáneo, coligando la dimensión técnica, económica y política en un mismo planteamiento. Soberanía y capacidad decisoria que quedaría en manos de esta nueva que impone una administración matematizada del mundo (Lassalle, 2019).

Es decir, gracias a la capacidad que tienen los algoritmos y la inteligencia artificial de poder tomar mejores decisiones que el ser humano, la tecnología podrá superar el siempre falible e inestable conocimiento humano; logrando así llevarnos por el camino de la certeza y la perfección. Sin embargo,

El problema no es solo de carácter moral con relación al ejercicio de la libertad humana, sino también político…Ahora se nos neutraliza en la capacidad decisoria jugando con la sutileza algorítmica que hace que las personas no actúen según su juicio, sino que se optimice este en nuestro propio beneficio […] la política que irrumpe con la revolución digital quiebra los fundamentos democráticos de una ciudadanía que ya no quiere decidir acerca del sentido de sus acciones. (Lassalle, 2019, pp. 31-32)

Asimismo, no podemos obviar que la apropiación de los datos y la delegación de la capacidad decisoria de los usuarios, que entregan voluntariamente a los sistemas algorítmicos, afectan nuestra identidad y el significado de lo humano. Es definitiva, debemos poner mucha atención en estos desarrollos y discursos, pues pueden terminar socavando la identidad de nuestros pueblos latinoamericanos y lo propiamente humano, bajo la égida del poder tecnológico, que lamentablemente responden a intereses económicos, aprovechando la desregulación, falta de legislación al respecto y distancia crítica (García-Canclini, 2019).

Como podemos ver, una vez: “desactivada la ciudadanía como eje de gravedad de la política, las estructuras analógicas de la democracia liberal se desmoronan porque la capacidad humana para decidir libremente está colapsando[…] imponiéndose el poder desnudo de la tecnología como la única referencia posible del orden y la seguridad” (Lassalle, 2019, p. 22).

Medios de comunicación y periodismo en era de la segmentación

Actualmente el ejercicio periodístico está estigmatizado, se pone en duda la información entregada por los comunicadores y los nuevos usuarios prefieren buscar datos en las redes sociales: Facebook, Instagram, Twitter, Tik Tok donde proliferan cadenas de información y se les da mayor credibilidad a estas publicaciones que a las noticias entregadas por un medio formal. Las fake news que circulan en redes sociales son más rápidas en términos de inmediatez que el periodismo tradicional, captan la atención de los usuarios a través de un simulacro de veracidad y confianza.

La aparición de internet supone una de las revoluciones más importantes que hayan tenido lugar en la historia de la humanidad y podemos decir que se ha transformado en una fuente omnisciente y omnipotente en la que supuestamente se sostiene el avance y progreso de la sociedad; es decir, llegó para quedarse y es inevitable ignorar su poder. No obstante, al periodismo tradicional le ha costado adaptarse a las dinámicas digitales y tecnológicas. Como en algún momento mencionó Ignacio Ramonet (2011): internet se parece al meteorito que le cayó a los dinosaurios en relación con los medios de comunicación tradicional, casi al punto de llevarlos a desaparecer.

Resulta oportuno aclarar que una de las utopías o supuestos que se presentaron con mayor vehemencia en los inicios de la web fue la posibilidad de inaugurar nuevas formas de participación política y evitar la mediación siempre interesada de los medios de comunicación masivos; nuevas formas de adquirir y relacionarnos con la información y el conocimiento lejos de las influencias y manipulaciones de los grupos de poder. Avances y desarrollos tecnológicos que abrieron todo un mundo de posibilidades para el periodismo ciudadano, medios independientes, revoluciones en línea, democratización de la información, entre otras cosas, que hicieron creer a gran parte de la sociedad que todas aquellas esperanzas emancipadoras que sobre internet se depositaban eran del todo ciertas. Contexto que llevó a un declive notable de los medios de comunicación masivos y periodismo en general, en cuanto mediadores y curadores de la información; siempre bajo la sospecha de responder y dejarse influenciar por intereses políticos y económicos, a los cuales se enfrentaban precisamente esos luchadores por la libertad y revolucionario del click presentes en las redes.

Contexto que afectó y sigue afectando el nivel de audiencias de estos medios en un declive sostenido, pues han tenido que dejar paso al avasallador avance de las redes sociales y servicios de mensajería tales como WhatsApp, Telegram o Signal, como fuentes privilegiadas e incluso únicas vías de información, dando lugar a una transformación del concepto de audiencia a la de usuario. En efecto:

La capacidad de penetración de las redes sociales es de hecho incomparable con la de los medios de comunicación tradicionales. Por un lado, por una cuestión de números: según el Informe digital 2021 publicado por Hootsuite y We Are Social, en enero de 2021, 55,1% de la población mundial, es decir 4.300 millones de personas, emplea de forma habitual una red social. Por el otro, porque internet y su evolución hacia la web 2.0 han permitido superar la comunicación unidireccional de los medios tradicionales —prensa, radio y televisión— y llegar a una interacción con el público, facilitando su activación y participación. (Forti, 2022, p. 78)

Los medios de comunicación en los últimos años han centrado sus objetivos en ganar audiencia y seguidores, en muchos casos la información difundida o transmitida al público no presenta un contenido fundamentado, verídico e investigado, es solo una interpretación rápida de los sucesos para publicar contenido inmediato y sin profundidad; instantaneidad que muchas los induce a cometer errores en la verificación de las fuentes y terminan difundiendo fake news o noticias sin verificación.

Profundizando esta problemática Innerarity y Colomina señalan que:

Este proceso de desintermediación supuso el fin del monopolio de los intérpretes de la realidad; de aquellos que seleccionan los hechos, los combinan entre sí para crear un relato que interpreta la existencia para ser comprendida y compartida. Llevamos años de erosión del periodismo de referencia. La lógica del clic, de la información alternativa, de la opinión espontánea, de la movilización a través de la red y de la amplificación de las percepciones personales por encima del conocimiento razonado han mermado la relevancia de la prensa, de los partidos políticos, los sindicatos o incluso de los debates parlamentarios como mediadores necesarios para la conformación de una opinión y capacidad de decisión informada. (2020, p. 16)

Las noticias falsas afectan la democracia, desinforman y limitan los puntos de vista, toda vez que la sociedad necesita una visión plural y diversa para interpretar la realidad desde una perspectiva democrática que fomente la participación política responsable. Las personas deben tener datos precisos para tomar decisiones bien informadas para no hacerlo desde el flujo de mentiras construidas desde las llamadas bodegas (Abren investigación contra tres funcionarios del Gobierno Duque por “bodeguita” uribista, 2021; Cárdenas, 2022), que afectan el discurso político y debilitan el debate democrático. El papel de los medios es ser veedor, dado que es importante para la contención de la desinformación (Martínez-Martínez et al., 2021); en los mismos términos se expresa Posetti cuando afirma que es necesario: “incorporar y hacer cumplir estos valores fundamentales en un entorno mediático cambiante, las salas de redacción y las organizaciones de los medios” (2018, p. 22).

En este caso, el papel del periodismo frente a los nuevos ecosistemas comunicativos es fundamental, porque en este contexto, marcado por mercados nuevos y más competitivos, se debe demostrar que la información producida desde los medios de comunicación masivos cumple con ciertos protocolos que se traducen en el ejercicio de un periodismo de nivel profesional que puede aportar una pluralidad de elementos de análisis a la sociedad y ser consecuente con su responsabilidad social y el bien común. La tradición de los canales análogos hace parte de la solución y puede ser una alternativa a discursos, mentiras y falsedades que circulan en las redes sociales. En las redes sociales, los discursos e ideologías reproducidas desde los consumidores y prosumidores producen una empatía entre los usuarios apelando a un vínculo emocional aprovechando la segmentación, que motiva a los usuarios a reenviar y postear todo tipo de información sin una reflexión sobre lo que está compartiendo, ni menos verificando si dicha publicación es cierta o no. En este fenómeno pierde la historia, la objetividad, la política y la ciudadanía. En definitiva, no debemos perder de vista que las redes sociales también son una posibilidad de denuncia, de construcción de conocimiento y de afinidades, pero a su vez pueden potenciar y estimular la polarización.

Todo parece indicar que el pluralismo informativo, el acceso libre a la información se ve limitado y restringido por la segmentación de los contenidos, cuestión que influye en el ejercicio democrático y la participación política. La democracia, la capacidad de decisión como fundamento de la libertad se pierde “sin los impulsos procedentes de una prensa que tenga la capacidad de formar opiniones, de informar con fiabilidad y de comentar con escrupulosidad” (Habermas, 2009, p. 134).

Ciertamente, una de las preguntas principales es si el periodismo o los medios de comunicación deben seguir este modelo de la segmentación o personalización que utilizan las plataformas de redes sociales con fines netamente comerciales. Esto tiene importantes consecuencias para el ejercicio de la profesión, pues las plataformas de redes sociales son las que determinan cómo se debe ejercer el periodismo, sin tomar en consideración sus responsabilidades y funciones, solo tienen el objetivo de monetizar de acuerdo con su modelo de negocios. Las redes sociales al personalizar la información intentan agradar al usuario, sin embargo, el periodismo debe dar la información que deben conocer y que sea de interés social no siempre ajustada a los deseos de los usuarios (Bucher, 2018).

Este contexto problemático puede ser el punto de inflexión para recuperar las audiencias y espacios perdidos, tanto por la omnipresencia de las redes sociales como medio de información privilegiada como por los errores de gestión de los mismos medios y su descrédito. Si bien las tecnologías han venido a transformar el mundo contemporáneo, los principios del periodismo siguen siendo los mismos, dado que la defensa de estos valores y su materialización en el trabajo profesional son el enemigo principal de la desinformación, polarización y manipulación, así como el fundamento de una ciudadanía libre e informada para tomar las mejores decisiones en todos los ámbitos de la vida en sociedad.

Conclusiones

Ciertamente, los problemas de la polarización social, política, desinformación, posverdad, fake news y manipulación; e incluso las amenazas contra la capacidad de los ciudadanos de elegir libre y de manera informada son fenómenos que, con una denominación u otra, siempre han estado en el centro de la discusión en las democracias liberales, poniendo sobre la mesa el rango de influencia que tienen sobre estas cuestiones los medios de comunicación tradicionales y el periodismo. Sin embargo, en la era digital el proceso de segmentación y personalización que llevan a cabo las redes sociales ha sido el catalizador de varios de estos fenómenos, gracias al poder de influencia de estos algoritmos que según su diseño solo apuntan a mantener a los usuarios frente a las pantallas la mayor cantidad del tiempo posible.

Personalizando la información y los contenidos de acuerdo con las preferencias e ideologías de los usuarios, fomentando el compromiso con determinados grupos que refuerzan aquellas ideas e invisibilizan perspectivas distintas a través de los filtros de información o cámaras de resonancia; sin escatimar en recomendar teorías conspirativas, mensajes de odio, o contenido basura, pues lo importante es mantener al usuario mirando los contenidos recomendados. Como hemos visto, las principales afectaciones tienen que ver con la proliferación de fake news y posverdad, creando así espacios cada vez más polarizados y desinformados. Escenario que nos alejaría del diálogo democrático propio de la esfera pública, separándonos en universos personalizados según nuestras ideologías. Lo que supone riesgos importantes en la convivencia democrática como los que hemos visto en el último tiempo.

En definitiva, este poder e influencia que poseen las tecnologías sobre nuestras decisiones, a través de los sesgos de información y conocimiento que nos impone la segmentación, hacen más visibles todavía las implicancias y riesgos que suponen para la democracia este tipo de cuestiones. Situación que no podemos soslayar o minimizar con discursos simplistas y a conveniencia de los monopolios tecnológicos, pues la defensa de la libertad y la soberanía en este escenario aparece como una de las luchas políticas más importantes de nuestro tiempo. El problema, como sostiene McIntyre, es: “como respondemos a los desafíos que creamos con nuestras tecnologías marca la diferencia” (2018, pp. 134-135). Precisamente a esto nos referimos cuando planteamos estos problemas y queda abierta la pregunta de si estamos respondiendo a la altura de los desafíos que nos propone la segmentación algorítmica; o si, por el contrario, los estamos obviando como problemas de segundo orden sin asignarle la importancia que los últimos acontecimientos y la realidad nos exigen.

Agradecimientos

El artículo es resultado de una investigación del grupo de investigación CODICE de la Universidad Sergio Arboleda (Colombia), Escuela de Ciencias de la Comunicación, Fue financiado por la Universidad.

Referencias

Abren investigación contra tres funcionarios del Gobierno Duque por “bodeguita” uribista. (2021, 25 de enero). El Espectador. https://www.elespectador.com/politica/abren-investigacion-contra-tres-funcionarios-del-gobierno-duque-por-bodeguita-uribista-article/

Adamo-Idoeta, P. (2021, 12 de octubre). Por qué los algoritmos de las redes sociales son cada vez más peligrosos. BBC New. https://www.bbc.com/mundo/noticias-58874170

Ahmed, I. (2021, 9 de marzo). Reporte afirma que Instagram amenaza con desvirtuar la vacunación. DW. https://www.dw.com/es/reporte-afirma-que-instagram-amenaza-con-desvirtuar-la-vacunaci%C3%B3n/a-56819989

Amoros, M. (2018). Fake News. La verdad de la noticias falsas. Plataforma Editorial.

Baer, B. y Chin, C. (2021, 1º de junio). Addressing Big Tech’s Power over Speech. TechTank. www.brookings.edu/blog/techtank/2021/06/01/addressing-big-techs-power-over-speech/

Bauman, Z. y Lyon, D. (2013). Vigilancia liquida. Paidós.

Bilyk, P. y Ciappinac, C. (2022). La verosimilitud de lo inverosímil. Noticias falsas y peronismo. Universidad de La Plata.

Blanco-Prieto, A. (2021, 27 de diciembre). Cámaras de eco, los peligrosos atajos que los algoritmos provocan en nuestra mente. The Conversation. https://theconversation.com/camaras-de-eco-los-peligrosos-atajos-que-los-algoritmos-provocan-en-nuestra-mente-172118

Bucher, T. (2018). If... Then: Algorithmic Power and Politics. Oxford University Press. https://doi.org/10.1093/oso/9780190493028.001.0001[CrossRef]

Buen-Abad, F. (2017, 7 de julio). Semiótica de las falacias. Oap72. https://omarpereyra72.blogspot.com/2017/07/semiotica-de-las-falacias-fernando-buen.html

Calvo, E. y Aruguete, N. (2020). Fake News, trolls y otros encantos. Siglo XXI.

Cárdenas, A. (2022, 18 de abril). A un mes del Gobierno, Fundación Interpreta revela campaña de “copamiento” en Twitter contra Presidente Boric. Elmostrador. https://www.elmostrador.cl/destacado/2022/04/18/a-un-mes-del-gobierno-fundacion-interpreta-revela-campana-de-copamiento-en-twitter-contra-presidente-boric/

Colomina, C. (2021). Los límites de las redes sociales: del monopolio a la censura. Revista CIDOB d’Afers Internacionals, Opinión, 1-3. https://www.cidob.org/es/publicaciones/serie_de_publicacion/opinion_cidob/2020/los_limites_de_la_redes_sociales_del_monopolio_a_la_censura

D’Ancona, M. (2017). Post-Truth. The New War on Truth and How to Fight Back. Ebury Press.

“El mundo está a un error de cálculo de la aniquilación nuclear”, advierte el secretario general de la ONU. (2022, 1º de agosto). BBC News Mundo. https://www.bbc.com/mundo/noticias-internacional-62387299

Forti, S. (2022). Posverdad, fake news y extrema derecha contra la democracia. Nueva Sociedad, 298, 75-91. https://nuso.org/articulo/posverdad-fake-news-extrema-derecha-contra-la-democracia/

Foucault, M. (2003). Vigilar y castigar. Siglo XXI.

García-Canclini, N. (2019). Ciudadanos reemplazados por algoritmos. Bielefeld University Press.

García-Ramírez, D. y Valle-Jiménez, D. (2020). Los impactos de la ideología técnica y la cultura algorítmica en la sociedad: una aproximación crítica. Revista de Estudios Sociales, 71, 15-27. https://doi.org/10.7440/res71.2020.02[CrossRef]

Galdon-Clavell, G. (2019, 24 de marzo). Los partidos quieren tus datos. El País. https://elpais.com/elpais/2019/03/22/ideas/1553277431_155614.html

Habermas, J. (2009). ¡Ay, Europa!: Pequeños escritos políticos XI. Trotta.

Habermas, J. y Rawls, J. (2015). Debate sobre liberalismo político. Paidós.

Han, B. C. (2022). Infocracia. Taurus.

Heidegger, M. (2002). Serenidad. Ediciones del Serbal.

Hilbert, M. (2021, 27 de junio). Los algoritmos lo conocen mejor que su mamá y que usted mismo. El Tiempo. https://www.eltiempo.com/tecnosfera/novedades-tecnologia/los-algoritmos-lo-conocen-mejor-que-su-mama-y-que-usted-mismo-599041#Echobox=1624796840

Horkheimer, M. (1973). Crítica de la razón instrumental. Editorial del Sur.

Humby, C. (2017, 6 de mayo). The World’s Most Valuable Resource is no Longer Oil, but Data. The Economist. https://www.economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data

Innerarity, D. (2018). Política para perplejos. Galaxia Gutenberg.

Innerarity, D. (2020). Una teoría de la democracia compleja. Gobernar en el siglo XXI. Galaxia Gutenberg.

Innerarity, D y Colomina, C. (2020). La verdad en las democracias algorítmicas. Revista CIDOB d’Afers Internacionals, 124, 11-23. https://doi.org/10.24241/rcai.2020.124.1.11[CrossRef]

Jandrić, P. (2018). Post-truth and the Journalist’s Ethos. En M. A. Peters, S. Rider, M. Hyvönen y T. Besley (eds.), Post-Truth, Fake News. Viral Modernity & Higher Education (pp. 113-120). Springer. https://link.springer.com/book/10.1007/978-981-10-8013-5

Kuisz, K. y Wigura, K. (2021, 25 de mayo). El negocio de las teorías de conspiración: cómo ganar dinero con las noticias falsas. DW https://www.dw.com/es/el-negocio-de-las-teor%C3%ADas-de-conspiraci%C3%B3n-c%C3%B3mo-ganar-dinero-con-las-noticias-falsas/a-56707400

Lassalle, J. M. (2019). Ciberleviatán. El colapso de la democracia liberal frente a la revolución digital. Arpa & Alfil.

Marcuse, H. (1970). Ética de la revolución. Taurus.

Marcuse, H. (2009). El hombre unidimensional. Ariel.

Mayer-Schönberger, V. y Cukier, K. (2013). Big data. La revolución de los datos masivos. Turner.

Martínez-Martínez, R. R., Morales-Romero, F. B., Mendoza-Castro, M. L. y Ortega-Fernández, R. J. (2021). Filosofía contemporánea. Sujeto, ciudadanía y posverdad. Fundación Universitaria del Área Andina.

McIntyre, L. (2018). Posverdad. Cátedra.

O´Neil, C. (2018). Armas de destrucción matemática. Cómo el big data aumenta la desigualdad y amenaza la democracia. Capitan Swing.

Pariser, E. (2017). El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos. Taurus.

Pariser, E. (2021, 23 de enero). Las redes sociales nos han defraudado a nosotros y a la democracia. La Tercera. https://www.latercera.com/que-pasa/noticia/eli-pariser-las-redes-sociales-nos-han-defraudado-a-nosotros-y-a-la-democracia/O727XZHUXJEMBCPHNV7EN6ZXKA/

Posetti, J. (2018). Journalism, “Fake news” & Disinformation. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO).

Ramonet, I. (2011). La explosión del periodismo. De los medios de masas a la masa de medios. Le Monde Diplomatique, Edición del Cono Sur.

Ramonet, I. (2021, 24 de marzo). Las redes sociales, nuevo medio dominante. Semanario Universidad. https://semanariouniversidad.com/suplementos/las-redes-sociales-nuevo-medio-dominante/

Sadin, E. (2021). La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical. Caja Negra.

Sadin, E (2022). La era del individuo tirano. El fin de un mundo común. Caja Negra.

Saran, S. y Mattoo, S. (2022, 21 de febrero). Big Tech vs. Red Tech: The Diminishing of Democracy in the Digital Age. Centre for International Governance Innovation. https://www.cigionline.org/articles/big-tech-vs-red-tech-the-diminishing-of-democracy-in-the-digital-age/

Schenker, J. (2023). Interview Of The Week: Stuart Russell. Published in The Innovator news. https://innovator.news/interview-of-the-week-stuart-russell-282bd57fdd57

Srnicek, N. (2018). Capitalismo de plataformas. Caja Negra.

Tsalikis, C. (2019, 18 de septiembre). Maria Ressa: “Facebook Broke Democracy in Many Countries around the World, Including in Mine”. Centre for International Governance Innovation. https://www.cigionline.org/articles/maria-ressa-facebook-broke-democracy-many-countries-around-world-including-mine/

Thompson, M. (2017). Sin palabras. ¿Qué ha pasado con el lenguaje en la política? Debate.

Vattimo, G. (2020). Alrededores del ser. Galaxía Gutenberg.

Zafra, R. (2017). Redes y posverdad. En J. Ibáñez-Fanés y M. Arias-Maldonado (eds.), En la era de la posverdad (pp. 181-192). Calambur.

Zuboff, S. (2020). La era del capitalismo de la vigilancia. La lucha por un futuro humano frente a las nuevas fronteras del poder. Paidós.

Notas

Artículo recibido: 22 de agosto de 2022 / Aceptado: 18 de noviembre de 2022 / Modificado: 22 de enero de 2023. El artículo es resultado de una investigación del grupo de investigación CODICE de la Universidad Sergio Arboleda (Colombia), Escuela de Ciencias de la Comunicación, Fue financiado por la Universidad.
Doctor en Filosofía por la Universidad de Salamanca, España. Profesor de la Universidad Sergio Arboleda, Colombia. El autor participo en todos los procesos de construcción y elaboración del artículo. Correo electrónico: dune.valle@usa.edu.co https://orcid.org/0000-0001-7653-9182
Doctor en Comunicación por la Universidad Nacional de La Plata, Argentina. Profesor de la Universidad Sergio Arboleda, Colombia. El autor participó en la recolección de información y análisis. Correo electrónico: fredy.pinilla@usa.edu.co https://orcid.org/0000-0001-6998-680
En 2016 el responsable de la empresa explicaba cómo la campaña para defender el derecho a llevar armas en Estados Unidos diseñó diferentes mensajes para diferentes públicos: apelando al miedo a que te roben si la persona era mujer con personalidad “perfeccionista y neurótica”, o apelando al papel de las armas en la construcción de relaciones padre/hijo en el caso de hombres con personalidades partidarias del orden (Galdon-Clavell, 2019).
Precisamente estas preocupaciones son las que se han manifestado con mayor fuerza en los últimos meses en relación con los desarrollos de Inteligencia Artificial Generativa a disposición libre de los usuarios. Pues, según Stuart Russell, más allá de visiones apocalípticas o utópicas respecto a sus consecuencias, existe cierto consenso respecto al verdadero peligro al que queda expuesta la sociedad y la democracia por el potencial que tienen estas tecnologías para desinformar, generar fake news y manipular a los usuarios para que se conviertan en visiones más extremistas de sí mismos (Schenker, 2023).

Referencias

Abren investigación contra tres funcionarios del Gobierno Duque por “bodeguita” uribista. (2021, 25 de enero). El Espectador. https://www.elespectador.com/politica/abren-investigacion-contra-tres-funcionarios-del-gobierno-duque-por-bodeguita-uribista-article/

Adamo-Idoeta, P. (2021, 12 de octubre). Por qué los algoritmos de las redes sociales son cada vez más peligrosos. BBC New. https://www.bbc.com/mundo/noticias-58874170

Ahmed, I. (2021, 9 de marzo). Reporte afirma que Instagram amenaza con desvirtuar la vacunación. DW. https://www.dw.com/es/reporte-afirma-que-instagram-amenaza-con-desvirtuar-la-vacunaci%C3%B3n/a-56819989

Amoros, M. (2018). Fake News. La verdad de la noticias falsas. Plataforma Editorial.

Baer, B. y Chin, C. (2021, 1º de junio). Addressing Big Tech’s Power over Speech. TechTank. www.brookings.edu/blog/techtank/2021/06/01/addressing-big-techs-power-over-speech/

Bauman, Z. y Lyon, D. (2013). Vigilancia liquida. Paidós.

Bilyk, P. y Ciappinac, C. (2022). La verosimilitud de lo inverosímil. Noticias falsas y peronismo. Universidad de La Plata.

Blanco-Prieto, A. (2021, 27 de diciembre). Cámaras de eco, los peligrosos atajos que los algoritmos provocan en nuestra mente. The Conversation. https://theconversation.com/camaras-de-eco-los-peligrosos-atajos-que-los-algoritmos-provocan-en-nuestra-mente-172118

Bucher, T. (2018). If... Then: Algorithmic Power and Politics. Oxford University Press. https://doi.org/10.1093/oso/9780190493028.001.0001 DOI: https://doi.org/10.1093/oso/9780190493028.001.0001

Buen-Abad, F. (2017, 7 de julio). Semiótica de las falacias. Oap72. https://omarpereyra72.blogspot.com/2017/07/semiotica-de-las-falacias-fernando-buen.html

Calvo, E. y Aruguete, N. (2020). Fake News, trolls y otros encantos. Siglo XXI.

Cárdenas, A. (2022, 18 de abril). A un mes del Gobierno, Fundación Interpreta revela campaña de “copamiento” en Twitter contra Presidente Boric. Elmostrador. https://www.elmostrador.cl/destacado/2022/04/18/a-un-mes-del-gobierno-fundacion-interpreta-revela-campana-de-copamiento-en-twitter-contra-presidente-boric/

Colomina, C. (2021). Los límites de las redes sociales: del monopolio a la censura. Revista CIDOB d’Afers Internacionals, Opinión, 1-3. https://www.cidob.org/es/publicaciones/serie_de_publicacion/opinion_cidob/2020/los_limites_de_la_redes_sociales_del_monopolio_a_la_censura

D’Ancona, M. (2017). Post-Truth. The New War on Truth and How to Fight Back. Ebury Press.

“El mundo está a un error de cálculo de la aniquilación nuclear”, advierte el secretario general de la ONU. (2022, 1º de agosto). BBC News Mundo. https://www.bbc.com/mundo/noticias-internacional-62387299

Forti, S. (2022). Posverdad, fake news y extrema derecha contra la democracia. Nueva Sociedad, 298, 75-91. https://nuso.org/articulo/posverdad-fake-news-extrema-derecha-contra-la-democracia/

Foucault, M. (2003). Vigilar y castigar. Siglo XXI.

García-Canclini, N. (2019). Ciudadanos reemplazados por algoritmos. Bielefeld University Press. DOI: https://doi.org/10.1515/9783839448915

García-Ramírez, D. y Valle-Jiménez, D. (2020). Los impactos de la ideología técnica y la cultura algorítmica en la sociedad: una aproximación crítica. Revista de Estudios Sociales, 71, 15-27. https://doi.org/10.7440/res71.2020.02 DOI: https://doi.org/10.7440/res71.2020.02

Galdon-Clavell, G. (2019, 24 de marzo). Los partidos quieren tus datos. El País. https://elpais.com/elpais/2019/03/22/ideas/1553277431_155614.html

Habermas, J. (2009). ¡Ay, Europa!: Pequeños escritos políticos XI. Trotta.

Habermas, J. y Rawls, J. (2015). Debate sobre liberalismo político. Paidós.

Han, B. C. (2022). Infocracia. Taurus.

Heidegger, M. (2002). Serenidad. Ediciones del Serbal.

Hilbert, M. (2021, 27 de junio). Los algoritmos lo conocen mejor que su mamá y que usted mismo. El Tiempo. https://www.eltiempo.com/tecnosfera/novedades-tecnologia/los-algoritmos-lo-conocen-mejor-que-su-mama-y-que-usted-mismo-599041#Echobox=1624796840

Horkheimer, M. (1973). Crítica de la razón instrumental. Editorial del Sur.

Humby, C. (2017, 6 de mayo). The World’s Most Valuable Resource is no Longer Oil, but Data. The Economist. https://www.economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data

Innerarity, D. (2018). Política para perplejos. Galaxia Gutenberg.

Innerarity, D. (2020). Una teoría de la democracia compleja. Gobernar en el siglo XXI. Galaxia Gutenberg.

Innerarity, D y Colomina, C. (2020). La verdad en las democracias algorítmicas. Revista CIDOB d’Afers Internacionals, 124, 11-23. https://doi.org/10.24241/rcai.2020.124.1.11 DOI: https://doi.org/10.24241/rcai.2020.124.1.11

Jandrić, P. (2018). Post-truth and the Journalist’s Ethos. En M. A. Peters, S. Rider, M. Hyvönen y T. Besley (eds.), Post-Truth, Fake News. Viral Modernity & Higher Education (pp. 113-120). Springer. https://link.springer.com/book/10.1007/978-981-10-8013-5 DOI: https://doi.org/10.1007/978-981-10-8013-5_9

Kuisz, K. y Wigura, K. (2021, 25 de mayo). El negocio de las teorías de conspiración: cómo ganar dinero con las noticias falsas. DW https://www.dw.com/es/el-negocio-de-las-teor%C3%ADas-de-conspiraci%C3%B3n-c%C3%B3mo-ganar-dinero-con-las-noticias-falsas/a-56707400

Lassalle, J. M. (2019). Ciberleviatán. El colapso de la democracia liberal frente a la revolución digital. Arpa & Alfil.

Marcuse, H. (1970). Ética de la revolución. Taurus.

Marcuse, H. (2009). El hombre unidimensional. Ariel.

Mayer-Schönberger, V. y Cukier, K. (2013). Big data. La revolución de los datos masivos. Turner.

Martínez-Martínez, R. R., Morales-Romero, F. B., Mendoza-Castro, M. L. y Ortega-Fernández, R. J. (2021). Filosofía contemporánea. Sujeto, ciudadanía y posverdad. Fundación Universitaria del Área Andina.

McIntyre, L. (2018). Posverdad. Cátedra.

O´Neil, C. (2018). Armas de destrucción matemática. Cómo el big data aumenta la desigualdad y amenaza la democracia. Capitan Swing.

Pariser, E. (2017). El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos. Taurus.

Pariser, E. (2021, 23 de enero). Las redes sociales nos han defraudado a nosotros y a la democracia. La Tercera. https://www.latercera.com/que-pasa/noticia/eli-pariser-las-redes-sociales-nos-han-defraudado-a-nosotros-y-a-la-democracia/O727XZHUXJEMBCPHNV7EN6ZXKA/

Posetti, J. (2018). Journalism, “Fake news” & Disinformation. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO).

Ramonet, I. (2011). La explosión del periodismo. De los medios de masas a la masa de medios. Le Monde Diplomatique, Edición del Cono Sur.

Ramonet, I. (2021, 24 de marzo). Las redes sociales, nuevo medio dominante. Semanario Universidad. https://semanariouniversidad.com/suplementos/las-redes-sociales-nuevo-medio-dominante/

Sadin, E. (2021). La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical. Caja Negra.

Sadin, E (2022). La era del individuo tirano. El fin de un mundo común. Caja Negra.

Saran, S. y Mattoo, S. (2022, 21 de febrero). Big Tech vs. Red Tech: The Diminishing of Democracy in the Digital Age. Centre for International Governance Innovation. https://www.cigionline.org/articles/big-tech-vs-red-tech-the-diminishing-of-democracy-in-the-digital-age/

Schenker, J. (2023). Interview Of The Week: Stuart Russell. Published in The Innovator news. https://innovator.news/interview-of-the-week-stuart-russell-282bd57fdd57

Srnicek, N. (2018). Capitalismo de plataformas. Caja Negra.

Tsalikis, C. (2019, 18 de septiembre). Maria Ressa: “Facebook Broke Democracy in Many Countries around the World, Including in Mine”. Centre for International Governance Innovation. https://www.cigionline.org/articles/maria-ressa-facebook-broke-democracy-many-countries-around-world-including-mine/

Thompson, M. (2017). Sin palabras. ¿Qué ha pasado con el lenguaje en la política? Debate.

Vattimo, G. (2020). Alrededores del ser. Galaxía Gutenberg.

Zafra, R. (2017). Redes y posverdad. En J. Ibáñez-Fanés y M. Arias-Maldonado (eds.), En la era de la posverdad (pp. 181-192). Calambur.

Zuboff, S. (2020). La era del capitalismo de la vigilancia. La lucha por un futuro humano frente a las nuevas fronteras del poder. Paidós.

Cómo citar

APA

Valle-Jiménez, D. y Pinilla-Escobar, F.-A. (2023). Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja. Forum. Revista Departamento de Ciencia Política, (24), 53–79. https://doi.org/10.15446/frdcp.n24.104385

ACM

[1]
Valle-Jiménez, D. y Pinilla-Escobar, F.-A. 2023. Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja. Forum. Revista Departamento de Ciencia Política. 24 (jul. 2023), 53–79. DOI:https://doi.org/10.15446/frdcp.n24.104385.

ACS

(1)
Valle-Jiménez, D.; Pinilla-Escobar, F.-A. Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja. forum. rev. dep. cienc. politica 2023, 53-79.

ABNT

VALLE-JIMÉNEZ, D.; PINILLA-ESCOBAR, F.-A. Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja. Forum. Revista Departamento de Ciencia Política, [S. l.], n. 24, p. 53–79, 2023. DOI: 10.15446/frdcp.n24.104385. Disponível em: https://revistas.unal.edu.co/index.php/forum/article/view/104385. Acesso em: 15 ago. 2024.

Chicago

Valle-Jiménez, Dune, y Fredy-Alexander Pinilla-Escobar. 2023. «Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja». Forum. Revista Departamento De Ciencia Política, n.º 24 (julio):53-79. https://doi.org/10.15446/frdcp.n24.104385.

Harvard

Valle-Jiménez, D. y Pinilla-Escobar, F.-A. (2023) «Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja», Forum. Revista Departamento de Ciencia Política, (24), pp. 53–79. doi: 10.15446/frdcp.n24.104385.

IEEE

[1]
D. Valle-Jiménez y F.-A. Pinilla-Escobar, «Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja», forum. rev. dep. cienc. politica, n.º 24, pp. 53–79, jul. 2023.

MLA

Valle-Jiménez, D., y F.-A. Pinilla-Escobar. «Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja». Forum. Revista Departamento de Ciencia Política, n.º 24, julio de 2023, pp. 53-79, doi:10.15446/frdcp.n24.104385.

Turabian

Valle-Jiménez, Dune, y Fredy-Alexander Pinilla-Escobar. «Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja». Forum. Revista Departamento de Ciencia Política, no. 24 (julio 1, 2023): 53–79. Accedido agosto 15, 2024. https://revistas.unal.edu.co/index.php/forum/article/view/104385.

Vancouver

1.
Valle-Jiménez D, Pinilla-Escobar F-A. Información, democracia y libertad en la era de la segmentación: apuntes sobre una relación compleja. forum. rev. dep. cienc. politica [Internet]. 1 de julio de 2023 [citado 15 de agosto de 2024];(24):53-79. Disponible en: https://revistas.unal.edu.co/index.php/forum/article/view/104385

Descargar cita

CrossRef Cited-by

CrossRef citations0

Dimensions

PlumX

Visitas a la página del resumen del artículo

528

Descargas

Los datos de descargas todavía no están disponibles.