Cuando Google no es suficiente: el filtro se convierte en la agenda

Muchos de nosotros buscamos en Google. Nos relacionamos en Facebook. Vivimos en entornos digitales rebosantes de contenidos e interacciones. Esta efervescencia genera una economía de la atención en la que el recurso más escaso es el tiempo. Hace unos pocos años David Weinberger, que tiene una certera vocación de filósofo del mundo digital, publicaba el libro Everything Is Miscellaneous para analizar cómo nos relacionamos y consumimos una ingente cantidad de datos (por ejemplo: 350.000 vídeos visualizados en Youtube cada 10 segundos).

¿Cómo digerir tanta información en Internet y que sea útil? Lo hacemos con más información: cada usuario codifica y clasifica a través de modelos mentales propios. Así, los datos se entienden por más datos inconexos mezclados o unidos entre sí para cada persona. Una fotografía es una imagen, pero también es un retrato, una persona famosa, publicada en una revista, compartida en las redes sociales, en infinitos contextos digitales diferentes… Existen millones de ‘únicas visiones’ sobre un mismo objeto, y el orden se genera para cada usuario al buscar en Google o al relacionar en Facebook ese contenido.

Académicos como Manuel Castells describen nuestro mundo como la sociedad del conocimiento (que otros denominan sociedad de la información o sociedad-red), por la relevancia crucial de los contenidos en casi todos los órdenes de la vida. El proceso no es sencillo, pero según el teórico de sistemas y transformaciones organizativas Rusell Ackoff, se pueden establecer cinco fases. Cuando organizamos los datos pueden convertirse en información, que cuando es comprendida y aplicada puede convertirse en conocimiento. Aplicados en un campo pueden convertirse en sabiduría, que es el fundamento para la acción.

El riesgo de exclusión social es frecuentemente uno de los retos más acuciantes, debido a la importancia del acceso a la información y al conocimiento. Se describe especialmente en forma de brecha digital. Indudablemente es uno de los desafíos más relevantes en este terreno, pero el reciente libro del activista Eli Pariser ahonda desde otra perspectiva. Pariser está muy vinculado con movimientos que tratan de asegurar la libertad en la red como MoveOn.org.

El exceso de información exige de más intermediaciones. Por más que se asegure que Internet desintermedia, el proceso no es exactamente así: aparecen nuevos intermediarios en determinadas situaciones, y perduran mientras que aporten valor. Así, a las tradicionales agencias de viaje en declive se suman nuevos filtros como Tripadvisor. Los medios de comunicación, editores de noticias, compiten hoy con agregadores de contenidos como Google Reader, Netvibes o Yahoo News. Basta un dato: cuando la granja de contenidos Demand Media empezó a cotizar en Bolsa en enero de 2011 alcanzó una capitalización superior a los 1.500 millones de dólares, más de lo que vale la editoria The New York Times Company. Por esas mismas fechas el propio New York Times lanzaba su propia plataforma de recomendaciones, basada, también, en un algoritmo para ayudar a los lectores a encontrar noticias a partir del tipo de artículos que los visitantes ya han leído. Marc Frons, director de tecnología de The New York Times, explicó que se trata de una personalización pasiva: “hemos creado un algoritmo que expone a los usuarios a contenidos que quizá no habrían visto de otra manera”.

En todo caso, los filtros son un elemento crítico para transformar los datos (una masa de cifras en bruto) en información, que se procesa para satisfacer un requerimiento específico, o en conocimiento, donde ya podemos tomar decisiones de forma aplicada. Eli Pariser dibuja en The Filter Bubble: What the Internet Is Hiding from You un ecosistema con tal inmensidad de datos que su procesamiento exige nuevos filtros en forma de algoritmos. Y aquí está el tema de fondo de su análisis: cada vez más, Internet nos muestra lo que considera que queremos ver, pero no necesariamente lo que necesitamos ver o lo que queremos ver realmente.

Pariser destaca que la combinación omnipresente de algoritmos y filtros genera una especie de “filter bubble”. Esta burbuja crea un universo personal de información digital cada vez más inteligente y sobre el que apenas tenemos capacidad de decisión. Desconocemos qué está incluido y qué queda al margen, pero hemos sustituido a los editores por los algoritmos. El algoritmo de Google detecta, por ejemplo, si el usuario busca sobre un acontecimiento reciente (un tema con noticias de última hora) o sobre uno permanente (un manual sobre una cuestión). En el primer caso ofrecerá contenidos en tiempo real, en el segundo caso no aplicará esta variable del algoritmo. La propia compañía lo describía de este modo: “dado el ritmo increíblemente rápido al que se mueve la información hoy en día (…), el algoritmo necesita ser capaz de entender si el resultado de búsqueda sobre un programa de televisión de hace una semana es reciente o si el resultado acerca de una noticia de actualidad de hace una semana es demasiado viejo”.

Este proceso se reproduce, por ejemplo, en Yahoo News, por la que personas diferentes visualizan distintas noticias (y, además, se integra totalmente en la experiencia de usuario en Facebook).

La personalización siempre ha sido una quimera de muchas empresas y consumidores. Es uno de los corazones del marketing. Se trata de un enfoque de gran valor, pues adecua la oferta a los gustos y preferencias que manifestamos tener (y pocos sistemas hay mejores para saber qué nos interesa que conocer nuestras búsquedas en Google). El riesgo es circunscribir nuestra experiencia en Internet a una burbuja personalizada que filtre el acceso a otro tipo de contenidos también relevantes.

 

Para activistas como Pariser, este filtro provoca que ni Google ni Facebook ni Amazon sean neutrales con cada uno de nosotros, pues los resultados son diferentes para cada uno de nosotros en función de nuestras conexiones y pasado cuando navegamos en Facebook o buscamos información en Google. Hoy los algoritmos están tejiendo un “ecosistema personal de información” que, progresivamente, estructura un verdadero frame ideológico. Sobre estos temas conversó con el suplemento tecnológico de Time en una interesante entrevista.

Uno de los resultados más evidentes es la teoría del refuerzo. Según este mecanismo, consumimos preferentemente contenidos que refuerzan nuestros puntos de vista, más para auto-afirmarnos que para adquirir nuevos contenidos. Es un proceso de retroalimentación muy estudiado en el caso de la prensa escrita: en muchas ocasiones elegimos una cabecera sobre otra por su capacidad de afirmar nuestros puntos de vista. En el esquema que dibuja Pariser, este proceso es todavía más potente: el filtro digital no es humano, es invisible y adopta reglas que difícilmente podemos modificar o, incluso, desentrañar.

Los filtros generan, en definitiva, una nueva agenda sobre lo que es relevante que vive de cuántas personas también lo consideran relevante y del comportamiento pasado del usuario. El cambio, en este modelo el debate, el contraste, la duda o la confrontación de ideas serán, quizá, elementos a la baja. Como recuerda Toni Piqué, algoritmo no es sinónimo de periodismo. Ni mucho menos, por más que algunos lo intenten:

“Publicar no es periodismo. Los datos no son periodismo. El algoritmo no es periodismo. La participación no es periodismo. Un hashtag con millones de entradas no es periodismo. Las preguntas sin resolver –con ninguna respuesta o con mil respuestas–, tampoco. Ni siquiera clasificar hechos, opiniones, datos. Periodismo es, sobre todo, edición. Mucha edición. Los medios son, sobre todas las cosas, máquinas de editar”.

Artículo publicado originalmente en catalán en el blog del Escacc. Y, sí, espero que sea el inicio de algo más de continuidad en este blog. Confieso que lo echaba de menos.

10 thoughts on “Cuando Google no es suficiente: el filtro se convierte en la agenda




  1. Anónimo

    Cuando Google no es suficiente: el filtro se convierte en la agenda | Impresiones, el Blog de Javier Velilla | http://t.co/Dt97Xqyd


  2. Realmente es muy complejo el tema que planteas. Es obvio que hay una sobreinformacion que puede ser abrumadora y que de algún modo tenemos que establecer filtros. Lo malo es que cuando esos filtros nos los ponen otros en función de nuestro pasado corremos el riesgo a como bien dices nos envíen mucha info que nos interesa pero también que nos «encasillen». Encontrar un punto intermedio entre «infoxicarnos» y «encasillarnos» no va a ser tarea fácil.



  3. Brillante Javier. Entre la endogamia que produce el pensamiento de tribu (al que alude Pariser) y la desolación de la exploración continua, sí, queda madurar digitalmente a golpe de equivocarnos poniendo ora filtros muy porosos ora muy sellados.

    Lo has bordado, excelente post, enhorabuena

    ¡Buen augurio de continuidad para los que disfrutamos con tus letras!



  4. Javier Velilla

    @mertxe muchas gracias. El término medio siempre es complicado, pero en eso estamos. Creo que la reflexión de Pariser es todavía minoritaria, aunque los efectos que describe son casi tan potentes como la infoxicación. Nos vemos 😉

    @mando muchas gracias. También espero algo más de continuidad. Añoraba escribir y espero sacar tiempo para hacerlo. Sobre lo que comentas: exacto, combinar abierto y cerrado puede ser un tema. Personalmente combino Netvibes (donde el filtro lo pongo yo) con Googe (donde el filtro es un algoritmo). Esta dieta informativa no es perfecta, pero seguimos aprendiendo. Nos vemos 😉


  5. Artículo muy interesante. Google es la página de inicio de todas las empresas y medios de comunicación del mundo. Tan fácil y a la vez complejo como eso. Siempre me ha extrañado que un tema como «Opinión Pública» no se haya redefinido con Internet. Hace 20 años el objetivo de cualquier gabinete de comunicación política era definir la agenda setting para un periodo de tiempo dado, ahora eso, a pesar de las redes sociales, está muy influenciado por Google, especialmente en países como España en donde tiene cuota de mercado de casi el 95%.

    Mando un artículo que leí hace poco sobre el tema, aunque más orientado a los sistemas de recomendación: http://www.wharton.universia.net/index.cfm?fa=viewArticle&id=2121&language=spanish

    Gracias por el artículo

    @eladioportela


Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *