Hace un par de días, la página Menéame, publicó una traducción de la conferencia de TED de Eli Pariser sobre “online filter bubbles” que tuvo lugar en mayo de este año. La traducción de Menéame ha levantado bastantes comentarios, por lo que os recomiendo ver el original, aunque sea con subtítulos.
http://www.ted.com/talks/lang/eng/eli_pariser_beware_online_filter_bubbles.html
Yo la había visto en su momento, pero no le di excesiva importancia. Pero ayer, tuve una revelación cuando estaba mirando una búsqueda en Google al mismo tiempo que otra persona y los resultados eran diferentes. Justo, la misma experiencia que nos contaba Eli, y es cuando volvía a repasar la charla.
Y hay aquí unos “bits and pieces”, muy interesantes:
– Facebook mira a los links que clickas y da preferencia a un tipo determinado de personas; es un algoritmo de edición invisible
– Google también usa un algoritmo de edición, que tiene 57 señales, que van desde el tipo de ordenador, al tipo de browser, o dónde estás situado… Por lo que ya no hay un standard Google. Y lo peor de todo, la dificultar de detección.
– Pero no solo se trata de Google y Facebook. También Yahoo News, la más grande página de noticias en la web, está personalizada; diferentes personas, ven distintas noticias. Huffington Post, Washington Post, New York Times están flirteando también con la personalización.
La conclusión es que internet nos enseña lo qu
e piensa que queremos ver, pero no necesariamente lo que necesitamos ver. Si colocamos todos estos algoritmos y filtros juntos, llegamos a lo que Eli llama una “filter bubble” o burbuja filtrada o aislada. Un universo personal de información on-line en el que no tenemos capacidad de decisión qué está incluido y qué se queda fuera. Hemos cambiado los editores por los algoritmos y hemos perdido la ética de la información.
Archivado bajo social media
Etiquetado con facebook, google, ted