Archivo de la etiqueta: big data

Achís, Sr. Google ya no hace falta que vaya al médico?

Últimamente big data es una de esas buzzwords que cuando la gente la nombra, se les llena la boca; y hablan de la revolución del modo de ver y analizar los negocios, y también de la transformación de nuestras vidas cotidianas, por ejemplo la forma en que cocinamos o cómo nos resfriamos.

Google Flu Trends (GFT) está diseñado para monitorizar en tiempo real los casos de gripe en el mundo basándose en las búsquedas en Google de términos relacionados con la gripe. Los ingenieros de Google dijeron que analizando los 500 millones de búsquedas diarias podían predecir las tendencias mejor que los métodos tradicionales, pero la realidad parece que difiere, que el big data está dando más del doble de casos de gripe que los existentes, y que esto parece que es debido a la influencia de la media (TV, periódicos…) en las búsquedas y al propio algoritmo de Google y la predicción en los términos de búsqueda.  Lo cual es un total catch-22!

Quizás el big data no es la solución a todos nuestros problemas, sino que hay que seguir combinándolos con métodos tradicionales, como modelos auto-regresivos e información de la competencia como Facebook, Twitter…

Gracias a Gábor Lugosi por sus siempre valiosas aportaciones.

FluTrendhttp://searchenginewatch.com/article/2335251/New-Study-Diagnoses-Why-Googles-Flu-Trends-Are-Always-Wrong

Deja un comentario

04/04/2014 · 10:18 AM

Big Data análisis de las noticias y los contenidos de los social media. Patrones de contenido en la media

Muy interesante artículo científico de Ilias Flaounas, Saatviga Sudhahar, Thomas Lansdall-Welfare, Elena Hensiger y Nello Cristianini (incluyo aquí la versión video de este último).

El análisis de contenido de los medios ha sido central en las ciencias sociales, debido al papel fundamental que desempeñan los medios de comunicación en la formación de la opinión pública. Este tipo de análisis normalmente se basa la codificación de los textos. Pero la magnitud que han alcanzado los medios tradicionales y sobre todo los social media, ha hecho necesario el uso de modernas tecnologías de inteligencia artificial que permiten a los investigadores automatizar el proceso de aplicación de códigos diferentes a un mismo texto. Las tecnologías computacionales también permiten la automatización de la recopilación de datos, preparación, gestión y visualización. Esto ofrece la oportunidad de realizar investigaciones a escala masiva, monitorización en tiempo real y de nivelación del sistema de los medios de comunicación.
El presente artículo examina la labor realizada por el Laboratorio de Sistemas Inteligentes de la Universidad de Bristol en esta dirección. Se describe cómo el análisis de contenido de Twitter puede revelar cambios del estado anímico de poblaciones enteras, cómo las relaciones políticas entre los líderes de Estados Unidos se pueden extraer a partir de grandes cantidades de textos, cómo podemos determinar las noticias que la gente quiere leer realmente, cómo el género del escritor y estilo de escritura cambia en diferentes medios y puede parcializar la noticia, y qué nos puede decir los medios de comunicación de la UE acerca de las similitudes culturales en Europa. Más importante aún, este estudio tiene como objetivo demostrar algunos de los pasos que se pueden automatizar, lo que permite a los investigadores acceder a los patrones macroscópicos que de otro modo serían inalcanzables.

Gracias a Gábor Lugosi por su aportación

Deja un comentario

Archivado bajo social media