Reflexiones sobre ecologías y espacios del aprendizaje, análisis del aprendizaje y análisis de redes sociales, visualización de datos, Big Data y otros temas emergentes

Autor: Fernando Santamaría González (Página 29 de 158)

Soy un investigador y formador en espacios online. Trabajando e investigando en temas de aprendizaje emergente.

La revolución de los datos sociales: una nueva ciencia para interpretar los comportamientos sociales

El libro «Pulse: The New Science of Harnessing Internet Buzz to Track Threats and Opportunities» de Douglas W. Hubbard (anteriormente había publicado otro de gran interés y que no he tenido ocasión de leer. Se titula «How to Measure Anything: Finding the Value of Intangibles in Business«) describe y analiza un nuevo panorama de la ciencia por la capacidad que se tiene de generar análisis de esas huellas digitales. El le llama Pulse. También en la enseñanza tendrá una capacidad disruptiva y de ser un «trigger» (como disparador) para el cambio. Un libro recomendado y que pongo algunas de los párrafos con los que abren el Capítulo 1 «An Emerging Science: What is this new thing?». Esta ciencia emergente que analiza los datos de manera transparente y con la capacidad de poder visualizarlos en tiempo real. Una nueva era para la medición y predicción de la sociedad.

La primera mitad del siglo XXI está viendo el surgimiento de un nuevo tipo de instrumentos científicos que permitan medir las tendencias más importantes en la sociedad. Más personas pasan más tiempo haciendo más cosas en línea y al hacerlo, dejan tras de sí un gran registro digital. Mediante la combinación de esas «huellas digitales» tanto sociólogos como psicólogos, economistas e incluso los médicos están aprendiendo a medir los aspectos de nuestra sociedad que de otra manera sería prácticamente invisible. El análisis de estas huellas digitales generará nuevos descubrimientos en todos los ámbitos de la investigación. El volumen de esos datos será detectar nuevos patrones en los mercados, en la opinión pública e incluso la salud y la seguridad.

Datos disponibles al público acerca de la frecuencia de determinadas búsquedas en Google se han utilizado para rastrear los brotes de gripe, la confianza de los consumidores o el niveles de desempleo más rápido que las autoridades del gobierno son capaces de hacerlo. El análisis de millones de «tweets» en Twitter se han utilizado para predecir la popularidad de una película, las aprobación calificaciones de las presidenciales a nivel político e incluso los movimientos del mercado de valores y la bolsa. Anuncios en sitios como Craigslist se correlacionan con las ejecuciones hipotecarias y el desempleo. Los datos recogidos de forma pasiva en los teléfonos móviles pueden ser utilizados para rastrear patrones de tráfico, enfermedades, e incluso daños después de un terremoto. Y esto es sólo el principio.

En educación a la hora de establecer metodologías cuya base es la red (Networked Learning) y establecidas en ecosistemas abiertos generan multitud de tráfico y acciones interactivas sin una delimitación clara (veáse MOOC). En estos casos hacer la evaluación del propio aprendizaje de los estudiantes es tarea ingente, o, metafóricamente, matar elefantes con un matamoscas.

Por eso creo que es revolucionario y disruptivo con respecto a la concepciones de medida anteriores. Esto es un hecho más potente y disruptivo de lo que fue para la educación la web social. El problema es que vivimos en un constante devenir de formas disruptivas. Por esto, algunos autores le han llamado “la revolución de los datos sociales (Social data revolution)

Por eso, incluso los científicos más reservados describen este fenómeno como una revolución en el estudio de la humanidad y en la previsión de la conducta humana. Estas herramientas cambiará fundamentalmente la forma en que los insights serán encontrados entre el análisis de esos datos cruzados. En última instancia, esta nueva fuente de datos (datos inteligentes + sensores + tiempo real) influirá en cómo algunas de las decisiones más importantes son tomadas por individuos, empresas y gobiernos.

En la crisis actual, por ejemplo hay las suficientes “señales” (palabra clave para esta era de los datos) como para ver que deben producirse cambios reales y disruptivos para que no sea una hecatombe.

Sólo recientemente los investigadores han ido descubriendo la manera de seguir las tendencias económicas, los brotes de gripe y la opinión pública mediante el uso de los datos a disposición del público por una cantidad ingente de usuarios de Internet y de telefonía móvil. Estas huellas digitales dejadas por los pueblos del mundo, ya que utilizan la Internet y los teléfonos móviles para interactuar por Internet, buscar información,

conectarse con otras personas y jugar en línea. Este conjunto de datos es lo que le llaman los “big data”. Es la primera oportunidad para que muchas de las ciencias sociales para trabajar con una cantidad de estadísticas detalladas que rivaliza e incluso supera los conjuntos de datos de, por ejemplo, la física de partículas o la astronomía.

Al igual que el pronóstico del tiempo se hace más preciso con mayor número de sensores, así los equipos de computación y análisis han mejorado, por eso los pronósticos del «clima» de la sociedad será de corte científico.

La analogía con el mapa del tiempo funciona a varios niveles. El valor real de los mapas del tiempo no está en ver los patrones climáticos, sino las posibles «tendencias». Por eso, cuanto más macroscópico sea la focalización del mapa, más capaces seremos de ver las tendencias. Del mismo modo, muchas de las amenazas a las que nos estamos enfrentando en este siglo como son el terrorismo, el caos financiero, las epidemias, podrían ser mejor vistas (sus insights) de antemano si tuviéramos una especie de mapa del tiempo a nivel macro de la sociedad.

Observaciones individuales acerca de dónde vive alguien o la salida de una pequeña empresa no suele decir casi nada sobre las grandes tendencias. No se puede ver el tamaño y la forma de una tormenta al examinar unas gotas de lluvia, de manera similar, usted no puede ver grandes cambios en la economía o la sociedad por buscar sólo en sus otros vecinos o compañeros de trabajo. Sin embargo, un gran número de estos puntos de datos pueden mostrarnos los patrones a gran escala.

El Internet se ha utilizado para grandes oportunidades de negocio, como un depósito de todo conocimiento humano, como el medio de la colaboración de todo el

mundo y como la mejor herramienta del diálogo público. Sin embargo, vemos que hay un deficit en la propia Internet, ya que es casi totalmente subutilizada como un instrumento de medición de la sociedad. El principal método de seguimiento de las grandes tendencias en la sociedad sigue siendo el estudio y, en el caso de los negocios, el sistema de informes financieros. Negocios y gobiernos a entender la importancia de la utilización de estas encuestas tradicionales para informar a las estrategias críticas. En 2002, el Gobierno de los EE.UU. era el único gasto de más de $4 mil millones por año en las encuestas para medir la economía y otros aspectos de la sociedad. El sector comercial se gasto alrededor de $15 mil millones por año en el mismo.

Los métodos tradicionales de encuestas implican estudia cuidadosamente diseñado que permite un análisis estadístico sencillo. Desafortunadamente, son costosos, lentos, y aún con las metodologías, a menudo riguroso no captan lo que está sucediendo realmente. Ellos están plagadas de las tasas de respuesta pequeños, y en algunos casos lo que se dice en las encuestas tiene poco que ver con la realidad. Estos métodos suelen tardar semanas o meses para que el informe se termine, muchas veces esto es mucho después de que los datos hubieran sido útiles.

Internet es ya en muchos órdenes de magnitud más grande que todos los datos recopilados por los gobiernos y las empresas que utilizan las encuestas tradicionales.

La red social Facebook procesa por día 25 terabytes de datos. Esto es aproximadamente 1.000 veces la cantidad de datos por correo electrónico de EE.UU. La encuesta más grande del mundo-Censo de los EE.UU. produce menor cantidad de datos que esta en una década. En 2010, el servicio de microblogging de Twitter dio a la Biblioteca del Congreso 167 terabytes de datos que representan más de 6 mil millones de «tweets». Y estas fuentes aún sólo forman parte de los datos digitales públicamente visibles que dejamos atrás.

Los datos de Internet son, por supuesto, no estructurados y en algunos aspectos más difíciles de analizar que una encuesta especialmente diseñada para evaluar determinado comportamiento. Afortunadamente, los nuevos métodos para el análisis de estos datos científicos están evolucionando, incluso cuando el volumen de datos continúa creciendo a un ritmo endiablado. El registro digital de carácter colectivo y de datos interaccionados para ver nuestro comportamiento ha crecido hasta un punto en que puede reflejar algo útil acerca de los usuarios del sistema. Ahora podemos ver el equivalente del mapa del tiempo que depara la opinión pública (trend topics), la economía, nuestra salud y nuestras ansiedades.

Por todo ello, el autor intenta ponerle nombre a esta ciencia en proceso emergente. Habla de análisis de datos sociales, de cibersociología, de huella digital, de psicohistoria (retomando el concepto de Isaac Asimov), pero el que más le convence (por lo llamativo del término) es el de «La revolución de los datos sociales» [slides y web]. Por todo ello, podemos definirlo el término revolución social de Datos (RSD) como el cambio en los patrones de la comunicación humana (en la que conjugan en la comunicación virtual. Podemos decir que por primera vez en la historia la comunicación puede ser de «todos a todos») hacia un mayor intercambio de información personal y sus implicaciones relacionadas, hecha posible por el auge de las redes sociales en la primera década de este siglo. Mientras que las redes sociales se utilizaron en los primeros días para compartir fotos en privado y mensajes privados, la tendencia posterior de la gente es el intercambio de información personal de manera más amplia se ha traducido en cantidades sin precedentes de información pública. Y esto mezclado con la geolocalización hace posible nueva evolución en la generación de redes sociales.

Esta fuente de datos de gran tamaño y actualizada con frecuencia se ha descrito como un nuevo tipo de instrumento científico de las ciencias sociales. Varios investigadores independientes han utilizado los datos sociales para hacer un «nowcast» (como si se tratara de una predicción meteorológica a corto plazo, pero aquí es en lo social, con la amalgama de datos del contexto que queremos analizar) y prever las tendencias tales como el desempleo, los brotes de gripe, los gastos de viajes y opiniones políticas de una manera mucho más rápida, más precisa y más baratos que los informes estándar del gobierno o las encuestas de Gallup, por ejemplo.

En este vídeo da las claves de lo entiende por «Social Data Revolution» (actualizado):

VennMaker, una herramienta de mapeo de las interacciones

VennMaker es una herramienta de mapeo de las interacciones de las redes centrada en los actores. Se trata de herramienta para analizar redes personales o egocéntricas. Existe versión de Windows pero lo mejor es el fichero jar para ejecutarse como Java en cualquier S.O. que admita Java.
Dentro de las ciencias sociales, sólo herramientas bastante complejas y que requieren una amplia curva de aprendizaje han estado disponibles hasta ahora para recopilar y analizar cuantitativamente los datos para el análisis de redes sociales. Se necesitan instrumentos convincentes que sean capaces de mostrar y analizar cualitativa redes con suporte social y que han faltado hasta ahora.

El proyecto VennMaker ha cruzado esa brecha y ha diseñado una herramienta basada en software que es tan conveniente para la investigación de la red social de consultoría centrada en el cliente.

Una rama de la organización dentro de la investigación y la consultoría se ha convertido en los últimos años que se visualiza opiniones de miembros de la organización en un proceso común y los utiliza como una plantilla adicional para el análisis y la interpretación. Aunque estas técnicas se aplican con éxito en la consultoría y asistencia para el desarrollo los procesos tanto a nivel nacional e internacional, que sea objeto de críticas de los círculos académicos debido a su ser no replicable, ni representante, o simplemente pasan desapercibidos.

Como se comenta en su web, el objetivo del grupo de investigación interdisciplinario en Trier es desarrollar una herramienta de software que permite al usuario recopilar de forma interactiva las relaciones de la red desde el punto de vista del actor y los hagan comparables y analizables cuantitativamente por medio de una interfaz gráfica de usuario que puede ser analizado de manera intuitiva. El punto crucial de este enfoque es que las personas que la prueban son capaces de visualizar y evaluar cualitativamente sus propias redes, al mismo tiempo que se refleja la retrospectiva con el propio investigador y teniendo en cuenta las alteraciones deseable. Al mismo tiempo, todo el procedimiento y los resultados son registrados digitalmente y pueden ser procesados ​​y validados. La herramienta podría utilizarse tanto para fines de investigación como de consultoría.

Desde el punto de vista de las ciencias sociales, el vínculo hasta entonces perdido entre el análisis cuantitativo y cualitativo de la red. Ha habido muchos avances en este ámbito, a nuestro entender, sin embargo, no hay un proyecto que haya resuelto el problema de la complejidad y la cuestión de la disponibilidad de los datos cualitativos y cuantitativos hasta el momento. El desarrollo de VennMaker dentro del clúster de excelencia se basa en una larga experiencia en el desarrollo y aplicación de metodologías de investigación participativa (Schoenhuth 1995, 1998, 2003, 2007), en la minería de datos visuales y de dibujo y gráficos (Pohl et al. 2004, 2006, 2007) como en la experiencia profesional de otras disciplinas en el que participan universidades de Trier y Mainz, ampliando así la investigación de la red tradicional con una herramienta metodológica innovadora y única.

El análisis de redes sociales y la Teoría del Actor-Red

Desde hace años me siento más cómodo con la metodología objetual. Los entornos de red no sólo se componen de personas, sino de artefactos (culturales) y objetos (mediadores e intermediarios). Todo esto tiene su sustrato en la Teoría del Actor-Red (Actor-Network Theory).

La teoría del actor-red trata de explicar cómo el material de redes se unen para actuar como un todo (por ejemplo, una escuela es a la vez una red y un actante que se mantienen unidos, y para ciertos fines, actúa como una sola entidad). Como parte de esto se puede mirar a las estrategias explícitas para relacionar diferentes elementos en una red de modo que formen un todo coherente, aparentemente.

De acuerdo con la teoría del actor-red, como actor-redes son potencialmente transitoria, existente en una constante «vuelta hacerse» (en su libro de Reensamblar lo social). Esto significa que las relaciones deben ser repetidas (en estado de transitoriedad y de la propia función fática de las redes) o la red se disolverá (los profesores tienen que venir a trabajar cada día, y los equipos necesitan un constante seguir funcionando).También se supone que las redes de relaciones no son intrínsecamente coherentes, y de hecho pueden contener conflictos (que pueden ser relaciones antagónicas entre los profesores / hijos, o programas de computación pueden ser incompatibles). Las relaciones sociales, en otras palabras, están siempre en proceso y debe ser cumplidos de forma continua.

La teoría del actor-red insiste en la agencia de los no humanos y por ello el tercer punto de la teoría conectivista retoma el principio de esta teoría (El aprendizaje puede residir en “entidades” no humanas). Se adelanta a principios de pensamiento del Internet de las cosas.

Por ello, autores como Girard y Stark comentan que estos entornos ecológicos (hay que verlo desde una perspectiva ecológica donde los principios científicos de dualidad y de antagonía no tienen sentido y estos ecosistemas se componen «no sólo de la gente, sino también de artefactos culturales y materiales para nuestro análisis de red»).

Si se hace así se amplía y enriquece nuestra concepción de «lo social». La cognición es socialmente distribuida a través de las personas y sus herramientas. Como Roy Pea (1993) escribe en un estudio de la inteligencia distribuida en el campo de la educación … : «La mente rara vez trabaja sola. La inteligencia Se revela a través de estas prácticas que la inteligencia [es] distribuida a través de las mentes, las personas y los entornos físicos y simbólicos, tanto natural como artificial » nos comentan Girard y Stark.
Este pensamiento ha abierto una nueva manera de analizar las redes, un ARS (análisis de redes sociales) expandido.

Referencias:

Latour, B. (2008). Reensamblar lo social: Una introducción a la teoría del actor-red. Buenos Aires: Manantial.

Mayer-Schönberger, V., & Lazer, D.(Eds.). (2007). Governance and Information Technology: From Electronic Government to Information Government. Cambridge, MA: MIT Press.

Pea, R. (1993). ‘Practice of distributed intelligence and designs for education’ en G. Saloman (Ed.), Distributed Cognition, Cambridge: Cambridge University Press. pp. 47-87.

G+, red de afiliación en el ecosistema de Google y el +1

Llevo probando unos días Google+, a partir de ahí probando cuestiones de su interface y sus no-posibilidades delatan cuestiones que describiré a continuación, pero antes quiero comentar algo de botón +1.
¿Cómo desvincular +1 de la relación e influencia en tus búsquedas de Google?. Creo que no se puede. Además es una imposición, ya que se hace imposible quitar ese maldito +1. Está influyendo de manera negativa en búsquedas más inteligentes y personalizadas. Creo que el algoritmo debería haber sido al revés. Sobre los gustos extraídos de la cantidad de datos que tiene Google sobre nosotros (Google Reader, Google News, GDocs, Google Maps, etc) a partir de ahí generar un algoritmo personalizado y que vaya aprendiendo de nosotros, no de la imposición de otros. El botón +1 es tendencioso y no es lo mismo que el like de Facebook. Creo que va más allá. Es completamente asimétrico en su posibilidades de acción con un signo -1 (que no lo hay) para dejar de salir resultados de determinada persona o concepto en una expresión booleana de búsqueda.
Es asimétrica la relación de datos con Google (será una simpleza), sabe datos que combinados son muy potentes y que optimizaría los resultados de búsqueda de cada perfil y pudiendo generar una personalización (aquí en la personalización falla y es muy escasa comparándolo con otras alternativas como Blekko y sus slashtag).

Creo que volvemos al período de los «sucios» resultados del motor de búsqueda Altavista (1998-2002) en pasados tiempos. El cambio del algoritmo de Google va encaminado a ser «más» negocio en el posicionamiento. Creo que el +1 sea un apéndice al cambio de sus algoritmo (Panda), pero este no es tema de nuestro post y del que no tengo el suficiente conocimiento para poder hablar de él. Las búsquedas de Google cada vez son menos limpias y entrecruza contenidos spam.

El ecosistema de Google pasa por una integración estratégica de sus otras aplicaciones en G+. Una integración flexible que permita establecer mecanismos de compartición desde cualquier punto. El sitio de red social del que estamos hablando debe hacerse invisible a los ojos del usuario. No se debería tener que entrar en la plataforma para que se pueda interactuar y compartir determinados objetos y contenidos. Si estoy en Picassa, debería integrar lo que quiera en G+, si estoy en GDocs debería poder compartir con un círculo. Por esto, los objetivos y el funcionamiento de este ecosistema es muy distinto a otros como el de Facebook, por ello no se pueden comparar.

La extracción de los contenidos es algo que merece la pena insistir y ver que es fundamental que los contenidos que generamos podamos descargar y hacer una copia de ella. Pero con esto no basta, es insuficiente. Lo que queremos es tener acceso a las vínculos y relaciones. Esto nos permite analíticas de nuestros círculos y las interacciones entre sus nodos.

Los círculos, como representación gráfica, son una metáfora muy poderosa. Esta es, la representación de pequeño mundo en la que muchos teóricos del análisis de redes sociales lo representaron de forma circular. Se trata a mi modo de ver, de redes de afiliación, en el que el compartir y el tráfico constante y exponencial como forma de crecimiento. La afiliación de este sitio de red social tiende a crear una simetría en sus relaciones, pero poco probable en las superestructuras de Internet como una red de libre escala. Busca por ello el equilibrio en unas macroestructuras caóticas y asimétricas. Es lo que se entiende en ARS como una relación diádica que es representada con una flecha con dos arcos.

Fizz — Social Network Visualization_big circles are people
Un grafo hecho con Fizz en el que vemos la importancia de los círculos

Otra característica es que tiene buenas «armas» para generar clusterización y transitividad en las relaciones de grupo.

Habló de grupo, pero su objetivo cuando se desplieguen las capas de otras herramientas (supongo que esté en unos meses dispuesto en el API) es que se vayan convirtiendo en «robustas» comunidades.
El control de tus publicaciones es un poco sibilino ya que no te deja compartir contigo sólo (solipsismo). Esto lo comento debido a que si publicas un contenido con un círculo como algo restringido por ti, no es así. Cualquiera del círculo puede republicar. Para ello, y no de forma general, se debe ir a una pestaña de triángulo invertido para prohibir la republicación y también la opción de no publicar comentarios. Estos y otros detalles hacen que el funcionamiento de estos grupos sean permeables y sus fronteras líquidas. Esto es una característica de los sitios de redes de los últimos años. ¿Por qué se hace esto?¿Por qué su affordance social de este interface es tan claro pero a la vez tan oculto y limitado para el dominio de sus contenidos? Estos sistemas de sitios de redes sociales pueden ofrecer este tipo de características débiles en un principio y que se despliega su potencial cuando se combinan características sociales y técnicas.

Otro aspecto es la fragmentación de sus flujos, de su densidad de nodos. Es otro de los aspectos a tener en cuenta de los sitios de redes sociales contemporáneos. El contenido sigue siendo secundario en las redes personales o ego-centricas. Las relaciones y sus estructuras sociales es a través de nodos como personas. No son redes para establecer aspectos cognitivos. Las redes cognitivas deben establecer el centro en contenidos, artefactos y objetos. El protagonismo de las personas mata el poder generar redes cognitivas y enactivas propicias para crear movimientos sociales. Las redes de afiliación (el libro de cromos) a gran escala suelen ser estructuras de redes «domesticadas» y controladas por el diseño de las mismas. La personalización e imprevisibilidad de estas, o lo que es lo mismo, la complejidad brilla por su ausencia. Redes propiciadas para afiliarse (me gusta o no me gusta) pero no distribuidas, centralizadas en un nicho de empresas que están para posicionarse en el mercado entre las grandes empresas. No tienen en cuenta aspectos imprevisibles y a la vez disruptivos.
G+, más de lo mismo.

« Entradas anteriores Entradas siguientes »