Reflexiones sobre ecologías y espacios del aprendizaje, análisis del aprendizaje y análisis de redes sociales, visualización de datos, Big Data y otros temas emergentes

Mes: diciembre 2009 (Página 1 de 2)

Eduwikis en el aula 2.0

Desde este mes, lleva a disposición de todos los usuarios, tras la presentación del maestro de la ceremonia, Francisco Muñoz de la Peña, del monográfico de Wikis del Instituto de Tecnologías Educativas (ITE), en el que tuve el honor de colaborar con otros profesores de secundaria y profesores universitarios. Me he enterado con retraso de la presentación, pero aquí está. Click sobre la imagen para acceder a él.

Como bien dice Paco en el Blog de buenas prácticas 2.0, la idea parte de un monográfico sobre Wikis en Educación:

El monográfico Wikis en Educación nació el pasado mes de Junio, la iniciativa partió de César Vallejo director del Observatorio Tecnológico del ITE (Instituto de Tecnologías Educativas) y Asesor Técnico Docente del Ministerio de Educación de España. César me encargó la coordinación de este trabajo y la selección de un grupo de docentes expertos en el uso de las TIC en el aula para su desarrollo y elaboración. La idea era romper el formato tradicional del monográfico ¿qué mejor que utilizar para su creación un wiki en el que colaborativamente participáramos un grupo de docentes ?

Espero que sirva como recurso para empezar o continuar trabajando con wikis.

Redes 49: Educar para fabricar ciudadanos

¿Hacia dónde ha de evolucionar nuestro sistema educativo para formar a ciudadanos capaces de afrontar los retos de este siglo? Tanto la ciencia como la tradición contemplativa budista tienen mucho que decir al respecto. ¿Por qué no unirlas para que se enriquezcan mutuamente y aporten soluciones? Eso es lo que hicieron el pasado mes en Washington D.C., y allí estuvo Redes para presenciar un excelente debate sobre las necesidades de la educación de nuestros hijos. Click sobre la imagen para reproducir.

Nuevo dispositivo en mis manos: Nokia N900

Ahora que se ha acabado gabinetedeinformatica.net, volvemos a los principios en este blog. Al hacer reviews de aplicaciones web, aparatos tecnológicos y demás widgets que caigan en mis manos. Lo trataremos desde la perspectiva analítica y crítica, ya que es un espacio que se ve poco en blogs. Suelen ser post «promocionales» y de presencialidad del producto, eso hace que al darselo la empresa para probarlo acaben haciendo reviews amables.
Empezamos con el nuevo móvil que tengo entre mis manos, el flamante Nokia N900. Es en principio un teléfono de los llamados smartphone inteligentes.
Algunos de los problemas que le veo a este móvil, es que con el nuevo sistema operativa Maemo 5 han corrido mucho y testeado poco. Por eso vemos fallos de principio: falla la sincronización con Mail for Exchange, débiles opciones de algunas aplicaciones, un interface a veces confuso.

n900a.png

Lo han sacado tan pronto que una de las cuestiones es que si vas a la tienda online OVI no te deja para el terminal N900. Las aplicaciones con las que viene son pobres. Existe una lista en la web de Maemo, pero como digo muchas secciones en construcción. Algo que estratégicamente resta puntos y hacer que se distancien más en cuento a la competecia en los modelos de iPhone 3G o los últimos terminales de Blackberry, o algunos de HTC. Muchas de las aplicaciones (Nokia Ovi Suite o el más antiguo PC Suite) no estan disponible o no compatibles con el modelo.
La batería en uso normal, con llamadas, conexiones a web, videos y aplicaciones viene a durar 1 día.
Se levantó mucha expectación cuando se presento, este modelo basado en un SO con Linux (Maemo 5). El teclado físico es beno, pero te hace obigatoriamente escribir en teclado físico muchas de las veces cuando sería interesante tener a mano un botón de switch en teclado para pasar del virtual al físico. Quizá sería conveniente tener las teclas un poco más separadas como lo tiene el Nokia N97.
Las empresas de telefonía se han metido en el mercado de los contenidos, que es donde esta el negocio. Por eso Nokia creo que se está quedando atrás. Deben espabilar sino quieren quedarse estancados al poner en marcha un nuevo Sistema Operativo móvil, teneidno en cuenta que en contenido de desarrollo estan por delante, teneidno ya buenas aplicaciones tanto Apple en AppStore y Android con Android Market.
Es una decepción ver que la configuración de correo se complique tanto. Despues de configurar, cambiar puertos y demás modificaciones me sale:
Imposible conectar a pop.gmail.com. Puede que el nombre del servidor o número de puerto sean incorrectos.
Creo que es un terminal que necesita un buen firmware. Esto de acuerdo en la visión de Javier Peñalva cuando dice:

Nokia sigue presumiendo de terminales de alta gama, con especificaciones que asustan (como los precios, aunque esto es común a todas las marcas con sus terminales estrella) pero sin mirar hacia adelante de forma destacada en la interfaz, ese elemento de entrada crucial en la telefonía de hoy en día para un sector muy concreto de la población. Y lo peor es que el resto de fabricantes también los están alcanzando en características técnicas puras y duras.

Sin embargo Nokia sigue estando ahí, con una cuota de mercado cómoda y terminales que se venden bien entre el gran público, con teléfonos en todas las gamas y algún terminal récord de vez en cuando. El 5800 XpressMusic es uno de los últimos, el Nokia Mini 97 lo será y seguro que vienen muchos más.

Pero al usuario avanzado Nokia debe darle mucho más. Y dado que la mayoría de necesidades no satisfechas tienen al software como protagonista, tenemos fe en que la comunidad alrededor de Linux, con el apoyo de los finlandeses, pueda completar lo que le falta al Nokia N900. Pero deben darse prisa.

El tamaño del terminal es soportable. Pueder ver la diferencia de grosor con el iPod Touch. Al tener teclado físico el grosor aumenta.

n900_ipod.png

Conclusión: No compren el Nokia N900 por ahora. Le falta mucho por ponerse a la estela de otros dispositivos e interface de Sistemas Operativos.
Pueden ver fotos tomadas con este dispositivo en mi cuenta de Flickr.
Más referencias sobre Nokia N900:

De la vigilancia social a la vigilancia participativa

En esta sociedad tecnificada y «ampliada» en la que lo líquido ( (Bauman) lo define muy bien. Estamos viendo y nos hacen ver que el «empoderamiento» y la autonomía de las aplicaciones web y sitios de redes sociales generalistas son autocontrolables y fuera de una estructura de poder. Nada más lejos de la realidad. Las fuerzas de poder y la vigilancia han cambiado muy sutilmente en los albores del siglo XXI. El principio de autorregulación y de (auto)control de lo que tiene que hacer o decir es palpable en la vigilancia participativa. La surveillance tiene recovecos y se transmuta en invisible a la distancia diferenciandose de la surveillance tradicional.
Al respecto en el segundo volumen de la Enciclopedia de Teoría Social (Vol. 2, p. 817-18) de G. Ritzer:

La vigilancia social puede ser definido como «control a través de la utilización de medios técnicos para extraer o crear datos personales o de grupo, ya sea de personas o contextos». Los ejemplos incluyen: cámaras de vídeo, juego de ordenador, elaboración de perfiles y extracción de datos, el trabajo, la informática y de control de localización electrónica, análisis de ADN, pruebas de drogas, los escáneres cerebrales para detectar mentiras, auto administrados por diferentes pruebas y térmica y otras formas de imágenes para revelar lo que detrás de los muros y recintos.

El uso de «medios técnicos» para extraer y crear la información implica la capacidad de ir más allá de lo que se ofrece a los sentidos sin ayuda. Gran parte de la nueva vigilancia implica un proceso automatizado y amplía los sentidos y las habilidades cognitivas mediante el uso de artefactos o de software.

Utilizar el verbo más amplio de «examinar» en vez de «observar» en la definición, llama la atención sobre el hecho de que las formas contemporáneas suelen ir más allá de la imagen visual de la participación de sonido, el olor, el movimiento, números y palabras. Los ojos contienen la gran mayoría de los receptores sensoriales del cuerpo y lo visual es una metáfora maestra para los demás sentidos (por ejemplo, diciendo «yo veo» para la comprensión). Sin embargo, el ojo como el principal medio de la vigilancia directa es cada vez más sustituido por otros medios. El uso de múltiples sentidos y las fuentes de datos es una característica importante de gran parte de la nueva vigilancia.

Tradicionalmente, la vigilancia involucraba la observación de cerca, realizada por una persona, no por una máquina. Pero con las prácticas actuales, la vigilancia puede hacerse a lo lejos, como con imágenes de satélite o la supervisión remota de las comunicaciones y el trabajo. No es necesario estar cerca, mucha vigilancia inicial implica exploraciones superficiales en busca de patrones de interés para llevarse a cabo más adelante en mayor detalle. La vigilancia se ha convertido en más lejana y más cercana que en épocas anteriores. Se produce con la absorción de una esponja y la especificidad de rayo láser.

En una innovación contundente, la vigilancia se aplica también a contextos (lugares y espacios geográficos, determinados períodos de tiempo, redes, sistemas y categorías de personas), no sólo a una persona particular, cuya identidad se conoce de antemano. Por ejemplo, la policía puede centrarse en los «puntos calientes» donde ocurren crímenes callejeros con más frecuencia calle o tratar de seguir una pista del dinero a través de las fronteras para identificar el tráfico de drogas y relacionadas y redes criminales relacionadas. Las nuevas tecnologías de vigilancia se aplican a menudo categóricamente (por ejemplo, todos los empleados están a prueba de drogas o se investiga a todos los viajeros, no sólo a aquellos de los que hay alguna razón para sospechar). La vigilancia tradicional a menudo implica una relación no cooperativa y una distinción clara entre el objeto de la vigilancia y la persona que la efectúa. En una época de sirvientes escuchando detrás de puertas cerradas, binoculares, e intercepciones telegráficas, es en donde que la separación tiene sentido. Era fácil distinguir entre el vigilante y el vigilado. Sin embargo, para la nueva vigilancia con sus formas expandidas de auto-vigilancia y la vigilancia cooperativa, la fácil distinción entre agente y objeto de vigilancia puede estar desdibujada.

Al analizar el surgimiento de las formas modernas de control social, el filósofo francés Michel Foucault (1977) se basó en la idea del panóptico del teórico legal británico de Jeremy Bentham. Bentham propuso un sistema altamente organizado para gestionar grandes poblaciones dentro de estructuras físicas cerradas, tales como prisiones, fábricas o escuelas, en las que las autoridades pueden ver a todos, pero sin ser visto. Desde un punto de vista del control social, esto creó incertidumbre. Los reclusos no podían estar seguros de cuando los vigilaban, y por lo tanto a través del propio interés y el hábito, se esperaba que se esforzarían en la auto-disciplina.
Los anuncios contemporáneos bien publicitados (por ejemplo, que una zona está vigilada por vídeo) reflejan este patrón en la búsqueda para crear limitaciones. Un espíritu general de auto-vigilancia también se estimula mediante la disponibilidad de productos que permitan que las personas se pongan a prueba a sí mismos (por ejemplo, para el nivel de alcohol, la presión arterial, o embarazo).

En las formas descritas, los sujetos pueden cooperar de buena gana, presentando la vigilancia del personal como algo que beneficia a los consumidores (por ejemplo, descuentos para viajeros o compradores frecuentes) o por conveniencia (por ejemplo, carriles rápidos en las vías de peaje en las que se paga por adelantado).
Los chips implantados que se transmite la identidad y ubicación, que inicialmente se usaba para mascotas, ahora también están disponibles para sus propietarios (y otros), así. En algunos ambientes de trabajo, hay tarjetas inteligentes usadas por las personas que hacen lo mismo, aunque no con el mismo grado de voluntarismo.

La nueva vigilancia en relación con la vigilancia tradicional tiene baja visibilidad o es invisible. La manipulación como algo en contra de la coerción directa ahora es más prominente. La monitorización puede ser un propósito oculto, como por ejemplo con una cámara de vídeo oculta en un osito de peluche o un reloj, o simplemente pueden llegar a ser rutinario y se da por sentado que la recolección de datos se integra en las actividades cotidianas (por ejemplo, el uso de un la tarjeta de crédito para la compra, automáticamente transmite información acerca del consumo, tiempo y lugar).

Con la tendencia hacia la computación ubicua, la vigilancia y los sensores desaparecen en algún sentido de las actividades ordinarias y objetos, coches, móviles, baños, edificios, ropa e incluso órganos. La relativamente intensiva labor de los códigos de barras en bienes de consumo que requiere el escaneo manual, pronto serán reemplazados por baratos chips RFID (identificación por radio frecuencia) embebidos que se pueden integrar que se pueden leer automáticamente desde distancias cortas.

La teledetección de las preferencias y del comportamiento ofrece muchas ventajas, como el control de la temperatura e iluminación en una habitación o la reducción de los gastos de envío y de los costes de comercialización, al tiempo que generando registros que se pueden utilizar para la vigilancia.

Puede haber sólo un breve intervalo de tiempo entre el descubrimiento de la información y la adopción de medidas automáticas. El individuo como sujeto de la recopilación y el análisis de datos también puede ser casi al mismo tiempo objeto de una intervención, ya se trate de activar una alarma o la concesión (o denegación)de algún tipo de acceso (por ejemplo, para entrar por una puerta, usar un ordenador, o hacer una compra).
Las nuevas formas son relativamente baratas por unidad de datos recogidos. En relación con las formas tradicionales, es fácil combinar datos visual, auditivos, de texto y numéricos. Es relativamente fácil organizar, almacenar, recuperar, analizar, enviar y recibir datos. Se dispone de datos en tiempo real, y la recopilación de datos puede ser continua y ofrecer información sobre el pasado, presente y futuro (del tipo de predicciones estadísticas) Los modelos de simulación de comportamiento están creados.

La nueva vigilancia es más amplia, intensiva y extensiva. La relación de lo que las personas saben de sí mismos en relación con lo que la organización vigilando es menor que en el pasado, aun cuando objetivamente se sabe mucho más. Una manera de pensar sobre el tema es tomar nota de que muchos de los tipos de vigilancia, que alguna vez se encontraba sólo en la alta seguridad militar y los centros penitenciarios se filtren en el la sociedad en general. ¿Estamos avanzando hacia convertirnos en una sociedad de máxima seguridad donde se conoce más y más de nuestro comportamiento y sujetos a control?

Las seis características de la sociedad de máxima seguridad son (1) una sociedad dossier en la que los registros informáticos juegan un papel importante, (2) una sociedad actuarial en la que las decisiones cada vez más se toman sobre la base de las predicciones sobre el comportamiento futuro como un resultado de la pertenencia a, en comparación con la adhesión en, deagregar catagorías, (3) una sociedad sospechosa en la que se sospecha todo el mundo; (4) una sociedad de ingeniería en que las opciones son cada vez más limitadas y determinadas por el entorno físico y social; (5) una sociedad transparente en la que de los límites de tiempo, distancia, oscuridad, y barreras físicas que, tradicionalmente, protegía la información están debilitadas, y (6) una sociedad de autocontrol en la que autovigilancia desempeña un papel destacado.

4169E33F-EC09-41A2-B7EE-610C680A1E31.jpg

Lo delicado de los sitios de redes sociales son los datos puestos por los usuarios. La minería de datos, según la Wikipedia, consiste en la extracción no trivial de información que reside de manera implícita en los datos. Dicha información era previamente desconocida y podrá resultar útil para algún proceso. En otras palabras, la minería de datos prepara, sondea y explora los datos para sacar la información oculta en ellos. Para unos buenos resultados se amalgaman inteligencia artificial y en análisis estadístico. Con todo ello podemos ver elementos predictivos, clasificación y segmentación. Hay ejemplos que avalan esto.

Fusch (2009) habla de tres niveles:
El nivel de información (cognición, comunicación, cooperación) y el tipo de temporalidad caracteriza las tecnologías de ordenador en red. La sincronidad temporal significa que los usuarios están activos al mismo tiempo (“en tiempo real”), la temporalidad asíncrona que las acciones del usuario están desembebidos temporalmente. En ambos casos la tecnología habilita un desembebimiento espacial de los usuarios.
Otro aspecto de las tecnologías en red es el tipo de relación que capacita: relaciones uno-a-uno (u2u), relaciones uno a muchos (u2m), o relaciones muchos-a-muchos (m2m). Las tecnologías u2u permiten que un usuario se ponga en contacto con muchos otros usuarios individualmente, las u2m que permiten que un usuario se ponga en contacto con otros muchos y las m2m, que muchos usuarios se pongan en contacto con muchos otros. La siguiente tabla proporciones una tipología de las características de las tecnologías de Internet para cada uno de los tres aspectos de la información. Muestra qué tecnologías pertenecen a los niveles web 1.0, web 2.0 y web 3.0 (u2u: uno a uno, u2m (uno a muchos, m2m: muchos a muchos).

La cognición mediada por la web permite la comunicación mediada y viceversa. No hay un proceso de comunicación sin conocimiento. En la Web 3.0, una nueva calidad de manifiesto que es producido por las acciones comunicativas. Cierta cohesión entre los seres humanos involucrados es necesario. La comunicación mediada por la Web permite la cooperación de la mediación, y viceversa. No hay un proceso de cooperación sin la comunicación y la cognición. Las tres formas de socialidad (la cognición, la comunicación, cooperación) se encierran en sí. Cada capa es la base para la siguiente, que tiene propiedades emergentes. Con el término «web» no sólo significó la World Wide Web, pero cualquier tipo de tecno-red de información social en el que los seres humanos actúan con la ayuda de tecnologías de la información en red. Este gráfico muestra las 3 capas que establece Fusch de manera un poco confusa:

SNS_Surveillance_Fuchs.pdf (página 17 de 145).png

Castells (2009) parte de una forma activista de generar una identidad de cooperación estratégica sin entrar en un grado de competencia:

En un mundo de redes, la capacidad para ejercer control sobre otros depende de dos mecanismos básicos: 1) la capacidad de constituir redes y de programar/reprogramar las redes según los objetivos que se les asignen; y 2) la capacidad para conectar diferentes redes y asegurar su cooperación compartiendo objetivos y combinando recursos, mientras que se evita la competencia de otras redes estableciendo una cooperación estratégica.[…] Por ello sugiero que, en muchos casos, quienes ostentan el poder son, también, redes. No redes abstractas e inconscientes ni autómatas: se trata de seres humanos organizados alrededor de sus proyectos e intereses. Bruno Latour lo ha descrito brillantemente como actor-red.

Según M. Castells en su reciente libro (que antes se ha publicado en inglés con un retraso de más de un año) hay una serie de mecanismos para la creación de poder en las estructuras heterárquicas. Una de ellas es la programación y los enlaces. Opino que la «reconfiguración» de una red social es un elemento importante y poco tenido en cuenta. Cómo esta diseñada una red para hacer (o no hacer) determinadas interacciones es algo importante.
Otro a tener en cuenta es el control de los puntos de conexión entre diferentes redes estratégicas. Los links como expresión mínima, no son personas pero están formados por personas. Tomando a Latour son actores-red que interactúan en interfaces dinámicos y que sólo funcionan en un tiempo de conexión, luego queda la estela, el rastro en la estructura-red. La blogosfera, y su adyacente el microblogging actúan de igual manera que muchos tipos de redes políticas, científicas y mediáticas. La ofuscación en posicionarse y en estar de manera «persistente» hace que se desencadenen mecanismo de poder jerárquicos (la distribución de enlaces a uno mismo, la cantidad de estos en detrimento de la calidad, el establecer «amistades» débiles para generar unos pilares rocosos a la hora de mejor distribución de contenidos).
Lo rizomático en los génesis de Deleuze y Guattari es un contrapoder, es una forma de buscar mecanismos libres de poder. Por eso muchos de sus postulados son interesantes para entender redes «libres» de lo humano. Entender y comprender las redes (sociales) es una habilidad en este siglo. Entender que detrás de un enlace electrónico hay estructuras de poder y hay que analizar de donde viene, quien lo escribe, que intención tiene, cómo lo distribuye, si hay ambición SEO en el enlace, sino estaremos cayendo en la maraña de estas, en no diferenciar los tipos de información dirigida por las personas. Como dice L. Barabási las redes son la nueva geometría del mundo moderno. Comprenderlas se ha convertido en la disciplina que fue la ciencia de la cartografía hace siglos. Y no hablo de marketing ni de estrategias que es parece lo que se impone.

Según Foucault (1979) en una entrevista se ve que el centro de operaciones es «el individuo, con sus características, su identidad, en su hilvanado consigo mismo, es el producto de una relación de poder que se ejerce sobre los cuerpos, las multiplicidades, los movimientos, los deseos, las fuerzas». Esto es mucho más fácil implantarlo en un ambiente participativo en el que somos la propia «policia» de la autorregulación y el ecosistema de las interacciones. Una vigilancia invisible y omnipresente.
La participación es el punto de partida para una invisible surveillance, para establecer una rotonda autogestionada y donde el «otro» es el estadio de control. La cultura de enjambre serán nuestros próximos análisis dentro de comunidades de aprendizaje y práctica.

Bibliografía:
Albrechtslund, Anders. (2008). Online Social Networking as Participatory Surveillance. First Monday 13 (3).

Bogard, William (1996). The Simulation of Surveillance: Hypercontrol in Telematic Societies. Cambridge, UK: Cambridge University Press.

Browne, Rodrigo (2009). De la comunicación disciplinaria a los controles de comunicación: la antropofagia como transgresión cultural. Sevilla: Alfar.

Brookes, P. (2001). Electronic Surveillance Devices (2ª ed.). Oxford: Newnes.

Castells, M. (2009). Comunicación y Poder. Madrid: Alianza Editorial.

Foucault, M. (1979). Microfísica del poder (2ª ed.). Madrid: Las Ediciones de la Piqueta.

Fuchs, C. (2009). Social Networking Sites and Surveillance Society: a critical case study of usage of StudiVZ, Facebook, and MySpace by students in Salzburg in the context of electronic surveillance. Recuperado de http://fuchs.icts.sbg.ac.at/SNS_Surveillance_Fuchs.pdf

Mattelard, Armand (2009). Un mundo vigilado. Barcelona: Paidós.

Monahan, T.(ed.) (2006). Surveillance and Security: Technological politics and power in everyday life. New York ; London: Routledge.

Nilsson, F., & Axis, C. (2009). Intelligent Network Video: Understanding Modern Video Surveillance Systems. Boca raton: CRC Press.

Más información en el tag surveillance de mi Diigo: http://www.diigo.com/user/lernys/surveillance

« Entradas anteriores