Reflexiones sobre ecologías y espacios del aprendizaje, análisis del aprendizaje y análisis de redes sociales, visualización de datos, Big Data y otros temas emergentes

Autor: Fernando Santamaría González (Página 43 de 158)

Soy un investigador y formador en espacios online. Trabajando e investigando en temas de aprendizaje emergente.

Nuevo dispositivo en mis manos: Nokia N900

Ahora que se ha acabado gabinetedeinformatica.net, volvemos a los principios en este blog. Al hacer reviews de aplicaciones web, aparatos tecnológicos y demás widgets que caigan en mis manos. Lo trataremos desde la perspectiva analítica y crítica, ya que es un espacio que se ve poco en blogs. Suelen ser post «promocionales» y de presencialidad del producto, eso hace que al darselo la empresa para probarlo acaben haciendo reviews amables.
Empezamos con el nuevo móvil que tengo entre mis manos, el flamante Nokia N900. Es en principio un teléfono de los llamados smartphone inteligentes.
Algunos de los problemas que le veo a este móvil, es que con el nuevo sistema operativa Maemo 5 han corrido mucho y testeado poco. Por eso vemos fallos de principio: falla la sincronización con Mail for Exchange, débiles opciones de algunas aplicaciones, un interface a veces confuso.

n900a.png

Lo han sacado tan pronto que una de las cuestiones es que si vas a la tienda online OVI no te deja para el terminal N900. Las aplicaciones con las que viene son pobres. Existe una lista en la web de Maemo, pero como digo muchas secciones en construcción. Algo que estratégicamente resta puntos y hacer que se distancien más en cuento a la competecia en los modelos de iPhone 3G o los últimos terminales de Blackberry, o algunos de HTC. Muchas de las aplicaciones (Nokia Ovi Suite o el más antiguo PC Suite) no estan disponible o no compatibles con el modelo.
La batería en uso normal, con llamadas, conexiones a web, videos y aplicaciones viene a durar 1 día.
Se levantó mucha expectación cuando se presento, este modelo basado en un SO con Linux (Maemo 5). El teclado físico es beno, pero te hace obigatoriamente escribir en teclado físico muchas de las veces cuando sería interesante tener a mano un botón de switch en teclado para pasar del virtual al físico. Quizá sería conveniente tener las teclas un poco más separadas como lo tiene el Nokia N97.
Las empresas de telefonía se han metido en el mercado de los contenidos, que es donde esta el negocio. Por eso Nokia creo que se está quedando atrás. Deben espabilar sino quieren quedarse estancados al poner en marcha un nuevo Sistema Operativo móvil, teneidno en cuenta que en contenido de desarrollo estan por delante, teneidno ya buenas aplicaciones tanto Apple en AppStore y Android con Android Market.
Es una decepción ver que la configuración de correo se complique tanto. Despues de configurar, cambiar puertos y demás modificaciones me sale:
Imposible conectar a pop.gmail.com. Puede que el nombre del servidor o número de puerto sean incorrectos.
Creo que es un terminal que necesita un buen firmware. Esto de acuerdo en la visión de Javier Peñalva cuando dice:

Nokia sigue presumiendo de terminales de alta gama, con especificaciones que asustan (como los precios, aunque esto es común a todas las marcas con sus terminales estrella) pero sin mirar hacia adelante de forma destacada en la interfaz, ese elemento de entrada crucial en la telefonía de hoy en día para un sector muy concreto de la población. Y lo peor es que el resto de fabricantes también los están alcanzando en características técnicas puras y duras.

Sin embargo Nokia sigue estando ahí, con una cuota de mercado cómoda y terminales que se venden bien entre el gran público, con teléfonos en todas las gamas y algún terminal récord de vez en cuando. El 5800 XpressMusic es uno de los últimos, el Nokia Mini 97 lo será y seguro que vienen muchos más.

Pero al usuario avanzado Nokia debe darle mucho más. Y dado que la mayoría de necesidades no satisfechas tienen al software como protagonista, tenemos fe en que la comunidad alrededor de Linux, con el apoyo de los finlandeses, pueda completar lo que le falta al Nokia N900. Pero deben darse prisa.

El tamaño del terminal es soportable. Pueder ver la diferencia de grosor con el iPod Touch. Al tener teclado físico el grosor aumenta.

n900_ipod.png

Conclusión: No compren el Nokia N900 por ahora. Le falta mucho por ponerse a la estela de otros dispositivos e interface de Sistemas Operativos.
Pueden ver fotos tomadas con este dispositivo en mi cuenta de Flickr.
Más referencias sobre Nokia N900:

De la vigilancia social a la vigilancia participativa

En esta sociedad tecnificada y «ampliada» en la que lo líquido ( (Bauman) lo define muy bien. Estamos viendo y nos hacen ver que el «empoderamiento» y la autonomía de las aplicaciones web y sitios de redes sociales generalistas son autocontrolables y fuera de una estructura de poder. Nada más lejos de la realidad. Las fuerzas de poder y la vigilancia han cambiado muy sutilmente en los albores del siglo XXI. El principio de autorregulación y de (auto)control de lo que tiene que hacer o decir es palpable en la vigilancia participativa. La surveillance tiene recovecos y se transmuta en invisible a la distancia diferenciandose de la surveillance tradicional.
Al respecto en el segundo volumen de la Enciclopedia de Teoría Social (Vol. 2, p. 817-18) de G. Ritzer:

La vigilancia social puede ser definido como «control a través de la utilización de medios técnicos para extraer o crear datos personales o de grupo, ya sea de personas o contextos». Los ejemplos incluyen: cámaras de vídeo, juego de ordenador, elaboración de perfiles y extracción de datos, el trabajo, la informática y de control de localización electrónica, análisis de ADN, pruebas de drogas, los escáneres cerebrales para detectar mentiras, auto administrados por diferentes pruebas y térmica y otras formas de imágenes para revelar lo que detrás de los muros y recintos.

El uso de «medios técnicos» para extraer y crear la información implica la capacidad de ir más allá de lo que se ofrece a los sentidos sin ayuda. Gran parte de la nueva vigilancia implica un proceso automatizado y amplía los sentidos y las habilidades cognitivas mediante el uso de artefactos o de software.

Utilizar el verbo más amplio de «examinar» en vez de «observar» en la definición, llama la atención sobre el hecho de que las formas contemporáneas suelen ir más allá de la imagen visual de la participación de sonido, el olor, el movimiento, números y palabras. Los ojos contienen la gran mayoría de los receptores sensoriales del cuerpo y lo visual es una metáfora maestra para los demás sentidos (por ejemplo, diciendo «yo veo» para la comprensión). Sin embargo, el ojo como el principal medio de la vigilancia directa es cada vez más sustituido por otros medios. El uso de múltiples sentidos y las fuentes de datos es una característica importante de gran parte de la nueva vigilancia.

Tradicionalmente, la vigilancia involucraba la observación de cerca, realizada por una persona, no por una máquina. Pero con las prácticas actuales, la vigilancia puede hacerse a lo lejos, como con imágenes de satélite o la supervisión remota de las comunicaciones y el trabajo. No es necesario estar cerca, mucha vigilancia inicial implica exploraciones superficiales en busca de patrones de interés para llevarse a cabo más adelante en mayor detalle. La vigilancia se ha convertido en más lejana y más cercana que en épocas anteriores. Se produce con la absorción de una esponja y la especificidad de rayo láser.

En una innovación contundente, la vigilancia se aplica también a contextos (lugares y espacios geográficos, determinados períodos de tiempo, redes, sistemas y categorías de personas), no sólo a una persona particular, cuya identidad se conoce de antemano. Por ejemplo, la policía puede centrarse en los «puntos calientes» donde ocurren crímenes callejeros con más frecuencia calle o tratar de seguir una pista del dinero a través de las fronteras para identificar el tráfico de drogas y relacionadas y redes criminales relacionadas. Las nuevas tecnologías de vigilancia se aplican a menudo categóricamente (por ejemplo, todos los empleados están a prueba de drogas o se investiga a todos los viajeros, no sólo a aquellos de los que hay alguna razón para sospechar). La vigilancia tradicional a menudo implica una relación no cooperativa y una distinción clara entre el objeto de la vigilancia y la persona que la efectúa. En una época de sirvientes escuchando detrás de puertas cerradas, binoculares, e intercepciones telegráficas, es en donde que la separación tiene sentido. Era fácil distinguir entre el vigilante y el vigilado. Sin embargo, para la nueva vigilancia con sus formas expandidas de auto-vigilancia y la vigilancia cooperativa, la fácil distinción entre agente y objeto de vigilancia puede estar desdibujada.

Al analizar el surgimiento de las formas modernas de control social, el filósofo francés Michel Foucault (1977) se basó en la idea del panóptico del teórico legal británico de Jeremy Bentham. Bentham propuso un sistema altamente organizado para gestionar grandes poblaciones dentro de estructuras físicas cerradas, tales como prisiones, fábricas o escuelas, en las que las autoridades pueden ver a todos, pero sin ser visto. Desde un punto de vista del control social, esto creó incertidumbre. Los reclusos no podían estar seguros de cuando los vigilaban, y por lo tanto a través del propio interés y el hábito, se esperaba que se esforzarían en la auto-disciplina.
Los anuncios contemporáneos bien publicitados (por ejemplo, que una zona está vigilada por vídeo) reflejan este patrón en la búsqueda para crear limitaciones. Un espíritu general de auto-vigilancia también se estimula mediante la disponibilidad de productos que permitan que las personas se pongan a prueba a sí mismos (por ejemplo, para el nivel de alcohol, la presión arterial, o embarazo).

En las formas descritas, los sujetos pueden cooperar de buena gana, presentando la vigilancia del personal como algo que beneficia a los consumidores (por ejemplo, descuentos para viajeros o compradores frecuentes) o por conveniencia (por ejemplo, carriles rápidos en las vías de peaje en las que se paga por adelantado).
Los chips implantados que se transmite la identidad y ubicación, que inicialmente se usaba para mascotas, ahora también están disponibles para sus propietarios (y otros), así. En algunos ambientes de trabajo, hay tarjetas inteligentes usadas por las personas que hacen lo mismo, aunque no con el mismo grado de voluntarismo.

La nueva vigilancia en relación con la vigilancia tradicional tiene baja visibilidad o es invisible. La manipulación como algo en contra de la coerción directa ahora es más prominente. La monitorización puede ser un propósito oculto, como por ejemplo con una cámara de vídeo oculta en un osito de peluche o un reloj, o simplemente pueden llegar a ser rutinario y se da por sentado que la recolección de datos se integra en las actividades cotidianas (por ejemplo, el uso de un la tarjeta de crédito para la compra, automáticamente transmite información acerca del consumo, tiempo y lugar).

Con la tendencia hacia la computación ubicua, la vigilancia y los sensores desaparecen en algún sentido de las actividades ordinarias y objetos, coches, móviles, baños, edificios, ropa e incluso órganos. La relativamente intensiva labor de los códigos de barras en bienes de consumo que requiere el escaneo manual, pronto serán reemplazados por baratos chips RFID (identificación por radio frecuencia) embebidos que se pueden integrar que se pueden leer automáticamente desde distancias cortas.

La teledetección de las preferencias y del comportamiento ofrece muchas ventajas, como el control de la temperatura e iluminación en una habitación o la reducción de los gastos de envío y de los costes de comercialización, al tiempo que generando registros que se pueden utilizar para la vigilancia.

Puede haber sólo un breve intervalo de tiempo entre el descubrimiento de la información y la adopción de medidas automáticas. El individuo como sujeto de la recopilación y el análisis de datos también puede ser casi al mismo tiempo objeto de una intervención, ya se trate de activar una alarma o la concesión (o denegación)de algún tipo de acceso (por ejemplo, para entrar por una puerta, usar un ordenador, o hacer una compra).
Las nuevas formas son relativamente baratas por unidad de datos recogidos. En relación con las formas tradicionales, es fácil combinar datos visual, auditivos, de texto y numéricos. Es relativamente fácil organizar, almacenar, recuperar, analizar, enviar y recibir datos. Se dispone de datos en tiempo real, y la recopilación de datos puede ser continua y ofrecer información sobre el pasado, presente y futuro (del tipo de predicciones estadísticas) Los modelos de simulación de comportamiento están creados.

La nueva vigilancia es más amplia, intensiva y extensiva. La relación de lo que las personas saben de sí mismos en relación con lo que la organización vigilando es menor que en el pasado, aun cuando objetivamente se sabe mucho más. Una manera de pensar sobre el tema es tomar nota de que muchos de los tipos de vigilancia, que alguna vez se encontraba sólo en la alta seguridad militar y los centros penitenciarios se filtren en el la sociedad en general. ¿Estamos avanzando hacia convertirnos en una sociedad de máxima seguridad donde se conoce más y más de nuestro comportamiento y sujetos a control?

Las seis características de la sociedad de máxima seguridad son (1) una sociedad dossier en la que los registros informáticos juegan un papel importante, (2) una sociedad actuarial en la que las decisiones cada vez más se toman sobre la base de las predicciones sobre el comportamiento futuro como un resultado de la pertenencia a, en comparación con la adhesión en, deagregar catagorías, (3) una sociedad sospechosa en la que se sospecha todo el mundo; (4) una sociedad de ingeniería en que las opciones son cada vez más limitadas y determinadas por el entorno físico y social; (5) una sociedad transparente en la que de los límites de tiempo, distancia, oscuridad, y barreras físicas que, tradicionalmente, protegía la información están debilitadas, y (6) una sociedad de autocontrol en la que autovigilancia desempeña un papel destacado.

4169E33F-EC09-41A2-B7EE-610C680A1E31.jpg

Lo delicado de los sitios de redes sociales son los datos puestos por los usuarios. La minería de datos, según la Wikipedia, consiste en la extracción no trivial de información que reside de manera implícita en los datos. Dicha información era previamente desconocida y podrá resultar útil para algún proceso. En otras palabras, la minería de datos prepara, sondea y explora los datos para sacar la información oculta en ellos. Para unos buenos resultados se amalgaman inteligencia artificial y en análisis estadístico. Con todo ello podemos ver elementos predictivos, clasificación y segmentación. Hay ejemplos que avalan esto.

Fusch (2009) habla de tres niveles:
El nivel de información (cognición, comunicación, cooperación) y el tipo de temporalidad caracteriza las tecnologías de ordenador en red. La sincronidad temporal significa que los usuarios están activos al mismo tiempo (“en tiempo real”), la temporalidad asíncrona que las acciones del usuario están desembebidos temporalmente. En ambos casos la tecnología habilita un desembebimiento espacial de los usuarios.
Otro aspecto de las tecnologías en red es el tipo de relación que capacita: relaciones uno-a-uno (u2u), relaciones uno a muchos (u2m), o relaciones muchos-a-muchos (m2m). Las tecnologías u2u permiten que un usuario se ponga en contacto con muchos otros usuarios individualmente, las u2m que permiten que un usuario se ponga en contacto con otros muchos y las m2m, que muchos usuarios se pongan en contacto con muchos otros. La siguiente tabla proporciones una tipología de las características de las tecnologías de Internet para cada uno de los tres aspectos de la información. Muestra qué tecnologías pertenecen a los niveles web 1.0, web 2.0 y web 3.0 (u2u: uno a uno, u2m (uno a muchos, m2m: muchos a muchos).

La cognición mediada por la web permite la comunicación mediada y viceversa. No hay un proceso de comunicación sin conocimiento. En la Web 3.0, una nueva calidad de manifiesto que es producido por las acciones comunicativas. Cierta cohesión entre los seres humanos involucrados es necesario. La comunicación mediada por la Web permite la cooperación de la mediación, y viceversa. No hay un proceso de cooperación sin la comunicación y la cognición. Las tres formas de socialidad (la cognición, la comunicación, cooperación) se encierran en sí. Cada capa es la base para la siguiente, que tiene propiedades emergentes. Con el término «web» no sólo significó la World Wide Web, pero cualquier tipo de tecno-red de información social en el que los seres humanos actúan con la ayuda de tecnologías de la información en red. Este gráfico muestra las 3 capas que establece Fusch de manera un poco confusa:

SNS_Surveillance_Fuchs.pdf (página 17 de 145).png

Castells (2009) parte de una forma activista de generar una identidad de cooperación estratégica sin entrar en un grado de competencia:

En un mundo de redes, la capacidad para ejercer control sobre otros depende de dos mecanismos básicos: 1) la capacidad de constituir redes y de programar/reprogramar las redes según los objetivos que se les asignen; y 2) la capacidad para conectar diferentes redes y asegurar su cooperación compartiendo objetivos y combinando recursos, mientras que se evita la competencia de otras redes estableciendo una cooperación estratégica.[…] Por ello sugiero que, en muchos casos, quienes ostentan el poder son, también, redes. No redes abstractas e inconscientes ni autómatas: se trata de seres humanos organizados alrededor de sus proyectos e intereses. Bruno Latour lo ha descrito brillantemente como actor-red.

Según M. Castells en su reciente libro (que antes se ha publicado en inglés con un retraso de más de un año) hay una serie de mecanismos para la creación de poder en las estructuras heterárquicas. Una de ellas es la programación y los enlaces. Opino que la «reconfiguración» de una red social es un elemento importante y poco tenido en cuenta. Cómo esta diseñada una red para hacer (o no hacer) determinadas interacciones es algo importante.
Otro a tener en cuenta es el control de los puntos de conexión entre diferentes redes estratégicas. Los links como expresión mínima, no son personas pero están formados por personas. Tomando a Latour son actores-red que interactúan en interfaces dinámicos y que sólo funcionan en un tiempo de conexión, luego queda la estela, el rastro en la estructura-red. La blogosfera, y su adyacente el microblogging actúan de igual manera que muchos tipos de redes políticas, científicas y mediáticas. La ofuscación en posicionarse y en estar de manera «persistente» hace que se desencadenen mecanismo de poder jerárquicos (la distribución de enlaces a uno mismo, la cantidad de estos en detrimento de la calidad, el establecer «amistades» débiles para generar unos pilares rocosos a la hora de mejor distribución de contenidos).
Lo rizomático en los génesis de Deleuze y Guattari es un contrapoder, es una forma de buscar mecanismos libres de poder. Por eso muchos de sus postulados son interesantes para entender redes «libres» de lo humano. Entender y comprender las redes (sociales) es una habilidad en este siglo. Entender que detrás de un enlace electrónico hay estructuras de poder y hay que analizar de donde viene, quien lo escribe, que intención tiene, cómo lo distribuye, si hay ambición SEO en el enlace, sino estaremos cayendo en la maraña de estas, en no diferenciar los tipos de información dirigida por las personas. Como dice L. Barabási las redes son la nueva geometría del mundo moderno. Comprenderlas se ha convertido en la disciplina que fue la ciencia de la cartografía hace siglos. Y no hablo de marketing ni de estrategias que es parece lo que se impone.

Según Foucault (1979) en una entrevista se ve que el centro de operaciones es «el individuo, con sus características, su identidad, en su hilvanado consigo mismo, es el producto de una relación de poder que se ejerce sobre los cuerpos, las multiplicidades, los movimientos, los deseos, las fuerzas». Esto es mucho más fácil implantarlo en un ambiente participativo en el que somos la propia «policia» de la autorregulación y el ecosistema de las interacciones. Una vigilancia invisible y omnipresente.
La participación es el punto de partida para una invisible surveillance, para establecer una rotonda autogestionada y donde el «otro» es el estadio de control. La cultura de enjambre serán nuestros próximos análisis dentro de comunidades de aprendizaje y práctica.

Bibliografía:
Albrechtslund, Anders. (2008). Online Social Networking as Participatory Surveillance. First Monday 13 (3).

Bogard, William (1996). The Simulation of Surveillance: Hypercontrol in Telematic Societies. Cambridge, UK: Cambridge University Press.

Browne, Rodrigo (2009). De la comunicación disciplinaria a los controles de comunicación: la antropofagia como transgresión cultural. Sevilla: Alfar.

Brookes, P. (2001). Electronic Surveillance Devices (2ª ed.). Oxford: Newnes.

Castells, M. (2009). Comunicación y Poder. Madrid: Alianza Editorial.

Foucault, M. (1979). Microfísica del poder (2ª ed.). Madrid: Las Ediciones de la Piqueta.

Fuchs, C. (2009). Social Networking Sites and Surveillance Society: a critical case study of usage of StudiVZ, Facebook, and MySpace by students in Salzburg in the context of electronic surveillance. Recuperado de http://fuchs.icts.sbg.ac.at/SNS_Surveillance_Fuchs.pdf

Mattelard, Armand (2009). Un mundo vigilado. Barcelona: Paidós.

Monahan, T.(ed.) (2006). Surveillance and Security: Technological politics and power in everyday life. New York ; London: Routledge.

Nilsson, F., & Axis, C. (2009). Intelligent Network Video: Understanding Modern Video Surveillance Systems. Boca raton: CRC Press.

Más información en el tag surveillance de mi Diigo: http://www.diigo.com/user/lernys/surveillance

Manifiesto ‘En defensa de los derechos fundamentales en Internet’

ley2.png

El problema de todo esto es que son actos simbólicos que no hacen daño ni socavan las invisibilidades del poder/gobierno y sus ramificaciones. Y por otro lado, somos cuatro pelagatos con respecto al número de Internautas y usuarios de Internet. Para luchar con esto hay que usar las mismas estrategias, organizarse, tener representación en su misma esfera política. Parece que se vive en mundos paralelos y que no les influye nada. Esto es la verdadera lucha de nuestro tiempo, un cambio que se debe realizar indefectiblemente en la sociedad del CONOCIMIENTO y que los poderes y loobys siguen o quieren mantener sus estrategias de negocio tradicional sin tener en cuenta que cada año que pasa les será más difícil su sostenibilidad y su desarrollo en un futuro. NO hay vuelta atrás Internet tiene el espíritu de los enlaces, de los intercambios, de las estructuras en red, colaborativas, de las interrelaciones establecida a través de intercambios. Si reprimes eso caerás en una economía precaria y que se comparará con los más bajos en la cola de la productividad-red. De todos modos aquí dejo este manifiesto.
Ante la inclusión en el Anteproyecto de Ley de Economía sostenible de modificaciones legislativas que afectan al libre ejercicio de las libertades de expresión, información y el derecho de acceso a la cultura a través de Internet, los periodistas, bloggers, usuarios, profesionales y creadores de internet manifestamos nuestra firme oposición al proyecto, y declaramos que…
1.- Los derechos de autor no pueden situarse por encima de los derechos fundamentales de los ciudadanos, como el derecho a la privacidad, a la seguridad, a la presunción de inocencia, a la tutela judicial efectiva y a la libertad de expresión.

2.- La suspensión de derechos fundamentales es y debe seguir siendo competencia exclusiva del poder judicial. Ni un cierre sin sentencia. Este anteproyecto, en contra de lo establecido en el artículo 20.5 de la Constitución, pone en manos de un órgano no judicial -un organismo dependiente del ministerio de Cultura-, la potestad de impedir a los ciudadanos españoles el acceso a cualquier página web.
3.- La nueva legislación creará inseguridad jurídica en todo el sector tecnológico español, perjudicando uno de los pocos campos de desarrollo y futuro de nuestra economía, entorpeciendo la creación de empresas, introduciendo trabas a la libre competencia y ralentizando su proyección internacional.

4.- La nueva legislación propuesta amenaza a los nuevos creadores y entorpece la creación cultural. Con Internet y los sucesivos avances tecnológicos se ha democratizado extraordinariamente la creación y emisión de contenidos de todo tipo, que ya no provienen prevalentemente de las industrias culturales tradicionales, sino de multitud de fuentes diferentes.

5.- Los autores, como todos los trabajadores, tienen derecho a vivir de su trabajo con nuevas ideas creativas, modelos de negocio y actividades asociadas a sus creaciones. Intentar sostener con cambios legislativos a una industria obsoleta que no sabe adaptarse a este nuevo entorno no es ni justo ni realista. Si su modelo de negocio se basaba en el control de las copias de las obras y en Internet no es posible sin vulnerar derechos fundamentales, deberían buscar otro modelo.
6.- Consideramos que las industrias culturales necesitan para sobrevivir alternativas modernas, eficaces, creíbles y asequibles y que se adecuen a los nuevos usos sociales, en lugar de limitaciones tan desproporcionadas como ineficaces para el fin que dicen perseguir.

7.- Internet debe funcionar de forma libre y sin interferencias políticas auspiciadas por sectores que pretenden perpetuar obsoletos modelos de negocio e imposibilitar que el saber humano siga siendo libre.

8.- Exigimos que el Gobierno garantice por ley la neutralidad de la Red en España, ante cualquier presión que pueda producirse, como marco para el desarrollo de una economía sostenible y realista de cara al futuro.

9.- Proponemos una verdadera reforma del derecho de propiedad intelectual orientada a su fin: devolver a la sociedad el conocimiento, promover el dominio público y limitar los abusos de las entidades gestoras.

10.- En democracia las leyes y sus modificaciones deben aprobarse tras el oportuno debate público y habiendo consultado previamente a todas las partes implicadas. No es de recibo que se realicen cambios legislativos que afectan a derechos fundamentales en una ley no orgánica y que versa sobre otra materia.

NOTA: Este manifiesto fue redactado conjuntamente por periodistas, bloggers e internautas, en una maratoniana sesión durante la tarde-noche de ayer. Si estás de acuerdo, difúndelo por todas las vías que puedas.

Mapa conceptual sobre buscadores y alguna reflexión

Presento en este post un mapa conceptual que he preparado para la comunidad de aprendizaje en la que estamos inmersos ahora. He diferenciado (aunque se que hay más tipos y subtipos de clasificación) los siguientes tipos de búsquedas:

  • La búsqueda tradicional en la tiene todavía un gran mercado y suele ser el primer contacto a la hora de las búsquedas cuando se entra en Internet.
  • Multibuscadores o metabuscadores. Otro ámbito clásico y que están aquí desde los primeros tiempos de la Word Wide Web.
  • Buscadores visuales, que son aquellos que usan lo gráfico para establecer los resultados de una búsqueda y sus posibles clusters.
  • Y por último, la búsqueda social, un gran subapartado con influencias y ramificaciones. Creo que la búsqueda social hay influencias del P2P (que expresa bien H. Rheingold en Smart Mobs), las propias redes sociales generalistas, el uso de las búsquedas en tiempo real y los marcadores sociales. Al que se pueden hacer subramificaciones con la posibilidad de filtrado (búsqueda social filtrada por amigos), el concepto de inteligencia colectiva en las búsquedas (búsqueda social colectiva) y el sentido colaborativo como lo podían hacer en su época los foros (búsqueda colaborativa de pregunta-respuesta).

La nueva versión de Google Search Social va permitir tener resultados de búsqueda de los contenidos creados por sus amigos en redes sociales. Todo ello hace que los buscadores se socialicen, se hagan «networking». La situación en estos momentos es que Google dispone de Twitter, pero no de Facebook. Bing dispondrá en breve de los contenidos de Facebook, de los perfiles que estén en abierto y también de Twitter.
Una de las grandes ventanjas de Twitter es que mucho de su contenido está en abierto, algo que Facebook por la capacidad de gestión del usuario puede hacer que su perfil y contenido sea totalmente privado, con lo que los buscadores no pueden indexarlo.

Google anunció un acuerdo con Twitter hoy también. Así que Bing tiene Twitter y Facebook. Facebook ha Bing-powered de búsqueda web. Google sólo tiene Twitter, no la búsqueda Facebook.
La guerra en este sentido está servida. El contenido generado por el usuario cada vez es más preponderante en la capacidad de generar beneficios a través de las redes sociales. La misma red de «networking» Linkedin ha abierto su plataforma a terceros, para poder generar actividad a este respecto.

Mapa conceptual hecho con MindMeister y MindManager sobre los diferentes tipos de buscadores

Mapa conceptual hecho con MindMeister y MindManager sobre los diferentes tipos de búsquedas.

Ver en nueva ventana.

« Entradas anteriores Entradas siguientes »