Reflexiones sobre ecologías y espacios del aprendizaje, análisis del aprendizaje y análisis de redes sociales, visualización de datos, Big Data y otros temas emergentes

Categoría: Internet (Página 2 de 19)

El “tsunami” de la ecología informacional

Si consideramos a la información como un organismo mutante y diluido, sólo lograremos que los datos nos apabullen de tal manera, que quedemos «enterrados» ante tal inmensidad. Los datos y el tráfico de Internet son como un «tsunami» que nos está exigiendo otra forma de estructurar las ideas y el pensamiento, que está cambiando la manera de interrelacionarnos y, sobre todo, de ver que no tenemos a donde asirnos para explicar cualquier área del conocimiento con solvencia y sostenibilidad. Ya no existe. La velocidad informacional como metástasis está provocando un cambio (a veces radical) en las estructuras organizativas. Todo es confuso, misceláneo y heterogéneo.
Esto viene a cuento del excelente post de Cristobal Cobo que a partir de otro de George Dvorsky (y remezclando con otro de Laura Siri en el que se pregunta ¿Cuánta información hay en el mundo?) nos muestra unos datos que dan pie para la reflexión. Me permito copiarlo de C. Cobo con su permiso:

  • La cantidad de información creada en 2007 estuvo a punto de sobrepasar, por primera vez, la capacidad física de almacenamiento disponible (ver imagen).
  • La cantidad de información digitalizada fue 3 millones de veces mayor que la de todos los libros escritos.
  • En 2006, la cantidad de información digital creada, capturada y replicada fue de 161 exabytes o 161 billones de gigabytes. Esto es más de lo generado en los 5000 años anteriores.
  • Se generan 45 gigabytes de información digital por cada persona. Un tercio lo produce ella directamente y los otros dos escapan a su control.
  • Se envían mundialmente 60 mil millones de e-mails por día.
  • En 1997 existía 1 millón de sitios web, en el 2000 pasaron a ser 10 millones. En el 2006 la cifra alcanzaba los 105 y en el 2007 superó los 155 millones de sitios Web.
  • Hay cerca de 74 millones de blog y en las últimas 24 horas se generaron más de 100 mil.
  • Se hacen más de 2700 millones de búsquedas en Google cada mes en todo el mundo. A Google le cuesta cerca de un millón de dólares diarios mantener y actualizar el hardware por indexación.
  • Google almacena 850 TeraBytes en Google Search; 220 TeraBytes – Google Analytics; 70.5 TeraBytes – Google Earth; 9 TeraBytes – Orkut; 4 TeraBytes – Personalized Search y 2 TeraBytes – Google Base.
  • Flujo de datos
    Fuente: iStockphoto
    1 byte: Una letra
    10 bytes: Una o dos palabras
    100 bytes: una o dos frases
    1 kilobyte: Una muy breve historia
    10 kilobyte: Una enciclopedia de la página (quizá con una simple foto)
    100 kilobytes: Una fotografía de resolución media
    1 megabyte = 106: Una novela
    10 megabytes: Dos ejemplares de las obras completas de Shakespeare
    1 gigabyte = Una camioneta llena de páginas de texto
    1 terabyte = 50.000 árboles de papel
    10 terabytes: La colección impresa de la Biblioteca del Congreso de USA (que consta de 130 millones de artículos en alrededor de 530 millas de libros, entre ellos 29 millones de libros, 2,7 millones de grabaciones, 12 millones de fotografías, 4,8 millones de mapas y 58 millones de manuscritos).
    1 petabyte = El Archivo de Internet Wayback Machine contiene casi 2 petabytes de datos y en la actualidad está creciendo a un ritmo de 20 Terabytes por mes.
    1 exabyte = Estudios de Berkeley estiman que a fines de 1999 la suma de los conocimientos producidos en humanos (incluidos todos los de audio, grabaciones de vídeo y texto / libros) fue cerca de 12 exabytes de datos.
    1 zettabyte = La IDC estima que para el año 2010, habrá 988 exabytes, poco menos de una zettabyte, en todas las computadoras de almacenamiento en todo el mundo.
    1 yottabyte = IBM calcula que después de 2010 el volumen de datos accesibles en línea, ya sea en Internet o en redes corporativas se espera que acercarse a un yottabyte, o 1 billón de terabytes

    Con esto datos (al final datos) podemos inferir que saber manejarse por este mar de datos es algo fundamental para la competencia educativa de gestionar la información, estructurarla, remezclarla/sintetizarla y abstraerla a un plano de conocimiento. Un reto importante en los tiempos que vivimos.

    BECTA: Emerging Technologies for Learning, vol. 3 (2008)

    Acaba de salir el tercer volumen de «Emerging technologies for learning«, publicado por Becta. Informe serio y preocupado por los resortes que mueven las nuevas generaciones. Algunos de sus capítulos son:

    • Growing up with Google: what it means to education escrito por Diana Oblinger
    • Mobile, wireless, connected: information clouds and learning de Mark van’t Hooft
    • Location-based and context-aware education: prospects and perils de here Adam Greenfield
    • Emerging trends in serious games and virtual worlds de Sara de Freitas
    • If it quacks like a duck…’ Developments in search technologies de Emma Tonkin
    • Interactive displays and next-generation interfaces de Michael Haller

    Uno de los capítulos que me interesa es el proceso de contextualización que permitirá la computación ubícua y las tecnologías de geoposicionamiento en entornos móviles.

    Los diversos capítulos exploran la «net generation», ciudadanos que se pueden desenvolver de la misma manera en su vida reales o digitales. Analiza las implicaciones para el mundo educativo de la convergencia de dispositivos móviles, conectividad wi-fi penetrante y aplicaciones y servicios de internet. Aborda el desarrollo de mundos virtuales y de «juegos serios», así como se pueden usar de esas tecnologías de la mejor manera para apoyar un aprendizaje más rico. Analiza el problema de encontrar y buscar contenido digital en la web y las limitaciones de los sistemas actuales. También considera el potencial de algunas tecnologías emergentes en cuanto a su visualización e interfaces, que incrementen la interacción con los ordenadores y faciliten actividades colaborativas de formas más naturales e intuitivas.

    Seguir leyendo

    Contextualizando el aprendizaje: metodologías de aprendizaje en entornos virtuales 3D

    Este post es una explicación a la confusión de las posibles aplicaciones de teorías de aprendizaje en el entorno de Internet. Algunos de los posibles métodos de aprendizaje en red y en mundos virtuales 3D son: aprendizaje haciendo (learning by doing), aprendizaje por descubrimiento, aprendizaje generativo, aprendizaje basado en problemas (ABP), aprendizaje contextualizado (Learner Generated Contexts) y aprendizaje colaborativo.
    Los limites de estas teorías no están demarcadas, con lo cual unos estilos son compatibles con otros. Muchas de estas formas no están desarrolladas en nuestro país debido a que no hay una infraestructura abierta y adecuada para ello (tengo que decir que he visto excepciones en los campus de nuestro territorio): no presencia de rúbricas, ni espacios de practicum inmersivos, ni e-portafolios, ni una estructura de red conectiva, ni la inclusión de actividades para un aprendizaje informal en comunidades (reforzando así el conocimiento tácito).
    Debemos ser conscientes de estas debilidades y ver que hay teorías y tipos que pueden explicar meridianamente por qué usamos tales tecnologías dentro de un ámbito de normalidad y cotidianidad de la cibersociedad.
    Dentro de los ámbitos de la EEES y de la pedagogía tecnológica, el aprendiz o estudiante es el centro del aprendizaje y generador del mismo, algo que debemos tener en cuenta a la hora de elaborar tareas formativas que comprometan con el aprendizaje de los estudiantes (palabra muy de moda en muchos estudios anglosajones: engaged).
    Seguir leyendo

    « Entradas anteriores Entradas siguientes »