Si consideramos a la información como un organismo mutante y diluido, sólo lograremos que los datos nos apabullen de tal manera, que quedemos «enterrados» ante tal inmensidad. Los datos y el tráfico de Internet son como un «tsunami» que nos está exigiendo otra forma de estructurar las ideas y el pensamiento, que está cambiando la manera de interrelacionarnos y, sobre todo, de ver que no tenemos a donde asirnos para explicar cualquier área del conocimiento con solvencia y sostenibilidad. Ya no existe. La velocidad informacional como metástasis está provocando un cambio (a veces radical) en las estructuras organizativas. Todo es confuso, misceláneo y heterogéneo.
Esto viene a cuento del excelente post de Cristobal Cobo que a partir de otro de George Dvorsky (y remezclando con otro de Laura Siri en el que se pregunta ¿Cuánta información hay en el mundo?) nos muestra unos datos que dan pie para la reflexión. Me permito copiarlo de C. Cobo con su permiso:
La cantidad de información creada en 2007 estuvo a punto de sobrepasar, por primera vez, la capacidad física de almacenamiento disponible (ver imagen).
La cantidad de información digitalizada fue 3 millones de veces mayor que la de todos los libros escritos.
En 2006, la cantidad de información digital creada, capturada y replicada fue de 161 exabytes o 161 billones de gigabytes. Esto es más de lo generado en los 5000 años anteriores.
Se generan 45 gigabytes de información digital por cada persona. Un tercio lo produce ella directamente y los otros dos escapan a su control.
Se envían mundialmente 60 mil millones de e-mails por día.
En 1997 existía 1 millón de sitios web, en el 2000 pasaron a ser 10 millones. En el 2006 la cifra alcanzaba los 105 y en el 2007 superó los 155 millones de sitios Web.
Hay cerca de 74 millones de blog y en las últimas 24 horas se generaron más de 100 mil.
Se hacen más de 2700 millones de búsquedas en Google cada mes en todo el mundo. A Google le cuesta cerca de un millón de dólares diarios mantener y actualizar el hardware por indexación.
Google almacena 850 TeraBytes en Google Search; 220 TeraBytes – Google Analytics; 70.5 TeraBytes – Google Earth; 9 TeraBytes – Orkut; 4 TeraBytes – Personalized Search y 2 TeraBytes – Google Base.
Fuente: iStockphoto
1 byte: Una letra
10 bytes: Una o dos palabras
100 bytes: una o dos frases
1 kilobyte: Una muy breve historia
10 kilobyte: Una enciclopedia de la página (quizá con una simple foto)
100 kilobytes: Una fotografía de resolución media
1 megabyte = 106: Una novela
10 megabytes: Dos ejemplares de las obras completas de Shakespeare
1 gigabyte = Una camioneta llena de páginas de texto
1 terabyte = 50.000 árboles de papel
10 terabytes: La colección impresa de la Biblioteca del Congreso de USA (que consta de 130 millones de artículos en alrededor de 530 millas de libros, entre ellos 29 millones de libros, 2,7 millones de grabaciones, 12 millones de fotografías, 4,8 millones de mapas y 58 millones de manuscritos).
1 petabyte = El Archivo de Internet Wayback Machine contiene casi 2 petabytes de datos y en la actualidad está creciendo a un ritmo de 20 Terabytes por mes.
1 exabyte = Estudios de Berkeley estiman que a fines de 1999 la suma de los conocimientos producidos en humanos (incluidos todos los de audio, grabaciones de vídeo y texto / libros) fue cerca de 12 exabytes de datos.
1 zettabyte = La IDC estima que para el año 2010, habrá 988 exabytes, poco menos de una zettabyte, en todas las computadoras de almacenamiento en todo el mundo.
1 yottabyte = IBM calcula que después de 2010 el volumen de datos accesibles en línea, ya sea en Internet o en redes corporativas se espera que acercarse a un yottabyte, o 1 billón de terabytes
Con esto datos (al final datos) podemos inferir que saber manejarse por este mar de datos es algo fundamental para la competencia educativa de gestionar la información, estructurarla, remezclarla/sintetizarla y abstraerla a un plano de conocimiento. Un reto importante en los tiempos que vivimos.
Comentarios recientes