Blog de Fernando Santamaría

Reflexiones sobre ecologías y espacios del aprendizaje, análisis del aprendizaje y análisis de redes sociales, visualización de datos, Big Data y otros temas emergentes

Página 19 de 161

Prever el futuro de la tecnología educativa #infografía

La educación se encuentra en una encrucijada singular en la sociedad. Por un lado, tiene la responsabilidad de anticiparse a la vida real, con las habilidades mediante la preparación de nosotros para un mundo cada vez más complejo – pero las metodologías de educación sólo puede ser formalizadas después de las prácticas se han definido. Esta dicotomía es particularmente grave cuando se trata de la tecnología, donde la acelerada innovación y el cambio permanente es la única constante frente al  diseño curricular delimitado y restrictivo.

Esta visualización infográfica trata de organizar una serie de tecnologías emergentes que pueden influir en la educación en las próximas décadas. A pesar de su naturaleza inherentemente especulativa, las tendencias que impulsan las tecnologías y que ya se puede intuir. Se trata de una cuestión de tiempo antes de que estos escenarios inicien la exploración en los entornos de aprendizaje de todo el mundo (gameficación, clases digitalizadas, computación tangible, estudios físicos y virtuales, holografías, pantallas retinales, neuroinformática, etc).

Grafo de los hubs o targets más interesantes para un futuro próximo

Grafo de los hubs o targets más interesantes para un futuro próximo

Fuente: http://j.mp/NYVPuX [imagen]

y http://edudemic.com/2012/07/future-of-education-technology/

#Alternativas: la economía del bien común de Christian Felber

Desde este blog iremos poniendo alternativas económicas y sociales ante la muerte lenta de este capitalismo tal como lo conocemos hasta ahora. Ya he hablado de la escuela comunal. Necesitamos saber y estar informados. Pediría  las organizaciones y empresas que si se quieren sumar pueden hacerlo (mirar en la parte final de este post). La economía del bien común es un libro de 150 páginas que se publicó el 16 de agosto de  2010 en la editorial vienesa Deuticke. A principios del mes de junio se ha publicado en español en la Editorial Deusto y me lo he pillado en versión electrónica.

Los fundamentos teóricos habían sido elaborados en un libro precedente «Nuevos valores para la economía”, del mismo autor (Deuticke, 2008).
Desde entonces, una veintena de empresarios ha participado en la tarea de desarrollar y detallar el modelo. Uno de los objetivos de la publicación del libro es escapar de la estéril dicotomía “lo que no es capitalismo tiene que ser comunismo” y ofrecer una alternativa sistémica humana. En el apéndice del libro, 70 empresas apoyan el modelo con su firma – lo cual es una señal de que el modelo no sólo es una hermosa idea utópica, sino que ha emergido desde la práctica empresarial. Hoy, unas 250 empresas apoyan el modelo y 70 se han decidido a implementarlo. Se puede resumir algunos de los temas tratados en el libro en 15 puntos:
1. La economía del bien común reposa sobre los mismos valores que hacen florecer nuestras relaciones interhumanas: confianza, cooperación, aprecio, co-determinación, solidaridad, y acción de compartir. (Según recientes investigaciones científicas, las buenas relaciones interhumanas son uno de los factores que más contribuyen tanto a motivar a los seres humanos como a hacerlos felices. De este tema habla Y. Benkler en «El Pingüino y el Leviatán». Ver capítulo 1 en Google Play. Yo lo tengo en papel)
2. En la economía del bien común el marco legal experimenta un giro radical al pasar de estar orientado según los principios de competencia y avidez de lucro a los de cooperación y solidaridad. El significado del éxito empresarial cambia de beneficio financiero a contribución al bien común.
3. El bien común será predefinido en un proceso participativo desde abajo y luego pasado a una asamblea democráticamente elegida y anclada en la constitución a través de referéndum.
4. Un nuevo balance principal mide el bien común: el balance del bien común. Este balance mide rendimientos sociales, ecológicos, democrátios y de justicia distributiva, cuyo conjunto constituye el nuevo sentido de “éxito empresarial”. Este ya no se mide en términos monetarios, sino en puntos neutrales. El máximo que se puede alcanzar son 1000 puntos del bien común.
5. Las empresas con los mejores balances disfrutan de incentivos y ventajas legales que les permiten cubrir sus costes mayores y ofrecer los productos éticos a precios inferiores que los no éticos: tasas de impuestos reducidas, créditos con interés reducido, prioridad en la compra púbica y programas de investigación, …
6. El balance financiero será el balance secundario. El beneficio financiero, antes el fin de la actividad empresarial, se convierte ahora en un medio del nuevo fin: el bien común. Eso significa que sólo serán permitidas aquellas aplicaciones del beneficio financiero que aumenten el bien común: inversiones (con plusvalía social y ecológica), repago de créditos, reservas (limitadas), distribución a los que crean la plusvalía (máximo: 20 veces el salario mínimo) y créditos sin interés a co-empresas; mientras que las aplicaciones que reduzcan el bien común ya no serán legales: inversiones en los mercados financieros, adquisiciones hostiles, distribución a personas que no trabajan en la empresa, donaciones a partidos políticos.
7. Como el beneficio financiero ya no es un fin en sí mismo, las empresas recuperan la libertad de aspirar a su tamaño óptimo. Ya no tienen que temer que otras empresas se las “traguen” y ya no les estará permitido tragarse a otras empresas; no necesitarán tener que crecer para ser más lucrativas, poderosas o fuertes que l@s competidor@s. Todas las empresas serán redimidas de la coerción estructural de tener que crecer y devorarse mutuamente. Las desigualdades en las rentas y en la propiedad serán limitadas: la renta máxima no puede ser más de 20 veces la renta mínima; la propiedad privada no puede exceder 10 millones de euros;
el derecho heredetario se limita a medio millón de euros por persona, en el caso de empresas familiares a diez millones de euros por persona. Herencias que excedan estos límites serán distribuidas como “dote democrática” a miembros de la generación siguiente. El objetivo de la “herencia máxima” y “herencia mínima”: Cuanto más justamente distribuido esté el capital inicial tanto mayor será la igualdad de oportunidades.
9. Empresas grandes con más de 250 empleados pasan parcialmente a la propiedad de l@s emplead@s y l@s ciudadan@s; empresas con más de 5.000 emplead@s al cien por cien. L@s ciudadan@s serán representad@s por delegad@s directamente elegid@s en „parlamentos económicos regionales”. El gobierno no puede intervenir ni tiene propiedad en esas empresas.
10. El gobierno tampoco puede tocar los «bienes democráticos“ (esos bienes comunes), la tercera categoría de propiedad aparte de la gran mayoría de pymes privadas y unas cuantas grandes empresas de propiedad mixta. Bienes democráticos pueden ser: escuelas,universidades, hospitales, empresas de abastecimiento de agua y energía, telecomunicación, transporte público o bancas: la infraestructura básica.
11. Un bien democrático clave es «el banco democrático“ (Nota mía: la banca cívica es un paso intermedio). Este banco sirve – como todas las empresas – al bien común y está controlado como todos los bienes democráticos por la ciudadanía soberana y no por el Gobierno. Su servicio consiste en depósitos garantizados, créditos de interés reducido y cuentas corrientes gratuitas. Los mercados financieros tal y como se presentan hoy ya no existirán.
12. La democracia representativa será complementada por la democracia directa y la participativa. El pueblo soberano tiene el derecho a a) corregir a sus representantes (el parlamento y no tienen por que durar 4 años), b) iniciar y adoptar leyes, c) iniciar y adoptar un cambio de la Constitución, y d) controlar áreas claves de la economía como los bienes democráticos.
13. Aparte de la asamblea económica [del bien común] habrá otras convenciones para profundizar la democracia: convención para la educación, una convención para la democratización de los medios de comunicación, y una convención para la creación de bienes democráticos.
14. Para anclar los valores de la economía del bien común en las generaciones futuras tan profundamente como hoy está arraigada en la generación actual la visión del ser humano socialdarwinista y capitalista, propongo cinco nuevas asignaturas obligatorias: emocionología, ética, comunicación, educación democrática y experiencia de la naturaleza.
15. Como la noción de «éxito empresarial“ será diferente en la economía del bien común, otras competencias de gestión serán las más solicitadas. Las personas más responsables, sociables, empáticas y capaces de atender al bien de tod@s y de la comunidad ecológica, serán l@s modelos apreciad@s por la sociedad y las más buscadas por las empresas.

Las empresas que quieran apoyar el modelo de la economía del bien común pueden ponerse en contacto directamente con el autor (que domina bien el espanol): www.christian-felber.at o subscribirse directamente en la página web en la categoría «Unternehmen“. Está planeada una versión en español: www.gemeinwohloekonomie.org

Ver vídeo del mismo autor explicando la economía del bien común en Attac Tv:

 

Christian Felber – La Economía del Bien Común from ATTAC.TV on Vimeo.

Referencias:

Relación con la economía del comunal desde los buenos de El correo de las Indias.

Fuente: La economía del bien común: el modelo económico del futuro [pdf o aquí]

Las ciudades de los datos y empoderadas por la ciencia de los ciudadanos (II)

Información suave pero implacable llovizna sobre nosotros en una lluvia eléctrica, invisible e impalpable. Codificado en las ondas de radio que llenan la atmósfera, sus brumas llenan el aire, que pasa a través de las paredes de nuestras casas y penetrar en nuestros propios cuerpos.

Estas fueron las primeras palabras del físico Hans Christian von Baeyer en su libro «Information: The New Language of Science» (2005). La declaración no es sólo una metáfora interesante para nuestro mundo contemporáneo inundado de datos, sino una aguda mirada hacia el futuro. Si la visualización ha desempeñado hasta ahora un papel fundamental como un filtro de relevancia verificado, la divulgación de los patrones imperceptibles y las conexiones ocultas de esa lluvia eléctrica de la que habla Hans Christian, simplemente se convertirá en indispensable como las gotas de agua que rápidamente se convierten en un aguacero torrencial. La visualización llegará a ser imprescindible no sólo como una respuesta a la creciente oleada de datos, sino también como un mecanismo de apoyo a los distintos avances políticos, económicos, culturales, sociológicos y tecnológicos que configuran los próximos años.           

Algunos de los topics que están emergiendo y que tendrán un papel relevante en el mundo de la visualización son la visualización ubicua, la recopilación de datos sociales en la que el ciudadano tendrá un amplio protagonismo, la neocartografía, la visualización ambiental, la inteligencia colectiva y el tipo de redes por medio de sensores y la interconectividad inalámbrica ad hoc.

Los principios

En los años 30 del siglo pasado un antropólogo, un poeta y un cineasta comenzaron un proyecto en el Reino Unido, llamado Mass-Observation (Observación de masas), en el que el objetivo era lograr una mejor comprensión de su comunidad. Se pidió a los participantes que llevasen un diario que documentase su vida cotidiana. A veces se daba a los participantes objetivos específicos, como contar cuántas personas en un pub llevaban sombreros. Otras veces, el tema de la documentación fue de composición abierta con muy poca o ninguna estructura. El resultado colectivo fue una micro-visión del Reino Unido, hecho posible  gracias a miles de personas que trabajaban hacia un objetivo común. Estos diarios fueron significativos para las personas que los mantenían pero que también proporcionaron  algo útil como un conjunto. Esto, por supuesto, fue antes de los ordenadores e Internet.

Los desarrollos tecnológicos actuales ofrecen la oportunidad de recoger datos de la misma veta que Mass-Observation (esta organización sigue en pie y adaptada a los tiempos que corren) en una escala mucho mayor, aún más detallada. Podemos utilizar los avances tecnológicos, como teléfonos móviles e Internet, para recopilar información sobre nuestro entorno y nosotros mismos. Una persona puede recolectar miles de puntos de datos en un solo día sin ni siquiera pestañear o usar un lápiz y un bloc de notas. Cientos de miles de personas que forman parte de este mundo digital de ritmo rápido.

Las ciudades dinámicas a partir de sus datos

Ciudades inteligentesSegún Fran Castillo nos descubre una Internet de las ciudades y de las ciudades en tiempo real. Por todo ello este autor cree que estamos involucrados en la exploración de nuevos modelos de ciudades dinámicas. En paralelo a la evolución del modelo «Internet de las Cosas», en el que el cálculo micro está integrado en el diseño de objetos, está emergiendo el modelo Internet de las ciudades: consiste en varias capas interconectadas de energía, de movilidad y de información, como un ejemplo de una de sus capas, la Internet de la Energía. Se propone, este autor, un nuevo modelo de generación distribuida y gestión de la energía sobre la base de la infraestructura info-energética. Le ha llamado Open Energy. En el modelo, Internet de las Ciudades, el cálculo se distribuye entre la infraestructura urbana, el despliegue de la tecnología de redes de sensores que permitirá el seguimiento de los diferentes entornos urbanos y con parámetros de energía concretos. Esta tecnología produce una gran cantidad de datos (Big Data). La exploración y el análisis de estas estructuras de datos a través del diseño de sistemas de visualización (e interacción) que nos permitirá mostrar nuevas dinámicas de comportamiento en la ciudad y también nuevas dinámicas humanas. Alrededor de la confluencia entre la ciudad y de datos (Ciudad de sensores de datos) surge el concepto de Ciudad en tiempo real, en el que se explicita una dimensión evolutiva, auto adaptable y dinámica en los sistemas de información que constituyen este nuevo modelo de ciudad, por lo tanto, los ciudadanos pueden cambiar su patrones de comportamiento en relación con estos sistemas de información, creando una reconfiguración dinámica de la ciudad.

Con estos avances vienen una serie de aplicaciones posibles. Un área es la ciencia de los ciudadanos (citizen science y dos referencias: 1, 2), que se basará sobre los tres principios de la dinámica humana (de su corazón) que postula Sandra Seagal (1997): mental, emocional y físico. Las personas pueden tomar roles activos en su comunidad mediante la recopilación de datos acerca de lo que les rodea, contribuyendo a una base de datos común que los expertos a su vez puede analizar para encontrar soluciones a los problemas locales. Por ejemplo, las personas pueden reportar los niveles de tráfico, niveles atmosféricos, donde hay actividad en una ciudad, cuales son los puntos informativos candentes a nivel local, rutas/trayectorias retroalimentadas, ya que a su vez podría ayudar a otros a encontrar la mejor ruta a casa o al trabajo en tiempo real. Los ciudadanos pueden recoger los niveles de contaminación en su área, que en conjunto podrían proporcionar un punto de vista de la calidad del aire de la ciudad y proporcionar una dirección clara para la política pública. También se pueden medir temas menos formales, como ayudar a las personas a encontrar un lugar divertido para pasar el rato.

Es fácil ver el potencial de estas ideas. Sin embargo todavía estamos muy al comienzo de la recolección de datos sociales, o de detección de la participación. Antes de chocar con cualquier acontecimiento importante y realmente hacer uso de estos nuevos flujos de datos y las trayectorias. Hay tres áreas principales según Ethan You en las que tenemos que trabajar: recolección, análisis e interacción.

Recolección de datos
Con el enorme crecimiento y adopción de la tecnología móvil, la recolección de datos es más fácil que nunca. Podemos grabar nuestra posición cada pocos segundos con los dispositivos GPS, tomar fotos digitales a nuestro antojo y enviar mensajes de texto en cualquier lugar donde haya conectividad y la geolocalización. Algunos flujos de datos de este tipo se autoactualizan automáticamente de manera transparente. Otros son manuales e involucran procedimientos de recolección más activos. De cualquier manera, una de las claves para la recolección de datos es hacer que el proceso sea fácil y se entrelace con las actividades diarias.

Millones de personas alrededor del mundo poseen teléfonos móviles propios y se suscriben a los servicios de modo que están conectados en casi todos los lugares a donde van. Estos teléfonos podrían ser reutilizados en los dispositivos de recopilación de datos con el software que hace que el smartphone recupere los datos un par de veces por minuto para que la gente pueda recogerlos en casi cualquier lugar a donde vayan. Los programas se podrían crear para permitir a los usuarios que tomen fotografías y las anoten junto con la ubicación y los metadatos. Aplicaciones que cada vez serán más sencillas en el uso de metadatos colectivos e integración en dispositivos móviles.

Por supuesto que no es tan fácil como parece. Igual que con cualquier experimento, hay muchas vueltas que dar para resolver antes de ir al paso siguiente y su recopilación. La conectividad, por ejemplo, inevitablemente irregular en algunas áreas. Junto con la conectividad y el almacenamiento vienen los problemas de sincronización con el teléfono y el servidor o los sistemas en nube que se están desplegando.

Después están la cuestión de la privacidad de los datos. ¿Quién ve los datos cuando se carga en el servidor? ¿Qué tan seguros son sus datos y cuánto tiempo va a permanecer en la memoria? Algo de lo que no tenemos conciencia por su automatismo, algo que creo que se trata de otro “pozo de la privacidad” en el que dejamos pasar como si no fuera grande. Si los datos son utilizados para la investigación, son los datos correctamente «anónimos»? Por ejemplo, algunos no le importe compartir lo que comen, pero la mayoría de las personas no se sienten cómodos revelando su ubicación cada minuto del día.

En definitiva, se trata de temas a tratar, manteniendo la transparencia para el usuario. Cuando el usuario, que no está necesariamente capacitado profesionalmente para hacer frente a los datos, se convierte en un analista, es importante que sepa lo que está pasando.

Análisis
Una vez que hay flujos de datos para trabajar, tenemos que decidir qué hacer con ellos en esta economía de la abundancia. Hay una tendencia a mostrar todos los datos a la vez, lo cual puede ser apropiado a veces, pero ¿qué sucede cuando hay demasiados como para caber en una sola pantalla? En estos casos, en que en número continúan creciendo, el análisis tiene lugar entre la recolección de datos y el uso final en estado de background. Los algoritmos y las técnicas estadísticas tradicionales ayudan a localizar los puntos útiles en los datos, los que después se visualizan.

Por ejemplo, imagine un teléfono con cámara programado para tomar varias fotos por minuto, quizá con la intención de examinar con quien interactuamos o los alimentos que comemos durante un solo día. Sin algoritmos apropiados para refinar los datos, los cientos de miles de imágenes son difíciles de procesar. Nuestros cerebros son muy buenos en la búsqueda de patrones, pero cuando tenemos gigabytes o terabytes de información, es fácil ver como podrían perderse detalles importantes. El análisis no sólo ayuda a encontrar los puntos de interés en nuestros datos, sino que también filtra los valores atípicos, incluso archivos corruptos y, por otro lado, automatiza tareas tediosas como la clasificación y correlación.

Interacción
Una vez que la información está en la base de datos y adecuadamente repasada, por fin podemos ver nuestro mundo en los datos a través de la visualización. Con la creciente cantidad de datos, se han aplicado muchas herramientas, algunas artísticas, algunas análiticas y otras en el medio, para proporcionar una vista única de nuestro entorno. Y la web ha hecho que sea mucho más fácil propagar estas ideas.

La cartografía dinámica en línea, también llamada neocartografía, ha llevado a interfaces intuitivas en un entorno geográfico familiar para que todos los usuarios accedan a la información específica acerca de su país o ciudad. ¿Qué ocurriría si fuésemos capaces de ver lo que estaba pasando en la comunidad de vecinos desde  el punto de vista de los datos?  ¿Qué farolas son las que parpadean por la noche? O ¿Acaso los niveles de ruido son demasiado altos en medio de la noche? Todo será posible en tiempo real. Las personas pueden acceder a esta información, que no satisface la curiosidad sino que también proporciona evidencia cuantitativa que se pueden usar en los sectores públicos y las reuniones del Consejo o suministrada a los responsables políticos. Los participantes también pueden recoger y agregar información acerca de sus propios barrios. Así, mientras que las personas interactúan con los datos a través de un ordenador, realmente son capaces de mejorar sus comunidades.

Aunque no todos los que «analizan» estos datos tienen un trasfondo en las técnicas adecuadas, debe desarrollarse un cierto nivel de alfabetización en los datos. La visualización será esencial para hacer los datos más accesibles y se debe tener competencias de lectura de datos ambientales en el entorno de una ciudad inteligente. 

¿Y en un futuro?

Al final, todo se reduce a los datos. Todo se reduce a la persona que toma un interés por su entorno. No todas los ciudadanos serán activos. La visualización sólo es tan buena como lo son los datos que la crean y conforman, y si no hay datos, no hay nada que analizar, no hay una nueva comprensión del mundo.

Si nadie hubiera enviado a revistas para la observación de masas, no habría narración localizada en los archivos de Gran Bretaña. Hemos recorrido un largo camino desde los primeros años del siglo XX. La recolección de datos es mucho más fácil hoy en día, y tenemos la oportunidad de implicar a no profesionales en la visualización y análisis. De alguna manera, esto ya está ocurriendo con el microblogging en las aplicaciones sociales como Twitter y Facebook, o con información ciudadana en los sitios populares de noticias, con el periodismo de datos. El siguiente paso es añadir la estructura y las herramientas que se aprovechan de estas aplicaciones abiertas (fundamental para que todo esto funcione), y cuando eso sucede, obtener micro-puntos de vista de nuestro vecindario. Pero de manera más importante, vamos a empezar a ver relaciones por descubrir entre barrios y comparativas de estos, comunidades, estados, países y continentes. Veremos cómo nosotros, como individuos, interactuamos con nuestros alrededores y cómo podemos usar esa información para mejorar y para cambiar decisiones tomadas en modo autocuantificación personal. Todo un negocio en un futuro. Los ordenadores e Internet, a menudo, se consideran como la tecnología que nos aleja del mundo físico y de las interacciones sociales. Todo lo contrario. Cada vez que avancemos en esta línea de futuro y a través de los datos, la visualización y las interfaces, puede acercarnos de forma transparente y casi de forma invisible a esas capas informacionales de estas ciudades inteligentes. Serán casi invisibles por medio de las redes de sensores que se comunican con nuestro dispositivo móvil. La ciencia de los datos se abre al ciudadano de a pie y es algo que sin duda esperamos con interés.

En este entorno de sensores de datos serán ciudades microtópicasLas microtopías congregan personas, ideas y prácticas a escala local, sostenible y descentralizada. Las microtopías catalizan la interacción social, la participación colectiva y los cambios en el paisaje. Las microtopías transforman el mundo haciendo que los confines vigilados sean más permeables. ¿Contradictorio ante una ciudad de los datos que se considera sobrevigilada? No lo creo. En el próximo post hablaremos de ello.

Referencias:

13. Measure and evaluate. (n.d.). Retrieved July 3, 2012, from http://www.smartcities.info/13-measure-and-evaluate
Baeyer, H. C. V. (2004). Information: The New Language of Science. Harvard University Press.
How do you measure a Smart City? – Smart+ Connected Communities Institute. (n.d.). Retrieved July 3, 2012, from http://www.smartconnectedcommunities.org/message/1482
Hubbard, D. W. (2010). How to Measure Anything: Finding the Value of Intangibles in Business (2nd ed.). Wiley.
Hubbard, D. W. (2011). Pulse: The New Science of Harnessing Internet Buzz to Track Threats and Opportunities (1st ed.). Wiley.
IBM – How Smart is your city? Helping cities measure progress. (n.d.). Retrieved July 3, 2012, from http://www-935.ibm.com/services/us/gbs/bus/html/ibv-smarter-cities-assessment.html
Kozinets, R. V. (2009). Netnography: Doing Ethnographic Research Online. Sage Publications Ltd.
Lima, M. (2011). Visual Complexity: Mapping Patterns of Information. Princeton Architectural Press.
Seagal, S. (1997). Human Dynamics : A New Framework for Understanding People and Realizing the Potential in Our Organizations (1st ed.). Pegasus Communications.
The disposable academic: why doing a PhD is often a waste of time. (n.d.). Retrieved January 1, 2011, from http://www.economist.com/node/17723223
You, Ethan (2011). Looking Ahead. In Visual Complexity: Mapping Patterns of Information. Princeton Architectural Press

Los entornos responsivos: cuando el espacio se convierte en formas

La arquitectura es un campo fundamental para genenar espacios de aprendizaje en un futuro. Hoy vamos a tratar un tema que no sale en ninguna informe sobre el aprendizaje y tecnologías para un futuro próximo. Yo apuesto por él y no quisiera generar «cliqués» y tópicos de lo que podría ser como lo hice ya con el post de visualización ambiental. Los espacios responsivos [que son sensibles y responde al entorno o medio] se remontan a investigaciones futuribles de anteriores décadas. Viene del mundo de la arquitectura como campo señero para ir aplicando estructuras en 4D o cuando el espacio se convierte en formas y puedes interaccionar con los objetos, artefactos de los entornos físicos. Este tipo de arquitecturas trabajan con espacios y los espacios será la fuente y el medio (como si se tratara de un papel) para ir configurándolo a tu medida y donde los datos recibidos en tiempo real hace que se transforme constantemente. Nunca habrá una estructura espacial idéntica. Siempre en constante cambio como si se tratara de una red social, en la que no hay dos estructuras idénticas.

La arquitectura responsiva es un campo en evolución de la práctica e investigación arquitectónica. Lo mismo que la arquitectura interactiva. Las arquitecturas sensibles son aquellas que miden las condiciones actuales del entorno a través de sensores para posibilitar que los edificios se adapten en forma, aspecto, color o carácter adaptable (eje centra de esto son lo que llaman los actuators=actores + sensores).
Las arquitecturas responsivas pretender refinar y ampliar la disciplina de la arquitectura perfeccionando la intervención energética de los edificios con tecnologías adaptables (sensores/control de sistemas/actuators) mientras que también producen edificios que reflejen las condiciones tecnológicas y culturales de nuestro tiempo, equiparándose construcciones como estructuras en red.

Las arquitecturas responsivas (receptivas/adaptables) se distinguen de otras formas de diseño interactivo en la incorporación de tecnologías inteligentes y adaptables en los elementos fundamentales de la fábrica de edificios. Por ejemplo: a través de la incorporación de tecnologías adaptables en los sistemas estructurales de los edificios, los arquitectos tienen la aptitud para vincular directamente la forma de un edificio con su entorno. Esto capacita a los arquitectos para reconsiderar la forma en que diseñan y construyen el espacio mientras se esfuerzan en hacer avanzar la disciplina en lugar de aplicar patchworks de tecnologías inteligentes a una visión existente de concepto “edificio”.

Nicholas Negroponte acuñó el término “arquitectura receptiva”, concebido durante los últimos años de la década de los 60 en el siglo pasado, cuando se estaban explorando los problemas de diseño espacial mediante la aplicación de la cibernética a la arquitectura. Negroponte propone que la arquitectura adaptable es el producto natural de la integración de la potencia de la computación en espacios construidos y estructuras,  y eso da como resultado edificios mejor realizados, más racionales.

Son entornos adaptativos a las circunstancias por medio de sensores. No son arquitecturas fijas ya que están en constante cambio. Esto tiene que ver con lo que entendemos con la personalización, pero una personalización que va más allá tal como la entendemos ahora y una interacción más compleja de lo que entendíamos hasta ahora.

Mientras que la personalización es normalmente visto como una estática del producto final que ha sido diseñado y creado para satisfacer las necesidades y los deseos de un individuo, un entorno responsivo o sensible puede ser visto como una forma de personalización dinámica, un «producto» que se adapta o interactúa con una persona, ya que utilizan u ocupan, dándole una existencia en una cuarta dimensión. Este tipo de espacios y objetos se han vuelto muy comunes hoy en día por lo menos por dos razones entrelazadas:
a) uno de ellos la demanda del consumidor para la personalización,
b) y el otro es el aumento de la tecnología interdisciplinar (los avances en varios campos para abordar el tema) que ha permitido su creación. El arquitecto Antonino Saggio sostiene que en realidad es la primera razón y que es la causa de la reciente cambio de enfoque a la arquitectura adaptable. Se trata de una perspectiva sociológica, ya que en esta segunda era consumista donde se establece costumización y personalización de los productos. Vicente Verdú desde «El planeta americano» trata esta idea también. Aquí estaríamos hablando del espacio en 4D, ya que el deseo del consumidor por la interactividad y la capacidad de tener control sobre su espacio es la fuerza motriz de esta dirección (consumista) en lugar de el advenimiento de las tecnologías que lo hacen posible. Este debate se remonta a la anécdota del huevo y la gallina – si es posible descifrar el orden de importancia del consumismo personalista (del cual vuelve hablar Vicente Verdú en su último libro) frente a la tecnología es probablemente imposible de probar. Es un campo en evolución de la práctica e investigación arquitectónica. Las arquitecturas responsivas son aquellas que miden las condiciones actuales del entorno (a través de sensores) que permite que los edificios adapten su forma, aspecto, color o naturaleza de manera receptiva o sensible (a través de actuators = actores +  sensores). Las arquitecturas responsivas pretenden refinar y ampliar la disciplina de la arquitectura mejorando la posibilidad [affordance] de edificios con tecnologías receptivas (sensores/sistemas de control/actuators) mientras que también producen edificios que reflejen las condiciones tecnológicas y culturales de nuestro tiempo.
Un ejemplo de arquitectura-arte, grabado en intervalos durante dos horas:


<h2>Los entornos responsivos o sensibles</h2>

<h1>Principios</h1>

Muchos de estas ideas fueron surgiendo en los primeros años 70 del siglo pasado muchas de las ideas arquitectónicas que ahora se están llevando a cabo. Uno de estos visionarios fue Philip Vlasak que ya planteó proyectos responsivos. Como comenta Carmelo Rodríguez «algunos de sus entornos sensibles tratan de ocupar lugares inutilizados (como cines en las azoteas de los edificios reducidos a tendederos), responder al uso del espacio por parte de los viandantes (como edificios que cambian de color según los lugares ocupados en la plaza dónde se sitúan) o generar situaciones de acción a través del mobiliario urbano activando nuevos dispositivos (bicicletas que al pedalear sobre ellas generan chorros de agua a modo de fuentes)»

Posteriormente, se investigó dentro del ámbito de espacios o lugares. Y así llamándose «Responsive Environments». Hay un libro que marcó el despegué de esta perspectiva. Se trata de «Responsive Environments» (1985) de Sue McGlynn, Graham Smith, Alan Alcock, Paul Murrain y Ian Bentley y, por otro lado, el paper de Myron W. Krueger (1977) que es de anterior fecha.

Continuará en segunda parte….

Bibliografía y webgrafía en última parte.

La escuela del comunal: sistema de investigación y aprendizaje bajo la producción p2p

Existen movimientos cada vez más influyentes hacia la inclusión de la investigación básica y la teoría social dentro del nuevo esquema. Movimientos que se ven impulsados por la crisis de la Universidad y el entramado institucional paralelo (incluído el rechazo social a la patentabilidad de los resultados de investigaciones financiadas con dominio público).
Esta presión social se ha materializado enn la serie de organizaciones privadas, como la P2P Foundation o las ramas especializadas en «Sharing Economy» o Economics of Commons de algunas universidades y escuelas de negocios, que prefiguran en su tarea investigadora un nuevo tejido de lo que podríamos llamar «Escuelas del Comunal» («School of Commons»): centros de investigación cuyos resultados se incorporan a una nueva dimensión post-académica del comunal (o procomún) (Nota: para entender algo
El impacto de estas organizaciones orientadas a la investigación sobre el esquema anterior da paso a la aparición de un auténtico ecosistema de la generación de conocimiento orientado al comunal.


En azul tendríamos el entorno institucional, en rojo las áreas de desarrollo de conocimiento bajo el procomún y en celeste los grupos locales.

Funciones y organización de las «Escuelas del comunal»

Las escuelas del comunal son organizaciones orientadas a la investigación y separadas de los procesos formativos.
• Funcionan como una red transnacional de investigadores sin una sede presencial fija vinculadas a un grupo dinamizador de prestigio bajo distintas fórmulas, entre las que la de fundación tiende a ser hegemónica.
• Regularmente organizan encuentros interdisciplinares temáticos y encuentros de
intercambio entre investigadores pensados como un mero potlatch intectual
• Financian residencias y proyectos de investigación.
Condicionan su apoyo a que la investigación se incorpore al comunal, no permitiendos que acabe en patentes ni la publicación en journals privativos y de pago.
• Impulsan la generación de materiales pedagógicos y la difusión global y multilingüe de las investigaciones realizadas.

Estructura de aprendizaje: más allá de la formación universitaria

La labor investigadora de estos centros impacta sobre el territorio a través de una red de centros de aprendizaje locales autofinanciados y autónomos pero «señalizados» por las «Escuelas del Comunal» cuyo objetivo no es «enseñar» ni señalizar, sino dar la base para que quien quiera aprender aprenda.
Cada uno de estos centros es, en realidad
• un centro de recursos y documentación donde poder acceder de forma ordenada a los materiales desarrollados por las escuelas del procomún
• un entorno de apoyo y seguimiento donde tutores de calidad resolverían dudas,
comentarían ideas y ampliarían fuentes y
• un espacio de socialización que buscara la presencialidad de expertos de todo el mundo a través de charlas, conferencias y seminarios.

Los «aprendices»
• Por lo general tienen más de 25 años y cuentan con experiencia laboral
• Proponen materias y eligen tutores, no hay «carreras» ni titulaciones, sino «capacidades» a desarrollar y «obras» a realizar (learning by doing).
• Tiene que ser capaz de crear conocimiento y divulgarlo libremente.

En su organización económica, en estos centros:
• La estructura de base es la de una cooperativa mixta de producción y consumo: los tutores son socios de trabajo, los usuarios, de consumo.
• Los ingresos se producen por las matrículas, los patrocinios privados (límite del 30%) y eventos.

Realizado por Grupo Cooperativo de las Indias ~ http://grupolasindias.coop

Pdf original y post desarrollado por Grupo Cooperativo de las Indias

 

« Entradas anteriores Entradas siguientes »