Reflexiones sobre ecologías y espacios del aprendizaje, análisis del aprendizaje y análisis de redes sociales, visualización de datos, Big Data y otros temas emergentes

Autor: admin

Flujo de trabajo NotebookLM + Perplexity: optimizando la investigación y el aprendizaje

Combinación estratégica de herramientas IA para potenciar procesos de investigación no académica. Comenzamos…

Introducción: el poder de la combinación estratégica

Las recientes actualizaciones en NotebookLM y Perplexity han creado una oportunidad única para los investigadores, estudiantes y profesionales que buscan optimizar sus procesos de investigación y aprendizaje. Estas dos herramientas de inteligencia artificial, cuando se utilizan de manera complementaria, pueden reducir dramáticamente el tiempo dedicado a la investigación mientras mejoran significativamente la calidad de los resultados obtenidos.

El presente documento explora cómo la combinación estratégica de la capacidad de búsqueda en tiempo real de Perplexity con el análisis profundo y contextual de NotebookLM crea un flujo de trabajo excepcionalmente potente. Este enfoque metodológico supera las limitaciones individuales de cada herramienta, permitiendo un proceso de investigación más coherente, preciso y eficiente, con especial atención a seis estrategias de implementación que maximizan su potencial transformador.

¿Por qué necesitamos ambas herramientas?

Fortalezas y limitaciones de Perplexity

Perplexity destaca por su capacidad de búsqueda en tiempo real y acceso a información actualizada, pero presenta características que pueden limitar su eficacia como herramienta única de investigación:

Fortalezas principales

  • Búsqueda en tiempo real: Acceso inmediato a información actualizada de la web con capacidad de procesamiento contextual.
  • Creación de espacios temáticos: Organización de investigaciones mediante espacios personalizados con instrucciones específicas.
  • Operadores de búsqueda avanzados: Capacidad para refinar consultas mediante operadores específicos (tiempo, fuente, formato).
  • Visualización estructurada: Presentación de resultados en formatos organizados como tablas comparativas y resúmenes.

Limitaciones significativas

  • Consultas independientes: Cada pregunta dispara una nueva búsqueda, utilizando potencialmente diferentes conjuntos de fuentes.
  • Mezcla de fuentes: Incluso al subir fuentes propias a un espacio de Perplexity, puede utilizar datos pre-entrenados en sus respuestas.
  • Consistencia limitada: Dificultad para mantener coherencia entre múltiples consultas relacionadas.
  • Análisis profundo restringido: Capacidad reducida para análisis detallado de documentos extensos o conjuntos de fuentes complejos.

Propuesta de valor de NotebookLM

NotebookLM complementa las limitaciones de Perplexity, ofreciendo características que potencian el análisis profundo de fuentes seleccionadas:

Base de datos cerrada

  • Respuestas basadas únicamente en fuentes importadas
  • Referencias estables y verificables
  • Menor probabilidad de alucinaciones o imprecisiones
  • Mantenimiento de contexto entre consultas

Características avanzadas

  • Modo de audio interactivo para discusiones
  • Organización por proyectos de investigación
  • Capacidad para extraer patrones transversales
  • Personalización de síntesis según audiencia

Limitaciones principales

  • Sin búsqueda web en tiempo real
  • Depende de la calidad de fuentes importadas
  • Requiere selección previa de documentos
  • No accede a información actualizada

Flujo de trabajo integrado: cuatro pasos esenciales

La combinación efectiva de estas herramientas sigue un flujo lógico que maximiza sus fortalezas complementarias:

Paso 1: Recopilación estratégica con Perplexity

Búsqueda dirigida por objetivos

El primer paso consiste en utilizar Perplexity para recopilar fuentes específicas basadas en prompts claramente definidos. La efectividad de este paso depende significativamente de la precisión con que se formulen las consultas iniciales y la estrategia de búsqueda.

Técnica clave: Utilizar espacios personalizados en Perplexity para organizar proyectos de investigación con instrucciones específicas que automaticen parte del proceso.

Estructura de instrucciones codificadas

La configuración de códigos de tarea específicos en un espacio de Perplexity permite semi-automatizar la búsqueda. Por ejemplo, configurar que «Tarea 1» ejecute automáticamente la búsqueda de informes recientes sobre un tema específico de consultoras reconocidas.

Técnica clave: Crear una biblioteca de códigos de tarea reutilizables para diferentes tipos de búsqueda (académica, opiniones de usuarios, noticias recientes, estudios de caso, etc.).

Paso 2: Curaduría de fuentes de calidad

Evaluación y selección crítica

La calidad del análisis posterior depende fundamentalmente de la selección de fuentes. Este paso requiere revisar cuidadosamente los resultados de Perplexity para identificar las fuentes más relevantes, confiables y ricas en información útil para nuestro propósito.

Principio guía: Priorizar calidad sobre cantidad. Es preferible importar cinco fuentes de alta calidad que veinte de relevancia cuestionable.

Preparación de fuentes

Después de identificar las fuentes valiosas, se recopilan los enlaces para su posterior importación. Para fuentes como episodios de podcast o contenido audiovisual, pueden ser necesarios pasos adicionales como descarga de archivos o transcripciones.

Técnica práctica: Mantener un documento intermedio donde se guarden temporalmente los enlaces y notas sobre la relevancia de cada fuente para facilitar la selección final.

Paso 3: Análisis profundo con NotebookLM

Importación e integración de fuentes

Las fuentes seleccionadas se importan a NotebookLM, creando una base de conocimiento coherente y cerrada que servirá como fundamento para el análisis. La organización en notebooks específicos por proyecto o tema facilita la gestión del conocimiento.

Estrategia efectiva: Cuando sea relevante, importar también contenido propio (como sitios web, documentos de trabajo o proyectos previos) para permitir un análisis comparativo y aplicado.

Formulación de consultas estratégicas

Con las fuentes importadas, se formulan preguntas diseñadas para extraer patrones, identificar tendencias y desarrollar insights significativos. La calidad de las preguntas determina en gran medida el valor del análisis obtenido.

Estructura recomendada: Comenzar con preguntas generales para comprender el panorama, seguidas por consultas cada vez más específicas que profundicen en aspectos particulares y concluir con solicitudes de síntesis aplicable.

Paso 4: Validación y refinamiento (opcional)

ProcesoDescripción
Verificación cruzadaRegresar a Perplexity para validar insights específicos contra datos web más amplios, especialmente para confirmar tendencias identificadas o verificar la vigencia de conclusiones.
Búsqueda complementariaIdentificar vacíos de información durante el análisis y utilizar Perplexity para investigaciones focalizadas que complementen el conocimiento ya procesado.
Contraste de perspectivasBuscar deliberadamente puntos de vista alternativos o críticos frente a las conclusiones preliminares para enriquecer el análisis final.
Actualización periódicaPara investigaciones de largo plazo, implementar ciclos regulares de actualización mediante nuevas búsquedas en Perplexity que mantengan la base de conocimiento al día.

Seis estrategias avanzadas de implementación

La combinación Perplexity-NotebookLM puede aplicarse a diversos escenarios de investigación y aprendizaje con adaptaciones específicas según el contexto y objetivo:

Estrategia 1: Análisis de tendencias de mercado

Implementación ideal para profesionales de marketing y estrategia que necesitan comprender tendencias emergentes para planificar contenidos y desarrollar liderazgo de pensamiento en su industria.

  1. En Perplexity: Crear un espacio dedicado (ej. «Investigación de IA Responsable») con instrucciones personalizadas que semiautomaticen el proceso.
  2. Códigos de tarea: Configurar búsquedas específicas como «buscar informes sobre IA responsable de consultoras como Deloitte, McKinsey, BCG» y «encontrar papers académicos sobre evaluación de riesgos de IA».
  3. En NotebookLM: Importar fuentes seleccionadas y formular preguntas estratégicas como «¿cuáles son los principales cambios en IA responsable?» o «¿qué está impulsando a las empresas a invertir en este tema?».
  4. Aplicación: Solicitar ideas de contenido específicas o profundizar en temas particulares para desarrollar estrategias de comunicación fundamentadas en datos reales.

Estrategia 2: Investigación para mejora de productos

Enfoque particularmente útil para fundadores y equipos de desarrollo de productos que buscan mejorar ofertas existentes o identificar oportunidades para nuevas funcionalidades.

FaseProcesoObjetivo
IdentificaciónUsar Perplexity para identificar competidores principales y fuentes de opiniones de usuarios (G2, Product Hunt, TrustRadius)Mapear el ecosistema competitivo y canales de feedback
RecopilaciónUtilizar búsqueda enfocada para encontrar opiniones detalladas en Reddit/YouTube y reportes de industria relevantesObtener feedback cualitativo profundo y contexto de mercado
AnálisisImportar a NotebookLM y preguntar sobre puntos débiles comunes, funcionalidades faltantes y tendencias tecnológicasIdentificar oportunidades de mejora y diferenciación
AplicaciónSubir la página del producto propio y solicitar plan de mejora basado en la investigación realizadaDesarrollar estrategia de producto informada por datos reales

Estrategias adicionales

Además de las estrategias principales, este flujo de trabajo puede aplicarse eficazmente a:

3. Investigación de audiencia

  • Identificar necesidades de clientes potenciales
  • Analizar preferencias y comportamientos
  • Optimizar mensajes de marketing
  • Desarrollar buyer personas fundamentadas

4. Investigación para podcasts

  • Analizar podcasts exitosos en tu nicho
  • Identificar formatos y estilos efectivos
  • Desarrollar estrategias de contenido
  • Definir posicionamiento diferenciador

5. Aprendizaje de nuevos temas

  • Crear guías de estudio personalizadas
  • Generar resúmenes conceptuales accesibles
  • Producir materiales de audio para aprendizaje
  • Aplicar conceptos a proyectos específicos

6. Preparación de presentaciones

  • Analizar discursos y presentaciones efectivas
  • Identificar técnicas de comunicación
  • Desarrollar estructuras narrativas
  • Crear materiales con alto impacto

Estrategia 5 en profundidad: Aprendizaje de nuevos temas

Esta estrategia demuestra el potencial transformador del flujo de trabajo para acelerar y profundizar procesos de aprendizaje personal:

EtapaImplementaciónResultado
Recopilación diversificadaUsar Perplexity para buscar guías detalladas, podcasts relevantes, estudios académicos, entrevistas con expertos y conferencias sobre el tema de interés (ej. Psicología del Marketing)Base de conocimiento multiformato que abarca diversos enfoques y niveles de profundidad
Estructuración conceptualImportar a NotebookLM y generar guía de estudio, FAQ y resúmenes conceptuales adaptados al nivel de conocimiento previoMapa conceptual claro y personalizado que facilita la comprensión sistemática
Profundización aplicadaSolicitar explicaciones de principios fundamentales y ejemplos concretos de aplicación en contextos realesComprensión práctica que facilita la transferencia a situaciones relevantes
Experiencia interactivaUtilizar la función de audio interactivo para generar presentaciones auditivas y mantener conversaciones que profundicen aspectos específicosAprendizaje multimodal que refuerza comprensión y facilita estudio en movimiento

Técnicas avanzadas de optimización

Para maximizar la eficiencia y efectividad del flujo de trabajo Perplexity-NotebookLM, existen técnicas específicas que pueden implementarse:

Optimización de consultas en Perplexity

  1. Operadores de búsqueda avanzados: Utilizar «INTITLE:», «site:», «filetype:» y restricciones temporales para refinar resultados y obtener fuentes más específicas.
  2. Consultas concatenadas: Construir secuencias lógicas de búsqueda donde cada consulta se basa en los resultados de la anterior para profundizar progresivamente.
  3. Búsqueda enfocada por formato: Alternar entre modalidades (web, videos, imágenes) según el tipo de información necesaria para cada fase de investigación.
  4. Espacios con instrucciones detalladas: Desarrollar configuraciones de espacio con instrucciones extensivas que definan criterios de calidad y relevancia para resultados.
  5. Plantillas de consulta: Crear estructuras predefinidas para tipos recurrentes de investigación que puedan reutilizarse en múltiples proyectos.

Maximización del análisis en NotebookLM

  • Estructuración de consultas progresivas: Diseñar secuencias de preguntas que vayan de lo general a lo específico, construyendo un análisis cada vez más profundo.
  • Combinación estratégica de fuentes: Importar deliberadamente fuentes con perspectivas contrastantes para generar análisis más matizados y completos.
  • Integración de contenido propio: Incorporar documentos propios que contextualicen la investigación dentro de proyectos o necesidades específicas.
  • Uso de prompts prediseñados: Aprovechar las plantillas integradas como generación de estudio y FAQ para iniciar análisis estructurados rápidamente.
  • Personalización de síntesis de audio: Configurar parámetros específicos para la generación de resúmenes auditivos adaptados a diferentes objetivos y audiencias.

Mejores prácticas integradas

Estos principios fundamentales aseguran resultados óptimos con el flujo de trabajo combinado:

Principio de calidad selectiva

  • Curaduría rigurosa: Evaluar críticamente cada fuente antes de importar, priorizando confiabilidad y relevancia.
  • Criterios explícitos: Establecer parámetros claros para determinar qué fuentes merecen ser incluidas.
  • Diversidad controlada: Balancear diferentes tipos de fuentes sin sacrificar coherencia temática.
  • Actualización estratégica: Renovar periódicamente la base de conocimiento con información reciente relevante.

Principio de integración contextual

  • Relevancia aplicada: Vincular explícitamente la investigación con proyectos específicos o necesidades concretas.
  • Adaptación a audiencia: Ajustar nivel de detalle y terminología según destinatario final del análisis.
  • Conexión interdisciplinar: Establecer puentes entre diferentes áreas de conocimiento cuando sea pertinente.
  • Consideración de implementabilidad: Evaluar factibilidad práctica de conclusiones y recomendaciones.

Gestión eficiente de recursos y tiempo

La optimización del flujo de trabajo también requiere consideraciones sobre manejo de recursos cognitivos y temporales:

ConsideraciónEstrategia de implementación
Prevención de sobrecarga informativaEstablecer límites deliberados para la cantidad de fuentes por proyecto (generalmente entre 5-10 documentos de alta calidad) y segmentar proyectos complejos en múltiples notebooks con focos específicos.
Balanceo de profundidad y amplitudAlternar entre fases exploratorias amplias en Perplexity y profundizaciones focalizadas en NotebookLM, evitando quedarse atrapado exclusivamente en una modalidad de investigación.
Documentación de procesoMantener registro de consultas clave, decisiones de selección y patrones identificados para facilitar revisión posterior, evitar duplicación de esfuerzos y permitir refinamiento metodológico.
Sistemas de organizaciónDesarrollar taxonomías coherentes para nombrar espacios en Perplexity y notebooks en NotebookLM, además de implementar etiquetado sistemático que facilite recuperación rápida de investigaciones previas.
Ciclos de retroalimentaciónIncorporar puntos de evaluación regular donde se revise la utilidad de las fuentes seleccionadas y la relevancia de los análisis generados, ajustando el enfoque según sea necesario.

Casos prácticos detallados

Los siguientes casos detallados ilustran la implementación concreta del flujo de trabajo en diferentes contextos:

Caso 1: Análisis de tendencias en IA responsable

Contexto y objetivo

Escenario: Director de marketing en empresa tecnológica necesita desarrollar contenido de liderazgo de pensamiento sobre IA responsable y ética.

Implementación Perplexity:

  • Creación de espacio «Responsible AI Market Research»
  • Configuración de tarea 1: «Buscar informes sobre IA responsable de consultoras como Deloitte, McKinsey, BCG»
  • Configuración de tarea 2: «Encontrar papers sobre evaluación de riesgos en IA»
  • Búsqueda adicional: «Casos de implementación ética de IA en empresas Fortune 500»
  • Selección de 7 fuentes de alta calidad, diversificadas entre reportes corporativos, estudios académicos y análisis de casos

Análisis y resultados

Implementación NotebookLM:

  • Importación de las 7 fuentes seleccionadas
  • Consulta inicial: «¿Cuáles son los principales cambios ocurriendo en IA responsable?»
  • Profundización: «¿Qué está impulsando a las empresas a invertir en este tema?»
  • Aplicación: «Proponer 5 temas específicos para contenido que posicione a nuestra empresa como líder en IA responsable»
  • Desarrollo de calendario editorial basado en tendencias identificadas

Resultado: Estrategia de contenido diferenciada con 12 temas para publicaciones, basada en datos actualizados y tendencias emergentes, que posiciona a la empresa a la vanguardia de la conversación sobre IA ética.

Caso 2: Mejora de herramienta de email marketing

Contexto y proceso

Escenario: Startup de software buscando mejorar su herramienta de automatización de email marketing basándose en feedback de usuarios y análisis competitivo.

Proceso de investigación:

  • Identificación de competidores principales (ActiveCampaign, Klaviyo, MailChimp)
  • Localización de reseñas detalladas en G2, Product Hunt y TrustRadius
  • Búsqueda enfocada en Reddit y YouTube para opiniones en profundidad
  • Recopilación de reportes sobre tendencias en email marketing
  • Importación a NotebookLM de 3 competidores principales y reportes de industria

Hallazgos y aplicación

Análisis estratégico:

  • Identificación de puntos débiles comunes: problemas técnicos, limitaciones en diseño de email, deficiencias en soporte técnico
  • Funcionalidades más demandadas: personalización avanzada mediante IA, integraciones específicas de nicho, analíticas predictivas
  • Tendencias tecnológicas relevantes: IA para personalización, puntuación de leads, gestión de datos de clientes
  • Análisis del sitio web propio con recomendaciones específicas de mejora

Resultado: Plan de desarrollo de producto con 5 funcionalidades prioritarias basadas en necesidades reales de usuarios, mejora del sitio web con mensajes diferenciadores claros y roadmap de 12 meses fundamentado en datos de mercado.

Caso 3: Aprendizaje de psicología del marketing

Enfoque de aprendizaje

Escenario: Profesional de marketing buscando adquirir conocimientos sólidos sobre psicología del marketing para mejorar campañas y estrategias.

Recopilación de recursos:

  • Uso de Perplexity para localizar guías detalladas sobre psicología del marketing
  • Búsqueda de los 5 episodios de podcast más relevantes sobre el tema
  • Identificación de estudios académicos accesibles sobre comportamiento del consumidor
  • Localización de entrevistas con expertos mediante búsqueda enfocada en YouTube
  • Importación de este corpus diverso a NotebookLM

Estrategia de estudio y aplicación

Proceso de aprendizaje estructurado:

  • Generación de guía de estudio y FAQ para comprensión inicial
  • Creación de introducción accesible con lenguaje simple y ejemplos concretos
  • Elaboración de sumario de principios clave de psicología del marketing con ejemplos de aplicación
  • Importación del sitio web de su proyecto actual y análisis de posible implementación de principios
  • Generación de resumen de audio para aprendizaje en desplazamientos

Resultado: Adquisición rápida y profunda de conceptos fundamentales, comprensión clara de aplicaciones prácticas, rediseño de campañas existentes basado en principios psicológicos validados y sistema de estudio multimodal que permite aprendizaje continuo.

Consideraciones éticas y limitaciones

El uso de este flujo de trabajo, como cualquier implementación de IA, requiere consideración de aspectos éticos y reconocimiento de limitaciones inherentes:

Consideraciones éticas fundamentales

Al implementar este flujo de trabajo, es esencial tener en cuenta:

  • Atribución y transparencia: Documentar apropiadamente el uso de herramientas de IA en procesos de investigación y creación de contenido, especialmente en contextos académicos o profesionales.
  • Verificación crítica: Mantener responsabilidad por la validación de información y conclusiones, sin delegar juicio crítico completamente a sistemas automatizados.
  • Sesgos en fuentes: Considerar activamente la representatividad y diversidad de perspectivas en las fuentes seleccionadas, reconociendo sesgos potenciales en los resultados de búsqueda.
  • Propiedad intelectual: Respetar derechos de autor y licencias de contenido utilizado, especialmente cuando se sintetiza información de múltiples fuentes.
  • Uso responsable de recursos: Considerar el impacto ambiental y energético del uso intensivo de herramientas de IA, implementando prácticas que minimicen huella digital.

Limitaciones a considerar

El reconocimiento de estas limitaciones es fundamental para una implementación efectiva:

  • Alucinaciones e imprecisiones: Aunque NotebookLM reduce este riesgo al basarse en fuentes específicas, ambas herramientas pueden generar información incorrecta o inventada, especialmente en áreas altamente técnicas.
  • Temporalidad de datos: La relevancia de la investigación depende de la actualidad de las fuentes, requiriendo actualizaciones periódicas en temas que evolucionan rápidamente.
  • Complejidad contextual: Las herramientas pueden perder matices culturales, históricos o disciplinares que requieren experticia humana para ser adecuadamente interpretados.
  • Dependencia tecnológica: Riesgo de atrofia de habilidades fundamentales de investigación si se delega excesivamente en herramientas automatizadas.
  • Burbuja informativa: Posibilidad de reforzar perspectivas dominantes si no se implementan estrategias deliberadas de diversificación de fuentes.

Estrategias para uso responsable

Para maximizar beneficios mientras se minimizan riesgos éticos y limitaciones prácticas:

EstrategiaImplementación práctica
Triangulación metodológicaComplementar el flujo de trabajo AI con métodos tradicionales de investigación y verificación, incluyendo consulta directa con expertos humanos cuando sea posible.
Diversificación deliberadaBuscar activamente perspectivas contrastantes y fuentes provenientes de contextos culturales, geográficos y disciplinares diversos para enriquecer la base de conocimiento.
Verificación sistemáticaEstablecer protocolos específicos para contrastar información crítica con múltiples fuentes independientes, especialmente para datos que fundamentan decisiones importantes.
Declaración de metodologíaDocumentar explícitamente el proceso de investigación, incluyendo herramientas utilizadas, fuentes consultadas y criterios de selección, en productos finales como informes o publicaciones.
Actualización periódicaImplementar ciclos regulares de revisión y actualización para investigaciones en áreas dinámicas, reconociendo la temporalidad de conclusiones basadas en datos cambiantes.

Conclusiones: Redefiniendo el proceso de investigación

El flujo de trabajo integrado Perplexity-NotebookLM representa un avance significativo en la metodología de investigación y aprendizaje, ofreciendo potencial transformador bajo ciertas condiciones específicas:

  1. Complementariedad estratégica: El verdadero poder de este enfoque radica en la combinación deliberada de las fortalezas complementarias de cada herramienta, superando limitaciones individuales mediante su integración sistemática.
  2. Calidad sobre cantidad: La selección crítica y cuidadosa de fuentes emerge como el factor determinante del valor final del análisis, reforzando el principio de que la curaduría humana sigue siendo insustituible incluso en ecosistemas de IA avanzada.
  3. Mediación cognitiva activa: El rol del investigador evoluciona hacia una función de mediación estratégica: formulando preguntas incisivas, evaluando críticamente resultados, estableciendo conexiones interdisciplinares y aplicando hallazgos a contextos específicos.
  4. Personalización contextual: La adaptación del flujo de trabajo según el contexto específico (aprendizaje, investigación de mercado, desarrollo de producto, etc.) maximiza su relevancia y efectividad, evitando aproximaciones genéricas.
  5. Reducción significativa de tiempo: La implementación adecuada de este flujo de trabajo puede efectivamente reducir hasta en un 50% el tiempo dedicado a investigación, mientras potencialmente mejora la calidad y profundidad de los resultados obtenidos.
  6. Democratización del análisis profundo: Este enfoque pone al alcance de individuos y equipos pequeños capacidades analíticas previamente disponibles solo para organizaciones con recursos sustanciales, nivelando el campo de juego para startups e investigadores independientes.
  7. Desarrollo continuo: La evolución constante de ambas herramientas promete expansión de capacidades, mejora de precisión y nuevas posibilidades integradas que ampliarán el potencial de este flujo de trabajo en el futuro cercano.

En definitiva, este flujo de trabajo representa no simplemente una aceleración de procesos existentes, sino una reinvención metodológica que expande significativamente las posibilidades de investigación, aprendizaje y análisis. Su implementación efectiva requiere tanto dominio técnico como criterio humano, combinando lo mejor de la capacidad computacional con el discernimiento crítico que sigue siendo el núcleo de la investigación valiosa en cualquier campo.

A medida que estas herramientas continúan evolucionando, quienes dominen este enfoque integrado estarán posicionados favorablemente para navegar la creciente complejidad informacional contemporánea, transformando potencialmente no solo sus métodos de trabajo sino los resultados alcanzables en sus respectivos campos de especialización.

Referencia:

Este artículo está basado en el video «Este flujo de trabajo de NotebookLM + Perplexity reducirá su tiempo de investigación en un 50%» disponible en: https://www.youtube.com/watch?v=27AxmEh3qEA

Orígenes teóricos del Self-Assessment (Autoevaluación) y su relación con el autoaprendizaje: perspectivas en la era de la IA

La autoevaluación o Self-Assessment (me permito la licencia de ponerlo en mayúsculas) representa una práctica fundamental dentro del aprendizaje autorregulado, un constructo teórico ampliamente estudiado desde la década de 1970. Diversos teóricos como Zimmerman (1990, 2000), Pintrich (2000), y Bandura (1986) coinciden en que esta capacidad metacognitiva permite a los estudiantes reflexionar sobre su propio proceso de aprendizaje, identificar fortalezas y debilidades, y ajustar estrategias para mejorar su desempeño. El Self-Assessment no es un concepto nuevo surgido con la inteligencia artificial, sino una evolución natural de décadas de investigación pedagógica que ha demostrado su eficacia para desarrollar aprendices autónomos y reflexivos (Brown & Harris, 2013). Como señala UNESCO IESALC (2023), la IA está transformando los sistemas de evaluación en educación superior, ofreciendo nuevas posibilidades para personalizar y potenciar estos procesos de autoevaluación, aunque también presenta desafíos significativos relacionados con la integridad académica y la excesiva dependencia tecnológica. En este sentido, entender las raíces teóricas del self-assessment resulta crucial para implementar efectivamente las nuevas herramientas de IA en entornos educativos, garantizando que estas tecnologías potencien, en lugar de socavar, el desarrollo de habilidades metacognitivas en los estudiantes del siglo XXI.

Fundamentos teóricos desde una perspectiva histórica

El Self-Assessment se enmarca dentro del concepto más amplio del aprendizaje autorregulado (Self-Regulated Learning o SRL), cuyas raíces teóricas se remontan a:

  1. Teoría sociocognitiva de Bandura (años 70-80): El aprendizaje autorregulado se deriva en parte de la teoría sociocognitiva, que enfatiza cómo los factores personales, comportamentales y ambientales interactúan en el proceso de aprendizaje (Zimmerman, 2000).
  2. Modelo de Zimmerman (desde los 90): Zimmerman desarrolló uno de los modelos más influyentes de SRL, identificando comportamientos específicos de estudiantes exitosos, incluyendo la finalización de tareas a tiempo, la concentración en materias escolares y la planificación efectiva del trabajo escolar (Zimmerman, 1990).
  3. Teoría metacognitiva de Flavell (años 70): Estableció las bases para entender cómo los estudiantes monitorean y evalúan sus propios procesos cognitivos (Flavell, 1979).

Evolución del concepto

El self-assessment como componente del aprendizaje autorregulado ha evolucionado considerablemente:

  • Años 80-90: Inicialmente, el enfoque estaba en comprender cómo «los estudiantes pueden utilizar procesos metacognitivos, motivacionales y conductuales iniciados personalmente para adquirir conocimientos y habilidades» (Zimmerman, 1989, p. 4).
  • Años 90-2000: Se produjo una integración más profunda con la educación formal, donde el aprendizaje autorregulado se conceptualizó como un proceso de tres partes: planificar, monitorear y evaluar (Pintrich, 2000).
  • 2000-presente: La evaluación formativa se ha reconocido como una «teoría unificadora de la instrucción» que mejora el proceso de aprendizaje mediante el desarrollo de estrategias de aprendizaje autorregulado entre los estudiantes (Clark, 2012).

IA y evaluación en educación superior

UNESCO IESALC (2023) destaca que la inteligencia artificial está transformando significativamente los métodos de evaluación en la educación superior. Según una encuesta mencionada en este informe, el 75% de los participantes consideran que la principal razón para adoptar IA en educación superior es mejorar los resultados de aprendizaje, y que la IA tendrá el mayor impacto precisamente en las pruebas y evaluaciones.

Las plataformas de enseñanza y aprendizaje en línea y, a la vez, también herramientas de la IA como modelos de lenguaje avanzados, potenciadas con IA, pueden ahora:

  1. Analizar patrones de progreso: Identificar por qué un estudiante no progresa, ya sea por falta de tiempo, motivación, claridad en los materiales o insuficiente repetición (UNESCO IESALC, 2023).
  2. Proporcionar diagnósticos precisos: Como ejemplifica el caso de investigadores en Malasia y Omán, que desarrollaron algoritmos de aprendizaje automático basados en el GPA acumulativo, la asistencia y las calificaciones del primer examen para crear una herramienta de monitoreo académico que identifica tempranamente a estudiantes en riesgo (UNESCO IESALC, 2023).

El Self-Assessment como práctica

En la práctica educativa, el self-assessment se ha implementado como:

  1. Estrategia de evaluación formativa: En las últimas décadas, la investigación educativa ha progresado considerablemente en la descripción de actividades que promueven un aprendizaje estudiantil más eficaz, con contribuciones significativas del aprendizaje autorregulado y la evaluación educativa, especialmente la evaluación formativa (Panadero et al., 2018).
  2. Herramienta metacognitiva: Los estudiantes pueden autoevaluar su desempeño en una tarea durante la fase de evaluación del aprendizaje autorregulado, ayudándolos a planificar su aprendizaje futuro basado en lo que saben y lo que no saben (Brown & Harris, 2013).
  3. Componente del aprendizaje permanente: En una era posmoderna caracterizada por el rápido avance técnico y científico, hay un creciente énfasis en la adquisición de estrategias de aprendizaje en las que las personas pueden confiar a lo largo de toda su vida (Clark, 2012).

Sistemas de Calificación Automatizados (SCA) y Self-Assessment

UNESCO IESALC (2023) señala la creciente importancia de los «robot-graders» o plataformas automatizadas que califican o ayudan a los profesores a calificar tareas y dar retroalimentación a los estudiantes. Estos sistemas no solo evalúan resultados de pruebas sino que pueden adaptar el nivel de dificultad a lo largo del tiempo o proponer materiales adicionales dirigidos a las brechas de conocimiento individuales.

Sin embargo, el informe también advierte sobre los riesgos de estos sistemas: «debido a la complejidad inherente de la educación, no se puede reducir a un conjunto de variables y métodos puramente cuantitativos» (UNESCO IESALC, 2023, p. 27). Existe el peligro de desarrollar soluciones orientadas a la tecnología en lugar de a la pedagogía, o de crear un ciclo donde los estudiantes usan IA para producir trabajos académicos que luego son evaluados por IA, eliminando el elemento humano del proceso.

Implicaciones actuales

Hoy en día, el self-assessment sigue siendo un componente crucial del aprendizaje autorregulado:

  1. Educación superior: La necesidad de desarrollar la comprensión del aprendizaje autorregulado y su implementación proviene de la creciente diversidad estudiantil en el aula y la diversidad en los modos de enseñanza, con un énfasis particular en las tecnologías de la información y comunicación (Cassidy, 2011).
  2. Desarrollo profesional docente: UNESCO IESALC (2023) subraya que el 50% del personal docente y educativo considera que su rol será el más afectado por las tecnologías de IA. Por ello, las instituciones deben «proporcionar o desarrollar recursos, comenzando a nivel introductorio de ‘qué es la IA'» (p. 28) y crear oportunidades para que profesores, personal y estudiantes discutan el impacto de la IA en la institución.
  3. Educación a distancia y entornos digitales: El aprendizaje electrónico interactivo permite a los instructores crear lecciones en línea atractivas, flexibles y ricas en medios, ayudando al estudiante a recorrer el curso aprendiendo, automonitoreándose y autoevaluándose (Kitsantas & Dabbagh, 2011).

Referencias

Brown, G. T. L., & Harris, L. R. (2013). Student self-assessment. En J. H. McMillan (Ed.), Sage Handbook of Research on Classroom Assessment (pp. 367-393). SAGE Publications.

Cassidy, S. (2011). Self-regulated learning in higher education: Identifying key component processes. Studies in Higher Education, 36(8), 989-1000. https://doi.org/10.1080/03075079.2010.503269

Clark, I. (2012). Formative assessment: Assessment is for self-regulated learning. Educational Psychology Review, 24(2), 205-249. https://doi.org/10.1007/s10648-011-9191-6

Flavell, J. H. (1979). Metacognition and cognitive monitoring: A new area of cognitive-developmental inquiry. American Psychologist, 34(10), 906-911. https://doi.org/10.1037/0003-066X.34.10.906

Kitsantas, A., & Dabbagh, N. (2011). The role of Web 2.0 technologies in self-regulated learning. New Directions for Teaching and Learning, 2011(126), 99-106. https://doi.org/10.1002/tl.448

Panadero, E., Andrade, H., & Brookhart, S. (2018). Fusing self-regulated learning and formative assessment: A roadmap of where we are, how we got here, and where we are going. The Australian Educational Researcher, 45(1), 13-31. https://doi.org/10.1007/s13384-018-0258-y

Pintrich, P. R. (2000). The role of goal orientation in self-regulated learning. En M. Boekaerts, P. R. Pintrich, & M. Zeidner (Eds.), Handbook of self-regulation (pp. 451-502). Academic Press.

UNESCO IESALC. (2023). Harnessing the era of artificial intelligence in higher education: A primer for higher education stakeholders. Instituto Internacional de la UNESCO para la Educación Superior en América Latina y el Caribe. ED/HE/IESALC/IP/2023/27.

Zimmerman, B. J. (1989). A social cognitive view of self-regulated academic learning. Journal of Educational Psychology, 81(3), 329-339. https://doi.org/10.1037/0022-0663.81.3.329

Zimmerman, B. J. (1990). Self-regulated learning and academic achievement: An overview. Educational Psychologist, 25(1), 3-17. https://doi.org/10.1207/s15326985ep2501_2

Zimmerman, B. J. (2000). Attaining self-regulation: A social cognitive perspective. En M. Boekaerts, P. R. Pintrich, & M. Zeidner (Eds.), Handbook of self-regulation (pp. 13-39). Academic Press.

Zimmerman, B. J. (2002). Becoming a self-regulated learner: An overview. Theory Into Practice, 41(2), 64-70. https://doi.org/10.1207/s15430421tip4102_2

Ecologías del aprendizaje [ampliación]

(Parte de este documento está extraido del prólogo del libro de G. Siemens “Conociendo el conocimiento” en http://bit.ly/cICBFD [pdf]. Amplicación al prólogo)

Como afirma Siemens, es necesario que las redes surjan dentro de algo, de un dominio, y ese algo es lo que podemos definir como ecología.

¿Qué es una ecología?

Una ecología es un entorno que fomenta y apoya la creación de redes y comunidades (y también en estructuras mixtas como las redes en práctica (Network of Practice) muy útiles para el desarrollo profesional). La definición aplicada a estructuras biológicas se aplica también a las comunidades de aprendizaje (y otros tipos de comunidades como las de investigación y las de interés. Una ecología de aprendizaje es un entorno que es consistente con (y no antagónicos a) que los alumnos aprenden como ha escrito John Seely Brown sobre el concepto de ecología del conocimiento.

A finales del siglo pasado y principios de este, se investigaron estos temas y se hablaron casi de manera indistinta de ecologias informacionales y de ecologías del conocimiento (este último concepto viene del campo de la Gestión del Conocimiento). Esto dio para hablar de ecologías del aprendizaje en el que implícitamente entrarían en su ‘habitat’ tanto el conocimiento como lo informacional.

John Seely Brown [Sustaining the Ecology of Knowledge y Growing up digital: how the web chages work, education, and the ways people learn] define una ecología como un sistema abierto, dinámico e interdependiente, la organización de diversos agentes. Parcialmente es auto-aprendizaje, de carácter adaptativo y, a la vez, frágil. Este concepto se amplía a las siguientes características de una ecología de aprendizaje a partir de la construcción que hace J.S. Brown y que posteriormente retoma G. Siemens en Learning Ecology, Communities, and Networks: Extending the Classroom(2003):

* Un conjunto de comunidades superpuestas de interés.
* Una polinización cruzada con otros (aquí se producen las sinergias).
* En constante evolución.
* En gran medida propio de los sistemas de auto-organización.

Ecologías de aprendizaje ciertamente puede exceder de las características que presenta Brown. En ambientes de educación formal, el concepto de autoorganización da paso a un proceso más estructurado para la transmisión de conocimientos. El instructor desempeña el papel de jardinero y en los tiempos actuales se trataría de curator [veáse el anterior post El rol del educador].
Usando esta metáfora funcional de la ecología de base y con las ecologías informacionales en un entorno digital {Haythornthwaite and Andrews, 2011, #92920; Nardi and O’Day, 1999, #1818} podemos establecer una serie de elemento clave para su funcionamiento: especies, nichos, lugares y tecnologías.

Los autores identifican los cinco componentes necesarios para ‘su’ ecología de la información: el sistema, la diversidad, la coevolución, las especies clave y la localidad como espacio de transmisión. La idea de ecología como tecnología está implícito en su discurso. Esta metáfora es única y conveniente, pero no es hasta la segunda mitad del libro de Nardi y O’Day en los estudios de caso que queda claro lo que son para ellos  las ecologías de información y cómo encajamos en ellas (con ejemplo de las bibliotecas en un ecosistema informacional).

¿Cuáles son las necesidades de la ecología del aprendizaje?

El aprendizaje / conocimiento es más que el contenido estático. Es de carácter dinámico, vivo, y su estado en constante evolución. Dentro de una ecología, un ambiente de intercambio de conocimientos (producción de interacciones) debe tener los siguientes acciones:

–           Que sea informal y no estructurado. El sistema no debería definir el aprendizaje y la discusión que sucede. El sistema debe ser lo suficientemente flexible como para permitir a los participantes crear y participar de acuerdo a sus necesidades. No imposición de normas y trabajos con fechas.

–        Herramientas ricas para la interacción, que dan muchas oportunidades para que los usuarios mantengan diálogo y conexiones pertinentes.

–        La consistencia y el tiempo. Nuevas comunidades y nuevos proyectos e ideas comienzan con mucho bombo y promoción … y luego se desvanecen poco a poco. Para crear una ecología de intercambio de conocimientos, los participantes necesitan ver a un entorno en constante evolución y implicación de intereses propios del participante en el nicho específico.

–        Confianza (Trust). De alto contacto, social (cara a cara o en línea) es necesaria para fomentar un sentido de confianza y comodidad. Entornos seguros y protegidos son fundamentales para el desarrollo de la confianza, que no quiere decir cerrados y a cuatro llaves para entrar en los entornos de aprendizaje.

–        Sencillez. Otras características tienen que ser equilibradas con la necesidad de simplicidad. Métodos sencillos, de trabajo social más efectiva. La selección de herramientas y la creación de la estructura de la comunidad debe reflejar esta necesidad de simplicidad. Aquí me interesa aplicar los conocimientos de HCI (Human Computer Interaction) combinado con las técnicas de swarm (bandadas de animales) para generar sencillez en el diseño de interacción {Fisher, 2009, #77965}.

–        Descentralizado, fomentado y conectado. Sobre todo que el conocimiento sea distribuido (cognición distribuida) a tracves de los espacios para el aprendizaje. Lo contrario sería centralizado, gestionado y aislado.

–        Alta tolerancia para la experimentación y el fracaso.

Un enfoque ecológico para el aprendizaje podría empezar por tratar de comprender las complejas relaciones entre las diversas calidades de los estudiantes, ambientes de apoyo, y los maestros eficaces y las cosas que hacer y no hacer, los materiales didácticos que utilizan, y las oportunidades que ofrecen la experiencia desde la participación de todos los componentes. Creo que esto es lo que está haciendo aprendizaje en red (Networked Learning). El aprendizaje en red ofrece una perspectiva y la fundación en la que explorar la interrelación de los alumnos y sus ambientes de aprendizaje, entre otros. El funcionamiento optimo de estas ecologías es consistente si la perspectiva es analizable desde el todo. Un elemento no sería causa de un buen análisis.

Para ver ese funcionamiento en red deben usarse paradigmas analíticos. En este caso la importancia de percibir y escanear las posibilidades de un análisis de esas redes (Social Network Analysis).

Una ecología tiene algunas similitudes con una red de aprendizaje. Posee, de todas formas, algunos elementos que la distinguen. Una red es en gran medida un proceso estructurado, compuesto por nodos y conectores, que conforma una estructura. En contraste, podemos decir que una ecología es un organismo vivo (aunque esos conectores o conductos no son algo dinámico en su representatividad). Si esa ecología es sana, permitirá el florecimiento y crecimiento de la red susodicha. Si no lo es, las redes no se desarrollarán óptimamente y morirán lentamente. La tarea de cualquier formador es crear y fomentar una ecología de aprendizaje que permita que los aprendices mejoren con rapidez y eficacia con respecto al aprendizaje que tienen. Por ello, creemos que una de las competencias clave para generar sanas ecologías de aprendizaje es ser un dinamizador y arquitecto de espacios, donde desde los lurkers hasta el más activo sean conscientes de sus papel y de la importancia de los demás elementos para el buen funcionamiento.

¿De dónde viene conceptualmente todo esto? Procede de la disciplina de la gestión de la información, tratada por autores como Davenport y Prusack, que hablan de ecología de la información. En los años posteriores se empezó por determinar los ecosistemas del conocimiento y la ecología del conocimiento. G. Pór y J. Molloy en sendos artículos lo desarrollan, lo que comenzó a marcar el área de rápido desarrollo que une la creación y utilización de conocimiento con aspectos sociales y de gestión de redes. Y. Malhotra acotó y conceptualizó estos términos en 2002. Tanto John Seely Brown como G. Siemens vieron el filón de este estadio conceptual. John Seely Brown establece algunos principios de cómo se crean las ecologías de aprendizaje en web (no exploró la ecología del conocimiento) como propulsoras de cambios.

La ecología del conocimiento

Algunas de las premisas claves de la ecología del conocimiento en estructuras digitales han sido resumidas de manera clarividente por Y. Malhotra en este artículo:

• La ecología del conocimiento se centra principalmente en las redes sociales de las personas, en contraste con el énfasis excesivamente tecnológico de los sistemas tradicionales de gestión de conocimiento en computadoras y redes de tecnología de la información.
• La ecología del conocimiento centrado en las personas no sólo implica la comprensión de los intercambios de conocimientos y de las relaciones basadas en dichos intercambios. Implica también la comprensión de cómo este conocimiento influye en la acción o potencial para la acción basada en dichos intercambios.
• Así como la ecología natural prospera sobre la base de la diversidad de especies, la ecología del conocimiento se nutre de la diversidad de conocimientos. Tal diversidad se basa en la competencia cooperativa: colaborar con nodos de conocimiento diferentes, así como competir con alguien en función de sus características diferenciadoras.
• En un entorno de ecología del conocimiento afectado por el cambio repentino y generalizado, el modo de supervivencia es la adaptación (o, más exactamente, la anticipación a la sorpresa) en lugar de la optimización.
La ecología del conocimiento está formada por nodos de conocimientos y el intercambio de conocimientos y de los flujos de ese conocimiento. En la ecología del conocimiento, la base para la cooperación y la supervivencia es la diferenciación y la similitud entre los nodos de conocimiento. Los nodos de conocimientos altamente diferenciados pueden colaborar para llevar a cabo acciones específicas y pueden disolverse después.

Según Siemens las ecologías son entornos de conocimiento compartido, fomentando las conexiones y fuentes de conocimiento, dando lugar a la circulación de éste. Son libres, inarticuladas, dinámicas, adaptables, confusas y caóticas. Por eso habla de un organismo vivo.

Ante este ecosistema de aprendizaje nos podemos preguntar: ¿cómo influye la ecología de las redes personales? Siemens hace hincapié en la libertad de elección para utilizar diferentes sistemas y herramientas que satisfagan las necesidades de cada persona, y que se perciban por su facilidad de uso. Esto podemos explicarlo a través del marco (framework) que el aprendiz desarrolla a través de su entorno personal en red (PLN) dentro de un ecosistema institucional más amplio como puede ser un entorno personal de aprendizaje (PLE) y que a la vez puede interconectarse a otros sistemas PLE por medio de iframeworks institucionales o no.

Por esto, el entorno del individuo es dinámico, y adaptable al uso de cada persona. No importa la herramienta sino los conectores o conductos. Esto puede aumentar la posibilidad de hacer conexiones entre personas y entre artefactos a través de diversos medios y formas. La elección personal al hacer conexiones es de suma importancia para mantener la motivación y el espíritu de investigación. Dado que suponemos que el conocimiento debe estar situado en redes y conexiones, las conexiones son profundas y de confianza entre los individuos. Visto así, podemos reconocer la coherencia de participar en ciertas prácticas con el conocimiento que se sugiere, el cual puede aumentar la probabilidad de que surgan nuevos modelos dentro la ecología cambiante, y que las personas que están dentro de ella puedan verlos.

En una parte de este libro se explica el funcionamiento de las redes de conocimiento de la siguiente manera: las personas están activas en la ecología de aprendizaje en términos de consumir o adquirir nuevos recursos y herramientas. El aprendiz comienza a contribuir de forma activa en la red o la ecología, convirtiéndose en un nodo visible. El tiempo en la red se ha traducido en el desarrollo en el aprendiz de un sentido creciente de lo que ocurre en la red o en la ecología en su conjunto. Estos aprendices serán más capaces de reconocer nuevos modelos o de captar los vientos cambiantes de información del conocimiento. Los individuos son así capaces de entender qué significa lo que hacen los patrones emergentes. El alumno también se centra en la reflexión activa del aspecto de la propia ecología, y de este modo puede participar en los intentos de transformar la ecología más allá de su popia red.

En la aplicación práctica de las ideas conectivistas en el aprendizaje, Siemens sugiere tres aspectos fundamentales de las ecologías: ser integral, adaptativo y centrado en los resultados. Estos conceptos también pueden servir como puntos de partida para la nueva forma de ver la ecología del conocimiento, “cultivando” este ecosistema a partir de entornos flexibles.

Adicionalmente podemos argumentar que el punto de vista holístico significa que podemos encontrar muchos espacios en las ecologías, los cuales difieren entre ellos por las perspectivas. Las ecologías están formadas por muchos individuos que tratan de realizar sus objetivos personales, a menudo individualmente y sin estar implicados conscientemente en las acciones del grupo. El punto de vista a nivel de ecología permite ver que los usuarios de manera individual crean varias comunidades que comparten visiones similares o actúan de una cierta manera, incluso sin conocerse entre ellos, o formando redes. Sin embargo, las comunidades residen en subespacios de la ecología, que evoluciona y cambia dinámicamente. A través de las fronteras de los subespacios de la comunidad definidas vagamente, el conocimiento puede ser interpretado y trasladado, creando nuevo conocimiento. El abstracto concepto de subespacio, formulado como un nicho de aprendizaje para cierta comunidad, es importante en las revisiones del marco del Conectivismo. Un nicho de aprendizaje tiene aspectos de una comunidad (de aprendizaje), que se enmarca en un espacio de aprendizaje más amplio dentro de la ecología de conocimiento.

En segundo lugar, Siemens sugiere que las ecologías deben ser adaptativas y capaces de ajustarse y cambiar a medida que el entorno cambia. Se introduce la idea de posibilidad (affordance) que define los nichos. Las posibilidades denotan las relaciones entre aspectos particulares de las situaciones y personas planificando o llevando a la acción. Si las personas están enlazadas a sus hábitos, actividades, procesos y herramientas, igual que sugiere Siemens, cualquier cambio en sus objetivos y preferencias daría lugar a cambios en todo el entorno, en esas comunidades. Personas, actividades, procesos y herramientas que ellos consideran que pueden encajar con sus objetivos están interrelacionados ecológicamente.

Implicaciones para la Educación superior y Formación empresarial

En el entorno constructivista los estudiantes necesitan ser activos e interactivos, y el software social es inherentemente participativo. El constructivismo sugiere que los estudiantes crean conocimiento en su intento de comprender sus experiencias. El proceso de aprendizaje en el conductismo es como un acto de internalización de los conocimientos. El constructivismo asume que los aprendices no son recipientes vacíos para ser llenados con el conocimiento. Al contrario, los estudiantes tratan activamente de crear significados. Los estudiantes seleccionan a menudo, y persiguen su propio aprendizaje. Los principios constructivistas reconocen que el aprendizaje real de la vida es complicado y complejo. Las aulas que emulan la “imprecisión” de este aprendizaje serán más eficaces en la preparación de los estudiantes para el aprendizaje permanente. Las teorías del aprendizaje tienen que ver de este modo con el proceso real de aprendizaje, no con el valor de lo que se está aprendiendo.

En un mundo en red, merece la pena explorar la forma misma de la información que adquirimos. La necesidad de evaluar el mérito de aprender algo es una meta-habilidad que se comienza a aplicar antes del aprendizaje en sí mismo. Cuando el conocimiento está sujeto a la escasez, el proceso de la evaluación es intrínseco al aprendizaje. Cuando el conocimiento se encuentra inserto en una economía de la abundancia, la evaluación rápida de los conocimientos es lo importante. Otras preocupaciones se derivan del aumento rápido de la información que no nos deja tener una visión global. En el entorno actual, la acción es a menudo necesaria sin aprendizaje personal, es decir, tenemos que actuar mediante la elaboración de información fuera de nuestro conocimiento primario. La capacidad de sintetizar y reconocer conexiones y patrones es una habilidad valiosa en la era digital.

El Conectivismo como teoría presenta un modelo de aprendizaje que refleja una sociedad en la que el aprendizaje ya no es una actividad individual. Ahora se trata de reconocer el hecho de que los modos de aprender y su función se alteran cuando se utilizan nuevas herramientas. Siemens es crítico con los educadores por su lentitud para reconocer tanto el impacto de las nuevas herramientas de aprendizaje como los cambios del entorno en el que tiene lugar el aprendizaje. El Conectivismo es el fundamento teórico de las habilidades de aprendizaje y la tarea necesaria para que los estudiantes prosperen en la era digital.

El punto de vista conectivista acerca del aprendizaje es un proceso de creación de redes. Esto está impactando de forma significativa en cómo diseñar y desarrollar el aprendizaje dentro de empresas e instituciones educativas. Cuando el acto de aprendizaje se percibe como una función que gira en torno al propio aprendiz y no sobre el profesor, hace que su rol cambie. El profesor se convierte en tutor, curator, administrador de red, entre otros apelativos recibidos. Al reconocer que el aprendizaje es un proceso desordenado, nebuloso, informal, caótico, tenemos que repensar la forma en que diseñamos la enseñanza. Por lo general, la enseñanza está alojada en cursos con gestores de aprendizaje (LMS, LCMS) ajustados a un período temporal. Hay que dejar atrás esta forma de presentar la información como objeto hierático. La información en red tiene estructura reticular, lo que nos lleva a enunciar algunos principios útiles para llevar a cabo una formación conectivista:

• La estructura de presentar la información hay que procesarla como un no-curso (denominación planteada por Siemens).
• No hacer uso de LMSs (como este o el conocido Moodle, y de manera cerrada) sino de aplicaciones web y servicios de todo tipo como blogs, microblogging, wikis, podcasts, agendas colaborativas, e-portfolios abiertos y gestionados por el propio aprendiz, IMs y videoconferencias, web conferences, redes sociales abiertas e interconectadas a otros elementos (como plataformas), sindicación de contenidos y aplicación para gestionar los feeds. Uso del concepto de MOOC (Massive Open Online Course).
• Todo lo anterior es transformable mediante un estudio previo y su posible ecosistema, con vistas a generar los flujos de información y las evidencias claves de participación en red. Así se evidencia un PLEF (Personal Learning Enviroments Framework) para su propio autoaprendizaje. Evaluación por medio de grafos de evidencia y persistencia y el Análisis de Redes Sociales como paradigma evaluativo de los entornos en red.
• El flujo de información y la base de conocimiento se distribuye. Se usan entornos de aprendizaje distribuido.
• La clase y los tiempos de clase desaparecen. Los grupos de trabajo son espontáneos y adecuados a los propios intereses de cada usuario.
• El currículo debe ser negociado con los propios aprendices. Este principio es adyacente al aprendizaje rizomático de D. Comier. El currículo no se basa en materias sino en el desarrollo de conceptos clave de las áreas del saber. Por ejemplo, las destrezas de matemáticas, comunicación y artes se trabaja de manera integrada.
• Debe haber una transformación de la arquitectura en espacios abiertos, transparentes, que tengan más forma de sala de estar que de aula rancia con sus pupitres.