Reflexiones sobre ecologías y espacios del aprendizaje, análisis del aprendizaje y análisis de redes sociales, visualización de datos, Big Data y otros temas emergentes

Categoría: Uncategorized (Página 1 de 14)

Avatares, memoria y dignidad: tecnologías emergentes ante la muerte y la inmortalidad digital

Introducción personal

Este artículo nace de un lugar íntimo y doloroso, no de una especulación académica. Mi hija Juana vive con una enfermedad rara, con un 96% de discapacidad reconocida y cinco discapacidades superpuestas que la atraviesan cada día. Su vida está marcada por limitaciones físicas y comunicativas: no habla, y su manera de estar en el mundo se expresa en gestos, balbuceos, miradas fugaces. Para nosotros, su familia, cada signo suyo es un tesoro, pero también una frontera: siempre hemos deseado que pudiera tener una voz, que pudiera decir lo que siente, lo que piensa, lo que quiere.

De ahí surge mi obsesión de recrear con la tecnología con esta vertiente IA. ¿Y si pudiéramos recoger sus balbuceos, sus gestos, sus ritmos de comportamiento, transcribirlos y modelarlos para construir un avatar paralelo? No sería Juana exactamente, lo sé. Sería un reflejo incompleto, una extensión mediada por algoritmos y datos. Pero también sería un puente: una forma de escucharla, de imaginar cómo reaccionaría al volver del colegio, de anticipar lo que querría expresar en momentos de ansiedad, de darle una voz que hasta ahora no puede tener.

Mi mujer y yo lo hemos hablado muchas veces: un avatar así no reemplazaría a Juana, pero sería una forma de dignidad comunicativa. Una presencia construida a partir de ella, viva o no, que nos permitiría seguir escuchando ecos de su ser. Una obra personal, íntima, familiar: no un producto de mercado, sino un acto de amor y de memoria.

Desde aquí, desde este anhelo, me acerco al debate sobre la inmortalidad digital. No como un ejercicio de ciencia ficción, sino como una pregunta profundamente humana: ¿qué significa crear un avatar que prolongue la vida de quienes amamos? ¿Qué implicaciones tiene cuando lo que buscamos no es negocio, sino consuelo, compañía y voz para quienes el mundo ha silenciado?

Este es el punto de partida para desplegar una reflexión más amplia, que atraviesa la filosofía, la sociología y la antropología, y que se entrelaza con los imaginarios culturales que series como Black Mirror han convertido en espejo de nuestras ansiedades. Porque antes que negocio, antes que industria, la inmortalidad digital es una pregunta existencial: ¿qué queremos preservar de quienes somos y de quienes amamos cuando la vida biológica ya no puede sostenernos?


Parte I. Filosofía y sociología de la inmortalidad digital

Entre todas las narrativas culturales recientes, el episodio “Be Right Back” de Black Mirror (T2, E1) es el que más directamente encarna la idea de la inmortalidad digital. En él, Martha pierde a su pareja, Ash, en un accidente. Devastada, recurre a un servicio que reconstruye a Ash a partir de su huella digital: correos, mensajes, publicaciones y fotos. Al principio, ese Ash reconstruido es solo una voz artificial en el teléfono. Más tarde, el servicio ofrece un androide físico con su apariencia.

Lo que parece un milagro pronto se revela como una paradoja: el “nuevo Ash” no es realmente Ash. Es una versión filtrada, sin contradicciones ni imperfecciones, una sombra pulida de lo que fue. Martha descubre que la inmortalidad digital no devuelve al ser amado, sino una réplica que intensifica la imposibilidad del duelo.

Este relato plantea preguntas filosóficas centrales:

  • ¿Qué somos en nuestra huella digital? El avatar refleja datos, pero no la complejidad de la experiencia vivida.
  • ¿Es saludable el consuelo digital? Lo que ofrece compañía puede convertirse en prisión emocional, impidiendo aceptar la pérdida.
  • ¿Qué nos hace humanos? No la perfección, sino el error, la vulnerabilidad, la imprevisibilidad. Lo que falta en Ash no es información, sino humanidad.

Desde la sociología, este episodio muestra cómo la tecnología altera los rituales del duelo: no se trata ya de despedirse, sino de mantener una conexión artificial que suspende la despedida. Aquí entra en juego lo que Katarzyna Nowaczyk-Basińska y Paula Kiel (2024) han denominado imaginación inmortológica: la proyección de un yo o de un otro como “futuro inmortal”, construido digitalmente, que acompaña o suplanta a los vínculos reales.


Mientras Be Right Back aborda el duelo íntimo, otros episodios de Black Mirror funcionan como espejos complementarios a Be Right Back.

  • San Junípero (2016) imagina un horizonte luminoso: un “cielo digital” donde las conciencias pueden transferirse y prolongar la vida. Allí, la inmortalidad digital aparece como un espacio de amor y plenitud, un escenario que resignifica el morir en clave esperanzadora.
  • Gente corriente (Common People, 2025) muestra el reverso oscuro: una mujer sobrevive gracias a un implante conectado a la nube, pero su vida depende de suscripciones cada vez más costosas. La inmortalidad ya no es un derecho ni un milagro, sino un gran negocio.

Estos dos relatos no tienen el foco íntimo y devastador de Be Right Back, pero sirven como polos narrativos: uno encarna la promesa utópica, el otro el riesgo distópico. El primero nos permite imaginar la inmortalidad digital como posibilidad emancipadora; el segundo la denuncia como mecanismo de control y explotación.


Inmortalidad digital y espiritualidad tecnológica

Más allá de la ficción, la inmortalidad digital toca las fibras más profundas de la cultura. Las religiones tradicionales han situado la vida eterna en un plano trascendente; las tecnologías actuales la desplazan al plano algorítmico y material. Los servidores sustituyen al cielo; los datos reemplazan a las plegarias.

Esto no significa necesariamente ruptura. En tradiciones animistas, donde los muertos permanecen como presencias activas en la comunidad, los avatares digitales pueden leerse como formas contemporáneas de espiritualismo: un “tecnoanimismo” donde lo humano y lo digital se entrelazan. Lo que antes se expresaba en rituales ancestrales ahora se media a través de algoritmos.


Consecuencias sociales, éticas y jurídicas

La inmortalidad digital también abre dilemas muy concretos:

  • ¿Qué estatus tiene un cónyuge digital?
  • ¿Puede un avatar tener un rol en herencias o procesos legales?
  • ¿Quién decide si alguien puede ser “resucitado” digitalmente: la persona fallecida, la familia o la empresa que guarda los datos?

Hoy, estas preguntas carecen de marcos legales específicos. En la práctica, son las compañías privadas quienes deciden cómo y cuándo se crean estas réplicas. Esto implica una cesión peligrosa: convertir la memoria, el duelo y hasta la condición de persona en un asunto sujeto a términos de servicio y cuotas de suscripción.


De la imaginación thanatológica a la imaginación inmortológica

En este contexto, la propuesta de Nowaczyk-Basińska y Kiel resulta iluminadora. Frente a la imaginación thanatológica (centrada en cómo los vivos procesan la muerte de otros), proponen la imaginación inmortológica, que se enfoca en el sujeto como “futuro inmortal”.

Esta distinción permite comprender fenómenos como Be Right Back:

  • Para Martha, el avatar de Ash es un recurso thanatológico, una herramienta para mitigar su dolor.
  • Pero el propio servicio tecnológico encarna la lógica inmortológica: convertir a Ash en un futuro digital, más allá de su biología.

La tensión entre estos dos imaginarios define gran parte del debate actual: ¿los avatares póstumos son memoria para los vivos o proyectos de continuidad para los muertos?


Parte II. Imaginación antropológica y cultura de la inmortalidad digital

1. La imaginación como práctica cultural

En su artículo Imagination Theory: Anthropological Perspectives (2023), Ingo Rohrer y Michelle Thompson sostienen que la imaginación no es un simple ejercicio de fantasía, sino una práctica cultural situada. Imaginar es recrear lo que no está presente para orientarnos en contextos de incertidumbre, diseñar futuros posibles y dotar de sentido a la acción.

Aplicado a la inmortalidad digital, este marco nos permite entender que los avatares póstumos y los chatbots de duelo no son meras curiosidades tecnológicas, sino expresiones de la imaginación en acción. Son intentos humanos de dar forma a lo ausente, de mantener vínculos con los muertos y de proyectar continuidad más allá de los límites biológicos.


2. Thanatológico e inmortológico: dos imaginarios en tensión

La propuesta de Nowaczyk-Basińska y Kiel sobre la imaginación inmortológica complementa y amplía la perspectiva antropológica. Mientras la imaginación thanatológica se centra en cómo los vivos procesan la pérdida de otros (Penfold-Mounce), la inmortológica desplaza el foco hacia cómo los individuos se proyectan como futuros inmortales en entornos digitales.

El episodio Be Right Back ilustra de forma ejemplar esta tensión:

  • Desde el ángulo thanatológico, Martha utiliza la tecnología para sobrellevar el duelo, para mantener vivo un vínculo imposible.
  • Desde el ángulo inmortológico, el servicio tecnológico convierte a Ash en un proyecto de continuidad posthumana, un “futuro inmortal” construido a partir de su huella digital.

La antropología ayuda a ver que estos dos imaginarios no son abstractos, sino prácticas situadas: dependen del contexto cultural, de las expectativas sociales y de los recursos disponibles.


3. La industria del más allá digital y la desigualdad simbólica

El crecimiento de lo que Nowaczyk-Basińska llama la industria del más allá digital confirma que la inmortalidad no es un derecho universal, sino un producto. Empresas en Estados Unidos y China ya ofrecen avatares póstumos basados en datos personales, con planes de suscripción y distintos niveles de sofisticación.

Aquí se cumple lo que Zygmunt Bauman señalaba sobre la inmortalidad: históricamente, ha sido un recurso desigual, accesible sobre todo para las élites culturales o económicas. En su versión digital, esta desigualdad se amplifica: quienes poseen más datos, más capital tecnológico y más recursos económicos podrán construir representaciones más completas y duraderas de sí mismos. Los demás quedarán reducidos a huellas fragmentarias o, sencillamente, al olvido. En este estadio no estamos, por eso el sueño con Juana.

La antropología de la imaginación nos recuerda que estos procesos no son neutrales. Al ser productos culturales, los avatares digitales reproducen y amplifican las jerarquías de clase, género y etnia que atraviesan la sociedad.


4. Imaginación como praxis: del duelo al archivo cultural

Si seguimos a Rohrer y Thompson, imaginar no es solo proyectar futuros, sino hacerlos prácticos. Esto se ve en los proyectos reales que empiezan a aparecer: familias que crean avatares de sus difuntos a partir de mensajes y grabaciones; startups que ofrecen “embalsamadores digitales” capaces de curar y editar recuerdos; cementerios virtuales que funcionan como archivos interactivos.

En estos casos, la imaginación opera como praxis cultural: los vivos construyen presencia a partir de ausencia. Lo que parecía intangible se convierte en archivo, interfaz, aplicación. El duelo se transforma en un campo de producción simbólica.


5. Entre memoria y negocio: el dilema contemporáneo

La tensión entre lo thanatológico y lo inmortológico, entre lo íntimo y lo mercantil, es el gran dilema de nuestro tiempo. Para unas familias, como la mía con Juana, se trata de una obra personal: una forma de dignidad comunicativa, de memoria afectiva. Para la industria, se trata de un mercado emergente con potencial de miles de millones.

La antropología de la imaginación nos advierte: el modo en que imaginamos hoy la inmortalidad digital tendrá efectos concretos mañana (un estado como de retroproyección). Si la vemos como consuelo íntimo, puede convertirse en un puente de acompañamiento y memoria. Si la reducimos a negocio, puede ser una trampa que privatice la muerte y convierta la permanencia en suscripción.


Conclusión

La inmortalidad digital no es solo un desarrollo tecnológico. Es un fenómeno humano y cultural que une filosofía, sociología y antropología. La filosofía plantea las preguntas sobre identidad, duelo y humanidad. La sociología aporta categorías como la imaginación inmortológica para analizar cómo proyectamos nuestra continuidad. La antropología nos recuerda que imaginar siempre es praxis cultural, situada en contextos de desigualdad y esperanza.

El episodio Be Right Back nos muestra el rostro íntimo del duelo en la era digital. San Junípero y Gente corriente reflejan, desde sus polos opuestos, la promesa y el riesgo de prolongar la vida más allá de lo biológico. Pero la pregunta de fondo sigue siendo profundamente humana: ¿qué queremos preservar de quienes somos y de quienes amamos, cuando la biología se extinga y solo nos quede la huella digital?

En mi caso, la respuesta vuelve inevitablemente a Juana. No pienso en la inmortalidad digital como un experimento futurista ni como un negocio, sino como un acto de amor: la posibilidad de darle una voz a quien no puede hablar, de construir un puente comunicativo que trascienda sus limitaciones y las nuestras. Si un día la tecnología permite que su risa, sus gestos o sus balbuceos se conviertan en una presencia paralela y con capacidad de transcripción de “su mundo”, no será una sustitución ni un engaño, sino una manera de decirle al mundo que ella estuvo, que existió, que tuvo un lugar y una dignidad que merece ser recordada. Porque cuando alguien no comunica, o cuando se le silencia, la sociedad tiende a actuar como si no existiera. Dar voz a Juana, aunque sea a través de un avatar digital, es afirmar lo contrario: que su existencia importa, que su vida tiene sentido, que no puede quedar relegada al silencio. Es un gesto de resistencia frente al olvido, una forma de inscribir su presencia en el tiempo y en la memoria colectiva.

Tal vez de eso se trate, en última instancia, la inmortalidad digital: de encontrar modos de prolongar lo que amamos en quienes no caben del todo en los moldes de la vida biológica. De ofrecer continuidad a los silencios, de dar memoria a los olvidos, de transformar la ausencia en presencia. No para negar la muerte, sino para afirmar la vida que hubo, y que queremos preservar.

¿Y usted qué opina?


Referencias

  • Bauman, Z. (1992). Mortality, immortality and other life strategies. Polity Press.
  • Brooker, C. (Writer), & Harris, O. (Director). (2016). San Junípero (Season 3, Episode 4) [TV series episode]. In C. Brooker (Executive Producer), Black Mirror. Netflix.
  • Brooker, C. (Writer), & Verbruggen, O. (Director). (2013). Be Right Back (Season 2, Episode 1) [TV series episode]. In C. Brooker (Executive Producer), Black Mirror. Netflix.
  • Brooker, C. (Writer), & Bassetti, A. (Director). (2025). Common People (Season 7, Episode 1) [TV series episode]. In C. Brooker (Executive Producer), Black Mirror. Netflix.
  • Jameson, F. (2005). Archaeologies of the future: The desire called utopia and other science fictions. Verso.
  • Nowaczyk-Basińska, K., & Kiel, P. (2024). Exploring the immortological imagination: Advocating for a sociology of immortality. Social Sciences, 13(2), 83. https://doi.org/10.3390/socsci13020083
  • Pérez Colomé, J. (2025, August 26). Katarzyna Basinska, investigadora: “Será normal que a mucha gente le apetezca chatear con sus seres queridos muertos”. El País. https://elpais.com/tecnologia/2025-08-26/katarzyna-basinska-investigadora-sera-normal-que-a-mucha-gente-le-apetezca-chatear-con-sus-seres-queridos-muertos.html
  • Ricoeur, P. (1990). Soi-même comme un autre. Éditions du Seuil.
  • Rohrer, I., & Thompson, M. (2023). Imagination theory: Anthropological perspectives. Anthropological Theory, 23(2), 186–208. https://doi.org/10.1177/14634996221129117

Traducido al inglés:
Avatars, memory, and dignity: emerging technologies in the face of death and digital immortality

Personal introduction

This article comes from a place of intimacy and pain, not academic speculation. My daughter Juana lives with a rare disease, with a recognized disability rating of 96% and five overlapping disabilities that affect her every day. Her life is marked by physical and communicative limitations: she does not speak, and her way of being in the world is expressed through gestures, babbling, and fleeting glances. For us, her family, each of her signs is a treasure, but also a barrier: we have always wanted her to have a voice, to be able to say what she feels, what she thinks, what she wants.

That’s where my obsession with recreating this aspect of AI with technology comes from. What if we could collect her babbling, her gestures, her behavioral rhythms, transcribe them, and model them to build a parallel avatar? It wouldn’t be Juana exactly, I know. It would be an incomplete reflection, an extension mediated by algorithms and data. But it would also be a bridge: a way to hear her, to imagine how she would react when she came home from school, to anticipate what she would want to express in moments of anxiety, to give her a voice that she cannot have until now.

My wife and I have discussed this many times: such an avatar would not replace Juana, but it would be a form of communicative dignity. A presence built from her, alive or not, that would allow us to continue hearing echoes of her being. A personal, intimate, familiar work: not a market product, but an act of love and memory.

From here, from this longing, I approach the debate on digital immortality. Not as an exercise in science fiction, but as a deeply human question: what does it mean to create an avatar that prolongs the life of those we love? What are the implications when what we seek is not business, but comfort, companionship, and a voice for those whom the world has silenced?

This is the starting point for a broader reflection that cuts across philosophy, sociology, and anthropology and is intertwined with the cultural imaginaries that series such as Black Mirror have turned into a mirror of our anxieties. Because before it is a business, before it is an industry, digital immortality is an existential question: what do we want to preserve of who we are and who we love when biological life can no longer sustain us?

Part I. Philosophy and sociology of digital immortality

Be Right Back: digital immortality in mourning

Among all recent cultural narratives, the episode “Be Right Back” from Black Mirror (S2, E1) is the one that most directly embodies the idea of digital immortality. In it, Martha loses her partner, Ash, in an accident. Devastated, she turns to a service that reconstructs Ash from his digital footprint: emails, messages, posts, and photos. At first, this reconstructed Ash is just an artificial voice on the phone. Later, the service offers a physical android with his appearance.

What seems like a miracle soon reveals itself to be a paradox: the “new Ash” is not really Ash. He is a filtered version, without contradictions or imperfections, a polished shadow of what he once was. Martha discovers that digital immortality does not bring back the loved one, but rather a replica that intensifies the impossibility of mourning.

This story raises central philosophical questions:

  • What are we in our digital footprint? The avatar reflects data, but not the complexity of lived experience.
  • Is digital consolation healthy? What offers companionship can become an emotional prison, preventing acceptance of loss.
  • What makes us human? Not perfection, but error, vulnerability, unpredictability. What is missing in Ash is not information, but humanity.

From a sociological perspective, this episode shows how technology alters the rituals of mourning: it is no longer about saying goodbye, but about maintaining an artificial connection that suspends the farewell. This is where what Katarzyna Nowaczyk-Basińska and Paula Kiel (2024) have called immortological imagination comes into play: the projectionof a self or another as a digitally constructed “immortal future” that accompanies or supplants real bonds.

San Junípero and Common People: side mirrors

While Be Right Back deals with intimate grief, other episodes of Black Mirror function as complementary mirrors to Be Right Back.

  • San Junípero (2016) imagines a bright horizon: a “digital heaven” where consciousnesses can be transferred and life prolonged. There, digital immortality appears as a space of love and fulfillment, a scenario that redefines dying in a hopeful way.
  • Common People (2025) shows the dark side: a woman survives thanks to an implant connected to the cloud, but her life depends on increasingly expensive subscriptions. Immortality is no longer a right or a miracle, but big business.

These two stories do not have the intimate and devastating focus of Be Right Back, but they serve as narrative poles: one embodies the utopian promise, the other the dystopian risk. The first allows us to imagine digital immortality as an emancipatory possibility; the second denounces it as a mechanism of control and exploitation.

Digital immortality and technological spirituality

Beyond fiction, digital immortality touches the deepest fibers of culture. Traditional religions have placed eternal life on a transcendent plane; current technologies shift it to the algorithmic and material plane. Servers replace heaven; data replaces prayers.

This does not necessarily mean a break with tradition. In animist traditions, where the dead remain active presences in the community, digital avatars can be read as contemporary forms of spiritualism: a “techno-animism” where the human and the digital are intertwined. What was once expressed in ancestral rituals is now mediated through algorithms.

Social, ethical, and legal consequences

Digital immortality also raises very specific dilemmas:

  • What is the status of a digital spouse?
  • Can an avatar play a role in inheritance or legal proceedings?
  • Who decides whether someone can be digitally “resurrected”: the deceased person, the family, or the company that stores the data?

Today, these questions lack specific legal frameworks. In practice, it is private companies that decide how and when these replicas are created. This implies a dangerous concession: turning memory, mourning, and even personhood into a matter subject to terms of service and subscription fees.

From thanatological imagination to immortological imagination

In this context, the proposal by Nowaczyk-Basińska and Kiel is illuminating. In contrast to the thanatological imagination (focused on how the living process the death of others), they propose the immortological imagination, which focuses on the subject as an “immortal future.”

This distinction allows us to understand phenomena such as Be Right Back:

  • For Martha, Ash’s avatar is a thanatological resource, a tool to mitigate her pain.
  • But the technological service itself embodies the immortological logic: turning Ash into a digital future, beyond her biology.

The tension between these two imaginaries defines much of the current debate: are posthumous avatars memories for the living or projects of continuity for the dead?

Part II. Anthropological Imagination and the Culture of Digital Immortality

1. Imagination as cultural practice

In their article Imagination Theory: Anthropological Perspectives (2023), Ingo Rohrer and Michelle Thompson argue that imagination is not a simple exercise in fantasy, but a situated cultural practice. To imagine is to recreate what is not present in order to orient ourselves in contexts of uncertainty, design possible futures, and give meaning to action.

Applied to digital immortality, this framework allows us to understand that posthumous avatars and grief chatbots are not mere technological curiosities, but expressions of imagination in action. They are human attempts to give shape to the absent, to maintain links with the dead, and to project continuity beyond biological limits.

2. Thanatological and immortological: two imaginaries in tension

Nowaczyk-Basińska and Kiel’s proposal on the immortological imagination complements and expands the anthropological perspective. While the thanatological imagination focuses on how the living process the loss of others (Penfold-Mounce), the immortological imagination shifts the focus to how individuals project themselves as immortal futures in digital environments.

The episode “Be Right Back” exemplifies this tension:

  • From a thanatological perspective, Martha uses technology to cope with grief, to keep an impossible bond alive.
  • From an immortological perspective, the technological service turns Ash into a project of posthuman continuity, an “immortal future” built from his digital footprint.

Anthropology helps us see that these two imaginaries are not abstract, but situated practices: they depend on cultural context, social expectations, and available resources.

3. The digital afterlife industry and symbolic inequality

The growth of what Nowaczyk-Basińska calls the digital afterlife industry confirms that immortality is not a universal right, but a product. Companies in the United States and China already offer posthumous avatars based on personal data, with subscription plans and varying levels of sophistication.

This confirms what Zygmunt Bauman pointed out about immortality: historically, it has been an unequal resource, accessible mainly to cultural or economic elites. In its digital version, this inequality is amplified: those who possess more data, more technological capital, and more economic resources will be able to construct more complete and lasting representations of themselves. The rest will be reduced to fragmentary traces or, quite simply, oblivion. We are not at this stage yet, which is why we dream of Juana.

The anthropology of imagination reminds us that these processes are not neutral. As cultural products, digital avatars reproduce and amplify the class, gender, and ethnic hierarchies that permeate society.

4. Imagination as praxis: from mourning to cultural archive

If we follow Rohrer and Thompson, imagining is not just about projecting futures, but making them practical. This can be seen in the real projects that are beginning to appear: families creating avatars of their deceased loved ones from messages and recordings; startups offering “digital embalmers” capable of curating and editing memories; virtual cemeteries that function as interactive archives.

In these cases, imagination operates as cultural praxis: the living construct presence from absence. What seemed intangible becomes an archive, an interface, an application. Mourning is transformed into a field of symbolic production.

5. Between memory and business: the contemporary dilemma

The tension between the thanatological and the immortological, between the intimate and the commercial, is the great dilemma of our time. For some families, like mine with Juana, it is a personal endeavor: a form of communicative dignity, of affective memory. For the industry, it is an emerging market with billions in potential.

The anthropology of imagination warns us: the way we imagine digital immortality today will have concrete effects tomorrow. If we see it as intimate consolation, it can become a bridge of companionship and memory. If we reduce it to business, it can be a trap that privatizes death and turns permanence into a subscription.

Conclusion

Digital immortality is not just a technological development. It is a human and cultural phenomenon that unites philosophy, sociology, and anthropology. Philosophy raises questions about identity, grief, and humanity. Sociology contributes categories such as immortological imagination to analyze how we project our continuity. Anthropology reminds us that imagination is always cultural praxis, situated in contexts of inequality and hope.

The episode Be Right Back shows us the intimate face of grief in the digital age. San Junípero and Ordinary Peoplereflect, from their opposite poles, the promise and risk of prolonging life beyond the biological. But the underlying question remains deeply human: what do we want to preserve of who we are and who we love, when biology is extinguished and only our digital footprint remains?

In my case, the answer inevitably returns to Juana. I don’t think of digital immortality as a futuristic experiment or a business, but as an act of love: the possibility of giving a voice to those who cannot speak, of building a communicative bridge that transcends their limitations and ours. If one day technology allows her laughter, her gestures, or her babbling to become a parallel presence capable of transcribing “her world,” it will not be a substitution or a deception, but a way of telling the world that she was here, that she existed, that she had a place and a dignity that deserves to be remembered. Because when someone does not communicate, or when they are silenced, society tends to act as if they did not exist. Giving Juana a voice, even if it is through a digital avatar, is to affirm the opposite: that her existence matters, that her life has meaning, that she cannot be relegated to silence. It is a gesture of resistance against oblivion, a way of inscribing her presence in time and in the collective memory.

Perhaps that is what digital immortality is ultimately about: finding ways to prolong what we love in those who do not quite fit into the molds of biological life. To offer continuity to silences, to give memory to forgetfulness, to transform absence into presence. Not to deny death, but to affirm the life that was, and that we want to preserve.

What do you think?

References

  • Bauman, Z. (1992). Mortality, immortality and other life strategies. Polity Press.
  • Brooker, C. (Writer), & Harris, O. (Director). (2016). San Junípero (Season 3, Episode 4) [TV series episode]. In C. Brooker (Executive Producer), Black Mirror. Netflix.
  • Brooker, C. (Writer), & Verbruggen, O. (Director). (2013). Be Right Back (Season 2, Episode 1) [TV series episode]. In C. Brooker (Executive Producer), Black Mirror. Netflix.
  • Brooker, C. (Writer), & Bassetti, A. (Director). (2025). Common People (Season 7, Episode 1) [TV series episode]. In C. Brooker (Executive Producer), Black Mirror. Netflix.
  • Jameson, F. (2005). Archaeologies of the future: The desire called utopia and other science fictions. Verso.
  • Nowaczyk-Basińska, K., & Kiel, P. (2024). Exploring the immortological imagination: Advocating for a sociology of immortality. Social Sciences, 13(2), 83. https://doi.org/10.3390/socsci13020083
  • Pérez Colomé, J. (2025, August 26). Katarzyna Basinska, researcher: “It will be normal for many people to want to chat with their deceased loved ones.” El Paíshttps://elpais.com/tecnologia/2025-08-26/katarzyna-basinska-investigadora-sera-normal-que-a-mucha-gente-le-apetezca-chatear-con-sus-seres-queridos-muertos.html
  • Ricoeur, P. (1990). Soi-même comme un autre. Éditions du Seuil.
  • Rohrer, I., & Thompson, M. (2023). Imagination theory: Anthropological perspectives. Anthropological Theory, 23(2), 186–208. https://doi.org/10.1177/14634996221129117

Flujo de trabajo NotebookLM + Perplexity: optimizando la investigación y el aprendizaje

Combinación estratégica de herramientas IA para potenciar procesos de investigación no académica. Comenzamos…

Introducción: el poder de la combinación estratégica

Las recientes actualizaciones en NotebookLM y Perplexity han creado una oportunidad única para los investigadores, estudiantes y profesionales que buscan optimizar sus procesos de investigación y aprendizaje. Estas dos herramientas de inteligencia artificial, cuando se utilizan de manera complementaria, pueden reducir dramáticamente el tiempo dedicado a la investigación mientras mejoran significativamente la calidad de los resultados obtenidos.

El presente documento explora cómo la combinación estratégica de la capacidad de búsqueda en tiempo real de Perplexity con el análisis profundo y contextual de NotebookLM crea un flujo de trabajo excepcionalmente potente. Este enfoque metodológico supera las limitaciones individuales de cada herramienta, permitiendo un proceso de investigación más coherente, preciso y eficiente, con especial atención a seis estrategias de implementación que maximizan su potencial transformador.

¿Por qué necesitamos ambas herramientas?

Fortalezas y limitaciones de Perplexity

Perplexity destaca por su capacidad de búsqueda en tiempo real y acceso a información actualizada, pero presenta características que pueden limitar su eficacia como herramienta única de investigación:

Fortalezas principales

  • Búsqueda en tiempo real: Acceso inmediato a información actualizada de la web con capacidad de procesamiento contextual.
  • Creación de espacios temáticos: Organización de investigaciones mediante espacios personalizados con instrucciones específicas.
  • Operadores de búsqueda avanzados: Capacidad para refinar consultas mediante operadores específicos (tiempo, fuente, formato).
  • Visualización estructurada: Presentación de resultados en formatos organizados como tablas comparativas y resúmenes.

Limitaciones significativas

  • Consultas independientes: Cada pregunta dispara una nueva búsqueda, utilizando potencialmente diferentes conjuntos de fuentes.
  • Mezcla de fuentes: Incluso al subir fuentes propias a un espacio de Perplexity, puede utilizar datos pre-entrenados en sus respuestas.
  • Consistencia limitada: Dificultad para mantener coherencia entre múltiples consultas relacionadas.
  • Análisis profundo restringido: Capacidad reducida para análisis detallado de documentos extensos o conjuntos de fuentes complejos.

Propuesta de valor de NotebookLM

NotebookLM complementa las limitaciones de Perplexity, ofreciendo características que potencian el análisis profundo de fuentes seleccionadas:

Base de datos cerrada

  • Respuestas basadas únicamente en fuentes importadas
  • Referencias estables y verificables
  • Menor probabilidad de alucinaciones o imprecisiones
  • Mantenimiento de contexto entre consultas

Características avanzadas

  • Modo de audio interactivo para discusiones
  • Organización por proyectos de investigación
  • Capacidad para extraer patrones transversales
  • Personalización de síntesis según audiencia

Limitaciones principales

  • Sin búsqueda web en tiempo real
  • Depende de la calidad de fuentes importadas
  • Requiere selección previa de documentos
  • No accede a información actualizada

Flujo de trabajo integrado: cuatro pasos esenciales

La combinación efectiva de estas herramientas sigue un flujo lógico que maximiza sus fortalezas complementarias:

Paso 1: Recopilación estratégica con Perplexity

Búsqueda dirigida por objetivos

El primer paso consiste en utilizar Perplexity para recopilar fuentes específicas basadas en prompts claramente definidos. La efectividad de este paso depende significativamente de la precisión con que se formulen las consultas iniciales y la estrategia de búsqueda.

Técnica clave: Utilizar espacios personalizados en Perplexity para organizar proyectos de investigación con instrucciones específicas que automaticen parte del proceso.

Estructura de instrucciones codificadas

La configuración de códigos de tarea específicos en un espacio de Perplexity permite semi-automatizar la búsqueda. Por ejemplo, configurar que «Tarea 1» ejecute automáticamente la búsqueda de informes recientes sobre un tema específico de consultoras reconocidas.

Técnica clave: Crear una biblioteca de códigos de tarea reutilizables para diferentes tipos de búsqueda (académica, opiniones de usuarios, noticias recientes, estudios de caso, etc.).

Paso 2: Curaduría de fuentes de calidad

Evaluación y selección crítica

La calidad del análisis posterior depende fundamentalmente de la selección de fuentes. Este paso requiere revisar cuidadosamente los resultados de Perplexity para identificar las fuentes más relevantes, confiables y ricas en información útil para nuestro propósito.

Principio guía: Priorizar calidad sobre cantidad. Es preferible importar cinco fuentes de alta calidad que veinte de relevancia cuestionable.

Preparación de fuentes

Después de identificar las fuentes valiosas, se recopilan los enlaces para su posterior importación. Para fuentes como episodios de podcast o contenido audiovisual, pueden ser necesarios pasos adicionales como descarga de archivos o transcripciones.

Técnica práctica: Mantener un documento intermedio donde se guarden temporalmente los enlaces y notas sobre la relevancia de cada fuente para facilitar la selección final.

Paso 3: Análisis profundo con NotebookLM

Importación e integración de fuentes

Las fuentes seleccionadas se importan a NotebookLM, creando una base de conocimiento coherente y cerrada que servirá como fundamento para el análisis. La organización en notebooks específicos por proyecto o tema facilita la gestión del conocimiento.

Estrategia efectiva: Cuando sea relevante, importar también contenido propio (como sitios web, documentos de trabajo o proyectos previos) para permitir un análisis comparativo y aplicado.

Formulación de consultas estratégicas

Con las fuentes importadas, se formulan preguntas diseñadas para extraer patrones, identificar tendencias y desarrollar insights significativos. La calidad de las preguntas determina en gran medida el valor del análisis obtenido.

Estructura recomendada: Comenzar con preguntas generales para comprender el panorama, seguidas por consultas cada vez más específicas que profundicen en aspectos particulares y concluir con solicitudes de síntesis aplicable.

Paso 4: Validación y refinamiento (opcional)

ProcesoDescripción
Verificación cruzadaRegresar a Perplexity para validar insights específicos contra datos web más amplios, especialmente para confirmar tendencias identificadas o verificar la vigencia de conclusiones.
Búsqueda complementariaIdentificar vacíos de información durante el análisis y utilizar Perplexity para investigaciones focalizadas que complementen el conocimiento ya procesado.
Contraste de perspectivasBuscar deliberadamente puntos de vista alternativos o críticos frente a las conclusiones preliminares para enriquecer el análisis final.
Actualización periódicaPara investigaciones de largo plazo, implementar ciclos regulares de actualización mediante nuevas búsquedas en Perplexity que mantengan la base de conocimiento al día.

Seis estrategias avanzadas de implementación

La combinación Perplexity-NotebookLM puede aplicarse a diversos escenarios de investigación y aprendizaje con adaptaciones específicas según el contexto y objetivo:

Estrategia 1: Análisis de tendencias de mercado

Implementación ideal para profesionales de marketing y estrategia que necesitan comprender tendencias emergentes para planificar contenidos y desarrollar liderazgo de pensamiento en su industria.

  1. En Perplexity: Crear un espacio dedicado (ej. «Investigación de IA Responsable») con instrucciones personalizadas que semiautomaticen el proceso.
  2. Códigos de tarea: Configurar búsquedas específicas como «buscar informes sobre IA responsable de consultoras como Deloitte, McKinsey, BCG» y «encontrar papers académicos sobre evaluación de riesgos de IA».
  3. En NotebookLM: Importar fuentes seleccionadas y formular preguntas estratégicas como «¿cuáles son los principales cambios en IA responsable?» o «¿qué está impulsando a las empresas a invertir en este tema?».
  4. Aplicación: Solicitar ideas de contenido específicas o profundizar en temas particulares para desarrollar estrategias de comunicación fundamentadas en datos reales.

Estrategia 2: Investigación para mejora de productos

Enfoque particularmente útil para fundadores y equipos de desarrollo de productos que buscan mejorar ofertas existentes o identificar oportunidades para nuevas funcionalidades.

FaseProcesoObjetivo
IdentificaciónUsar Perplexity para identificar competidores principales y fuentes de opiniones de usuarios (G2, Product Hunt, TrustRadius)Mapear el ecosistema competitivo y canales de feedback
RecopilaciónUtilizar búsqueda enfocada para encontrar opiniones detalladas en Reddit/YouTube y reportes de industria relevantesObtener feedback cualitativo profundo y contexto de mercado
AnálisisImportar a NotebookLM y preguntar sobre puntos débiles comunes, funcionalidades faltantes y tendencias tecnológicasIdentificar oportunidades de mejora y diferenciación
AplicaciónSubir la página del producto propio y solicitar plan de mejora basado en la investigación realizadaDesarrollar estrategia de producto informada por datos reales

Estrategias adicionales

Además de las estrategias principales, este flujo de trabajo puede aplicarse eficazmente a:

3. Investigación de audiencia

  • Identificar necesidades de clientes potenciales
  • Analizar preferencias y comportamientos
  • Optimizar mensajes de marketing
  • Desarrollar buyer personas fundamentadas

4. Investigación para podcasts

  • Analizar podcasts exitosos en tu nicho
  • Identificar formatos y estilos efectivos
  • Desarrollar estrategias de contenido
  • Definir posicionamiento diferenciador

5. Aprendizaje de nuevos temas

  • Crear guías de estudio personalizadas
  • Generar resúmenes conceptuales accesibles
  • Producir materiales de audio para aprendizaje
  • Aplicar conceptos a proyectos específicos

6. Preparación de presentaciones

  • Analizar discursos y presentaciones efectivas
  • Identificar técnicas de comunicación
  • Desarrollar estructuras narrativas
  • Crear materiales con alto impacto

Estrategia 5 en profundidad: Aprendizaje de nuevos temas

Esta estrategia demuestra el potencial transformador del flujo de trabajo para acelerar y profundizar procesos de aprendizaje personal:

EtapaImplementaciónResultado
Recopilación diversificadaUsar Perplexity para buscar guías detalladas, podcasts relevantes, estudios académicos, entrevistas con expertos y conferencias sobre el tema de interés (ej. Psicología del Marketing)Base de conocimiento multiformato que abarca diversos enfoques y niveles de profundidad
Estructuración conceptualImportar a NotebookLM y generar guía de estudio, FAQ y resúmenes conceptuales adaptados al nivel de conocimiento previoMapa conceptual claro y personalizado que facilita la comprensión sistemática
Profundización aplicadaSolicitar explicaciones de principios fundamentales y ejemplos concretos de aplicación en contextos realesComprensión práctica que facilita la transferencia a situaciones relevantes
Experiencia interactivaUtilizar la función de audio interactivo para generar presentaciones auditivas y mantener conversaciones que profundicen aspectos específicosAprendizaje multimodal que refuerza comprensión y facilita estudio en movimiento

Técnicas avanzadas de optimización

Para maximizar la eficiencia y efectividad del flujo de trabajo Perplexity-NotebookLM, existen técnicas específicas que pueden implementarse:

Optimización de consultas en Perplexity

  1. Operadores de búsqueda avanzados: Utilizar «INTITLE:», «site:», «filetype:» y restricciones temporales para refinar resultados y obtener fuentes más específicas.
  2. Consultas concatenadas: Construir secuencias lógicas de búsqueda donde cada consulta se basa en los resultados de la anterior para profundizar progresivamente.
  3. Búsqueda enfocada por formato: Alternar entre modalidades (web, videos, imágenes) según el tipo de información necesaria para cada fase de investigación.
  4. Espacios con instrucciones detalladas: Desarrollar configuraciones de espacio con instrucciones extensivas que definan criterios de calidad y relevancia para resultados.
  5. Plantillas de consulta: Crear estructuras predefinidas para tipos recurrentes de investigación que puedan reutilizarse en múltiples proyectos.

Maximización del análisis en NotebookLM

  • Estructuración de consultas progresivas: Diseñar secuencias de preguntas que vayan de lo general a lo específico, construyendo un análisis cada vez más profundo.
  • Combinación estratégica de fuentes: Importar deliberadamente fuentes con perspectivas contrastantes para generar análisis más matizados y completos.
  • Integración de contenido propio: Incorporar documentos propios que contextualicen la investigación dentro de proyectos o necesidades específicas.
  • Uso de prompts prediseñados: Aprovechar las plantillas integradas como generación de estudio y FAQ para iniciar análisis estructurados rápidamente.
  • Personalización de síntesis de audio: Configurar parámetros específicos para la generación de resúmenes auditivos adaptados a diferentes objetivos y audiencias.

Mejores prácticas integradas

Estos principios fundamentales aseguran resultados óptimos con el flujo de trabajo combinado:

Principio de calidad selectiva

  • Curaduría rigurosa: Evaluar críticamente cada fuente antes de importar, priorizando confiabilidad y relevancia.
  • Criterios explícitos: Establecer parámetros claros para determinar qué fuentes merecen ser incluidas.
  • Diversidad controlada: Balancear diferentes tipos de fuentes sin sacrificar coherencia temática.
  • Actualización estratégica: Renovar periódicamente la base de conocimiento con información reciente relevante.

Principio de integración contextual

  • Relevancia aplicada: Vincular explícitamente la investigación con proyectos específicos o necesidades concretas.
  • Adaptación a audiencia: Ajustar nivel de detalle y terminología según destinatario final del análisis.
  • Conexión interdisciplinar: Establecer puentes entre diferentes áreas de conocimiento cuando sea pertinente.
  • Consideración de implementabilidad: Evaluar factibilidad práctica de conclusiones y recomendaciones.

Gestión eficiente de recursos y tiempo

La optimización del flujo de trabajo también requiere consideraciones sobre manejo de recursos cognitivos y temporales:

ConsideraciónEstrategia de implementación
Prevención de sobrecarga informativaEstablecer límites deliberados para la cantidad de fuentes por proyecto (generalmente entre 5-10 documentos de alta calidad) y segmentar proyectos complejos en múltiples notebooks con focos específicos.
Balanceo de profundidad y amplitudAlternar entre fases exploratorias amplias en Perplexity y profundizaciones focalizadas en NotebookLM, evitando quedarse atrapado exclusivamente en una modalidad de investigación.
Documentación de procesoMantener registro de consultas clave, decisiones de selección y patrones identificados para facilitar revisión posterior, evitar duplicación de esfuerzos y permitir refinamiento metodológico.
Sistemas de organizaciónDesarrollar taxonomías coherentes para nombrar espacios en Perplexity y notebooks en NotebookLM, además de implementar etiquetado sistemático que facilite recuperación rápida de investigaciones previas.
Ciclos de retroalimentaciónIncorporar puntos de evaluación regular donde se revise la utilidad de las fuentes seleccionadas y la relevancia de los análisis generados, ajustando el enfoque según sea necesario.

Casos prácticos detallados

Los siguientes casos detallados ilustran la implementación concreta del flujo de trabajo en diferentes contextos:

Caso 1: Análisis de tendencias en IA responsable

Contexto y objetivo

Escenario: Director de marketing en empresa tecnológica necesita desarrollar contenido de liderazgo de pensamiento sobre IA responsable y ética.

Implementación Perplexity:

  • Creación de espacio «Responsible AI Market Research»
  • Configuración de tarea 1: «Buscar informes sobre IA responsable de consultoras como Deloitte, McKinsey, BCG»
  • Configuración de tarea 2: «Encontrar papers sobre evaluación de riesgos en IA»
  • Búsqueda adicional: «Casos de implementación ética de IA en empresas Fortune 500»
  • Selección de 7 fuentes de alta calidad, diversificadas entre reportes corporativos, estudios académicos y análisis de casos

Análisis y resultados

Implementación NotebookLM:

  • Importación de las 7 fuentes seleccionadas
  • Consulta inicial: «¿Cuáles son los principales cambios ocurriendo en IA responsable?»
  • Profundización: «¿Qué está impulsando a las empresas a invertir en este tema?»
  • Aplicación: «Proponer 5 temas específicos para contenido que posicione a nuestra empresa como líder en IA responsable»
  • Desarrollo de calendario editorial basado en tendencias identificadas

Resultado: Estrategia de contenido diferenciada con 12 temas para publicaciones, basada en datos actualizados y tendencias emergentes, que posiciona a la empresa a la vanguardia de la conversación sobre IA ética.

Caso 2: Mejora de herramienta de email marketing

Contexto y proceso

Escenario: Startup de software buscando mejorar su herramienta de automatización de email marketing basándose en feedback de usuarios y análisis competitivo.

Proceso de investigación:

  • Identificación de competidores principales (ActiveCampaign, Klaviyo, MailChimp)
  • Localización de reseñas detalladas en G2, Product Hunt y TrustRadius
  • Búsqueda enfocada en Reddit y YouTube para opiniones en profundidad
  • Recopilación de reportes sobre tendencias en email marketing
  • Importación a NotebookLM de 3 competidores principales y reportes de industria

Hallazgos y aplicación

Análisis estratégico:

  • Identificación de puntos débiles comunes: problemas técnicos, limitaciones en diseño de email, deficiencias en soporte técnico
  • Funcionalidades más demandadas: personalización avanzada mediante IA, integraciones específicas de nicho, analíticas predictivas
  • Tendencias tecnológicas relevantes: IA para personalización, puntuación de leads, gestión de datos de clientes
  • Análisis del sitio web propio con recomendaciones específicas de mejora

Resultado: Plan de desarrollo de producto con 5 funcionalidades prioritarias basadas en necesidades reales de usuarios, mejora del sitio web con mensajes diferenciadores claros y roadmap de 12 meses fundamentado en datos de mercado.

Caso 3: Aprendizaje de psicología del marketing

Enfoque de aprendizaje

Escenario: Profesional de marketing buscando adquirir conocimientos sólidos sobre psicología del marketing para mejorar campañas y estrategias.

Recopilación de recursos:

  • Uso de Perplexity para localizar guías detalladas sobre psicología del marketing
  • Búsqueda de los 5 episodios de podcast más relevantes sobre el tema
  • Identificación de estudios académicos accesibles sobre comportamiento del consumidor
  • Localización de entrevistas con expertos mediante búsqueda enfocada en YouTube
  • Importación de este corpus diverso a NotebookLM

Estrategia de estudio y aplicación

Proceso de aprendizaje estructurado:

  • Generación de guía de estudio y FAQ para comprensión inicial
  • Creación de introducción accesible con lenguaje simple y ejemplos concretos
  • Elaboración de sumario de principios clave de psicología del marketing con ejemplos de aplicación
  • Importación del sitio web de su proyecto actual y análisis de posible implementación de principios
  • Generación de resumen de audio para aprendizaje en desplazamientos

Resultado: Adquisición rápida y profunda de conceptos fundamentales, comprensión clara de aplicaciones prácticas, rediseño de campañas existentes basado en principios psicológicos validados y sistema de estudio multimodal que permite aprendizaje continuo.

Consideraciones éticas y limitaciones

El uso de este flujo de trabajo, como cualquier implementación de IA, requiere consideración de aspectos éticos y reconocimiento de limitaciones inherentes:

Consideraciones éticas fundamentales

Al implementar este flujo de trabajo, es esencial tener en cuenta:

  • Atribución y transparencia: Documentar apropiadamente el uso de herramientas de IA en procesos de investigación y creación de contenido, especialmente en contextos académicos o profesionales.
  • Verificación crítica: Mantener responsabilidad por la validación de información y conclusiones, sin delegar juicio crítico completamente a sistemas automatizados.
  • Sesgos en fuentes: Considerar activamente la representatividad y diversidad de perspectivas en las fuentes seleccionadas, reconociendo sesgos potenciales en los resultados de búsqueda.
  • Propiedad intelectual: Respetar derechos de autor y licencias de contenido utilizado, especialmente cuando se sintetiza información de múltiples fuentes.
  • Uso responsable de recursos: Considerar el impacto ambiental y energético del uso intensivo de herramientas de IA, implementando prácticas que minimicen huella digital.

Limitaciones a considerar

El reconocimiento de estas limitaciones es fundamental para una implementación efectiva:

  • Alucinaciones e imprecisiones: Aunque NotebookLM reduce este riesgo al basarse en fuentes específicas, ambas herramientas pueden generar información incorrecta o inventada, especialmente en áreas altamente técnicas.
  • Temporalidad de datos: La relevancia de la investigación depende de la actualidad de las fuentes, requiriendo actualizaciones periódicas en temas que evolucionan rápidamente.
  • Complejidad contextual: Las herramientas pueden perder matices culturales, históricos o disciplinares que requieren experticia humana para ser adecuadamente interpretados.
  • Dependencia tecnológica: Riesgo de atrofia de habilidades fundamentales de investigación si se delega excesivamente en herramientas automatizadas.
  • Burbuja informativa: Posibilidad de reforzar perspectivas dominantes si no se implementan estrategias deliberadas de diversificación de fuentes.

Estrategias para uso responsable

Para maximizar beneficios mientras se minimizan riesgos éticos y limitaciones prácticas:

EstrategiaImplementación práctica
Triangulación metodológicaComplementar el flujo de trabajo AI con métodos tradicionales de investigación y verificación, incluyendo consulta directa con expertos humanos cuando sea posible.
Diversificación deliberadaBuscar activamente perspectivas contrastantes y fuentes provenientes de contextos culturales, geográficos y disciplinares diversos para enriquecer la base de conocimiento.
Verificación sistemáticaEstablecer protocolos específicos para contrastar información crítica con múltiples fuentes independientes, especialmente para datos que fundamentan decisiones importantes.
Declaración de metodologíaDocumentar explícitamente el proceso de investigación, incluyendo herramientas utilizadas, fuentes consultadas y criterios de selección, en productos finales como informes o publicaciones.
Actualización periódicaImplementar ciclos regulares de revisión y actualización para investigaciones en áreas dinámicas, reconociendo la temporalidad de conclusiones basadas en datos cambiantes.

Conclusiones: Redefiniendo el proceso de investigación

El flujo de trabajo integrado Perplexity-NotebookLM representa un avance significativo en la metodología de investigación y aprendizaje, ofreciendo potencial transformador bajo ciertas condiciones específicas:

  1. Complementariedad estratégica: El verdadero poder de este enfoque radica en la combinación deliberada de las fortalezas complementarias de cada herramienta, superando limitaciones individuales mediante su integración sistemática.
  2. Calidad sobre cantidad: La selección crítica y cuidadosa de fuentes emerge como el factor determinante del valor final del análisis, reforzando el principio de que la curaduría humana sigue siendo insustituible incluso en ecosistemas de IA avanzada.
  3. Mediación cognitiva activa: El rol del investigador evoluciona hacia una función de mediación estratégica: formulando preguntas incisivas, evaluando críticamente resultados, estableciendo conexiones interdisciplinares y aplicando hallazgos a contextos específicos.
  4. Personalización contextual: La adaptación del flujo de trabajo según el contexto específico (aprendizaje, investigación de mercado, desarrollo de producto, etc.) maximiza su relevancia y efectividad, evitando aproximaciones genéricas.
  5. Reducción significativa de tiempo: La implementación adecuada de este flujo de trabajo puede efectivamente reducir hasta en un 50% el tiempo dedicado a investigación, mientras potencialmente mejora la calidad y profundidad de los resultados obtenidos.
  6. Democratización del análisis profundo: Este enfoque pone al alcance de individuos y equipos pequeños capacidades analíticas previamente disponibles solo para organizaciones con recursos sustanciales, nivelando el campo de juego para startups e investigadores independientes.
  7. Desarrollo continuo: La evolución constante de ambas herramientas promete expansión de capacidades, mejora de precisión y nuevas posibilidades integradas que ampliarán el potencial de este flujo de trabajo en el futuro cercano.

En definitiva, este flujo de trabajo representa no simplemente una aceleración de procesos existentes, sino una reinvención metodológica que expande significativamente las posibilidades de investigación, aprendizaje y análisis. Su implementación efectiva requiere tanto dominio técnico como criterio humano, combinando lo mejor de la capacidad computacional con el discernimiento crítico que sigue siendo el núcleo de la investigación valiosa en cualquier campo.

A medida que estas herramientas continúan evolucionando, quienes dominen este enfoque integrado estarán posicionados favorablemente para navegar la creciente complejidad informacional contemporánea, transformando potencialmente no solo sus métodos de trabajo sino los resultados alcanzables en sus respectivos campos de especialización.

Referencia:

Este artículo está basado en el video «Este flujo de trabajo de NotebookLM + Perplexity reducirá su tiempo de investigación en un 50%» disponible en: https://www.youtube.com/watch?v=27AxmEh3qEA

Orígenes teóricos del Self-Assessment (Autoevaluación) y su relación con el autoaprendizaje: perspectivas en la era de la IA

La autoevaluación o Self-Assessment (me permito la licencia de ponerlo en mayúsculas) representa una práctica fundamental dentro del aprendizaje autorregulado, un constructo teórico ampliamente estudiado desde la década de 1970. Diversos teóricos como Zimmerman (1990, 2000), Pintrich (2000), y Bandura (1986) coinciden en que esta capacidad metacognitiva permite a los estudiantes reflexionar sobre su propio proceso de aprendizaje, identificar fortalezas y debilidades, y ajustar estrategias para mejorar su desempeño. El Self-Assessment no es un concepto nuevo surgido con la inteligencia artificial, sino una evolución natural de décadas de investigación pedagógica que ha demostrado su eficacia para desarrollar aprendices autónomos y reflexivos (Brown & Harris, 2013). Como señala UNESCO IESALC (2023), la IA está transformando los sistemas de evaluación en educación superior, ofreciendo nuevas posibilidades para personalizar y potenciar estos procesos de autoevaluación, aunque también presenta desafíos significativos relacionados con la integridad académica y la excesiva dependencia tecnológica. En este sentido, entender las raíces teóricas del self-assessment resulta crucial para implementar efectivamente las nuevas herramientas de IA en entornos educativos, garantizando que estas tecnologías potencien, en lugar de socavar, el desarrollo de habilidades metacognitivas en los estudiantes del siglo XXI.

Fundamentos teóricos desde una perspectiva histórica

El Self-Assessment se enmarca dentro del concepto más amplio del aprendizaje autorregulado (Self-Regulated Learning o SRL), cuyas raíces teóricas se remontan a:

  1. Teoría sociocognitiva de Bandura (años 70-80): El aprendizaje autorregulado se deriva en parte de la teoría sociocognitiva, que enfatiza cómo los factores personales, comportamentales y ambientales interactúan en el proceso de aprendizaje (Zimmerman, 2000).
  2. Modelo de Zimmerman (desde los 90): Zimmerman desarrolló uno de los modelos más influyentes de SRL, identificando comportamientos específicos de estudiantes exitosos, incluyendo la finalización de tareas a tiempo, la concentración en materias escolares y la planificación efectiva del trabajo escolar (Zimmerman, 1990).
  3. Teoría metacognitiva de Flavell (años 70): Estableció las bases para entender cómo los estudiantes monitorean y evalúan sus propios procesos cognitivos (Flavell, 1979).

Evolución del concepto

El self-assessment como componente del aprendizaje autorregulado ha evolucionado considerablemente:

  • Años 80-90: Inicialmente, el enfoque estaba en comprender cómo «los estudiantes pueden utilizar procesos metacognitivos, motivacionales y conductuales iniciados personalmente para adquirir conocimientos y habilidades» (Zimmerman, 1989, p. 4).
  • Años 90-2000: Se produjo una integración más profunda con la educación formal, donde el aprendizaje autorregulado se conceptualizó como un proceso de tres partes: planificar, monitorear y evaluar (Pintrich, 2000).
  • 2000-presente: La evaluación formativa se ha reconocido como una «teoría unificadora de la instrucción» que mejora el proceso de aprendizaje mediante el desarrollo de estrategias de aprendizaje autorregulado entre los estudiantes (Clark, 2012).

IA y evaluación en educación superior

UNESCO IESALC (2023) destaca que la inteligencia artificial está transformando significativamente los métodos de evaluación en la educación superior. Según una encuesta mencionada en este informe, el 75% de los participantes consideran que la principal razón para adoptar IA en educación superior es mejorar los resultados de aprendizaje, y que la IA tendrá el mayor impacto precisamente en las pruebas y evaluaciones.

Las plataformas de enseñanza y aprendizaje en línea y, a la vez, también herramientas de la IA como modelos de lenguaje avanzados, potenciadas con IA, pueden ahora:

  1. Analizar patrones de progreso: Identificar por qué un estudiante no progresa, ya sea por falta de tiempo, motivación, claridad en los materiales o insuficiente repetición (UNESCO IESALC, 2023).
  2. Proporcionar diagnósticos precisos: Como ejemplifica el caso de investigadores en Malasia y Omán, que desarrollaron algoritmos de aprendizaje automático basados en el GPA acumulativo, la asistencia y las calificaciones del primer examen para crear una herramienta de monitoreo académico que identifica tempranamente a estudiantes en riesgo (UNESCO IESALC, 2023).

El Self-Assessment como práctica

En la práctica educativa, el self-assessment se ha implementado como:

  1. Estrategia de evaluación formativa: En las últimas décadas, la investigación educativa ha progresado considerablemente en la descripción de actividades que promueven un aprendizaje estudiantil más eficaz, con contribuciones significativas del aprendizaje autorregulado y la evaluación educativa, especialmente la evaluación formativa (Panadero et al., 2018).
  2. Herramienta metacognitiva: Los estudiantes pueden autoevaluar su desempeño en una tarea durante la fase de evaluación del aprendizaje autorregulado, ayudándolos a planificar su aprendizaje futuro basado en lo que saben y lo que no saben (Brown & Harris, 2013).
  3. Componente del aprendizaje permanente: En una era posmoderna caracterizada por el rápido avance técnico y científico, hay un creciente énfasis en la adquisición de estrategias de aprendizaje en las que las personas pueden confiar a lo largo de toda su vida (Clark, 2012).

Sistemas de Calificación Automatizados (SCA) y Self-Assessment

UNESCO IESALC (2023) señala la creciente importancia de los «robot-graders» o plataformas automatizadas que califican o ayudan a los profesores a calificar tareas y dar retroalimentación a los estudiantes. Estos sistemas no solo evalúan resultados de pruebas sino que pueden adaptar el nivel de dificultad a lo largo del tiempo o proponer materiales adicionales dirigidos a las brechas de conocimiento individuales.

Sin embargo, el informe también advierte sobre los riesgos de estos sistemas: «debido a la complejidad inherente de la educación, no se puede reducir a un conjunto de variables y métodos puramente cuantitativos» (UNESCO IESALC, 2023, p. 27). Existe el peligro de desarrollar soluciones orientadas a la tecnología en lugar de a la pedagogía, o de crear un ciclo donde los estudiantes usan IA para producir trabajos académicos que luego son evaluados por IA, eliminando el elemento humano del proceso.

Implicaciones actuales

Hoy en día, el self-assessment sigue siendo un componente crucial del aprendizaje autorregulado:

  1. Educación superior: La necesidad de desarrollar la comprensión del aprendizaje autorregulado y su implementación proviene de la creciente diversidad estudiantil en el aula y la diversidad en los modos de enseñanza, con un énfasis particular en las tecnologías de la información y comunicación (Cassidy, 2011).
  2. Desarrollo profesional docente: UNESCO IESALC (2023) subraya que el 50% del personal docente y educativo considera que su rol será el más afectado por las tecnologías de IA. Por ello, las instituciones deben «proporcionar o desarrollar recursos, comenzando a nivel introductorio de ‘qué es la IA'» (p. 28) y crear oportunidades para que profesores, personal y estudiantes discutan el impacto de la IA en la institución.
  3. Educación a distancia y entornos digitales: El aprendizaje electrónico interactivo permite a los instructores crear lecciones en línea atractivas, flexibles y ricas en medios, ayudando al estudiante a recorrer el curso aprendiendo, automonitoreándose y autoevaluándose (Kitsantas & Dabbagh, 2011).

Referencias

Brown, G. T. L., & Harris, L. R. (2013). Student self-assessment. En J. H. McMillan (Ed.), Sage Handbook of Research on Classroom Assessment (pp. 367-393). SAGE Publications.

Cassidy, S. (2011). Self-regulated learning in higher education: Identifying key component processes. Studies in Higher Education, 36(8), 989-1000. https://doi.org/10.1080/03075079.2010.503269

Clark, I. (2012). Formative assessment: Assessment is for self-regulated learning. Educational Psychology Review, 24(2), 205-249. https://doi.org/10.1007/s10648-011-9191-6

Flavell, J. H. (1979). Metacognition and cognitive monitoring: A new area of cognitive-developmental inquiry. American Psychologist, 34(10), 906-911. https://doi.org/10.1037/0003-066X.34.10.906

Kitsantas, A., & Dabbagh, N. (2011). The role of Web 2.0 technologies in self-regulated learning. New Directions for Teaching and Learning, 2011(126), 99-106. https://doi.org/10.1002/tl.448

Panadero, E., Andrade, H., & Brookhart, S. (2018). Fusing self-regulated learning and formative assessment: A roadmap of where we are, how we got here, and where we are going. The Australian Educational Researcher, 45(1), 13-31. https://doi.org/10.1007/s13384-018-0258-y

Pintrich, P. R. (2000). The role of goal orientation in self-regulated learning. En M. Boekaerts, P. R. Pintrich, & M. Zeidner (Eds.), Handbook of self-regulation (pp. 451-502). Academic Press.

UNESCO IESALC. (2023). Harnessing the era of artificial intelligence in higher education: A primer for higher education stakeholders. Instituto Internacional de la UNESCO para la Educación Superior en América Latina y el Caribe. ED/HE/IESALC/IP/2023/27.

Zimmerman, B. J. (1989). A social cognitive view of self-regulated academic learning. Journal of Educational Psychology, 81(3), 329-339. https://doi.org/10.1037/0022-0663.81.3.329

Zimmerman, B. J. (1990). Self-regulated learning and academic achievement: An overview. Educational Psychologist, 25(1), 3-17. https://doi.org/10.1207/s15326985ep2501_2

Zimmerman, B. J. (2000). Attaining self-regulation: A social cognitive perspective. En M. Boekaerts, P. R. Pintrich, & M. Zeidner (Eds.), Handbook of self-regulation (pp. 13-39). Academic Press.

Zimmerman, B. J. (2002). Becoming a self-regulated learner: An overview. Theory Into Practice, 41(2), 64-70. https://doi.org/10.1207/s15430421tip4102_2

La hipnocracia como constructo intelectual: autoría distribuida en la era de la inteligencia artificial

Jianwei Xun

El caso de Jianwei Xun (el de la foto de arriba, que no es real y está hecha con una IA) es un ejemplo fascinante y muy concreto de lo que está ocurriendo con la autoría en la era de la IA:

  • Un filósofo italiano (Andrea Colamedici) trabajó en colaboración con sistemas de IA (como Claude y ChatGPT). Este es el autor detrás de Jianwei Xun
Andrea Colamedici
  • Juntos crearon un «autor ficticio» completo (Jianwei Xun) con una identidad, biografía y estilo distintivos
  • Este «autor» publicó teorías sofisticadas sobre la «hipnocracia» que fueron tomadas en serio por la comunidad académica
  • Solo después se reveló que Xun no existía como persona física, sino como una creación colaborativa humano-IA

Este caso no es solo un experimento literario, sino una demostración práctica de cómo se está transformando la creación intelectual en la actualidad.

Implicaciones para el futuro de la autoría

Analizando lo que significa «una epistemología de la autoría distribuida», podemos anticipar varios cambios importantes. Podemos especular con 8 características o formas a desarrollar en este mundo emergente:

1. Difuminación de la autoría individual

A medida que las herramientas de IA se vuelven más sofisticadas, observaremos una gradual disolución de las fronteras tradicionales de la autoría. El concepto romántico del «autor genio» solitario que crea a partir de la inspiración individual irá cediendo espacio a modelos más colaborativos. En este nuevo paradigma, surgirán cada vez más obras creadas por equipos híbridos humano-máquina, donde la contribución específica de cada parte será difícil de deslindar. La pregunta «¿quién escribió esto realmente?» se volverá progresivamente más difícil de responder con precisión.

  • El concepto tradicional del «autor genio» solitario se debilitará
  • Surgirán más obras creadas por colaboraciones entre humanos y sistemas de IA
  • Las fronteras entre creador humano y herramienta se volverán cada vez más borrosas

2. Nuevas categorías legales y éticas

Los marcos jurídicos y éticos actuales están fundamentados en una concepción individualista de la autoría que resultará insuficiente para las nuevas realidades creativas. El derecho de autor tradicional, basado en la identificación clara de un creador humano, necesitará una profunda revisión. Surgirán debates complejos sobre quién merece el reconocimiento y la compensación por trabajos producidos colaborativamente con sistemas de IA, especialmente cuando estos sistemas están entrenados con obras de múltiples autores humanos.

  • Será necesario redefinir conceptos como propiedad intelectual y derechos de autor
  • Surgirán nuevos modelos para atribuir y reconocer la autoría compartida
  • Se desarrollarán marcos éticos para determinar la responsabilidad en la colaboración humano-IA

3. Transformación de las instituciones culturales

Las instituciones que tradicionalmente han validado y legitimado el conocimiento deberán adaptarse a estas nuevas formas de producción intelectual. Los procesos de revisión por pares, la asignación de crédito académico y las políticas editoriales están diseñados para un modelo de autoría que está siendo superado. Estas instituciones enfrentarán el desafío de desarrollar nuevos mecanismos que puedan evaluar la calidad, originalidad y rigurosidad de trabajos cuya autoría es difusa y distribuida.

  • Las editoriales, universidades y revistas académicas deberán adaptar sus políticas y procedimientos
  • Los criterios de evaluación académica necesitarán evolucionar más allá del modelo tradicional
  • Surgirán nuevas formas de certificar la calidad y procedencia de las obras de autoría distribuida

4. Cambios en la valoración del conocimiento

Con la proliferación de contenido generado o co-creado con IA, el valor atribuido a las ideas experimentará un cambio fundamental. La autoridad basada en credenciales o reputación del autor perderá peso frente a la evaluación intrínseca de las ideas mismas. Este cambio podría democratizar la producción de conocimiento, pero también generará nuevos desafíos para discernir entre contenido valioso e información de baja calidad. La capacidad para contextualizar, sintetizar y aplicar el conocimiento se volverá más importante que la simple generación de contenido.

  • El valor de las ideas se basará menos en «quién lo dijo» y más en su utilidad e impacto
  • La autoridad intelectual se distribuirá de manera más horizontal en diferentes comunidades
  • Se valorará más la capacidad de curaduría, síntesis y contextualización que la creación pura

5. Emergencia de nuevas formas de creatividad

La colaboración entre humanos e inteligencias artificiales no solo cambiará quién crea, sino también qué y cómo se crea. Estas colaboraciones permitirán explorar espacios creativos inaccesibles para autores puramente humanos o máquinas trabajando aisladamente. La capacidad de las IA para procesar vastas cantidades de información y generar conexiones inesperadas, combinada con la intencionalidad y juicio humanos, abrirá nuevas posibilidades expresivas y conceptuales que apenas comenzamos a vislumbrar.

  • La colaboración humano-IA permitirá explorar territorios creativos antes inaccesibles
  • Surgirán géneros y formatos híbridos diseñados específicamente para esta colaboración
  • La identidad del autor podría convertirse en parte del contenido creativo (como en el caso Xun)

6. Democratización y accesibilidad

Las herramientas de IA tienen el potencial de democratizar significativamente la creación cultural y académica, reduciendo las barreras técnicas y educativas que han limitado quién puede participar en estos campos. Sin embargo, esta democratización no será uniforme. Podría emerger una nueva estratificación basada en el acceso a las tecnologías más avanzadas y a las habilidades necesarias para utilizarlas efectivamente, creando nuevas formas de exclusión que requerirán atención.

  • Más personas podrán participar en la creación cultural y académica sin formación especializada
  • Las barreras de entrada tradicionales (credenciales, técnicas específicas) se reducirán
  • Al mismo tiempo, surgirán nuevas jerarquías basadas en el acceso a tecnologías avanzadas

7. Resistencia y nostalgia por la autoría tradicional

Como respuesta a estos cambios disruptivos, veremos inevitablemente movimientos de resistencia que buscarán preservar y revalorizar la autoría puramente humana. Estas respuestas no serán simplemente reaccionarias, sino que responderán a preocupaciones legítimas sobre la pérdida de ciertas cualidades distintivas de la creación humana. Se desarrollará una nueva apreciación por aquellas obras que demuestren una clara huella humana, similar a cómo valoramos hoy los productos artesanales frente a los industriales, no solo por su calidad sino por su proceso de creación.

  • Surgirán movimientos que defiendan y valoricen explícitamente la creación 100% humana
  • Se desarrollarán métodos para certificar y autenticar el origen puramente humano de una obra
  • El trabajo creativo humano podría adquirir un valor «artesanal» especial en un mundo saturado de contenido co-creado con IA

8. Nuevas habilidades para los creadores humanos

El rol del creador humano no desaparecerá, pero se transformará significativamente. Surgirán nuevas habilidades centradas en la capacidad de dirigir, refinar y potenciar el trabajo de las inteligencias artificiales. La capacidad para formular instrucciones precisas (prompting), seleccionar y editar entre múltiples opciones generadas, y aportar el juicio estético y ético que las IA carecen, se convertirán en competencias fundamentales. Los creadores más exitosos serán aquellos que puedan maximizar las fortalezas de la IA mientras compensan sus limitaciones con la sensibilidad humana.

  • La capacidad para dirigir, orquestar y colaborar con IA será una habilidad altamente valorada
  • La especialización en prompting y dirección de IA se convertirá en un campo profesional
  • Se valorará la capacidad de aportar el «toque humano» distintivo a las colaboraciones con máquinas

Estos cambios no significan que el autor humano desaparecerá, sino que estamos transitando hacia un ecosistema creativo más complejo donde la autoría es cada vez más un espectro que va desde lo puramente humano hasta lo ampliamente colaborativo con sistemas artificiales.

El caso Xun nos muestra que ya no es tan importante preguntarnos ¿quién es el verdadero autor? sino ¿qué nuevas posibilidades creativas y de conocimiento se abren con estas formas de colaboración?

Referencias

Baudrillard, J. (1994). Simulacra and Simulation. University of Michigan Press.

Colamedici, A. (como traductor). (2025). Hipnocracia: Trump, Musk y la nueva arquitectura de la realidad. Ediciones Tlon.

Deleuze, G. (1992). Postscript on the Societies of Control. October, 59, 3-7.

Foucault, M. (1976). Historia de la sexualidad I: La voluntad de saber. Gallimard.

Limón, R. (2025, 6 de abril). Jianwei Xun, supuesto autor de la teoría de la hipnocracia, no existe y es fruto de la inteligencia artificial. El País. Recuperado de https://elpais.com/tecnologia/2025-04-06/jianwei-xun-supuesto-autor-de-la-teoria-de-la-hipnocracia-no-existe-y-es-fruto-de-la-inteligencia-artificial.html.

Xun, J. (2025). Hypnocracy: Trump, Musk, and the Architecture of Reality. Independently published.

Xun, J. (2025, 26 de enero). Trump, Musk: la hipnocracia o el imperio de las fantasías. Grand Continent.

Xun, J. (2025, 4 de abril). Qui est vraiment Jianwei Xun ? Une conversation avec Jianwei Xun. Grand Continent.

Xun, J. (s.f.). The Hypnotic Architecture of Digital Power: Algorithmic Trance and the End of Shared Reality. Institute for Critical Digital Studies, Berlin.

Zarate Rivera, M. F. (s.f.). HIPNOCRACIA, BIOPOLÍTICA Y EL SÍNTOMA EN LA ERA DE LA AUTOMATIZACIÓN LINGÜÍSTICA / BIOPOLITICS AND THE SYMPTOM IN THE AGE OF LINGUISTIC AUTOMATION.

Tecnologías/Pedagogías Emergentes [presentación]

Esta es una presentación realizada el jueves 13 de agosto de 2020 para el Ministerio de Educación de Buenos Aires, la Subsecretaría de Aprendizaje a lo largo de la vida sobre Tecnologías/Pedagogías Emergentes. Una pequeña introducción sobre sus características y convergencias como forma de evolución.

Enlace a la grabación de la presentación [duración: 1 hora y 4 minutos]

Actualización (vídeo incrustado de la presentación):

« Entradas anteriores