Dalla personalizzazione algoritmica agli sciami digitali. Capire come il digitale modula emozioni, attenzione e partecipazione

di redazione

Dalla personalizzazione algoritmica agli sciami digitali. Capire come il digitale modula emozioni, attenzione e partecipazione

Dalla personalizzazione algoritmica agli sciami digitali. Capire come il digitale modula emozioni, attenzione e partecipazione


di Redazione

Alla Conferenza Nazionale delle Dottorande e dei Dottorandi in Scienze Sociali (Cremona, 20–22 novembre 2025), Matteo Mancini – dottorando in Scienze della Persona e della Formazione e membro del CREMIT – ha presentato un contributo dedicato a leggere l’ecosistema digitale contemporaneo attraverso tre casi emblematici. L’intervento è stato discusso nella sessione Tecnologie digitali e AI. Algoritmi e strutture sociali.

Dal quadro teorico ai casi reali

Il lavoro si muove nella tradizione della media ecology, riprendendo Mcluhan (1964), Fidler (1987), Bolter & Grusin (1999) e Rivoltella (2017), e dialoga con studi più recenti su datificazione (Zuboff, 2019; Cristianini, 2023), polarizzazione (Sunstein, 2001) ed emozioni digitali (Papacharissi, 2015).

L’obiettivo non è introdurre nuovi concetti, ma ricostruire criticamente la letteratura per osservare come algoritmi e piattaforme influenzino comportamenti collettivi.

Educare nell’era degli algoritmi: tre casi emblematici

I casi esaminati (2024–2025) attraverso il case study design (Flyvbjerg, 2006) ed il metodo Process tracing (Beach & Pedersen, 2013) mostrano come contenuti manipolati attivino reazioni molto diverse a seconda del contesto. La ricerca internazionale parla di sciami digitali (Han, 2014) e affective publics (Papacharissi, 2015): dinamiche in cui le emozioni si propagano più rapidamente dell’argomentazione.

1. Taylor Swift (2024): quando un falso diventa globale
La diffusione su X di un deepfake pornografico genera, in poche ore, indignazione e solidarietà. È uno sciame parasociale: reazioni emotive che si amplificano tra sconosciuti legati alla stessa figura pubblica. L’impatto resta simbolico: grande attenzione, pressione sulle piattaforme, dibattito pubblico.

2. Southport (2024): quando il falso accende la violenza
Dopo un delitto, immagini manipolate attribuiscono l’aggressione a un “migrante islamico”. La smentita ufficiale non basta: reti già organizzate trasformano rabbia e paura in proteste e scontri. Qui lo sciame è affettivo e strutturato: il contenuto falso diventa detonatore di azione reale.

3. Pennsylvania (2025): quando un falso non esplode, ma erode
Un audio deepfake circola in chat cifrate senza diventare virale.
Il problema è il dubbio: gli utenti non sanno più distinguere vero e falso.
Questo produce destabilizzazione epistemica, con ricadute sulla fiducia nelle istituzioni e una risposta normativa (Act 35/2025).

Cosa ci dicono questi episodi

Dalla comparazione dei casi emergono tre tendenze chiare:
La personalizzazione algoritmica costruisce profili: modella ciò che vediamo e ciò che ignoriamo, creando ecosistemi informativi su misura (Sunstein, 2001). Le emozioni precedono la riflessione: indignazione, paura e empatia si diffondono più velocemente della verifica (Papacharissi, 2015).

Gli effetti dipendono dal contesto:
– globale → impatti simbolici (Swift)
– reti organizzate → mobilitazione offline (Southport)
– ambienti cifrati → sfiducia e confusione (Pennsylvania)

Tre fenomeni diversi, una lezione comune: le piattaforme non sono solo spazi informativi, ma ambienti emotivi e sociali che incidono sulla qualità della convivenza pubblica.

Una via educativa: gli “orti comunitari del pensiero”

La proposta educativa si ispira alla pedagogia critica e comunitaria (Freire, 1970; Dolci, 2012; Milani, 1966) e invita a creare spazi lenti, riflessivi e condivisi, in cui:

  • rielaborare emozioni,
  • verificare insieme le informazioni,
  • comprendere i meccanismi algoritmici,
  • costruire significati collettivi.

Gli orti comunitari del pensiero diventano così una metafora per coltivare pratiche di attenzione e dialogo capaci di contrastare la velocità e la semplificazione dei flussi digitali.

Bibliografia:
Beach, D., & Pedersen, R. B. (2013). Process-tracing methods: Foundations and guidelines. University of Michigan Press.
Bolter, J. D., Grusin, R. (1999). Remediation: Understanding new media. Cambridge, MA: The MIT Press.
Cristianini, N. (2023). La scorciatoia: Come le macchine sono diventate intelligenti senza pensare in modo umano. Il Saggiatore.
Dolci, D. (2012). Palpitare di nessi: Ricerca di educare creativo a un mondo nonviolento. Messina: Mesogea.
Fidler, R. (1997). Mediamorphosis: Understanding new media. Thousand Oaks, CA: Pine Forge Press.
Flyvbjerg, B. (2006). Making social science matter: Why social inquiry fails and how it can succeed. Cambridge University Press.
Freire, P. (2021). Pedagogia degli oppressi (E. Bosi, Trad.). Milano: Il Saggiatore. (Opera originale pubblicata nel 1970 come Pedagogia do oprimido)
Han, B.-C. (2014). Psicopolitica. Il neoliberismo e le nuove tecniche del potere. Roma: Nottetempo.
McLuhan, M. (1964). Understanding Media: The Extensions of Man. New York: McGraw-Hill.
Milani, L. (1966). Esperienze pastorali. Firenze: Libreria Editrice Fiorentina.
Papacharissi, Z. (2015). Affective publics: Sentiment, technology, and politics. Oxford University Press.
Rivoltella, P. C. (2017). Tecnologie di comunità. Per una nuova ecologia dell’educazione. Brescia: Scholè.
Sunstein, C. R. (2001). Republic.com. Princeton, NJ: Princeton University Press.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. New York, NY: PublicAffairs.


Univ. Cattolica del Sacro Cuore
Largo Fra Agostino Gemelli, 1 - 20123 Milano
Tel. 02-72343038 / 02-72343036 (direzione)
info[at]cremit.it



Web site developed by Gianni Messina
© CREMIT tutti i diritti riservati