Si parla ormai da un po’ di tempo del caso Substack. E ora con l’addio di Platformer si allarga ancora di più. Appare sempre più evidente la sfida della libertà di espressione e la moderazione dei contenuti che le piattaforme digitali devono affrontare.
Ormai il tema libertà di espressione è diventato sempre più dirompente. Tema che coinvolge tutta la dimensione digitale e non solo i social media. Il pensiero va alla piattaforma di Elon Musk, X (quella che prima era Twitter), che secondo il capo della Tesla dovrebbe essere il luogo dove ognuno ha la libertà di esprimersi. Senza regole, quello che vuole Musk.
Per intenderci, libertà di espressione non è libertà di condividere contenuti d’odio e diffondere disinformazione. Eppure, restando per un attimo ancora su X, il percepito che arriva è proprio un luogo dove non ci siano regole e dove non esiste alcuna protezione.
Tutto questo poi ha un prezzo.
Ma adesso, in questi giorni e in queste ultime settimane, sta emergendo un altro caso che porta ancora all’attenzione il tema della libertà di espressione e la necessità di moderazione dei contenuti. Per evitare proprio che lo spazio digitale, che si vuole gestire e che si vuole proporre agli utenti come occasione di condivisione dei contenuti, diventi una sorta di terra di nessuno.
E parliamo di Substack e del recente caso di contenuti estremisti e nazisti condivisi sulla piattaforma.
Andiamo con ordine, partendo da cosa è Substack, spiegano il caso che l’ha coinvolta e le ultime vicende che rischiamo di mettere in crisi la piattaforma.
Come dicevamo, la piattaforma di newsletter Substack è recentemente diventata il fulcro di un acceso dibattito che tocca i nervi scoperti della libertà di espressione, della moderazione dei contenuti e del ruolo delle piattaforme digitali nel panorama mediatico contemporaneo.
Questo caso mette in luce la complessa interazione tra diritti individuali, responsabilità editoriale e la crescente polarizzazione del discorso pubblico online.
Il contesto della vicenda Substack e la moderazione dei contenuti
Substack, nata come una piattaforma innovativa per newsletter, ha rapidamente guadagnato popolarità tra i giornalisti, blogger e scrittori che cercavano maggior libertà editoriale e un modello di business sostenibile, lontano dalle tradizionali dipendenze dalla pubblicità.
La piattaforma permette agli autori di essere remunerati direttamente dai loro lettori attraverso abbonamenti, promuovendo un modello di finanziamento digitale che ha riscosso ampio interesse.
Tuttavia, con la libertà viene anche la responsabilità.
Substack si è trovata al centro delle critiche per aver ospitato contenuti estremisti, inclusi quelli di simpatizzanti nazisti, sollevando preoccupazioni sulle sue politiche di moderazione e sulla mancanza di azioni contro account che promuovono ideologie di odio.
Substack e la vicenda di Platformer
Recentemente, la piattaforma ha attirato l’attenzione dei media a seguito di una controversia specifica riguardante Platformer, una delle sue newsletter più popolari, gestita dal giornalista tech Casey Newton.
Newton ha espresso preoccupazioni riguardo la presenza di materiale pro-nazista su Substack, mettendo in discussione le politiche di moderazione della piattaforma e minacciando di trasferire Platformer su un’altra piattaforma se Substack non avesse rimosso tali contenuti.
E, di fronte alla incapacità di agire di Substack, Platformer lascia la piattaforma di newsletter per migrare nei prossimi giorni su Ghost, piattaforma di newsletter diretta competitor di Substack. “Abbiamo già visto questo film” – scrive Newton nel dare notizia del trasferimento di Platformer – “e non resteremo qui a guardare mentre accade di nuovo“.
Il caso di Platformer evidenzia una questione critica: la presenza di contenuti pro-nazisti non è solo moralmente riprovevole, ma mina anche l’integrità e i valori etici della piattaforma.
La simbologia e l’ideologia nazista, universalmente riconosciute come rappresentative di odio, violenza e discriminazione, sono in contrasto con i principi di una società democratica e aperta.
La permanenza di tali contenuti su Substack non solo solleva interrogativi sulla capacità della piattaforma di garantire un ambiente sicuro e rispettoso per i suoi utenti, ma rischia anche di alienare una parte significativa del suo pubblico, che potrebbe vedere in questa incapacità di agire una tacita accettazione di ideali pericolosi e discriminatori.
Il senso di Substack per la libertà di espressione
La posizione di Substack in questa controversia riflette un dilemma più ampio che molte piattaforme digitali devono affrontare: come bilanciare la libertà di espressione con la responsabilità di moderare i contenuti.
Substack ha sostenuto la libertà di espressione come principio fondamentale, argomentando che sostenere i diritti individuali e sottoporre le idee a un dibattito aperto è il modo migliore per privare le cattive idee del loro potere.
La piattaforma ha adottato un approccio di moderazione relativamente passivo, promuovendo un pensiero di principio che privilegia il discorso libero, anche in presenza di contenuti controversi.
Il comportamento di Substack, nella controversia, riflette un bilanciamento delicato tra promuovere la libertà di espressione e gestire i contenuti problematici. Secondo le dichiarazioni ufficiali della piattaforma, Substack pone un’enfasi significativa sulla libertà editoriale, sostenendo che la censura eccessiva può essere controproducente.
La società pensa che permettere un ampio spettro di voci, anche quelle non convenzionali o impopolari, sia essenziale per un dibattito pubblico robusto e variegato.
Ma, alla luce di tutto, questa filosofia presenta sfide evidenti quando si tratta di contenuti che incrociano la linea dell’incitamento all’odio o alla violenza. La piattaforma si trova quindi di fronte al compito arduo di distinguere tra la protezione della libertà di espressione e la prevenzione di azioni dannose per i suoi utenti.
Alla ricerca di un equilibrio tra libertà e moderazione
La vicenda di Substack e Platformer solleva questioni fondamentali sul futuro del giornalismo, del blogging e dei media digitali in generale.
Da un lato, la libertà di espressione è un pilastro della società democratica, essenziale per un dibattito pubblico sano e per alimentare il pluralismo delle idee. Dall’altro, l’assenza di una moderazione efficace può portare alla diffusione di discorsi d’odio e all’incitamento alla violenza. Finendo per alimentare un senso di sfiducia tra gli utenti e tra i lettori.
Il caso Substack illustra la sfida di equilibrare questi principi in un’era digitale in cui le piattaforme online hanno un impatto significativo sul modo in cui riceviamo e interagiamo con le informazioni e le notizie.
Come parte della società, ci troviamo a dover navigare all’interno di un territorio complesso, cercando di mantenere un equilibrio tra la salvaguardia della libertà di espressione e la necessità di una moderazione responsabile.
Questo dibattito non è solo centrale per il futuro del giornalismo e per tutti colo che fanno informazione. Ma lo è anche per la definizione stessa di una società aperta e democratica nell’era digitale.
Alcune domande che possono sorgere
Alcune domande potrebbero sorgere, arrivati a questo punto. Ma come se ne esce allora da tutta questa vicenda? Qual è il punto di equilibrio tra libertà di espressione e capacità di intervento di fronte a contenuti che richiedono attenzione? Cosa è meglio fare in casi come questi?
Ecco, cercare un equilibrio in queste situazioni è una sfida complessa che coinvolge diverse prospettive e valori. Ecco alcuni punti chiave che va la pena considerare:
- Definizione di standard di moderazione: è fondamentale per le piattaforme come Substack definire chiaramente quali tipi di contenuti sono accettabili e quali no. Questi standard dovrebbero essere trasparenti, coerenti e applicati equamente. Allo stesso tempo, dovrebbero essere flessibili abbastanza da adattarsi all’evoluzione del discorso pubblico e alle normative legali.
- Equilibrio tra libertà e responsabilità: mentre la libertà di espressione è un diritto fondamentale, è importante riconoscere che non è un diritto assoluto. Limitazioni responsabili sono necessarie per prevenire danni gravi, come l’incitamento all’odio o alla violenza. La chiave sta nel bilanciare la protezione della libertà di espressione con la prevenzione di danni reali.
- Trasparenza e responsabilità: le piattaforme dovrebbero essere trasparenti su come prendono decisioni di moderazione e su come vengono applicate le loro politiche. Ciò include la pubblicazione di report di trasparenza e l’apertura a revisioni esterne o audit.
- Protezione della diversità e del dissenso: è essenziale proteggere la diversità di opinioni e il diritto al dissenso. Le politiche di moderazione non dovrebbero soffocare le voci minoritarie o impopolari, ma piuttosto mirare a creare un ambiente in cui possano essere espressi pensieri diversi, in modo sicuro e rispettoso.
- Uso della Tecnologia: l’uso di tecnologie avanzate come l’intelligenza artificiale può aiutare nella moderazione, ma deve essere affiancato da un controllo umano per comprendere il contesto e le sfumature.
- Legislazione e normative: in alcuni casi, potrebbe essere necessario un intervento legislativo per definire limiti chiari e fornire linee guida sulle responsabilità delle piattaforme digitali, soprattutto in relazione ai contenuti dannosi o illegali.
Non esiste una soluzione unica per questi complessi problemi. Le piattaforme, i legislatori, gli esperti di etica e i cittadini devono lavorare insieme per uscire da queste acque difficili, cercando sempre di equilibrare la libertà di espressione, garantendo maggiore protezione e la promozione di un ambiente digitale sano e rispettoso.