back to top

Il caso Substack, tra libertà di espressione e moderazione dei contenuti

Si parla ormai da un po’ di tempo del caso Substack. E ora con l’addio di Platformer si allarga ancora di più. Appare sempre più evidente la sfida della libertà di espressione e la moderazione dei contenuti che le piattaforme digitali devono affrontare.

Ormai il tema libertà di espressione è diventato sempre più dirompente. Tema che coinvolge tutta la dimensione digitale e non solo i social media. Il pensiero va alla piattaforma di Elon Musk, X (quella che prima era Twitter), che secondo il capo della Tesla dovrebbe essere il luogo dove ognuno ha la libertà di esprimersi. Senza regole, quello che vuole Musk.

Per intenderci, libertà di espressione non è libertà di condividere contenuti d’odio e diffondere disinformazione. Eppure, restando per un attimo ancora su X, il percepito che arriva è proprio un luogo dove non ci siano regole e dove non esiste alcuna protezione.

Tutto questo poi ha un prezzo.

Ma adesso, in questi giorni e in queste ultime settimane, sta emergendo un altro caso che porta ancora all’attenzione il tema della libertà di espressione e la necessità di moderazione dei contenuti. Per evitare proprio che lo spazio digitale, che si vuole gestire e che si vuole proporre agli utenti come occasione di condivisione dei contenuti, diventi una sorta di terra di nessuno.

E parliamo di Substack e del recente caso di contenuti estremisti e nazisti condivisi sulla piattaforma.

caso Substack libertà di espressione moderazione contenuti franzrusso

Andiamo con ordine, partendo da cosa è Substack, spiegano il caso che l’ha coinvolta e le ultime vicende che rischiamo di mettere in crisi la piattaforma.

Come dicevamo, la piattaforma di newsletter Substack è recentemente diventata il fulcro di un acceso dibattito che tocca i nervi scoperti della libertà di espressione, della moderazione dei contenuti e del ruolo delle piattaforme digitali nel panorama mediatico contemporaneo.

Questo caso mette in luce la complessa interazione tra diritti individuali, responsabilità editoriale e la crescente polarizzazione del discorso pubblico online.

Il contesto della vicenda Substack e la moderazione dei contenuti

Substack, nata come una piattaforma innovativa per newsletter, ha rapidamente guadagnato popolarità tra i giornalisti, blogger e scrittori che cercavano maggior libertà editoriale e un modello di business sostenibile, lontano dalle tradizionali dipendenze dalla pubblicità.

La piattaforma permette agli autori di essere remunerati direttamente dai loro lettori attraverso abbonamenti, promuovendo un modello di finanziamento digitale che ha riscosso ampio interesse​​.

Tuttavia, con la libertà viene anche la responsabilità.

Substack si è trovata al centro delle critiche per aver ospitato contenuti estremisti, inclusi quelli di simpatizzanti nazisti, sollevando preoccupazioni sulle sue politiche di moderazione e sulla mancanza di azioni contro account che promuovono ideologie di odio​​​​.

Substack e la vicenda di Platformer

Recentemente, la piattaforma ha attirato l’attenzione dei media a seguito di una controversia specifica riguardante Platformer, una delle sue newsletter più popolari, gestita dal giornalista tech Casey Newton.

Newton ha espresso preoccupazioni riguardo la presenza di materiale pro-nazista su Substack, mettendo in discussione le politiche di moderazione della piattaforma e minacciando di trasferire Platformer su un’altra piattaforma se Substack non avesse rimosso tali contenuti​​.

E, di fronte alla incapacità di agire di Substack, Platformer lascia la piattaforma di newsletter per migrare nei prossimi giorni su Ghost, piattaforma di newsletter diretta competitor di Substack. “Abbiamo già visto questo film” – scrive Newton nel dare notizia del trasferimento di Platformer – “e non resteremo qui a guardare mentre accade di nuovo“.

Il caso di Platformer evidenzia una questione critica: la presenza di contenuti pro-nazisti non è solo moralmente riprovevole, ma mina anche l’integrità e i valori etici della piattaforma.

La simbologia e l’ideologia nazista, universalmente riconosciute come rappresentative di odio, violenza e discriminazione, sono in contrasto con i principi di una società democratica e aperta.

La permanenza di tali contenuti su Substack non solo solleva interrogativi sulla capacità della piattaforma di garantire un ambiente sicuro e rispettoso per i suoi utenti, ma rischia anche di alienare una parte significativa del suo pubblico, che potrebbe vedere in questa incapacità di agire una tacita accettazione di ideali pericolosi e discriminatori.

Il senso di Substack per la libertà di espressione

La posizione di Substack in questa controversia riflette un dilemma più ampio che molte piattaforme digitali devono affrontare: come bilanciare la libertà di espressione con la responsabilità di moderare i contenuti.

Substack ha sostenuto la libertà di espressione come principio fondamentale, argomentando che sostenere i diritti individuali e sottoporre le idee a un dibattito aperto è il modo migliore per privare le cattive idee del loro potere.

La piattaforma ha adottato un approccio di moderazione relativamente passivo, promuovendo un pensiero di principio che privilegia il discorso libero, anche in presenza di contenuti controversi​​.

Il comportamento di Substack, nella controversia, riflette un bilanciamento delicato tra promuovere la libertà di espressione e gestire i contenuti problematici. Secondo le dichiarazioni ufficiali della piattaforma, Substack pone un’enfasi significativa sulla libertà editoriale, sostenendo che la censura eccessiva può essere controproducente.

substack founders franzrusso.it
Substack founder da sinistra Hamish McKenzie Chris Best CEO e Jairaj Sethi

La società pensa che permettere un ampio spettro di voci, anche quelle non convenzionali o impopolari, sia essenziale per un dibattito pubblico robusto e variegato.

Ma, alla luce di tutto, questa filosofia presenta sfide evidenti quando si tratta di contenuti che incrociano la linea dell’incitamento all’odio o alla violenza. La piattaforma si trova quindi di fronte al compito arduo di distinguere tra la protezione della libertà di espressione e la prevenzione di azioni dannose per i suoi utenti.

Alla ricerca di un equilibrio tra libertà e moderazione

La vicenda di Substack e Platformer solleva questioni fondamentali sul futuro del giornalismo, del blogging e dei media digitali in generale.

Da un lato, la libertà di espressione è un pilastro della società democratica, essenziale per un dibattito pubblico sano e per alimentare il pluralismo delle idee. Dall’altro, l’assenza di una moderazione efficace può portare alla diffusione di discorsi d’odio e all’incitamento alla violenza. Finendo per alimentare un senso di sfiducia tra gli utenti e tra i lettori.

Il caso Substack illustra la sfida di equilibrare questi principi in un’era digitale in cui le piattaforme online hanno un impatto significativo sul modo in cui riceviamo e interagiamo con le informazioni e le notizie.

Come parte della società, ci troviamo a dover navigare all’interno di un territorio complesso, cercando di mantenere un equilibrio tra la salvaguardia della libertà di espressione e la necessità di una moderazione responsabile.

Questo dibattito non è solo centrale per il futuro del giornalismo e per tutti colo che fanno informazione. Ma lo è anche per la definizione stessa di una società aperta e democratica nell’era digitale.

Alcune domande che possono sorgere

Alcune domande potrebbero sorgere, arrivati a questo punto. Ma come se ne esce allora da tutta questa vicenda? Qual è il punto di equilibrio tra libertà di espressione e capacità di intervento di fronte a contenuti che richiedono attenzione? Cosa è meglio fare in casi come questi?

Ecco, cercare un equilibrio in queste situazioni è una sfida complessa che coinvolge diverse prospettive e valori. Ecco alcuni punti chiave che va la pena considerare:

  • Definizione di standard di moderazione: è fondamentale per le piattaforme come Substack definire chiaramente quali tipi di contenuti sono accettabili e quali no. Questi standard dovrebbero essere trasparenti, coerenti e applicati equamente. Allo stesso tempo, dovrebbero essere flessibili abbastanza da adattarsi all’evoluzione del discorso pubblico e alle normative legali.
  • Equilibrio tra libertà e responsabilità: mentre la libertà di espressione è un diritto fondamentale, è importante riconoscere che non è un diritto assoluto. Limitazioni responsabili sono necessarie per prevenire danni gravi, come l’incitamento all’odio o alla violenza. La chiave sta nel bilanciare la protezione della libertà di espressione con la prevenzione di danni reali.
  • Trasparenza e responsabilità: le piattaforme dovrebbero essere trasparenti su come prendono decisioni di moderazione e su come vengono applicate le loro politiche. Ciò include la pubblicazione di report di trasparenza e l’apertura a revisioni esterne o audit.
  • Protezione della diversità e del dissenso: è essenziale proteggere la diversità di opinioni e il diritto al dissenso. Le politiche di moderazione non dovrebbero soffocare le voci minoritarie o impopolari, ma piuttosto mirare a creare un ambiente in cui possano essere espressi pensieri diversi, in modo sicuro e rispettoso.
  • Uso della Tecnologia: l’uso di tecnologie avanzate come l’intelligenza artificiale può aiutare nella moderazione, ma deve essere affiancato da un controllo umano per comprendere il contesto e le sfumature.
  • Legislazione e normative: in alcuni casi, potrebbe essere necessario un intervento legislativo per definire limiti chiari e fornire linee guida sulle responsabilità delle piattaforme digitali, soprattutto in relazione ai contenuti dannosi o illegali.

Non esiste una soluzione unica per questi complessi problemi. Le piattaforme, i legislatori, gli esperti di etica e i cittadini devono lavorare insieme per uscire da queste acque difficili, cercando sempre di equilibrare la libertà di espressione, garantendo maggiore protezione e la promozione di un ambiente digitale sano e rispettoso.

avatar dell'autore
Franz Russo Blogger, Digital Strategist
Franz Russo, fondatore, nel 2008, del blog InTime, ho collaborato con grandi aziende nazionali e internazionali, come consulente per strategie di comunicazione e come divulgatore. Da sempre impegnato nella comunicazione digitale, cerco di unire sempre una profonda passione per l’innovazione tecnologica a una visione olistica dell’evoluzione dei social media e degli strumenti digitali. Il mio percorso professionale in questo campo, iniziato nel 2007, è stato caratterizzato da un costante impegno nel raccontare e interpretare i cambiamenti nel panorama digitale. Il mio approccio si basa su un mix di analisi strategica, creatività e un profondo impegno per il racconto e la divulgazione.
La tua iscrizione non può essere convalidata.
La tua iscrizione è avvenuta correttamente.

InTime Blog Newsletter

Abbonati alla newsletter e resta aggiornato su articoli e approfondimenti 

Utilizziamo Brevo come piattaforma di marketing. Inviando questo modulo, accetti che i dati personali da te forniti vengano trasferiti a Brevo per il trattamento in conformità all'Informativa sulla privacy di Brevo.

Scrivimi

Se ti piace quello che scrivo e se vuoi conoscermi meglio, clicca il bottone qui di fianco.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Ultimi articoli

InTime Podcast

spot_img

Articoli correlati
Related

Lo spot Coca-Cola e la IA, quando la magia non convince

Lo spot natalizio della Coca-Cola, realizzato con IA, divide il pubblico. Le critiche riguardano la "freddezza", imperfezioni varie e mancanza di emozione

Social media, da luoghi di interazione a strumenti di potere

Elon Musk c'è riuscito: ha trasformato X in uno strumento di potere politico. Quelli che prima erano strumenti di interazione, oggi sono strumenti di potere.

La fuga da X e crescita delle altre app: come chiudere l’account in sicurezza

La strada di X è segnata e segue quella di Elon Musk. Aumentano gli utenti che abbandonano la piattaforma verso altre app in particolare verso Bluesky ma anche verso Mastodon e Threads.

X pagherà i Creator in base alle interazioni Premium

X da oggi rivoluziona i pagamenti ai creator, puntando sull’engagement degli utenti Premium. E potrebbe portare ad un abbassamento della qualità dei contenuti.