WASHINGTON (Usa) – La Corte Suprema degli Stati Uniti dovrà, a breve, pronunciarsi su un tema che sta conquistando sempre più importanza globale e che riguarda se e in che misura i social e, più in generale, le aziende che veicolano messaggi o video dei loro utenti, ne siano responsabili, oltre che “moralmente”, anche in sede giudiziaria.
Quella che potrebbe essere definita la moderazione dei contenuti sta diventando uno dei punti cruciali di ciò che gira sulla Rete e che, genericamente, può contribuire a formare un giudizio e, quindi, anche spingere a taluni comportamenti che vanno contro la normalità dei rapporti e della morale, quando non addirittura contro la legge.
Di questo argomento si sta occupando la Corte Suprema degli Stati Uniti che, una volta conclusa la tregua sostanziale imposta dalla pandemia, ha ripreso a fare il suo lavoro: dire l’ultima parola su temi delicatissimi quali l’ambiente, la lotta alle discriminazioni, soprattutto quella che colpisce gli omosessuali.
Ma la Corte Suprema dovrà anche esprimersi sugli obblighi che i social network (e quindi le società-madri alle quali essi appartengono) hanno quando si tratta di pubblicare contenuti che potrebbero avere innescato episodi di violenza.
Due i casi posti all’attenzione delle Corte Suprema, la cui decisione farà giurisprudenza, imponendo nuove linee di comportamento o lasciando intatte quelle vigenti, ritenendole capaci di essere di garanzia.
Il primo chiede ai supremi giudici di esprimersi sull’ipotesi, formulata da parenti di alcune vittime, sulla “responsabilità” di Google nel massacro del Bataclan, a Parigi, per aver consentito che un video che incitava alla violenza di matrice islamica andasse su YouTube. Il secondo caso ha la stessa dinamica giudiziaria, chiedendo alla Corte di esprimersi sulla responsabilità di Twitter, Google e Facebook, che hanno postato un video che, secondo i proponenti, sarebbe tra le cause dell’attacco, sempre di radice islamica, ad una discoteca di Istanbul nel 2017, in cui rimasero uccise 39 persone.
Oggi, negli Stati Uniti la legge dice che le società che operano su Internet non sono responsabili di quanto pubblicano i loro utenti. Più precisamente si tratta della sezione 230 del Communications Decency Act del 1996, che protegge le piattaforme di social media e altri siti dalla responsabilità legale che potrebbe derivare dai contenuti pubblicati dagli utenti. Ma nel corso degli ultimi anni si sono levate voci che dissentono, soprattutto per il moltiplicarsi di casi di autori di omicidi che, grazie a quanto loro consentito dalla tecnologia, si spingono a trasmettere in diretta i loro atti efferati.
La questione, come si capisce, è controversa, implicando uno dei cardini della democrazia americana, la libertà di espressione, che viene difesa in modo feroce, anche se – come accaduto in occasione dell’assalto al Campidoglio compiuto da suprematisti bianchi, complottisti e sostenitori dell’ex presidente Donald Trump – alcune certezze cominciano a vacillare. Perché, ma è solo uno degli esempi che si potrebbero fare, mentre i Democratici denunciano come sui social vengano veicolate, indiscriminatamente, teorie cospirazioniste, i Repubblicani puntano il dito contro alcuni gestori di piattaforme accusandolo di essere condizionati dalla troppa prudenza, che, dicono, alle fine è una forma di censura.
Uno dei procedimenti è stato proposto, tra gli altri, anche dalla famiglia di Nohemi Gonzalez, una ragazza di 23 anni, uccisa a Parigi mentre stava cenando in un ristorante a poca distanza dal Bataclan. Secondo l’atto giudiziario, il video postato su Google senza che su di esso venisse compiuto un controllo di merito sul contenuto (grazie anche all’algoritmo che “veglia” su quanto viene pubblicato) ha di fatto favorito la radicalizzazione di alcuni musulmani.
Google da parte sua respinge le accuse dicendo che il solo collegamento tra uno dei terroristi di Parigi e YouTube era solo che uno degli integralisti era un utente attivo della piattaforma.
Alcuni tribunali, sul caso dell’assalto al night club di Istanbul, il Reina Club, la sera del capodanno 2017, si sono convinti che social e società dovrebbero assumersi alcune responsabilità per i contenuti diffusi in relazione al massacro. Secondo alcuni esperti, se la Corte suprema dovesse ritenere fondata la difesa di Google, pronunciandosi in suo favore, di fatto estenderebbe formalmente l’immunità legale agli algoritmi alla base di molti prodotti di social media e motori di ricerca. Ma se i supremi giudici dovessero accogliere le tesi delle famiglie delle vittime, la decisione avrebbe enormi ripercussioni per le piattaforme, indebolendone la posizione davanti ad altri procedimenti giudiziari, per evitare i quali potrebbero essere decise radicali modifiche ai modelli sin qui seguiti. (giornalistitalia.it)
Diego Minuti