Articolo creato il: 30 Marzo 2022

La (non) interoperabilità dei social network

L'ultimo aggiornamento di questo post è di 1 anno fa

Traduciamo per voi un articolo che troviamo molto interessante della Electronic Frontier Foundation. L’articolo originale si chiama To Make Social Media Work Better, Make It Fail Better e l’abbiamo tradotto grazie anche all’ausilio di Mate Translate. Ma soprattutto grazie alla licenza Creative Commons di EFF che ci permette di farlo.

L’articolo di EFF inizia da qui

Abbiate pietà per il moderatore di contenuti! Le piattaforme Big Tech si aspettano che i loro moderatori applichino correttamente una serie di regole in più di cento paesi, in oltre mille lingue. Milioni di comunità online, ognuna con le proprie norme e tabù.

Che impresa! Alcuni gruppi considereranno una parola come un insulto, mentre altri la useranno come termine di affetto. Anzi, la realtà è ancora più complessa: alcuni gruppi considerano alcune parole come insulti solamente quando vengono utilizzate da estranei, il che significa che un moderatore deve capire quali partecipanti a un singolo gruppo sono considerati insider e quali invece outsider, ovvero quelli che non possono pronunciare quella parola.

I moderatori devono inoltre riuscire a riconoscere tutto questo in lingue che parlano in modo imperfetto (o per nulla) assistiti da una traduzione automatica.

Non c’è da stupirsi quindi che gli esperti di sicurezza non riescano a mettersi d’accordo su quando rimuovere i contenuti, quando etichettarli e quando lasciarli stare. La moderazione su larga scala è un compito impossibile. I moderatori non solo non riescono a riconoscere una quantità enorme di abusi e truffe, ma rimuovono anche le discussioni sul razzismo perché razziste, sospendono gli utenti che segnalano pericolose cospirazioni per averle promosse, puniscono gli scienziati che smentiscono le fake news sui vaccini per aver diffuso disinformazione, bloccano gli annunci dei game designer perché contengono la parola “supplemento” (scambiandola per integratore vitaminico) e rimuovono i commenti che lodano un gatto carino scrivendo “bella micia” (beautiful puss).

Tutti odiano la moderazione dei contenuti sulle piattaforme Big Tech. Tutti pensano di essere censurati dalle Big Tech. E tutti hanno ragione

Ogni comunità ha regole implicite ed esplicite su quali tipi di discorso siano accettabili e infligge punizioni alle persone che violano tali regole, che vanno dall’esilio alla vergogna. Nella vita reale non ti è permesso entrare gridando ad un funerale, usare epiteti quando ti rivolgi al tuo professore universitario, descrivere esplicitamente la tua vita sessuale ai tuoi colleghi di lavoro. La tua famiglia può proibire parolacce alla cena di Natale o discussioni sui compiti a casa durante la colazione.

Nel mondo online, i moderatori applicano queste “regole della casa” etichettando o eliminando i discorsi che infrangono le regole e mettendo in guardia o rimuovendo gli utenti.

Fare bene questo lavoro è già difficile quando il moderatore è vicino alla comunità e ne comprende le regole. È molto più difficile quando il moderatore è un dipendente a basso salario che segue la politica aziendale a un ritmo frenetico. Quindi è impossibile fare bene e in modo coerente.

Non c’è da meravigliarsi che così tante persone, con così tante esperienze e prospettive diverse, non siano soddisfatte delle scelte di moderazione delle piattaforme Big Tech.

Il che solleva la domanda: perché così tanti utenti stanno ancora utilizzando queste piattaforme?

Le piattaforme Big Tech godono del cosiddetto effetto di rete: più persone si uniscono a una comunità online, più motivi ci sono per gli altri di iscriversi. Ti unisci perché vuoi parlare con le persone e gli altri si uniscono perché vogliono parlare con te.

Questo effetto di rete crea anche un costo di commutazione: questo è il prezzo che si paga per lasciare una piattaforma alle spalle. Probabilmente perderai le persone che guardano i tuoi video, o il gruppo privato per le persone che lottano per le tue stesse condizioni di salute, o il contatto con le tue relazioni lontane.

Queste persone sono il motivo per cui così tanti di noi sopportano i molti difetti delle principali piattaforme social.

Li tolleriamo perché le piattaforme hanno preso degli ostaggi: le persone che amiamo, le comunità a cui teniamo e i clienti su cui facciamo affidamento. Rompere con la piattaforma significa rompere con quelle persone.

Non deve essere così. Internet è stato progettato su protocolli, non piattaforme: il principio è quello di gestire molti servizi diversi e interconnessi, ognuno con le proprie regole della casa basate su specifiche norme e obiettivi. Questi servizi potrebbero connettersi tra loro, ma potrebbero anche bloccarsi a vicenda, permettendo alle comunità di isolarsi dagli avversari che desiderano danneggiare o interrompere il loro gruppo.

Ci sono milioni di persone che cercano energicamente di creare un Internet che abbia un aspetto simile. Il fediverso è una raccolta di progetti di software libero / aperto progettati per sostituire i server centralizzati come Facebook con alternative decentralizzate che funzionano più o meno allo stesso modo, ma delegano il controllo alle comunità che servono. Gruppi di amici, cooperative, start-up, organizzazioni non profit e altri possono ospitare le proprie istanze Mastodon o Diaspora e connettersi a tutti gli altri server che si collegheranno con loro, in base alle loro preferenze e necessità.

Il fediverso è incredibile, ma non sta crescendo nel modo in cui molti di noi speravano. Anche se milioni di persone affermano di odiare le politiche di moderazione e gli abusi sulla privacy di Facebook, non stanno correndo verso la via d’uscita. Potrebbe essere che a loro piaccia segretamente la vita su Facebook?

Questa è una teoria.

Un’altra teoria, che richiede molta meno immaginazione, è che la gente odia sì Facebook, ma ama le persone che dovrebbe lasciarsi alle spalle nel caso se ne allontanasse.

Il che solleva un’ovvia possibilità: e se rendessimo possibile alle persone di lasciare Facebook senza essere tagliate fuori dai loro amici?

Ed ecco l’interoperabilità.

L’interoperabilità è l’atto di collegare qualcosa di nuovo a un prodotto o servizio esistente. L’interoperabilità è il motivo per cui puoi inviare email da un account Gmail a un account Outlook. È per questo che puoi caricare qualsiasi sito Web su qualsiasi Browser. Ecco perché puoi aprire file Microsoft Word con Apple Pages. È per questo che puoi utilizzare un iPhone collegato a Vodafone per chiamare un utente Android su TIM.

L’interoperabilità è anche il motivo per cui puoi cambiare tra questi servizi. Buttare via il PC e comprare un Mac? Nessun problema, Pages aprirà tutti i documenti di Word che hai creato quando eri un cliente Microsoft. Passare da Android a iPhone o da Vodafone a TIM? Puoi ancora chiamare i tuoi amici e loro possono ancora chiamarti – e non sapranno nemmeno che qualcosa è cambiato a meno che tu non glielo dica.

Le proposte negli Stati Uniti (l’ACCESS Act) e nell’UE (il Digital Markets Act) mirano a costringere le piattaforme più grandi a consentire l’interoperabilità con i loro servizi. Sebbene le leggi differiscano nelle loro specifiche, a grandi linee entrambe chiedono che le piattaforme come Facebook (che ora si fa chiamare Meta) consentano a start-up, cooperative, organizzazioni non profit e siti personali di connettersi in modo che gli utenti di Facebook possano lasciare il servizio senza abbandonare gli amici.

In base a queste proposte, potresti lasciare Facebook e configurare o unirti a un piccolo servizio. Quel servizio stabilirebbe le proprie politiche di moderazione ma interagirebbe anche con Facebook. Potresti inviare messaggi a utenti e gruppi su Facebook, che verrebbero condivisi anche con persone che utilizzano altri piccoli servizi.

Questo sposta le scelte di moderazione più vicino agli utenti e più lontano da Facebook. Se i moderatori sul tuo servizio consentono una parola bloccata su Facebook, tu e gli altri sul tuo servizio la vedrete, mentre gli utenti di Facebook non la vedrebbero.

Allo stesso modo, se c’è qualche discorso che Facebook consente ma tu e la tua comunità non volete vederlo, i moderatori sul vostro servizio possono bloccarlo, rimuovendo i messaggi o impedendo agli utenti di comunicare con il vostro server.

Alcune persone vogliono invece provare a correggere le piattaforme Big Tech: farle moderare meglio e in modo più trasparente. Lo capiamo. C’è decisamente molto spazio per un miglioramento. Abbiamo anche contribuito a redigere una tabella di marcia per migliorare la moderazione: The Santa Clara Principles.

Ma migliorare le piattaforme Big Tech è un qualcosa che potrebbe iniziare bene ma finire molto male. Se tutte le conversazioni di cui devi far parte sono su una piattaforma sei danneggiato dalla sotto-moderazione o dalla sovra-moderazione.

Esiste quindi un metodo migliore. L’interoperabilità mette le comunità a capo delle proprie norme, senza dover convincere un enorme dipartimento di “fiducia e sicurezza” di un’azienda tecnologica – possibilmente un’azienda in un paese diverso, dove nessuno parla la tua lingua o capisce il tuo contesto – che hanno perso qualche sfumatura contestuale nelle loro scelte su cosa lasciare e cosa eliminare.

Tech Platforms and the Knowledge Problem di Frank Pasquale pone due diversi approcci alla regolamentazione tecnologica: “Hamiltonians” e “Jeffersonians” (in riferimento a due diverse visioni della politica americana).

Gli hamiltoniani preferiscono “migliorare la regolamentazione delle aziende leader piuttosto che dividerle”, mentre i jeffersoniani sostengono che la “stessa concentrazione (di potere, brevetti e profitti) nelle mega-imprese” è di per sé un problema, rendendole sia irresponsabili che pericolose.

Ed è qui che volevamo arrivare. Pensiamo che gli utenti non dovrebbero aspettare che i proprietari di piattaforme Big Tech abbiano un momento di illuminazione che porti ad una riforma morale, e comprendiamo che la strada verso la regolamentazione esterna sia lunga e tortuosa, a causa del potere oligopolistico dei giganti della tecnologia gonfiati di denaro e troppo grandi per fallire.

Siamo impazienti. Troppe persone sono già state danneggiate dalle cattive scelte di moderazione delle piattaforme Big Tech. Cerchiamo di rendere le piattaforme migliori, ma rendiamole anche meno importanti, dando alle persone l’autodeterminazione tecnologica. Meritiamo tutti di appartenere a comunità online che possano decidere ciò che è accettabile e ciò che non lo è.

Unisciti alle comunità




Se hai trovato errori nell'articolo puoi segnalarli cliccando qui, grazie!

Di skariko

Autore ed amministratore del progetto web Le Alternative

1 commento

Puoi commentare questo articolo dal tuo account sul Fediverso! Se hai Mastodon o Lemmy (Feddit.it) cerca il link di questo articolo e commenta dal Fediverso! .