La nudità su Instagram: una zona d’ombra, legislativa e politica

Quanto conta la nudità su Instagram nella visualizzazione dei contenuti postati? Come vengono scelte le foto messe in evidenza? Un’inchiesta esclusiva, dati alla mano, racconta questa zona d’ombra nella legislazione europea, fatta di algoritmi opachi da un lato, e da una legislazione inefficace dall’altro. 

Sarah è imprenditrice nel settore dell’alimentazione a Berlino (il nome e la città sono stati cambiati): la società che ha creato aiuta le donne a sentirsi a proprio agio con il cibo, promuovendo quella che chiama “l’alimentazione intuitiva” (intuitive eating). Come molte altre piccole imprese, Sarah utilizza i social media per attrarre clienti: Instagram —secondo social più grande d’Europa dopo Facebook, basato sulla condivisione di immagini e video — è un canale di comunicazione di cui non potrebbe fare a meno, dice. 

Su Instagram Sarah aveva l’impressione che pochi dei suoi  53mila follower vedessero le sue foto, a meno che le immagini non la ritraessero in costume da bagno  in 4 dei 7 post che hanno ottenuto più “mi piace” negli ultimi mesi, Sarah è, infatti, in costume. Ely Killeuse, oltre 132mila follower su Instagram, ha accettato di esprimersi pubblicamente, dichiarando che  “quasi tutte” le sue foto che hanno ricevuto più like la ritraevano in biancheria intima o costume.

La risposta sta semplicemente nel fatto che i loro followers preferiscono vederle in costume? Non è così semplice. Dall’inizio del 2016 Instagram pubblica le foto nella newsfeed degli utilizzatori (la home di Instagram, ndr) in modo tale che “quelle che li interessano di più compaiano in alto“. 

Come vengono scelte le foto messe in evidenza? Non è semplicemente una questione di gusti. Gli imprenditori che fanno affidamento su Instagram per attrarre clienti devono sottostare alle norme imposte dal servizio per raggiungere i loro follower, anche se queste non riflettono i valori sui quali essi hanno fondato la loro attività, né quelli de loro pubblico. 

2.400 foto analizzate

Per comprendere quali sono le foto privilegiate da Instagram, l’European Data Journalism Network (EDJNet, di cui fa parte VoxEurop) e Algorithm Watch hanno chiesto a 26 volontari di installare un’estensione del loro navigatore web e di abbonarsi ad una selezione di creatori di contenuti professionali su Instagram. Abbiamo selezionato 37 professionisti (di cui 14 uomini) di 12 paesi che utilizzano il social per promuovere delle marche o per attrarre nuovi clienti e che si occupano principalmente di alimentazione, viaggi, fitness, moda o bellezza.

L’estensione apre automaticamente Instagram ad intervalli regolari e rileva i post che compaiono in cima alla home dei volontari fornendo così uno spaccato di ciò che la piattaforma considera più pertinente per ciascuno di loro. 

Se Instagram non interferisse con l’algoritmo, la diversità dei post nella home corrisponderebbe alla diversità dei post pubblicati dai creatori di contenuti che gli utilizzatori seguono. Ancora, se Instagram personalizzasse la newsfeed di ogni utilizzatore secondo i suoi gusti personali, la diversità dei post visualizzati dovrebbe essere diversa per ogni utilizzatore. Ma questo non è quello che abbiamo constatato.

Tra febbraio e maggio abbiamo analizzato 1.737 post di profili che seguiamo, che corrispondono a 2.400 foto. Sui post in questione un software ha registrato che 362 (quindi il 21% di questi) contenevano foto di donne in costume da bagno o in completo intimo, oppure uomini a torso nudo. Tuttavia, nella home dei nostri volontari i post con foto del genere costituivano il 30% di tutti quelli mostrati e venivano dagli stessi account (alcuni comparivano più di una volta). 

I post contenenti immagini di donne in completo intimo o in costume da bagno hanno ottenuto il 54% in più di probabilità di apparire nella home dei nostri volontari; quelli con immagini di uomini a torso nudo il 28% in più. Al contrario, i post con foto di cibo o paesaggi hanno avuto il 60% in meno di probabilità di apparire nella home. Questi risultati, che potete ritrovare nel dettaglio su una pagina dedicata, superano i test standard di rilevanza statistica.

In attesa di un audit che non arriva

La propensione per il nudo non si applica a tutti gli utilizzatori di Instagram. Nonostante fosse una costante per la maggior parte dei volontari, una minoranza ha avuto accesso a post che riflettevano meglio la diversità di ciò che i creatori di contenuti pubblicavano. È probabile che l’algoritmo di Instagram privilegi il nudo in generale, ma che alcuni fattori (come ad esempio la personalizzazione) ne limitino gli effetti per alcuni utilizzatori.

I nostri risultati non sono all’altezza di un audit completo dell’algoritmo sulle home di Instagram,  forniscono soltanto informazioni su ciò che succede sulla home dei nostri volontari. Potete aiutarci a migliorare i risultati installando l’estensione, li aggiorneremo con i nuovi dati ricevuti. In ogni caso, senza la possibilità di accedere ai dati interni e ai  server di produzione di Facebook, sarà impossibile trarre conclusioni definitive.

Abbiamo contattato Facebook in proposito, la risposta, seppur vaga, che abbiamo ricevuto è la seguente: “La ricerca è imprecisa per diverse ragioni e evidenzia un’incomprensione nel funzionamento alla base di Instagram. I post nella vostra home vengono classificati seguendo il contenuto delle pubblicazioni e degli account che vi interessano, non secondo fattori arbitrari come la la presenza di costumi da bagno.”

Permangono, tuttavia, diverse ragioni per pensare che le nostre conclusioni raccontino, al contrario, il funzionamento generale di Instagram.

Massimizzare le interazioni

In un brevetto depositato nel 2015, alcuni ingegneri di Facebook (azienda che, come è noto, possiede Instagram), spiegavano il modo in cui la newsfeed, poteva selezionare le foto in evidenza, ovvero quelle che appaiono per prime in altro. 

Stando al funzionamento del brevetto, quando un utilizzatore pubblica una foto, questa è immediatamente analizzata in modo automatico. Si attribuisce alle foto un “engagement metric”, un tasso che rappresenta le possibili interazioni, che viene poi utilizzato per decidere se l’immagine apparirà o meno nella home.

Questo tasso si basa, in parte, sulle azioni passate dell'utilizzatore. Se questi ha, per esempio, messo un like a una determinata marca e una foto mostra il prodotto della marca in questione, l’engagement metric aumenta. Ma, cosa ancora più importante, l“engagement metric” può anche prendere in considerazione i comportamenti di tutti gli utilizzatori. Il brevetto, inoltre, specifica che il genere, l’etnia e “il grado di nudo” delle persone ritratte nelle foto possono essere usati in questo calcolo. 

Quindi, se da un lato Instagram afferma che la home è organizzata secondo “ciò che interessa di più” un utilizzatore, dall’altro lato il brevetto della società spiega che potrebbe in effetti essere organizzato secondo ciò che l’azienda (o meglio l’algoritmo) ritiene possa interessante tutti gli utilizzatori. Che questi ultimi vedano o meno le foto pubblicate da account che seguono dipende non solo dalle loro attività passate, ma anche da ciò che Instagram giudica più interessante per tutti gli altri utilizzatori del social.

I limiti dell'intelligenza artificiale

Facebook analizza automaticamente le foto grazie ad un software di visione artificiale (“computer vision”), prima che l’algoritmo decida quali mostrare nella home. Questo software scannerizza il contenuto delle immagini attingendo a un database fatto di immagini analizzate manualmente: i limiti di questo strumento potrebbero avere un impatto sull’ordine di priorità delle foto nella home di Instagram.

Chi si occupa di informatica, dati e statistica sa, già da anni, che questi sistemi riproducono e amplificano il bias, l’errore o il pregiudizio utilizzato dal software e dal database di apprendimento per creare correlazioni erronee. Esempio? Un programma ideato per identificare lupi e cani basato su foto di canidi trovate online, non riconoscerà tali animali come farebbe un umano. Identificherà, invece, semplicemente come lupo qualsiasi animale ritratto su uno sfondo innevato.

I dati di apprendimento per la visione artificiale sono in genere prodotti da lavoratori sottopagati e precari che devono lavorare rapidamente e fornire risultati all’altezza delle attese. Per questo, in generale, tengono conto in maniera indiscriminata delle categorie loro proposte e non fanno attenzione ai dettagli di un’immagine, scrive Agathe Balayn, dottoranda all’università tecnica di Delft che si occupa delle influenze nei sistemi automatizzati.

Le conseguenze di questi meccanismi sono pesanti. Lo scorso dicembre un artista brasiliano ha cercato di promuovere uno dei suoi post su Instagram. La richiesta è stata rifiutata, adducendo come ragione la presenza di  contenuti violenti. Solo che l’immagine conteneva un giovane uomo e il pilota di Formula 1 Lewis Hamilton. Entrambi erano di colore. Lo scorso aprile, un’insegnante di yoga si è vista rifiutare una pubblicità a causa di un’immagine considerata “oscena”, quando questa riproduceva una posizione di yoga. La donna è un’americana di origine asiatica.

(Nell’ambito della nostra inchiesta, anche noi abbiamo utilizzato un sistema di visione artificiale, Google Vision. Alcuni risultati sono evidentemente frutto di bias: il termine “bellezza” per esempio era associato a immagini di donne. È probabile che l'algoritmo di Instagram funzioni allo stesso modo, se non altro perché in parte è stato sviluppato dalle stesse persone). 

La frontiera del nudo

Le condizioni di utilizzazione di Instagram specificano che il nudo “non è autorizzato” sul social, ma allo stesso tempo si  incoraggia la pubblicazione di foto con parti del corpo scoperte. La differenza tra ciò che è incoraggiato e ciò che è vietato è definita da degli algoritmi di analisi delle immagini, il cui funzionamento non è verificato e che, sappiamo, è condizionato. 

Ogni volta che un utilizzatore posta un contenuto deve valutare la differenza, sottile, tra il mostrare abbastanza in modo da raggiungere più follower e il non mostrare troppo per non farsi bannare. 

Un sondaggio , realizzato nel 2019 su 128 utilizzatori dalla rivista americana Salty, ha mostrato che il ritiro di contenuti non appropriati era un’abitudine per tanti. Ma fin quando gli algoritmi di Instagram non saranno pubblici e verificabili, sarà impossibile calcolare la frequenza di questi incidenti e stabilire se effettivamente le persone di colore e le donne sono i soggetti più toccati.

A questo proposito possiamo aggiungere che  un’analisi realizzata su 238 brevetti depositati da Facebook contenenti l’espressione “visione artificiale”, mostra che su 340 persone designate come “inventori”, solo 27 erano donne. I settori a preponderanza maschile o pensati unicamenti da uomini producono spesso situazioni che non favoriscono o, peggio, penalizzano le donne. Un esempio? Le cinture di sicurezza sono testate su manichini maschili e questo comporta che siano più frequenti le ferite subite dalle donne in caso di incidente. Secondo le nostre ricerche, gli algoritmi di Facebook potrebbero seguire lo stesso schema.

Il timore dello shadow ban

Sarah e gli altri imprenditori che usano Instagram per promuovere il loro business erano reticenti all’idea di parlare con i giornalisti: si temono “rappresaglie” da parte dell’azienda sotto forma di chiusura dell’account o di “shadow ban” (pratica per la quale pochi follower vedono i post di un determinato profilo senza che chi li ha pubblicati lo sappia) che rappresenterebbero una condanna a morte per l’attività in questione. Una giovane imprenditrice —circa 70mila follower — ha detto ad Algorithm Watch che Instagram è “molto importante” per la sua attività e che non voleva che il suo nome fosse reso pubblico per timore dello “shadow ban”; Ely Killeuse, che ha invece accettato di essere menzionata, ha detto che un’altra fonte di entrate era per lei essenziale: troppa dipendenza da Instagram risulterebbe nociva per la sua libertà e salute mentale, ha aggiunto.

Il Regolamento Generale sulla Protezione dei dati (RGPD, in inglese GDPR, General Data Protection Regulation), in vigore dal 2018 in Europa, e il regolamento Platforms to Business (P2B), che potrà essere applicato a partire dal 12 luglio 2020, forniscono già numerose garanzie ad utilizzatori e professionisti. Il RGPD specifica soprattutto che gli utilizzatori hanno il “diritto di esprimersi“ sulle decisioni automatizzate (“automated decisions”), e il regolamento P2B dovrebbe costringere i servizi di intermediazione digitale a pubblicare i “principali parametri che determinano la gerarchia [algoritmica]”.

Secondo Petra de Sutter, Presidente della commissione del mercato interno e della protezione dei consumatori al Parlamento europeo, questa nuova misura non dovrebbe forzare le varie piattaforme a rivelare come funzionano i loro algoritmi. Impedire che Instagram faccia una selezione nella home dei suoi utilizzatori non sarebbe fattibile dal punto di vista giuridico, ha scritto in una mail a Algorithm Watch. Invece, la trasparenza che P2B garantirà, dovrebbe permettere di adottare misure più chiare in futuro, ha aggiunto. Per quanto riguarda il timore dello shadow ban, de Sutter lo considera esagerato. “Una domanda non ha mai causato rappresaglie”, ha scritto.

Forse il P2B sarà diverso ma, due anni dopo l’entrata in vigore del RGPD, numerosi esperti ne rimproverano l’imperfetta applicazione. Per esempio? L’autorità irlandese per la protezione dei dati, responsabile della regolamentazione della filiale Facebook basata a Dublino,sembra essere tristemente a corto di personale e “ sembra non capire il RGPD”, come spiega un esperto ad Algorithm Watch. 

Un altro problema è costituito dalla mancanza di una regolamentazione efficace. Non esiste, a livello europeo o nei paesi membri, un’autorità che ha il potere o gli strumenti necessari per controllare in maniera efficace le grandi piattaforme digitali (tra le quali Instagram). Per questo tante disposizioni del RGPD non vengono applicate. 

Una possibile discriminazione di genere?

I risultati della nostra ricerca mostrano che chi pubblica contenuti su Instagram per aumentare la visibilità dei propri post, deve mostrarsi “senza veli”; questo dato potrebbe essere più significativo per le donne e quindi essere considerato un fattore discriminante. Tuttavia, sebbene la discriminazione basata sul sesso sia vietata dalla Carta dei diritti fondamentali dell’Unione europea, non esiste alcun ricorso in giustizia per un utilizzatore di Instagram che volesse procedere per vie legali. Le specificità dell’imprenditoria sui social non vengono considerata nella legislazione.

Miriam Kullmann, docente all’università di economia e commercio di Vienna, ha scritto ad Algorithm Watch che il regolamento europeo sulla discriminazione interviene quasi esclusivamente nei rapporti di lavoro. I lavoratori indipendenti, come i professionisti di cui abbiamo parlato, non sono protetti.

Alcuni gruppi si battono per i diritti degli imprenditori sui social media. IG Metall, il più grande sindacato d’Europa, sostiene un’azione collettiva guidata da alcuni youtuber, che esigono una maggior giustizia e trasparenza da parte di Google (proprietario di YouTube) quando un video è non è più monetizzato, ma al momento non hanno  intenzione di estendere il loro programma a chi crea e diffonde contenuti su Instagram o su altre piattaforme.

Instagram in Europa

Coloro che utilizzano professionalmente Instagram sono migliaia in Europa e l’impatto delle loro pubblicazioni è significativo perché tocca a sua volta le centinaia di migliaia di followers. 

Secondo Facebook, quasi 140 milioni di residenti nell’Unione europea, cioè un terzo della popolazione totale, hanno utilizzato Instagram lo scorso aprile. Nella fascia 18-24 anni l'utilizzo di Instagram è vicino al 100% in tutti i Paesi dell’Unione europea. L’epidemia di Covid-19 ha fatto sì che il tempo passato su Instagram aumentasse in modo impressionante. Nell’Italia in lockdown, in una sola settimana, le visualizzazioni su questo social sono raddoppiate rispetto al normale, ha annunciato Facebook ai suoi investitori.

Una foto tutta per sé

Quasi cento anni fa, la celebre scrittrice britannica Virginia Woolf dichiarava che le donne avevano bisogno “di una camera tutta per sé” per poter sviluppare la propria creatività. Woolf scriveva che rimettersi all’opinione di autorità esterne era come invitare la muffa a formarsi  all’interno del proprio lavoro.

Su Instagram, rimettersi all’opinione di chi ha elaborato l’algoritmo di pubblicazione della newsfeed è la sola scelta possibile. 

Rifiutarsi di mostrare alcune parti del proprio corpo riduce radicalmente il possibile pubblico a cui il proprio lavoro è mostrato. Gli imprenditori, donne e uomini, devono rispettare le regole stabilite dagli ingegneri di Facebook per avere una possibilità di guadagnarsi da vivere. 

Traduzioni disponibili
Lunedì, 15 Giugno 2020

Testata/e:

VoxEurop

Traduzione di:

Antida Acierno | VoxEurop
share

Tags

Internet

subcribe newsletter