Facebook. Frances Haugen lancia nuove accuse: “algoritmi che fomentano l’odio”

- Advertisement -
- Advertisement -

AgenPress – Frances Haugen ha parlato davanti a una commissione parlamentare che sta esaminando la bozza di legge del governo britannico per reprimere i contenuti online dannosi e i suoi commenti potrebbero aiutare i legislatori a rafforzare le nuove regole, nella sua seconda apparizione pubblica, dopo aver testimoniato al Senato degli Stati Uniti all’inizio di ottobre sul pericolo che, secondo lei, rappresenta la società nel non evitare danni ai bambini, incitare alla violenza politica e alimentare la disinformazione.

Haugen ha spiegato ai legislatori del Regno Unito in che modo i gruppi di Facebook amplificano l’odio online: gli algoritmi, in sintesi, danno la priorità all’engagement e spingono ai margini le persone con interessi generali e ha aggiunto che Menlo Park potrebbe aggiungere moderatori per prevenire che i gruppi possano essere utilizzati per diffondere opinioni estremiste.

“Senza dubbio, sta peggiorando l’odio”, ha detto Haugen, aggiungendo di essere “scioccata nell’apprendere di recente che Facebook ha manifestato l’intenzione di raddoppiare il metaverso e che assumeranno 10.000 ingegneri in Europa per lavorarvi”, riferendosi ai piani della società per un mondo online immersivo, ‘il prossimo grande Internet’.

Per Haugen, “il social network vede la sicurezza come una fonte di costo, celebra la cultura delle startup di ‘accorciare i percorsi'” e “senza dubbio” peggiora il clima di odio. “Gli eventi che stiamo vedendo in tutto il mondo, come in Myanmar e in Etiopia sono i capitoli iniziali perché la classifica basata sull’engagement’ fa due cose: dà priorità e amplifica i contenuti estremi che dividono e polarizzano e li concentra”.

Un documento del 2021 metteva in guardia sul numero molto basso di moderatori umani di contenuti nei dialetti arabi parlati in Arabia Saudita, Yemen e Libia. Un altro studio sull’Afghanistan, dove Facebook ha 5 milioni di utenti, ha scoperto che anche le pagine che spiegavano come segnalare l’incitamento all’odio erano tradotte in modo errato. I fallimenti si sono verificati anche se la ricerca di Facebook ha contrassegnato alcuni Paesi come “ad alto rischio” a causa del loro instabile panorama politico e della frequenza di incitamento all’odio che compariva online.

Secondo un report interno, la società ha stanziato l’87% del suo budget per lo sviluppo di algoritmi proprietari capaci di rilevare fake news negli Stati Uniti nel 2020, contro il 13% investito nel resto del mondo. E per questo Frances Haugen ha scritto che Facebook dovrebbe essere trasparente sulle risorse investite nei vari Paesi e nelle varie lingue.

Facebook al momento non ha  commentato l’audizione di Haugen alla commissione parlamentare britannica. L’ex dipendente ha anche in programma un incontro a novembre con i funzionari dell’Unione europea a Bruxelles, dove la Commissione è al lavoro per aggiornare il regolamento sui servizi digitali per tutelare gli utenti e vuole che le società online siano responsabilizzate per contenuti illegali o pericolosi.

- Advertisement -

Potrebbe Interessarti

- Advertisement -

Ultime Notizie

- Advertisement -