[Geek] Facebook: sembra che l’intelligenza artificiale non funzioni tanto bene nel rimuovere i contenuti d’odio.

Secondo un report del Wall Street Journal, l’intelligenza artificiale a cui si affida il social avrebbe un’efficacia del 5% nell’identificare ed eliminare le conversazioni che diffondono odio e violenza. Gli stessi ingegneri senior di Facebook avrebbero dichiarato una percentuale ancora più bassa, del 2%.

Di fatto, si sta parlando di delegare e automatizzare il riconoscimento di contenuti che possono recare disagio e danno alle persone. E’ corretto usare uno strumento così diffuso anche tra persone con ridotta capacità critica o semplicemente di “massa” per testare algoritmi e automatismi che dovrebbero tutelare gli stessi utenti dal problema? Non sarebbe meglio prima tutelare con degli organismi di vigilanza senzienti/umani e solo dopo che il programma ha raggiunto almeno la loro precisione, metterlo in produzione? Dicci cosa ne pensi!

Se vuoi approfondire la news, ecco il Link

Post suggeriti