‘NEPRIHVATLJIVA GREŠKA‘

Facebookovi algoritmi crnce na videu prepoznali kao - ‘primate‘: ‘Ispričavamo se, naš sustav nije savršen‘

 Mike Hipple/Alamy/Alamy/Profimedia
Korisnici koji su pregledavali videozapis na kojemu su Afroamerikanci, dobili su upit žele li nastaviti gledati video o - primatima

Facebook se morao ispričati zbog kardinalne pogreške koju je napravila njegova umjetna inteligencija kada je videozapis s Afroamerikancima označio neprihvatljivim opisom.

Prema navodima New York Timesa, korisnici koji su nedavno pregledavali videozapis na kojemu su Afroamerikanci, a objavio ga je Daily Mail, dobili su upit žele li nastaviti gledati video o - primatima.

Društvena mreža se u priopćenju ispričala zbog 'neprihvatljive pogreške'. Facebook je također onemogućio značajku preporuke koja je odgovorna za ovakvu poruku dok traje istraga o uzroku slučaja. Na taj način žele spriječiti ponavljanje ovakvih ozbiljnih pogrešaka.

- Kao što smo rekli, iako je došlo do unapređenja naše umjetne inteligencije, znamo da nije savršena, te da ima prostora za napredak. Ispričavamo se svima koji su možda vidjeli ove uvredljive preporuke, navodi se u priopćenju Facebooka što ga potpisuje glasnogovornica Dani Lever.

Da umjetna inteligencija nije nepogrešiva govori i lanjski slučaj iz Detroita kada su zbog lošeg prepoznavanja lica uhićena dvojica nedužnih crnaca. Prije šest godina Googleov softver za prepoznavanje lica identificirao je par Afroamerikanaca kao gorile. Časopis Wired je nekoliko godina kasnije otkrio da je tehnološki div kao rješenje za taj slučaj odlučio cenzurirati riječ gorila iz pretraživanja i tagiranja fotografija.

Facebook je prije nekoliko mjeseci podijelio skup podataka koji je kreirao s AI zajednicom u pokušaju da riješi slične probleme. Riječ je o 40.000 videozapisa na kojima je 3.000 plaćenih glumaca. Facebook je čak angažirao profesionalce koji su osvijetlili snimke i označili ton njihove kože, kako bi sustav umjetne inteligencije mogao naučiti kako izgledaju ljudi različitih rasa kada ih se fotografira pri različitim svjetlosnim uvjetima. To očito zasad nije bilo dovoljno za rješavanje predrasuda u AI sustavu Facebooka.

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
Linker
23. studeni 2024 23:01