Nasza strona używa cookies. Korzystając ze strony, wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki. Rozumiem

Po filmie z czarnoskórymi AI facebooka proponuje "więcej filmów o naczelnych"

Maciej Pikor Redakcja Bulldogjob
Sztuczna inteligencja Facebooka od roku nazywa czarnoskórych naczelnymi i do niedawna miała się z tym okay.
Po filmie z czarnoskórymi AI facebooka proponuje "więcej filmów o naczelnych"

Wydawałoby się, że na Zachodzie, a szczególnie w Stanach Zjednoczonych, wszyscy są już wrażliwi na punkcie tematu dyskryminacji czarnoskórych. No, może oprócz zadeklarowanych rasistów, ale wiecie - tych to i miotaczem ognia nie wystraszysz.  Okazuje się jednak, że sztuczna inteligencja nadal nie jest wystarczająco wrażliwa. 


Czy sztuczna inteligencja jest rasistowska? 


Ponieważ, jak donosi The New York Times, automatyczna rekomendacja pod filmem zamieszczonym przez Daily Mail 27 czerwca 2020 r. pyta nas, użytkowników Facebooka, całkiem grzecznie i zachęcająco, czy nie chcielibyśmy przypadkiem oglądać więcej filmów z “Primates” - z ang. “naczelnymi”. Odważna teza, przyznaję. 

Film przedstawia spotkanie białego mężczyzny z grupą czarnoskórych mężczyzn, którzy obchodzili urodziny. Biały mężczyznę rzekomo dzwoni pod 911, aby zgłosić, że jest „nękany przez bandę czarnych mężczyzn”, po czym wideo się ucina i przenosi nas do innego nagrania, na którym widać, że funkcjonariusze policji aresztują czarnoskórego najemcę w domu.

Co ciekawe cały “skandal” zaczął się od byłej już pracowniczki Facebooka - Darci Groves - która na Twitterze ujawniła rasizm sztucznej inteligencji. “Facebooku, ta rekomendacja jest niedopuszczalna. Pomimo tego, że to wideo ma już rok, mój znajomy otrzymał taką podpowiedź. Znajomych z Facebooka proszę o interwencję. To rażące nadużycie” - napisała. 

Rzecznik Facebooka pytany przez The Times, przeprosił za całą sytuację wszystkich, których mogła ta rekomendacja urazić, tłumacząc przy tym, że: “automatyczna rekomendacja była „niedopuszczalnym błędem” oraz, że “wyłączyliśmy całą funkcję rekomendacji, gdy tylko zdaliśmy sobie sprawę, że tak się dzieje, aby móc zbadać przyczynę i zapobiec ponownemu wystąpieniu tego problemu”.


Nie pierwszyzna

To nie pierwszy raz, kiedy Facebook jest w centrum uwagi z powodu poważnych błędów technicznych. W zeszłym roku imię chińskiego prezydenta Xi Jinpinga po przetłumaczeniu z birmańskiego na angielski wyświetlało się jako „Pan S***hole”. Jak podał Reuters, błąd w tłumaczeniu wydawał się być specyficzny dla Facebooka i nie pojawił się w Google.

Ale nie tylko Facebook nie uchronił się od podobnych błędów i dostał rykoszetem za swoją niefrasobliwą sztuczną inteligencję. 

Twitter, kolejny z gigantów socialowych, jeszcze rok temu miał problem z algorytmem odpowiadającym za przycinanie zdjęć. Nie wiem czy pamiętacie, ale z wewnętrznej analizy (po zgłoszeniach użytkowników, obviously) wyszło im na to, że algorytm faworyzuje białych i dyskryminuje czarnych. Proporcjonalnie różnica wynosiła 8% na korzyść kobiet i 4% na korzyść białych. Jak widać faworyzował również kobiety. Twitter uważa, że algorytm już nie jest taki rasistowski. 

Jeszcze starsza historia pochodzi z 2015 roku - oprogramowanie Google do rozpoznawania obrazów sklasyfikowało zdjęcia czarnoskórych osób jako „goryle”. Google przeprosił i usunął te etykiety.


Trochę shitstorm

Poważne dzienniki się sprawą zajęły (bo nie ma co odbierać New York Timesowi powagi) a czy znów nie jest to trochę burza w szklance wody? I zanim mnie zbijecie za (może) konserwatywne poglądy, to najpierw przeczytacie moje uzasadnienie. 

Tak po pierwsze, to znany na świecie jest fakt, że zwyczajnie rzecz biorąc biała skóra od czarnej różni się między innymi tym, że daje mniejszy kontrast na kamerach i zdjęciach. Mniejszy kontrast - trudniejsza robota z ekstrakcją cech i użyciem ich w algorytmie. Po prostu. Kamery są trochę “rasistowskie” pod tym względem. 

Po drugie - AI to strasznie podatny grunt pod trolling. Wpisywanie kilkukrotne pewnych fraz, na których nam zależy i już da nam to efekt, a przesłane grupce znajomych na komunikatorze gwarantowaną bękę ze sztucznej inteligencji. AI nie jest na tyle bystre by zczaić, że Wy sobie żartujecie, czy piszecie serio o tym, że potrzebna Wam jest depilacja pach. To też może być taki przypadek. Systemy polecające to szczególnie dobre do trollowania środowisko - wystarczy przecież do swojego telefonu, np. podczas rozmów kilkakrotnie użyć frazy, bo ja wiem, laserowego golenia pach - bach i nam to wyskoczy. I przecież żaden agent CIA, a tym bardziej CBA, nad tym nie siedział. 

A tak po trzecie - sztuczna inteligencja będzie się jeszcze długo mylić. Pytanie, czy w ogóle będzie w stanie dojść do perfekcji. I czy wtedy wszystkie katastroficzne hollywoodzkie filmy o wojnach robotów z ludźmi nie staną się rzeczywistością. Jeśli tak, to każdy Wasz dzień pracy, drodzy ludzie z IT, nas do tego przybliża. 

Z tą myślą w poniedziałek Was zostawię. Miłego! 

Rozpocznij dyskusję

Lubisz dzielić się wiedzą i chcesz zostać autorem?

Podziel się wiedzą z 160 tysiącami naszych czytelników

Dowiedz się więcej