Sytuacja kobiet w IT w 2024 roku
8.10.20213 min
Justyna Szatan

Justyna SzatanRedakcja Bulldogjob

Publiczne systemy rozpoznawania twarzy to zło?

Według parlamentarzystów rozpoznawanie twarzy w przestrzeni publicznej powinno zostać ograniczone.

Publiczne systemy rozpoznawania twarzy to zło?

Zastanawialiście się, jaki wpływ na nasze życie ma AI? Mamy inteligentne telefony, lodówki, a nawet suszarki do włosów. Coraz więcej urządzeń możemy obsługiwać za pośrednictwem swojego telefonu. A gdyby tak spojrzeć na to szerzej?

Wkładamy rękę w mrowisko

Technologia cały czas się rozwija. Już dziś nasze życie jest monitorowane przez różne maszyny i zbierane w wielkich klastrach danych. Już teraz służą behawiorystom do oceny zachowania człowieka, a w przyszłości być może będą samodzielnie podejmować działania prewencyjne wobec ludzi, którzy mogą powodować zagrożenie. 


A co jeśli scenariusze filmów sci-fi z motywem sztucznej inteligencji mają ziarenko prawdy? Czy z czasem maszyny przejmą kontrolę nad życiem ludzi? Czy będą kierować społeczeństwem jak w serialu Netflixa “Nowy wspaniały świat”? A co, jeśli niebawem staniemy się ofiarami dyskryminacji przez sztuczną inteligencję? 

Do takich refleksji zachęcił mnie Parlament Europejski i przyjęta wynikiem 377 głosów rezolucja dotycząca wykorzystania sztucznej inteligencji i wynikających z tego konsekwencji prawnych.

AI w służbie społeczeństwa

Sztuczna inteligencja rośnie w siłę i oferuje kilka rozwiązań wpisujących się w koncepcję “Smart Cities”. Wiele operacji koordynowanych przez AI może być korzystnych dla obywatela. Maszyny już teraz wspomagają człowieka w zarządzaniu ruchem ulicznym (np. w Barcelonie czy Londynie), odpowiadają za monitorowanie danych meteorologicznych czy czujników pożarowych.

Również pomysły na zaprzęgnięcie technologii do słusznych celów znalazły też służby państwowe i organy ścigania. Teraz na świecie AI jest wykorzystywana do takich procedur bezpieczeństwa, jak np.:

  • rozpoznawanie twarzy poszukiwanych przestępców, 
  • monitorowanie i zgłaszanie wykrycie przestępstw dokonywanych w mieście typu napaści, włamania czy kradzieże aut,
  • identyfikacja zdalna za pomocą danych biometrycznych osób,
  • wykrywacz kłamstw pasażerów (projekt iBorderCtrl), którzy chcą przejść przez bramkę kontroli granicznej.


Sama świadomość, że jesteśmy obserwowani i możemy ponieść konsekwencję swoich czynów, zwiększa racjonalność naszych działań, przynajmniej w kontekście bezpieczeństwa - co potwierdza zjawisko fotoradaru. Jednocześnie czy sztuczna inteligencja, chcąc nas “chronić”, nie przekroczy subtelnych granic?

Z wielką mocą wiąże się wielka odpowiedzialność

Jak mawiał wujek pewnego znanego pajączka - z taką potęgą, trzeba umieć się odpowiednio obchodzić. Naukowcy mają już 50% pewności, że w ciągu 50 najbliższych lat sztuczna Inteligencja przerośnie człowieka na wszystkich płaszczyznach. Natomiast za 120 lat prawdopodobnie maszyny zastąpią ludzi przy pracy na wszystkich dotychczasowych stanowiskach.

Czy wiedziałeś, że w Chinach w latach 2014-2020 prowadzono projekt oceniający zachowanie obywateli? Bazował na algorytmach zbierających dane z internetu, kamer ulicznych i sklepowych. Na ich podstawie sztuczna inteligencja określała zachowanie człowieka i przyznawała mu punkty. 

Człowiek z punktami na plusie w świetle projektu był przykładnym obywatelem, dlatego w ramach nagrody miał większe szanse na dostanie się na lepszą uczelnię i inne przywileje. Jeśli natomiast algorytm uznał, że dane zachowanie nie było godne pochwały - otrzymywał nauczkę. 

Kary były różne, od zmniejszenia prędkości internetu, przez zakaz zakupienia biletu na pociąg po odebranie pupila domowego w skrajnych przypadkach. Również w Chinach realizują projekt inwigilujący mniejszość etniczną Ujgurów, w ramach którego sztuczna inteligencja bada emocje, oceniając mimikę twarzy. 

Obecnie systemy te nie są (jeszcze) doskonałe, ponieważ błędnie identyfikują np. mniejszości etniczne, osoby LGBT, seniorów i kobiety. W takich przypadkach podciąganie ludzi do odpowiedzialności prawnej na podstawie wadliwych algorytmów wzbudza niepokój. 

Również przechowywanie danych w bazach prywatnych budzi wiele kontrowersji, ponieważ nie wiadomo, w jakim celu kiedyś zostaną użyte. Tak samo zgodnie z logiką prawniczą, aby kogoś obserwować/inwigilować powinna być ku temu jakaś przesłanka jak np. podejrzenie o popełnieniu przestępstwa. Takich wątpliwości natury moralnej uderzającej w wolność i godność szarego człowieka zaczyna się mnożyć.

O co postuluje parlament europejski?

Według parlamentarzystów to ludzie powinni nadzorować systemy AI. Każdy obywatel ma mieć do nich dostęp, zatem oczekują uwolnienia ich w formie open source. Kolejnym postulatem jest ograniczenie wykorzystania mechanizmu rozpoznawania twarzy (podrzucamy nasz artykuł dotyczący rozpoznawania twarzy w Pythonie) również przez policję (np. behawiorystów). Pod wątpliwość poddali również wykorzystanie modelu używanego na przejściach granicznych z oceną kłamstw i rozpoznawaniem twarzy.

Wejdź w buty adwokata diabła (albo szatana ?)

Czy oddanie swojej prywatności w szczytnym celu jest w porządku, czy może już teraz nieco się zagalopowaliśmy? Jestem piekielnie ciekawa (z racji nazwiska ?) Twojej opinii. Choose your side!

<p>Loading...</p>