Deepfake igra z HR w IT
Temat sztucznej inteligencji przewija się prawie codziennie w branżowych portalach. Z dnia na dzień zasób danych, na podstawie których powstają kolejne algorytmy rośnie. Do tych metod przekonują się kolejne branże i HR nie jest tutaj wyjątkiem.
Zamiast jednak pisać peany w temacie asystentów rekrutacji czy botów na stronach, wspierające potencjalnego kandydata, pozwolę sobie zwrócić Waszą uwagę na deepfake i znaczny problem FBI oraz HR z nieistniejącymi pracownikami. W perspektywie czasu i rozwoju technologii może to stworzyć poważne problemy, jak bezpieczeństwo danych firmy, czy wręcz jej klientów.
Wyobraźcie sobie, że w firmie prowadzona jest rekrutacja na jakieś stanowisko IT, rekruter umawia się na rozmowę zdalną z kandydatem i ostatecznie chce go zatrudnić. Wszystkie warunki klepnięte, więc czas nadać świeżakowi dostępy do niezbędnych narzędzi w firmie i jej zasobów zasobów.
Nagle zauważacie w firmie, że ktoś szperał w Waszym klienckim koszyczku. Ktoś przepatrzył Wasze statystyki lub co gorsza — pożarł/wyrzucił dane klientów, czy podprowadził Wasz autorski produkt. Okazuje się, że oszuści znaleźli nowy sposób na przekręt, wykorzystując kradzież tożsamości i danych kluczowych klientów dzięki AI.
Jak do tego doszło?
To tylko moja hipoteza, ale brzmi całkiem prawdopodobnie.
Gość o sporej wiedzy technicznej i wątpliwej moralności oglądał sobie dla relaksu filmiki na YT. Wśród nich trafił na takie, które wykorzystywały technologię deepfake do celów rozrywkowych np. poważny naukowiec śpiewający baby shark itd.
Wtem doznaje lśnienia — przypomina sobie jak łatwo w dzisiejszych czasach ukraść komuś tożsamość lub również za pomocą algorytmów sztucznej inteligencji stworzyć od zera człowieka. A dzięki pandemii masa rozmów kwalifikacyjnych jest prowadzona online. Muahahah 😈 -> w tym miejscu słyszycie demoniczny śmiech złoczyńcy.
Tak było — nie zmyślam
Na szczęście technologia deepfake nie jest jeszcze tak dopracowana i na rozmowie online da się wychwycić ten brak synchronizacji. Należy jednak pamiętać, że to czasowe problemy, które niebawem znikną.
Tak serio to dotychczas genialni żartownisie ubiegający się zdalnie o stanowiska IT w Ameryce nie zdradzili (jeszcze) swoich zamiarów. Natomiast FBI podejrzewa, że z czasem ich ofiarą padną dane firmy i jej klientów.
Deepfake dopiero się rozkręca
Już teraz takie materiały potrafią narobić zamieszania. Za przykłady niech posłużą, chociażby oświadczenia Zełenskiego o kapitulacji Ukrainy, czy ostatnie dyskusje z fałszywym Witalijem Kliczko. Dezinformacja wraz z rozwojem technologii zyskuje kolejne narzędzia.
Tylko przypomnę, że na co dzień jesteśmy przebodźcowani ilością komunikatów z sieci. Zarobieni nadmiarem obowiązków, łatwo nas rozproszych na chwilę z najróżniejszych powodów.
Sama przez spotkaniozę z czasów pandemii nauczyłam się robić mniejsze zadania w trakcie takim zdzwonek, więc teoretycznie nawet teraz oglądając nagranie takiej rozmowy mogłabym nie wyłapać tych oczywistych różnic.
FBI przestrzegało już w 2019 r.
Oficjalna przestroga przed niecnym wykorzystaniem technologii przewidzieli już w 2019 r. z komunikatem:
"The use of the technology to harass or harm private individuals who do not command public attention and cannot command resources necessary to refute falsehoods should be concerning."
Pewnie niebawem będę miała jeszcze okazję szerzej o tym napisać bazując już na konkretnych przykładach i pokaźnych stratach firm, które łyknęły przynętę. Tymczasem zapraszam do poczytania na Readme o sztucznej inteligencji, która samodzielnie debuguje własny kod i o wielu innych ciekawych newsach.
Co Ty myślisz o zagrożeniu takiego deepfake? Jak szacujesz — kiedy naprawdę będziemy musieli na to uważać?