Jak rekrutacja IT walczy z oszustwami AI? Dlaczego odpowiednia weryfikacja kandydatów ma znaczenie.
Bezpieczeństwo zasobów ludzkich to dziś fundament stabilności systemów IT. W dobie generatywnej sztucznej inteligencji, procesy rekrutacyjne muszą ewoluować z prostego „sprawdzania skilli” w stronę zaawansowanej weryfikacji tożsamości.
Rok 2026 postawił przed liderami technologicznymi wyzwanie, którego nie przewidywały klasyczne procedury HR: kandydat po drugiej stronie ekranu może być jedynie cyfrowym awatarem. Dla działów Procurementu i CTO, którzy odpowiadają za bezpieczeństwo danych i budżety projektowe, to ryzyko krytyczne.
Nowa rzeczywistość: Rozmowa z algorytmem w czasie rzeczywistym
Jeszcze niedawno deepfake w rekrutacji był teoretycznym zagrożeniem. Dziś to dokumentowany problem. Zaawansowane modele potrafią w czasie rzeczywistym nakładać wizerunek innej osoby na obraz z kamery, a asystenci głosowi podpowiadają odpowiedzi na pytania techniczne z opóźnieniem niezauważalnym dla rekrutera. W modelu Managed Services czy Outsourcingu IT, gdzie zespoły często pracują w 100% zdalnie dla klientów z całego świata, stawka jest ogromna. Każda nierozpoznana "fałszywa tożsamość" to nie tylko błąd rekrutacyjny, ale przede wszystkim potencjalny wektor ataku na infrastrukturę klienta.
Jak wygląda atak w praktyce?
Schemat jest powtarzalny: solidne, sfabrykowane CV na bazie realnych profili z LinkedIn. Podczas rozmowy wideo kandydat korzysta z filtrów AI lub asystentów, którzy przechwytują dźwięk i generują gotowy kod lub odpowiedzi techniczne na bocznym ekranie. Skutek? Kilka miesięcy po zatrudnieniu okazuje się, że "Senior Developer" nie potrafi wykonać samodzielnie prostego zadania. Firma traci czas i środki, a co najgorsze, traci zaufanie klienta, które buduje się latami.
Budowa tarczy anty-fraudowej, czyli dlaczgo weryfikacja ma znaczenie
W kwestii weryfikacji, kluczowa obserwacja jest następująca: jedno narzędzie nie wystarczy. Skuteczną obroną przed fakeowymi kontami będzie budowa systemu chroniącego, składającego się z kilku etapów.
- Na start - weryfikacja dokumentu tożsamości przez zewnętrzne platformy (np. Veriff, Onfido), jeszcze zanim kandydat dotrze do etapu technicznego. To eliminuje część oszustów na wczesnym etapie.
- W drugim kroku ważne są video na platformach z wyłączoną możliwością stosowania filtrów tła i AI (m.in. specjalnie skonfigurowany Google Meet z wymuszonym Raw Feed). Kandydat musi pokazać swoje fizyczne otoczenie na początku rozmowy. Jednym z przydatnych narzędzi jest również badanie anomalii wideo w czasie rzeczywistym do automatycznej detekcji artefaktów deepfake podczas połączeń: analiza ruchu oczu, synchronizacji ust, mikroekspresji i spójności oświetlenia twarzy.
- Ważnym etapem jest weryfikacja techniczna na podstawie testów live coding w kontrolowanym środowisku, np. CoderPad lub własnych środowisk z pełnym monitoringiem sesji.
- Na koniec warto pamiętać o metodach offlineowych. Rozmowy "face to face" na kluczowych etapach, zwłaszcza dla stanowisk z dostępem do systemów klienta, bezwzględny wymóg spotkania stacjonarnego na etapie finalnym. To co zawsze działa, to referencje z weryfikacją peer-to-peer. Kontaktujemy się bezpośrednio z poprzednimi pracodawcami przez oficjalne kanały firmowe, nie przez adresy e-mail podane przez kandydata.
Sygnały ostrzegawcze - lista kontrolna dla rekruterów
Na podstawie analizy przypadków opracowaliśmy listę sygnałów, które powinny uruchomić dodatkową weryfikację:
- Kandydat konsekwentnie odmawia włączenia kamery lub podaje techniczne preteksty
- Odpowiedzi na pytania techniczne są zadziwiająco płynne, bez naturalnych pauz na myślenie
- Ruchy oczu kandydata sugerują czytanie z bocznego ekranu (wzrok przesuwa się regularnie w lewo lub prawo)
- Profil LinkedIn jest stosunkowo nowy lub ma nieproporcjonalnie małą sieć kontaktów do deklarowanego doświadczenia
- Kandydat nie potrafi rozwinąć odpowiedzi technicznej, gdy zadamy pytanie uzupełniające bez uprzedzenia
- Artefakty wideo: nienaturalne rozmycie krawędzi twarzy, synchronizacja ust lekko opóźniona wobec dźwięku
- Niemożność weryfikacji referencji przez oficjalne kanały poprzedniego pracodawcy
- Kandydat prosi o wyłączenie funkcji nagrywania sesji technicznej
Paradoks 2026: Powrót do fizyczności
Im bardziej zaawansowane stają się narzędzia cyfrowe, tym większą wartość zyskują spotkania twarzą w twarz. W przypadku kluczowych ról dla naszych klientów, rekomendujemy (i sami wdrażamy) hybrydowy model weryfikacji: od cyfrowego screeningu po stacjonarne spotkanie finalne lub wizytę w biurze w celu podpisania dokumentacji i fizycznej weryfikacji tożsamości.
Co to oznacza dla rynku IT?
Dla firm outsourcingowych i agencji rekrutacyjnych bezpieczeństwo staje się nowym wyróżnikiem jakości. Procurement nie kupuje już tylko "dostępu do talentów", ale przede wszystkim pewność i gwarancję tożsamości. Firmy, które jako pierwsze ustandaryzują procedury anty-deepfake, zyskają największy kapitał: zaufanie. Zarówno u klientów szukających bezpiecznych partnerów, jak i u prawdziwych ekspertów IT, którzy cenią transparentność i wysokie standardy pracy.
Czy Twój proces rekrutacyjny jest odporny na zagrożenia AI? Chętnie podzielimy się naszym doświadczeniem w budowaniu bezpiecznych zespołów IT: zarówno w modelu outsourcingowym, jak i przy rekrutacjach stałych. Kontakt do nas, znajdziesz TUTAJ.
Więcej powiązanych postów
Nearshoring vs. Offshoring w 2026 roku
Strategia zamiast faktury: Jak dobrać model rozliczeń IT, który napędza biznes?
Ukryta inflacja talentu: Ile kosztuje praca Senior Java Developera w 2026 roku, gdy „pensja” to tylko wierzchołek góry lodowej?