Free cookie consent management tool by TermsFeed Generator Blog - Rekrutacja IT vs oszustwa AI – jak skutecznie weryfikować kandydatów w 2026?
Rekrutacja IT

Jak rekrutacja IT walczy z oszustwami AI? Dlaczego odpowiednia weryfikacja kandydatów ma znaczenie.

Bezpieczeństwo zasobów ludzkich to dziś fundament stabilności systemów IT. W dobie generatywnej sztucznej inteligencji, procesy rekrutacyjne muszą ewoluować z prostego „sprawdzania skilli” w stronę zaawansowanej weryfikacji tożsamości.

Rok 2026 postawił przed liderami technologicznymi wyzwanie, którego nie przewidywały klasyczne procedury HR: kandydat po drugiej stronie ekranu może być jedynie cyfrowym awatarem. Dla działów Procurementu i CTO, którzy odpowiadają za bezpieczeństwo danych i budżety projektowe, to ryzyko krytyczne.

Nowa rzeczywistość: Rozmowa z algorytmem w czasie rzeczywistym

Jeszcze niedawno deepfake w rekrutacji był teoretycznym zagrożeniem. Dziś to dokumentowany problem. Zaawansowane modele potrafią w czasie rzeczywistym nakładać wizerunek innej osoby na obraz z kamery, a asystenci głosowi podpowiadają odpowiedzi na pytania techniczne z opóźnieniem niezauważalnym dla rekrutera. W modelu Managed Services czy Outsourcingu IT, gdzie zespoły często pracują w 100% zdalnie dla klientów z całego świata, stawka jest ogromna. Każda nierozpoznana "fałszywa tożsamość" to nie tylko błąd rekrutacyjny, ale przede wszystkim potencjalny wektor ataku na infrastrukturę klienta.

Jak wygląda atak w praktyce?

Schemat jest powtarzalny: solidne, sfabrykowane CV na bazie realnych profili z LinkedIn. Podczas rozmowy wideo kandydat korzysta z filtrów AI lub asystentów, którzy przechwytują dźwięk i generują gotowy kod lub odpowiedzi techniczne na bocznym ekranie. Skutek? Kilka miesięcy po zatrudnieniu okazuje się, że "Senior Developer" nie potrafi wykonać samodzielnie prostego zadania. Firma traci czas i środki, a co najgorsze, traci zaufanie klienta, które buduje się latami.

Budowa tarczy anty-fraudowej, czyli dlaczgo weryfikacja ma znaczenie

W kwestii weryfikacji, kluczowa obserwacja jest następująca: jedno narzędzie nie wystarczy. Skuteczną obroną przed fakeowymi kontami będzie budowa systemu chroniącego, składającego się z kilku etapów.

  1. Na start - weryfikacja dokumentu tożsamości przez zewnętrzne platformy (np. Veriff, Onfido), jeszcze zanim kandydat dotrze do etapu technicznego. To eliminuje część oszustów na wczesnym etapie.
  2. W drugim kroku ważne są video na platformach z wyłączoną możliwością stosowania filtrów tła i AI (m.in. specjalnie skonfigurowany Google Meet z wymuszonym Raw Feed). Kandydat musi pokazać swoje fizyczne otoczenie na początku rozmowy. Jednym z przydatnych narzędzi jest również badanie anomalii wideo w czasie rzeczywistym do automatycznej detekcji artefaktów deepfake podczas połączeń: analiza ruchu oczu, synchronizacji ust, mikroekspresji i spójności oświetlenia twarzy.
  3. Ważnym etapem jest weryfikacja techniczna na podstawie testów live coding w kontrolowanym środowisku, np. CoderPad lub własnych środowisk z pełnym monitoringiem sesji.
  4. Na koniec warto pamiętać o metodach offlineowych. Rozmowy "face to face"  na kluczowych etapach, zwłaszcza dla stanowisk z dostępem do systemów klienta, bezwzględny wymóg spotkania stacjonarnego na etapie finalnym. To co zawsze działa, to referencje z weryfikacją peer-to-peer. Kontaktujemy się bezpośrednio z poprzednimi pracodawcami przez oficjalne kanały firmowe, nie przez adresy e-mail podane przez kandydata. 

Sygnały ostrzegawcze -  lista kontrolna dla rekruterów

Na podstawie analizy przypadków opracowaliśmy listę sygnałów, które powinny uruchomić dodatkową weryfikację:

  • Kandydat konsekwentnie odmawia włączenia kamery lub podaje techniczne preteksty
  • Odpowiedzi na pytania techniczne są zadziwiająco płynne, bez naturalnych pauz na myślenie
  • Ruchy oczu kandydata sugerują czytanie z bocznego ekranu (wzrok przesuwa się regularnie w lewo lub prawo)
  • Profil LinkedIn jest stosunkowo nowy lub ma nieproporcjonalnie małą sieć kontaktów do deklarowanego doświadczenia
  • Kandydat nie potrafi rozwinąć odpowiedzi technicznej, gdy zadamy pytanie uzupełniające bez uprzedzenia
  • Artefakty wideo: nienaturalne rozmycie krawędzi twarzy, synchronizacja ust lekko opóźniona wobec dźwięku
  • Niemożność weryfikacji referencji przez oficjalne kanały poprzedniego pracodawcy
  • Kandydat prosi o wyłączenie funkcji nagrywania sesji technicznej

Paradoks 2026: Powrót do fizyczności

Im bardziej zaawansowane stają się narzędzia cyfrowe, tym większą wartość zyskują spotkania twarzą w twarz. W przypadku kluczowych ról dla naszych klientów, rekomendujemy (i sami wdrażamy) hybrydowy model weryfikacji: od cyfrowego screeningu po stacjonarne spotkanie finalne lub wizytę w biurze w celu podpisania dokumentacji i fizycznej weryfikacji tożsamości.

Co to oznacza dla rynku IT?

Dla firm outsourcingowych i agencji rekrutacyjnych bezpieczeństwo staje się nowym wyróżnikiem jakości. Procurement nie kupuje już tylko "dostępu do talentów", ale przede wszystkim pewność i gwarancję tożsamości. Firmy, które jako pierwsze ustandaryzują procedury anty-deepfake, zyskają największy kapitał: zaufanie. Zarówno u klientów szukających bezpiecznych partnerów, jak i u prawdziwych ekspertów IT, którzy cenią transparentność i wysokie standardy pracy.

Czy Twój proces rekrutacyjny jest odporny na zagrożenia AI? Chętnie podzielimy się naszym doświadczeniem w budowaniu bezpiecznych zespołów IT: zarówno w modelu outsourcingowym, jak i przy rekrutacjach stałych. Kontakt do nas, znajdziesz TUTAJ

Image Image
Marta Kurek
Image Image