
Od 2021 roku zrobiłem tyle benchmarków, że nie potrafię ich zliczyć. Niemal od samego początku zerkałem w stronę job boardów, analizowałem raporty płacowe w IT i zastanawiałem się, jak wykorzystać te dane.
I tak zaraz po zakończonej rozmowie z kandydatem, często pieczołowicie wklepywałem dane do tabelki. Wkrótce wszystko miało się zmienić - pracę jako rekruter na zewnętrznym projekcie zastąpiła analiza danych dla Bee Talents. Zacząłem od rekrutacyjnych, wkrótce dołączyły do nich sprzedażowe i finansowe, a na końcu wyznaczanie i kontrolowanie mierników. Przeszedłem to wszystko.
Nie było już tygodnia, w którym nie dostałbym od zespołu zapytania: “czy te widełki na rolę X są dobre?”.Inicjatywa wychodziła jednak przeważnie od naszych partnerów, którzy nie byli pewni, czy oferowane przez nich widełki płacowe są adekwatne do realiów rynkowych. A tym samym - czy kandydaci w ogóle będą zainteresowani ofertą pracy. Z jednego, mało znaczącego obowiązku, benchmarking miał wkrótce stać się jednym z głównych zadań, które realizowałem.
Sęk w tym, że to zawsze miał być tylko dodatek - coś, co robię na boku, a nie mój główny obowiązek. Dlatego z czasem zacząłem myśleć nad sposobami automatyzacji i przyspieszenia benchmarkingu. Każdy z nich opisuję poniżej - razem z ich zaletami i wadami.
1. Widełkobot
W Bee Talents wykorzystujemy Widełkobota (tak pieszczotliwie nazywamy tego asystenta) już od dawna. Pomaga nam w działaniach sprzedażowych, ale też w codziennej pracy rekruterów. To najszybsza metoda określenia, czy widełki płacowe wpisują się w to, co aktualnie dzieje się na rynku. Asystent ten ewoluował razem z modelami GPT - zaczynał jako wyszukiwarka i narzędzie do data scrapingu. Prezentowałem jego możliwości na jednym z webinarów, gdzie postanowił się zbuntować i pokazać, że zarówno przede mną, jak i przed OpenAI jeszcze dużo pracy.
Z czasem zrozumiałem, że im więcej funkcji naraz ma pełnić ten asystent, tym gorzej radzi sobie z każdą z nich z osobna. Zupełnie jak scyzoryk - niby wszystko zrobi, ale pełnoprawne narzędzia robią to zdecydowanie lepiej. Z długich, skomplikowanych promptów, zacząłem robić proste, krótkie i precyzyjne. W ten sposób sama instrukcja ma mniej tokenów i wszystko dzieje się szybciej.
Obecnie asystent skupia się na danych, któresą w zawarte w ogólnodostępnych raportach płacowych. I nie, nie popieram plagiatu i kradzieży własności intelektualnej, dlatego uzyskałem zgodę twórców na wykorzystanie ich w tworzeniu tego asystenta oraz udostępnienie go Wam.
Oto przykład tego, co potrafi moje dzieło:

Plusy:
- najszybszy sposób na sprawdzenie widełek (trwa kilka sekund),
- nie wymaga własnej pracy i znajomości statystyki,
- opiera się na profesjonalnych raportach wynagrodzeń.
Minusy:
- dotyczy głównie ról IT,
- działa tylko w przypadku typowych ról.
Obiecałem się podzielić swoim botem, dlatego po wypełnieniu poniższego formularza otrzymasz dostęp do widełkobota na podany adres e-mail.
Bot oparty na generatywnym AI będzie dawał tak dobre odpowiedzi, jak dobre są prompty i dane wejściowe. Oznacza to tyle, że zazwyczaj dostarczy tylko to, o co prosimy i nic więcej. Dla pogłębionej oceny sytuacji na rynku polecam zajrzeć do raportów, które podlinkowałem na koniec tego wpisu.
Dodatkowo - raporty wynagrodzeń nie zawsze odpowiedzą na wszystkie pytania. Pokazują przede wszystkim miary tendencji centralnych, czyli średnią lub medianę, a pomijają wyniki jednostkowe. Zupełnie nie radzą sobie w przypadku niestandardowych ról, które trudno opisać jedną technologią.
2. Data scraping za pomocą wtyczki do przeglądarki
Przy tym punkcie tak naprawdę cofamy się w czasie. Generatywne AI jest jeszcze w powijakach - a przynajmniej dla nas, konsumentów, jest poza zasięgiem. Robię te benchmarki poprzez ręczne wpisywanie kwot do Google Sheets. Mam sprawne palce, klawiaturę z numpadem, a mimo to zajmuje to ogrom czasu i budzi mój sprzeciw. Bo nie na tym ma polegać moja praca! W poszukiwaniu wybawienia zaczynam spoglądać w stronę Githuba i aplikacji do data scrapingu.
Okazuje się, że to za trudne i czasochłonne dla żółtodzioba. Tutaj do pomocy przychodzi wtyczka Instant Data Scraper. Wystarczy ją zainstalować, wejść na wybrany przez nas agregat ofert pracy, wpisać wymagane kryteria i skopiować dane. Po odpowiedniej obróbce mamy informacje na temat wynagrodzeń. Przed użyciem tego narzędzia polecam zapoznać się z regulaminem strony, z której dane pobieramy - warto upewnić się, że nie naruszamy zasad poprzez scrapowanie danych.
Plusy:
- dane dopasowane dokładnie do naszych filtrów,
- pełna kontrola nad tym, co wchodzi w skład analizy.
Minusy:
- dane wymagają naszej obróbki,
- daje nam wgląd jedynie w snapshot ofert - czyli stan ofert na moment pobierania.
Metoda dostarczy nam znacznie bardziej szczegółowych danych niż agent AI. Ceną jest wyższy próg wejścia niż wpisanie prostego promptu i konieczność własnoręcznej agregacji i analizy danych.
3. Aplikacja do zbierania wynagrodzeń
Od samego początku benchmarków marzyłem o tym, aby stworzyć własną aplikację do agregowania wynagrodzeń w IT. Zasada działania jest bardzo prosta - raz na jakiś czas pobiera aktualne ogłoszenia z job boardów, wybiera z nich wymagane informacje i wrzuca je do bazy danych. Tam skrypt sprawdza, czy to nie duplikat i usuwa powtarzające się ogłoszenia. Dzięki informacjom dotyczącym technologii, nazwy roli i firmy, aplikacja miałaby pozwolić na łatwe sortowanie i filtrowanie informacji.
Brzmi pięknie. No to teraz - rozrysujmy to:

Wszystkich programistów z góry przepraszam za tak ogromne uproszczenie. Schemat ten ma zademonstrować, że stworzenie takiej aplikacji wymaga czasu, pomysłu i umiejętności. Mam jeden z trzech wymaganych składników.
I tak, zdaję sobie sprawę, że podrzucanie takiego pomysłu w ramach posta na stronie agencji rekrutacyjnej może wydawać się nietrafione. Na swoją obronę napiszę, że post ten pokazuje moje eksperymenty związane z benchmarkingiem i specyfikę mojej pracy w ogóle - jest tutaj dużo niepewności oraz testów, które ostatecznie pozwalają na wypracowanie najlepszych rozwiązań. Na kilkanaście pomysłów tylko jeden okaże się trafiony - i muszę z tym żyć.
Plusy:
- ogromna baza danych już po kilku miesiącach,
- najdokładniejsza analiza wynagrodzeń,
- granularne filtry, które pozwalają na bardzo dokładne dopasowanie analizy.
Minusy:
- duży koszt stworzenia i utrzymania aplikacji,
- wymaga umiejętności i wiedzy,
- wyniki dostępne dopiero po stworzeniu MVP.
Stworzenie własnej aplikacji to inwestycja długoterminowa. Gdybym zaczynał swoją przygodę z analizą danych dzisiaj - prawdopodobnie z pomocą AI stworzyłbym aplikację, która mogłaby to wszystko zrobić. Znacznie poszerzyłem zakres swoich umiejętności, ale zmieniłem też optykę - patrzę znacznie szerzej.
Podsumowanie
Każda z powyższych możliwości ma swoje wady i zalety oraz jest przeznaczona do czegoś innego. Najszybsza, ale jednocześnie ograniczona do IT metoda, to skorzystanie z naszego asystenta GPT - Widełkobota. Kompromisem między szybkością a dokładnością będzie użycie wtyczki do Data Scrapingu. Najdokładniejszą, ale też najbardziej czasochłonną metodą, jest zbudowanie własnej aplikacji do zbierania danych z job boardów.
Osobiście polecam metodę 2 z użyciem wtyczki Instant Data Scraper. Przy niewielkim progu wejścia i wysiłku, daje naprawdę sporo możliwości. Mimo tego, że era benchmarkingu już dawno za mną, nadal na co dzień korzystam z tej wtyczki.
Na zakończenie polecam zapoznać się z tymi źródłami:
Kłaniam się też autorom_kom raportów i dziękuję za możliwość ich wykorzystania! A jeżeli macie jakieś pytania po przeczytaniu tego wpisu, to śmiało piszcie do mnie na LinkedInie.