Przejdź do treści oferty
Data ScienceNOWE

Data Engineer

ITFS
Warszawa
100% zdalnie
Regular
min. 5 lat
Pełen etat
B2B
Dodane wczoraj
Wynagrodzenie Jawne widełki
25 200–28 600PLN
netto / miesiąc·B2B
Pokaż szczegóły wynagrodzenia
Wynagrodzenie przeliczone z:
150 – 170 PLN/h
Duży ZUS:
Dziennie: ~854 – 977 PLN
Miesięcznie: ~17 928 – 20 522 PLN
Rocznie: ~215 134 – 246 267 PLN
Mały ZUS:
Dziennie: ~907 – 1 031 PLN
Miesięcznie: ~19 054 – 21 642 PLN
Rocznie: ~228 652 – 259 701 PLN
Zobacz w kalkulatorze wynagrodzeń
Oferta zweryfikowana · jawne widełki

01 Zakres zadań

Charakterystyka oferty:

  • Miejsce pracy: praca zdalna
  • Start: Czerwiec 2026
  • Wynagrodzenie: 150-170zł netto/h + VAT
  • Proces rekrutacyjny: Krótka rozmowa telefoniczna z ITFS ➡ rozmowa miękko-techniczna z klientem ➡ Decyzja

Oferujemy:

  • Przejrzyste warunki współpracy w firmie o pewnej i stabilnej pozycji rynkowej
  • Możliwość skorzystania z dodatkowych benefitów (pakiet medyczny, sportowy, darmowa opieka księgowa - do 3 wpisów miesięcznie)

Obowiązki na stanowisku:

  • Budowa oraz rozwój rozproszonych pipeline’ów Big Data do przetwarzania dużych wolumenów danych (zarówno ustrukturyzowanych, jak i nieustrukturyzowanych) w czasie zbliżonym do rzeczywistego
  • Rozwój i utrzymanie procesów przetwarzania danych z wykorzystaniem Spark oraz Scala
  • Tworzenie i rozwój przepływów danych wspierających procesy decyzyjne i produkty danych
  • Utrzymanie oraz rozwój rozwiązań opartych o Hadoop i platformy Big Data
  • Automatyzacja procesów oraz dbanie o ich powtarzalność i niezawodność
  • Współpraca z zespołami technicznymi w zakresie dostarczania i utrzymania rozwiązań data engineeringowych

02 Wymagania

5 must-have · 3 języki

Must-have

Scala
Zaawansowany
Python
Zaawansowany
Hive
Zaawansowany
oozie
Zaawansowany
SQL
Zaawansowany

Wymagane języki

Polski
Zaawansowany
Angielski
Zaawansowany
Hiszpański
Zaawansowany

03 Profil kandydata

Wymagania:

  • Minimum 5 lat doświadczenia komercyjnego w obszarze Data Engineering lub Big Data
  • Bardzo dobra znajomość Spark oraz Scala wykorzystywanych do przetwarzania dużych wolumenów danych
  • Zaawansowana znajomość Python wykorzystywanego do budowy i utrzymania pipeline’ów danych
  • Swobodne poruszanie się w środowisku Linux
  • Doświadczenie w pracy z rozproszonymi systemami przetwarzania danych oraz platformami Big Data
  • Praktyczna znajomość ekosystemu Hadoop, w tym Hive, Oozie oraz MapReduce
  • Bardzo dobra znajomość SQL i pracy z bazami danych
  • Umiejętność projektowania, tworzenia i rozwijania przepływów danych
  • Bardzo dobra znajomość systemów kontroli wersji Git oraz Bitbucket
  • Doświadczenie w zakresie testów jednostkowych (JUnit 5, Mockito, testowanie Spark)
  • Umiejętność pracy w środowisku wymagającym wysokiej jakości kodu i automatyzacji procesów
  • Znajomość języka angielskiego na poziomie umożliwiającym swobodną komunikację (min. B2+)

Mile widziane:

  • Znajomość strategii wersjonowania kodu oraz branchingu
  • Doświadczenie w pracy w środowisku Agile/SAFe
  • Znajomość zagadnień związanych z Continuous Delivery w środowiskach Big Data
  • Dodatkowe doświadczenie w pracy z Java w połączeniu ze Spark i Python

04 Benefity

Pakiet medyczny
Pakiet sportowy

05 O firmie

ITFS
300 · Warszawa
ITFS jest firmą consultingową z Trójmiasta, posiadającą także oddział w Warszawie. Zajmujemy się przede wszystkim rekrutacją specjalistów IT i tworzeniem projektowych Software House dla naszych Klientów z Polski oraz Europy Zachodniej.

06 Lokalizacja

Al. Jerozolimskie, Warszawa
Tryb pracy:
Elastyczne godziny pracy
Godziny pracy biura: 8-18
Model pracy
Stacjonarnie
Hybrydowo
100% zdalnie