Data Engineer
20200-22700 PLN miesięcznie (B2B)
Scalo
Czym będziesz się zajmować?
- udział w projekcie z obszaru integracji oraz przetwarzania danych w środowiskach chmurowych i on‑prem,
- realizacja zadań związanych z budową i rozwojem procesów integracyjnych w GCP oraz on‑prem,
- praca z narzędziami ETL w środowisku GCP: Apache AirFlow, DataFlow, DataProc,
- wykorzystanie baz danych GCP: BigQuery, BigTable oraz Scylla Cloud,
- praca z kolejkami danych: Kafka, GCP Pub/Sub,
- projektowanie, budowa i tuning baz danych w środowiskach on‑prem (Oracle, PostgreSQL, ScyllaDB),
- korzystanie z narzędzi ETL na on‑prem na poziomie zaawansowanym: Informatica Power Center, NIFI,
- praca z narzędziem harmonogramującym Automate Now (Infinity Data),
- tworzenie i wystawianie usług REST API,
- rozwój narzędzi i frameworków w Pythonie oraz PySpark,
- tworzenie narzędzi wspomagających wydajne ładowanie danych w języku Rust,
- odpowiedzialność za obszar wystawiania danych pod usługi działające w wysokim reżimie wydajnościowym (24h),
- praca w środowisku dużych wolumenów danych (~100 TB),
- praca w modelu hybrydowym: 1 dzień w tygodniu w biurze w Warszawie,
- stawka do 135 PLN/h w oparciu o współpracę B2B.
Kogo poszukujemy?
- masz co najmniej 4 lata doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych,
- znasz dobrze narzędzia ETL na GCP (Apache AirFlow, DataFlow, DataProc),
- biegle posługujesz się bazami danych GCP (BigQuery, BigTable, Scylla Cloud) i potrafisz je projektować oraz optymalizować,
- potrafisz pracować z kolejkami danych: Kafka, GCP Pub/Sub,
- masz co najmniej 3 lata doświadczenia jako Developer ETL w środowiskach on‑prem,
- biegle korzystasz z narzędzi ETL on‑prem: Informatica Power Center i NIFI,
- masz ekspercką znajomość baz Oracle, PostgreSQL oraz ScyllaDB,
- bardzo dobrze znasz narzędzie harmonogramujące Automate Now,
- potrafisz wystawiać usługi REST API,
- masz co najmniej 4 lata doświadczenia jako programista Python (data integration & analysis) oraz PySpark,
- dobrze znasz język Rust w kontekście tworzenia narzędzi do wydajnego ładowania danych,
- potrafisz przejąć odpowiedzialność za obszary wymagające wysokiej dostępności i wydajności,
- masz podstawową wiedzę w zakresie programowania mikroserwisów w Javie,
- mile widziana jest znajomość Groovy,
- działasz samodzielnie, kreatywnie i terminowo,• mile widziana jest znajomość GIT, Grafany i Apache JMeter.
Czego wymagamy?
Znajomości:
Języki:
- Polski
- Angielski
Jakie warunki i benefity otrzymasz?
- 120-135 PLN godzinowo (B2B)
- B2B - Elastyczne godziny pracy (100%)
- Praca zdalna: Hybrydowo
- Pakiet medyczny
Gdzie będziesz pracował?
Centrum 9, Warszawa lub hybrydowo
Kim jesteśmy?
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.