20 200 – 22 700 PLN
netto /miesiąc
B2BEtat: 100%
Podobne ogłoszenia
Scalo
Warszawa
B2B
Warszawa
Scalo
Warszawa
B2B
Warszawa
ITFS
Warszawa
B2B
Warszawa
Praca hybrydowa
apreel
Zdalnie
B2B
Praca zdalna
apreel
Zdalnie
B2B
Praca zdalna
Scalo
Warszawa
B2B
Warszawa
Lumicode (Grupa Pentacomp)
Zdalnie
B2B
Praca zdalna
apreel
Warszawa
B2B
Warszawa
Oracle Data Integration Specialist (ODI / PL/SQL) @Lumicode (Grupa Pentacomp)
Oracle Data Integration Specialist (ODI / PL/SQL)
Lumicode (Grupa Pentacomp)
Zdalnie
B2B
Praca zdalna
ConnectPoint
Warszawa
B2B
Warszawa
54/2/2026/10888 Data Engineer
Regular
XP
min. 4 lata doświadczenia
Regular
min. 4 lata doświadczenia
Kogo poszukujemy?
- masz co najmniej 4 lata doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych,
- znasz dobrze narzędzia ETL na GCP (Apache AirFlow, DataFlow, DataProc),
- biegle posługujesz się bazami danych GCP (BigQuery, BigTable, Scylla Cloud) i potrafisz je projektować oraz optymalizować,
- potrafisz pracować z kolejkami danych: Kafka, GCP Pub/Sub,
- masz co najmniej 3 lata doświadczenia jako Developer ETL w środowiskach on‑prem,
- biegle korzystasz z narzędzi ETL on‑prem: Informatica Power Center i NIFI,
- masz ekspercką znajomość baz Oracle, PostgreSQL oraz ScyllaDB,
- bardzo dobrze znasz narzędzie harmonogramujące Automate Now,
- potrafisz wystawiać usługi REST API,
- masz co najmniej 4 lata doświadczenia jako programista Python (data integration & analysis) oraz PySpark,
- dobrze znasz język Rust w kontekście tworzenia narzędzi do wydajnego ładowania danych,
- potrafisz przejąć odpowiedzialność za obszary wymagające wysokiej dostępności i wydajności,
- masz podstawową wiedzę w zakresie programowania mikroserwisów w Javie,
- mile widziana jest znajomość Groovy,
- działasz samodzielnie, kreatywnie i terminowo,• mile widziana jest znajomość GIT, Grafany i Apache JMeter.
Czym będziesz się zajmować?
- udział w projekcie z obszaru integracji oraz przetwarzania danych w środowiskach chmurowych i on‑prem,
- realizacja zadań związanych z budową i rozwojem procesów integracyjnych w GCP oraz on‑prem,
- praca z narzędziami ETL w środowisku GCP: Apache AirFlow, DataFlow, DataProc,
- wykorzystanie baz danych GCP: BigQuery, BigTable oraz Scylla Cloud,
- praca z kolejkami danych: Kafka, GCP Pub/Sub,
- projektowanie, budowa i tuning baz danych w środowiskach on‑prem (Oracle, PostgreSQL, ScyllaDB),
- korzystanie z narzędzi ETL na on‑prem na poziomie zaawansowanym: Informatica Power Center, NIFI,
- praca z narzędziem harmonogramującym Automate Now (Infinity Data),
- tworzenie i wystawianie usług REST API,
- rozwój narzędzi i frameworków w Pythonie oraz PySpark,
- tworzenie narzędzi wspomagających wydajne ładowanie danych w języku Rust,
- odpowiedzialność za obszar wystawiania danych pod usługi działające w wysokim reżimie wydajnościowym (24h),
- praca w środowisku dużych wolumenów danych (~100 TB),
- praca w modelu hybrydowym: 1 dzień w tygodniu w biurze w Warszawie,
- stawka do 135 PLN/h w oparciu o współpracę B2B.
Jakie otrzymasz benefity?
Zdrowie
Pakiet medyczny
Gdzie i jak będziesz pracował?
Centrum 9, Warszawa
Tryb pracy: Elastyczne godziny pracy
Godziny pracy biura: 7-20
Model pracy
Stacjonarnie
Hybrydowo
100% zdalnie
Kim jesteśmy?
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom.
Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.


