20 200 – 22 700 PLN
netto /miesiąc
B2BEtat: 100%
Oceń tę ofertę
Scalo
Warszawa
20.2k–25.2k PLN
B2B
#PostgreSQL#ETL#Informatica#Kafka#Linux#Python#GCP
Scalo
Warszawa
23.5k–26.9k PLN
B2B
#Python#GCP#ETL#Kafka#CI/CD#Spark
ITFS
Warszawa
23.5k–28.6k PLN
B2B
#ETL#Data warehouse#Kubernetes#Oracle DB#PostgreSQL#Python#SQL#Databases#Rust

Podobne ogłoszenia

Scalo
Scalo
Warszawa
20.2k–25.2k PLN
B2B
#PostgreSQL#ETL#Informatica#Kafka#Linux#Python#GCP
Data Science#PostgreSQL#ETL#Informatica#Kafka#Linux#Python#GCP
20.2k–25.2k PLN
Warszawa
Scalo
Scalo
Warszawa
23.5k–26.9k PLN
B2B
#Python#GCP#ETL#Kafka#CI/CD#Spark
Data Science#Python#GCP#ETL#Kafka#CI/CD#Spark
23.5k–26.9k PLN
Warszawa
ITFS
ITFS
Warszawa
23.5k–28.6k PLN
B2B
#ETL#Data warehouse#Kubernetes#Oracle DB#PostgreSQL#Python#SQL#Databases#Rust
Data Science#ETL#Data warehouse#Kubernetes#Oracle DB#PostgreSQL#Python#SQL#Databases#Rust
23.5k–28.6k PLN
Warszawa
Praca hybrydowa
apreel
apreel
Zdalnie
20.2k–25.2k PLN
B2B
#BigQuery#Spark#Scala#Python#GCP
Data Science#BigQuery#Spark#Scala#Python#GCP
20.2k–25.2k PLN
Praca zdalna
apreel
apreel
Zdalnie
20.2k–26.9k PLN
B2B
#Generative AI#LLM#RAG#LAN#LlamaIndex#OpenShift#Hugging Face#Transformers#Project management#Docker#Kubernetes#SQL#Azure#AWS#GCP#Python#PyTorch#TensorFlow#ML#Vector databases#Ajax
Data Science#Generative AI#LLM#RAG#LAN#LlamaIndex#OpenShift#Hugging Face#Transformers#Project management#Docker#Kubernetes#SQL#Azure#AWS#GCP#Python#PyTorch#TensorFlow#ML#Vector databases#Ajax
20.2k–26.9k PLN
Praca zdalna
Scalo
Scalo
Warszawa
20.2k–23.5k PLN
B2B
#Big Data#Spark#Python#SQL#JSON#Hive
Data Science#Big Data#Spark#Python#SQL#JSON#Hive
20.2k–23.5k PLN
Warszawa
Lumicode (Grupa Pentacomp)
Lumicode (Grupa Pentacomp)
Zdalnie
18.5k–25.2k PLN
B2B
#RPD#OBIEE#ETL
Data Science#RPD#OBIEE#ETL
18.5k–25.2k PLN
Praca zdalna
apreel
apreel
Warszawa
20.2k–26.9k PLN
B2B
#Data warehouse#ETL#BigQuery
Data Science#Data warehouse#ETL#BigQuery
20.2k–26.9k PLN
Warszawa
Lumicode (Grupa Pentacomp)
Lumicode (Grupa Pentacomp)
Zdalnie
18.5k–25.2k PLN
B2B
#ETL#Oracle GoldenGate
Data Science#ETL#Oracle GoldenGate
18.5k–25.2k PLN
Praca zdalna
ConnectPoint
ConnectPoint
Warszawa
15.0k–20.0k PLN
B2B
#SQL#Python#PostgreSQL#ETL#Data warehouse#Databricks#ELT#BigQuery#Azure Storage Account#GCP#Azure#Kafka
Data Science#SQL#Python#PostgreSQL#ETL#Data warehouse#Databricks#ELT#BigQuery#Azure Storage Account#GCP#Azure#Kafka
15.0k–20.0k PLN
Warszawa

54/2/2026/10888
Data Engineer

Scalo
Warszawa
Data Science
PythonRustETLGCP
Regular
PolskiAngielski
min. 4 lata doświadczenia
PythonRustETLGCPPolskiAngielski
Regular
min. 4 lata doświadczenia

Kogo poszukujemy?

  • masz co najmniej 4 lata doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych,
  • znasz dobrze narzędzia ETL na GCP (Apache AirFlow, DataFlow, DataProc),
  • biegle posługujesz się bazami danych GCP (BigQuery, BigTable, Scylla Cloud) i potrafisz je projektować oraz optymalizować,
  • potrafisz pracować z kolejkami danych: Kafka, GCP Pub/Sub,
  • masz co najmniej 3 lata doświadczenia jako Developer ETL w środowiskach on‑prem,
  • biegle korzystasz z narzędzi ETL on‑prem: Informatica Power Center i NIFI,
  • masz ekspercką znajomość baz Oracle, PostgreSQL oraz ScyllaDB,
  • bardzo dobrze znasz narzędzie harmonogramujące Automate Now,
  • potrafisz wystawiać usługi REST API,
  • masz co najmniej 4 lata doświadczenia jako programista Python (data integration & analysis) oraz PySpark,
  • dobrze znasz język Rust w kontekście tworzenia narzędzi do wydajnego ładowania danych,
  • potrafisz przejąć odpowiedzialność za obszary wymagające wysokiej dostępności i wydajności,
  • masz podstawową wiedzę w zakresie programowania mikroserwisów w Javie,
  • mile widziana jest znajomość Groovy,
  • działasz samodzielnie, kreatywnie i terminowo,• mile widziana jest znajomość GIT, Grafany i Apache JMeter.

Czym będziesz się zajmować?

  • udział w projekcie z obszaru integracji oraz przetwarzania danych w środowiskach chmurowych i on‑prem,
  • realizacja zadań związanych z budową i rozwojem procesów integracyjnych w GCP oraz on‑prem,
  • praca z narzędziami ETL w środowisku GCP: Apache AirFlow, DataFlow, DataProc,
  • wykorzystanie baz danych GCP: BigQuery, BigTable oraz Scylla Cloud,
  • praca z kolejkami danych: Kafka, GCP Pub/Sub,
  • projektowanie, budowa i tuning baz danych w środowiskach on‑prem (Oracle, PostgreSQL, ScyllaDB),
  • korzystanie z narzędzi ETL na on‑prem na poziomie zaawansowanym: Informatica Power Center, NIFI,
  • praca z narzędziem harmonogramującym Automate Now (Infinity Data),
  • tworzenie i wystawianie usług REST API,
  • rozwój narzędzi i frameworków w Pythonie oraz PySpark,
  • tworzenie narzędzi wspomagających wydajne ładowanie danych w języku Rust,
  • odpowiedzialność za obszar wystawiania danych pod usługi działające w wysokim reżimie wydajnościowym (24h),
  • praca w środowisku dużych wolumenów danych (~100 TB),
  • praca w modelu hybrydowym: 1 dzień w tygodniu w biurze w Warszawie,
  • stawka do 135 PLN/h w oparciu o współpracę B2B.

Jakie otrzymasz benefity?

Zdrowie

Pakiet medyczny

Gdzie i jak będziesz pracował?

Centrum 9, Warszawa
Tryb pracy: Elastyczne godziny pracy
Godziny pracy biura: 7-20
Model pracy
Stacjonarnie
Hybrydowo
100% zdalnie
Map Preview

Kim jesteśmy?

Wielkość firmy: 500
W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie.