The candidate must have: Solid understanding of Spark basics, building blocks, and mechanics (the deeper the knowledge, the higher the value) Strong knowledge of Python, Java, or Scala (with the ability to expand to expert level) 1+ years of exp
2025-11-26 10:25:16ComScore (via CC)Senior level Python Very good knowledge of AWS (most of it works on this), daily work in Prefect (you don't need to know it, if you know Airflow or similar, that's enough), Kafka, SQL, databases, GitLab, and k8s and Linux are on the production e
2025-11-27 10:25:14Rits CenterYour responsibilities, Design scalable data processing pipelines for streaming and batch processing using Big Data technologies like Databricks, Airflow and/or Dagster., Contribute to the development of CI/CD and MLOps processes., Develop..
2025-11-25 14:41:19Twój zakres obowiązków, Tworzenie, konfiguracja, implementacja architektur danych opartych o rozwiązanie Microsoft Fabric., Praca na nowoczesnej platformie danych Microsoft Fabric., Przetwarzanie i transformacja dużych zestawów danych za pomocą
2025-11-25 12:41:27For our client, an international company from the retail-tech sector with a unique service, we are looking for a candidate for the position of Data Engineer.What we expectMajor in Mathematics, Statistics, Computer Science, Data Science, or a rel
2025-11-25 11:53:52Dla naszego klienta, międzynarodowej firmy działającej w 20 krajach, oferującej unikatowe usługi w zakresie zaawansowanych technologii wizualnych i artystycznych, poszukujemy specjalisty na stanowiskoData Engineer.OczekujemyWykształcenie w dzied
2025-11-25 11:53:52Your responsibilities, responsible for at-scale infrastructure design, build and deployment with a focus on distributed systems,, building and maintaining architecture patterns for data processing, workflow definitions, and system to system..
2025-11-25 11:41:28Your responsibilities, Design and implement solutions for processing large-scale and unstructured datasets (Data Mesh, Data Lake, or Streaming Architectures)., Develop, optimize, and test modern DWH/Big Data solutions based on the AWS cloud..
2025-11-25 11:41:28Experience with Azure cloud infrastructure and Databricks. Strong skills in SQL. Proficiency in Python and PySpark. Excellent communication skills, able to clearly explain technical concepts to team members and stakeholders. Hands-on experience
2025-11-25 10:25:16Link GroupYOUR PROFILE Hands-on experience designing and developing data pipelines with Databricks. Strong working knowledge of Delta Lake, Spark, and Databricks notebooks. Proficiency in SQL and Python for data transformation and analysis. Familiarity wi
2025-11-25 10:25:16Capgemini InventMin. 7 lat doświadczenia w projektowaniu i rozwoju platform DWH/Big Data. Bardzo dobra Snowflake Dobra znajomość Azure (ADLS, ADF, Key Vault, bezpieczeństwo) i SQL. Doświadczenie w projektowaniu procesów ETL/ELT i frameworków. Wiedza o kosztach
2025-11-25 10:25:16ITFS sp. z o. o5+ years of experience as a Data Engineer or ETL Developer, building large-scale data pipelines in a cloud environment (AWS, GCP, or Azure). Strong SQL expertise, including query optimization and data modeling. Hands-on experience with ETL/ELT t
2025-11-25 10:25:15Matrix Global ServicesProficiency in AWS – experience with data processing, storage, and orchestration services (such as AWS Lambda, Redshift, Glue, S3) Advanced SQL and Python skills – building pipelines, data transformation and quality checks, automation, and integ
2025-11-25 10:25:15DevirePraktyczna znajomość języka Python - poziom regular (co najmniej 3 lata komercyjnego doświadczenia) Biegłość w SQL (preferowane środowisko Oracle) Swoboda pracy w systemach operacyjnych Linux Zdolność analitycznego myślenia, umiejętność pracy ze
2025-11-25 10:25:15AntalAs a member of agile project teams, your mission will be to build solutions and infrastructure aiming at solving the business problems of our clients. You are a proficient software engineer who knows the fundamentals of computer science and you
2025-11-25 10:25:15Unit8 SAWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-11-25 10:10:03CaptivateIQWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-11-25 10:10:03Luxoft DXCOferta idealna dla: osób z obszaru Informatyka i technologie, Nauki przyrodnicze, Ekonomia i finanse Szukasz swojej pierwszej pracy w IT lub masz do 2 lat doświadczenia? Ta oferta stażowa to świetna szansa na rozwój w obszarze Data Engineering!
2025-11-24 20:19:01Capgemini PolskaOferta idealna dla: osób z obszaru Informatyka i technologie, Nauki przyrodnicze, Ekonomia i finanse Szukasz swojej pierwszej pracy w IT lub masz do 2 lat doświadczenia? Ta oferta stażowa to świetna szansa na rozwój w obszarze Data Engineering!
2025-11-24 20:19:01Capgemini PolskaOferta idealna dla: osób z obszaru Informatyka i technologie, Nauki przyrodnicze, Ekonomia i finanse Szukasz swojej pierwszej pracy w IT lub masz do 2 lat doświadczenia? Ta oferta stażowa to świetna szansa na rozwój w obszarze Insights & Data, g
2025-11-24 20:19:01Capgemini PolskaOferta idealna dla: osób z obszaru Informatyka i technologie, Nauki przyrodnicze, Ekonomia i finanse Szukasz swojej pierwszej pracy w IT lub masz do 2 lat doświadczenia? Ta oferta stażowa to świetna szansa na rozwój w obszarze Insights & Data, g
2025-11-24 20:19:01Capgemini PolskaOferta idealna dla: osób z obszaru informatyki, matematyki, fizyki i ekonomii! Szukasz miejsca, gdzie rozwiniesz swoje umiejętności w Pythonie, Sparku i SQL? Ta oferta to idealna szansa na start w świecie Data Engineering, z możliwością pracy w
2025-11-24 20:19:01Capgemini PolskaPoszukujemy Data Engineer (Python) poziom regular (min. 3- 4 lata doświadczenia), do współpracy w modelu B2B (contracting) przy realizacji projektu dla klienta z branży telekomunikacyjnej. Praca w
2025-11-24 18:30:02Proficiency in Scala or Java with substantial experience. Minimum 4–5 years of relevant experience Hands-on expertise in working with Spark. Familiarity with CI/CD methodologies and tools such as GitHub Actions. Knowledge of cloud platforms (GCP
2025-11-24 10:25:21Link GroupWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-11-24 10:10:00MoonPayYour responsibilities, Working to take data throughout its lifecycle - acquisition, exploration, data cleaning, integration, analysis, interpretation, and visualization,, Participating in delivering end-to-end projects, Creating the pipeline for
2025-11-24 09:41:26Your responsibilities, Develop and maintain data delivery pipelines for a leading IT solution in the energy market, leveraging Apache Spark, Databricks, Delta Lake, and Python., Have end-to-end responsibility for the full lifecycle of features y
2025-11-24 00:40:20Your responsibilities, Build & maintain AWS-based data pipelines (Glue, Lambda, Step Functions), Develop ETL/ELT workflows with Python, SQL, PySpark, Integrate Amazon APIs (Vendor Central, Ads, AMC), Manage QuickSight dashboards & datasets,..
2025-11-23 15:41:07What we expect 5+ years of professional experience as a Data Engineer or Software Engineer in data-intensive environments Strong Python development skills, with solid understanding of OOP, modular design, and testing (unit/integration) Experienc
2025-11-23 10:25:12hubQuestDid you know that Dotlinkers is hiring for Data Engineer. Apply now for the Data Engineer job at Dotlinkers in Poland, Europe with European Jobs. Take the next step in your career today with European Jobs! Last Updated on November 2025
2025-11-23 08:40:02dotLinkersTwój zakres obowiązków, W swojej codziennej pracy będziesz odpowiadać za:, ️Wsparcie w migracji oraz rozwój, testowanie i optymalizacja procesów ETL dla efektywnego przetwarzania danych,, ️Monitorowanie wydajności hurtowni danych i rozwiązywanie
2025-11-23 00:40:09Your responsibilities, Design and develop robust data pipelines using Spark, with a strong focus on PySpark for large-scale data processing., Write advanced PySpark applications leveraging RDDs, DataFrames, and Datasets (not just Spark SQL).,..
2025-11-22 16:40:55Your responsibilities, Create means to transform data obtained from variable speed drives and production tests to easy to understand indicators and insights, Develop advanced algorithms and models to embedded and edge devices, Coach and support
2025-11-22 00:40:15Współpraca w 100% zdalnaKontakt B2B z Michael Page
2025-11-21 17:59:02Your responsibilities, Designing, developing, and maintaining data pipelines using Azure Databricks and Delta Lake, Implementing data applications in Python/PySpark for ingestion, historization, integration, and filtering, Developing data qualit
2025-11-21 15:41:49Twój zakres obowiązków, uczestnictwo w projekcie dot. branży bankowej,, projektowanie architektury i wdrażanie nowoczesnych systemów przetwarzania danych w obszarze Big Data,, dbanie o wysoką jakość procesu rozwojowo-wdrożeniowego,, dbanie o..
2025-11-21 15:41:49Your responsibilities, Design and maintain graph data models using Neo4j, Develop and optimize Cypher queries and custom Java integrations, Improve database performance, indexing, and scalability, Collaborate with data scientists and backend..
2025-11-21 15:41:49Your responsibilities, Designing, developing, and maintaining scalable and efficient data pipelines and systems, Building efficient data pipelines that handle large amounts of data in real-time, Working collaboratively with AI scientists and dat
2025-11-21 14:41:27SII Sp z o oOferta idealna dla: osób z obszaru Informatyka i technologie (Data Engineering, Python, SQL) Szukasz pierwszej pracy lub masz do 2 lat doświadczenia jako Junior Data Engineer? Ta oferta jest dla Ciebie! Wymagamy początkowego doświadczenia komerc
2025-11-21 14:19:01JIT TeamYour responsibilities, Prepare technical design specifications based on functional requirements and analysis documents., Implement, test, maintain, and support software, as outlined in technical design specifications., Enhance system quality..
2025-11-21 13:41:14Twój zakres obowiązków, projektowanie, budowa i tuning baz danych Oracle i PostgreSQL, prace związane z integracją danych na GCP, odpowiedzialność za obszar wystawiania danych pod usługi w wysokim reżimie wydajnościowym, projektowanie i rozwijan
2025-11-21 12:41:29Twój zakres obowiązków, Projektowanie i rozwój infrastruktury sieciowej w środowiskach Data Center (architektura spine-leaf, fabric, EVPN, VXLAN), Konfiguracja oraz administracja sieci SAN i integracja z systemami storage czołowych producentów.
2025-11-21 11:41:44Co wnosisz do zespołu 5 lat doświadczenia w obszarze analityki lub inżynierii danych Wykształcenie w zakresie informatyki, inżynierii lub pokrewnej dziedziny Masz solidną wiedzę w zakresie modelowania danych (np. schemat gwiazdy) oraz budowania
2025-11-21 10:25:13dmTECHMinimum 3 lata doświadczenia w inżynierii danych w modelu konsultingowym. Doświadczenie z Azure ADF, SQL Database, Microsoft Fabric, Databricks, Synapse. Znajomość technik modelowania danych i architektury hurtowni danych. Umiejętność tworzenia
2025-11-21 10:25:131dea 4,65+ years of software development experience, strong in Python and SQL. Experience with web technologies (HTML, JavaScript, APIs) and Linux. Familiarity with web scraping tools (Selenium, Scrapy, Postman, XPath). Knowledge of containerization (Do
2025-11-21 10:25:13Link GroupWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-11-21 10:10:08Luxoft DXCTwój zakres obowiązków, Zarządzanie i monitorowanie procesów ETL w Azure Data Factory, Implementacja procesów analitycznych i transformacji danych przy użyciu Databricks, Tworzenie i optymalizacja zaawansowanych procedur składowanych SQL, Szybki
2025-11-21 09:42:20Twój zakres obowiązków, rozwój platformy danych (Data Lakehouse),, dbanie o utrzymanie działania istniejących rozwiązań,, tworzenie i rozwijanie dashboardów dla zespołów biznesowych,, automatyzacja powtarzalnych zapytań i procesów...
2025-11-21 09:42:18Twój zakres obowiązków, rozwój i utrzymanie platformy danych (Data Lakehouse),, tworzenie i rozwijanie dashboardów oraz warstwy raportowej dla zespołów biznesowych,, automatyzacja powtarzalnych zapytań i procesów,, opracowywanie strategii rozwoj
2025-11-21 09:42:18Wymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-11-20 17:10:01Reply PolskaWymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-11-20 17:10:01ERGO Technology & Services S.A 5,0WHO YOU ARE: Required: Bachelor's degree in Computer Science, Geography, Engineering, or relevant job experience Strong proficiency in Python and/or GO programming languages Strong experience with PostgreSQL/PostGIS, including schema design and
2025-11-27 10:25:14BayerMinimum 4 lata doświadczenia na stanowisku Data Engineer. Zdolność do tworzenia wydajnych rozwiązań dla dużych zbiorów danych. Bardzo dobra znajomość Pythona, Spark, PySpark oraz SQL. Znajomość Azure, Azure Databricks, Azure DevOps. Dobra znajom
2025-11-27 10:25:14CONNECTIS