Tech Stack Programming: Python, PySpark, SQL, SparkSQL, Bash Azure: Databricks, Data Factory, Delta Lake, Data Vault 2.0 CI/CD: Azure DevOps, GitHub, Jenkins Orchestration: Airflow, Azure Data Factory Databases: SQL Server, Oracle, PostgreSQL, V
2025-10-17 10:25:14Experis PolskaWhat we expect: — Python knowledge: OOP basics, threads and GIL, working with the pandas library;— SQL knowledge: query language (DQL, DDL, DML, TCL), transactions and ACID principles, indexes;— Big Data knowledge: basic concepts — OLAP vs. OLTP
2025-10-29 10:25:14InnowiseDuża biegłość w SQL, PySpark i Pythonie w zakresie transformacji danych oraz tworzenia skalowalnych potoków danych (minimum 6 lat doświadczenia komercyjnego). Praktyczne doświadczenie w pracy z Apache Airflow, AWS Glue, Kafka i Redshift. Znajomo
2025-10-30 10:25:14DEVTALENTS sp. z o.oCzego oczekujemy od Ciebie: Wykształcenia wyższego w obszarze Inżynierii IT, Inżynierii Danych lub Data Science 2–3 lat praktycznego doświadczenia w inżynierii Big Data Znajomości języków programowania i skryptowych: Spark, Scala, Java, Shell, P
2025-10-31 10:25:17ASTEK PolskaYour responsibilities, You will be responsible for designing, building, and maintaining our data infrastructure, ensuring data quality, and enabling data-driven decision-making across the organization., Design, build, and maintain our data..
2025-12-14 00:40:10The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-13 16:56:05ConnectisWarszawa 4,2The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-13 16:56:05SiiWarszawaThe first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-13 14:56:05MW ConsultingWrocławZakres obowiązków:\nProjektowanie i implementacja pipeline’ów danych, integrujących różne źródła danych\nTworzenie rozwiązań analitycznych we współpracy z data scientistami i analitykami\nRozwój skalowalnej architektury danych w chmurze MS
2025-12-13 14:56:05RITS Professional ServicesWrocławMust-have: 5+ years working experience as a Data Engineer experience in regulated financial services environment as well as commercial facing experience experience in designing and developing robust Data Pipelines using technologies such as Apac
2025-12-13 10:25:13NetguruRequirements: Experience in backend development using Golang. Knowledge of Machine Learning and integration with PLC systems and LLMs. Familiarity with AWS services, including Data Lake and cloud deployment. Understanding of IoT concepts and int
2025-12-13 10:25:13Experis Polska 5,0Requirements: Experience in backend development using Golang. Knowledge of Machine Learning and integration with PLC systems and LLMs. Familiarity with AWS services, including Data Lake and cloud deployment. Understanding of IoT concepts and int
2025-12-13 10:25:13Experis Polska 5,0Bardzo doba znajomość zasad inżynierii danych i doświadczenie w tworzeniu zaawansowanych pipeline’ów analitycznych Znajomość SQL oraz bardzo dobre umiejętności programowania w Pythonie lub Scali Doświadczenie z technologiami Big Data (Hadoop, Hi
2025-12-13 10:25:13Rits CenterWymagania Doświadczenie w pracy z hurtowniami danych w chmurze (preferowane Snowflake). Praktyka w projektach Data Quality (reguły DQ, walidacje, porównania danych). Bardzo dobra znajomość SQL. Biegłość w Snowflake (praca z danymi, monitorowanie
2025-12-13 10:25:13UpvantaExpectations Advanced proficiency in Databricks SQL (mandatory). Advanced proficiency in AWS S3 (recommended). Intermediate proficiency in Application Design, Design & Build Enablement, and Test Execution & Management. Experience in Agile method
2025-12-13 10:25:13Experis Polska 5,0Wymagania techniczne","technologies":"Technologie","technology":"Technologia","think_it_magazyn":"Think IT Magazyn HR","thinking_about":"Co masz na myśli?","time":"czasu","title":"Praca","title_a_z":"Tytuł oferty A-Z","title_z_a":"Tytuł ofe
2025-12-13 10:10:06DellArchitekt Danych / Architektka DanychTwój zakres obowiązków Projektowanie, rozwijanie i utrzymywanie architektury danych organizacji w sposób zapewniający spójność, bezpieczeństwo, dostępność i wysoką jakość danych w całym cyklu ich przetwarzani
2025-12-13 06:59:52COI - Centralny Ośrodek Informatyki 3,3Data Engineer49_744000094917785Obowiązki Our team is at the forefront of applying Machine Learning (ML) to interpret and process complex chemical data, specifically chromatograms and environmental testing results. We're seeking a skilled Data En
2025-12-13 06:59:48Eurofins GSC Poland Sp. z o.oData Engineer49_744000094907946Obowiązki Our team is at the forefront of applying Machine Learning (ML) to interpret and process complex chemical data, specifically chromatograms and environmental testing results. We're seeking a skilled Data En
2025-12-13 06:59:48Eurofins GSC Poland Sp. z o.oContract of EmploymentRemote work
2025-12-12 17:59:00Your responsibilities, Design, implement, and maintain data processing solutions in AWS and Azure environments., Build and optimize ETL pipelines and data integration workflows., Develop and maintain data pipelines using Azure Data Factory,..
2025-12-12 16:41:05Your responsibilities, Design and develop production ETL/ELT pipelines from diverse healthcare data sources, including claims, patient records, and referrals, into S3 data lakes and data warehouses., Implement and manage batch workflows with..
2025-12-12 16:41:04Twój zakres obowiązków, Budowanie i rozwijanie skalowalnych, działających w czasie rzeczywistym i wysokowydajnych rozwiązań typu Data Lake, Tworzenie pipeline’ów ETL w celu pozyskiwania danych z różnych źródeł i przetwarzania ich w chmurze,..
2025-12-12 16:41:04SII Sp z o oYour responsibilities, Leading the development of data infrastructure to extract, transform, and load (ETL/ELT) data., Supporting BI developers and data scientists to build data & analytics solutions., Working with product owners and (senior)..
2025-12-12 15:41:34Your responsibilities, Create scalable data pipelines and real-time processing solutions, Shape the project's data architecture from the beginning, Bring together data from a variety of sources (sensor data, e-commerce, weather feeds, third-part
2025-12-12 15:41:33Twój zakres obowiązków, Projektowanie i implementacja procesów monitorowania oraz poprawy jakości danych (reguły DQ, testy porównawcze)., Tworzenie struktur i przepływów wspierających audyt i kontrolę danych., Walidacja zgodności danych na..
2025-12-12 15:41:33Your responsibilities, Building and optimizing advanced analytics data pipelines using Python or Scala, ensuring efficient data ingestion and processing, Implementing scalable solutions with big data technologies such as Hadoop, Hive, or Spark t
2025-12-12 14:41:22Oferta idealna dla: osób z obszaru Informatyki, Matematyki, Fizyki, Ekonomii Szukasz pierwszej pracy lub stażu w świecie Big Data i AI? Jeśli jesteś studentem lub absolwentem kierunków technicznych/analitycznych i masz podstawowe umiejętności w
2025-12-12 14:19:00Capgemini PolskaOferta idealna dla: osób z obszaru Informatyki, Matematyki, Fizyki, Ekonomii Szukasz pierwszej pracy lub stażu w świecie Big Data i AI? Jeśli jesteś studentem lub absolwentem kierunków technicznych/analitycznych i masz podstawowe umiejętności w
2025-12-12 14:19:00Capgemini PolskaOferta idealna dla: osób z obszaru Informatyki, Matematyki, Fizyki, Ekonomii Szukasz pierwszej pracy lub stażu w świecie Big Data i AI? Jeśli jesteś studentem lub absolwentem kierunków technicznych/analitycznych i masz podstawowe umiejętności w
2025-12-12 14:19:00Capgemini PolskaYour responsibilities, designing and implementing data models and architectures that support financial data management, developing and maintaining ETL processes to integrate data from diverse sources, including market data feeds, customer..
2025-12-12 13:41:15Your responsibilities, Partner with business stakeholders to translate analytical needs into end-to-end data solutions, Design modern data architectures using Azure Data Services, Databricks, and related cloud technologies, Build and refine data
2025-12-12 11:41:34Your responsibilities, Design and maintain ETL/ELT pipelines using SQL, Python, and PySpark for Redshift and Data Lake, Optimize SQL pipelines and ensure high-performance cluster operations, Develop secure data marts and BI-ready tables for..
2025-12-12 09:41:16Our Client is one of the leading telecommunications operators in Poland, providing mobile telephony, internet, and advanced digital solutions. As part of a large international group, the company focuses on innovation, digital transformation, and
2025-12-12 06:59:45SQUARE ONE RESOURCES sp. z o.oThe first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-11 18:56:07Cloudtech Consulting Sp. z o.o.WarszawaTwój zakres obowiązków, projektowanie, wdrażanie i nadzorowanie systemów zarządzania danymi wspieranych przez sztuczną inteligencję,, wsparcie zespołów zajmujących się procesami data management&reporting w zakresie automatyzacji z użyciem narzęd
2025-12-11 16:40:53Twój zakres obowiązków, koordynacja zadań w rozproszonej grupie ekspertów domenowych (różne departamenty banku),, koordynacja prac zespołu specjalistów obsługujących technicznie interfejs wymiany danych,, nadzór merytoryczny nad pracami..
2025-12-11 15:41:34Your responsibilities, Develop, maintain, and optimise the Snowflake data warehouse, ensuring cost efficiency and performance., Build and improve data ingestion processes (ETL/ELT), primarily between Salesforce and Snowflake., Implement backend
2025-12-11 14:41:19Twój zakres obowiązków, Projektowanie, rozwijanie i utrzymywanie architektury danych organizacji w sposób zapewniający spójność, bezpieczeństwo, dostępność i wysoką jakość danych w całym cyklu ich przetwarzania., Opracowywanie i wdrażanie..
2025-12-11 14:41:19Oferta idealna dla: osób z obszaru informatyka, matematyka, fizyka, ekonomia Szukasz swojej pierwszej pracy w obszarze danych? Ta oferta to świetna okazja, aby rozwijać umiejętności w programowaniu w Pythonie, przetwarzaniu danych w Spark, SQL i
2025-12-11 14:19:01Capgemini PolskaOferta idealna dla: osób z obszaru Informatyka, Matematyka, Fizyka, Ekonomia Szukasz swojej pierwszej pracy w świecie Big Data, chmury obliczeniowej i AI? Dołącz do zespołu Insights & Data, gdzie będziesz programować w Pythonie, Sparku i SQL, pr
2025-12-11 14:19:01Capgemini PolskaYour responsibilities, Build and maintain data pipelines and platforms in Databricks and Azure using Apache Spark., Ensure data security, governance, and compliance using Unity Catalog and best practices., Develop reusable Python libraries for.
2025-12-11 13:41:19The first map of the labor market in the IT sector. We want to simplify the search process to minimum
2025-12-11 11:56:05Lumicode Sp. z o.o. (Pentacomp Group)WarszawaYour responsibilities, As part of the Data & AI area, we implement projects based on the practical "data science" and "artificial intelligence" applications of an unprecedented scale in Poland. Data & AI is a group of over 150 experienced..
2025-12-11 11:41:46Your responsibilities, As part of the Data & AI area, we implement projects based on the practical "data science" and "artificial intelligence" applications of an unprecedented scale in Poland. Data & AI is a group of over 150 experienced..
2025-12-11 11:41:46Bardzo dobra znajomość środowiska Google Cloud Platform (GCP). Zaawansowane umiejętności w SQL i PL/SQL. Praktyczna znajomość języka Python (Scala jako atut). Wykształcenie wyższe z obszaru informatyki, analityki danych, statystyki lub kierunków
2025-12-11 10:25:20SquareOne4+ years of experience in data engineering Hands-on knowledge of DBT, Snowflake, Fivetran, and SQL or similar solutions Understanding of data privacy and governance Ability to work independently and collaboratively in a global environment. Exper
2025-12-11 10:25:20Link GroupWhat you need to have to succeed in this role Proficient in Python programming, VBA and SQL Knowledge of Jira, Git, test driven development Experience with Product Control Financial data Experience in designing microservice-driven system archite
2025-12-11 10:25:20HSBC Technology PolandWhat are we looking for? A strong Data Engineering background. Experience working in AWS cloud infrastructure. Experience developing and supporting robust, automated, and reliable data pipelines in Python and SQL. Excellent Python and SQL skills
2025-12-11 10:25:20AUCTANE Poland Sp. z o.oMust-Have Requirements Strong hands-on experience with Google Cloud Platform (GCP) – mandatory Advanced knowledge of SQL and PL/SQL Proficiency in Python (Scala is a plus) Minimum 3 years of experience in a data-focused role (Data Analyst / Data
2025-12-11 10:25:20Square One Resources5+ years of experience in data engineering roles. Deep hands-on experience with Databricks, including Unity Catalog, Delta Lake, and Lakehouse architecture. Strong proficiency in Apache Spark, including PySpark, Spark SQL, and Spark performance
2025-12-11 10:25:20Sopra Steria Poland 4,7Nasze wymagania: Masz doświadczenie w zakresie przetwarzania danych, szczególnie na rozwiązaniach opartych na Google Cloud Platform (GCP) Masz praktyczne doświadczenie w zakresie modelowania i przetwarzania danych oraz nowoczesnej architektury p
2025-12-11 10:25:20Diagnostyka S.AWhat you need to have to succeed in this role Excellent experience in the Data Engineering Lifecycle. You will have created data pipelines which take data through all layers from generation, ingestion, transformation and serving. Senior stakehol
2025-10-22 10:25:15HSBC Technology PolandMinimum one year experience working on data processing platforms. Development experience in Big Data software development technologies such as Python, Hadoop, Hive or Spark. Proficient background in Unix or Linux programming language Programming
2025-10-15 10:25:14Experis Polska