Snowflake Data Engineer (all genders)
adesso SE
Bremen, Germany
2 days ago
Role details
Contract type
Permanent contract Employment type
Full-time (> 32 hours) Working hours
Regular working hours Languages
English, GermanJob location
Remote
Bremen, Germany
Tech stack
Java
Artificial Intelligence
Airflow
Amazon Web Services (AWS)
Data analysis
ARM
Azure
Cloud Computing
Information Engineering
Data Governance
ETL
Data Vault Modeling
Data Warehousing
Identity and Access Management
Python
OpenFlow
Scala
SQL Databases
Data Streaming
Talend
Google Cloud Platform
Informatica Powercenter
Snowflake
Spark
Amazon Web Services (AWS)
Data Lake
Data Management
Terraform
Job description
- Anforderungen verstehen und Kunden beraten: In Zusammenarbeit mit den Fachbereichen erarbeitest du konkrete Anforderungen an die Data Pipelines und berätst unsere Kunden zu Best Practices und Snowflake Data Engineering Features (wie z.B. OpenFlow, Snowpark, Snowpipe).
- Datenstrecken entwickeln: Du konzipierst und entwickelst entlang der gesamten Pipeline und nutzt dafür z.B. Fivetran, dbt, Airflow, Matillion oder andere Tools des modernen Data Stacks
- Daten analysieren und präsentieren: Du nutzt die Snowflake AI Suite (Snowflake Cortex, Snowpark, Streamlit), um aus Datensätzen fundierte Erkenntnisse abzuleiten und präsentierst diese verständlich.
- Enge Zusammenarbeit mit verschiedenen Teams: Du arbeitest eng mit Data Scientists, Analysts, Architects und anderen Engineers zusammen, um die beste Lösung für den Kunden umzusetzen.
- Data Management: Du hilfst unseren Kunden, strukturierte und verlässliche Datenprozesse aufzubauen: Einhaltung von Datenschutzrichtlinien, Definition von Data Governance Richtlinien, Implementierung von Datenzugriffs- und Sicherheitskonzepten.
- Wissen vermitteln: Du setzt Schulungen von Endanwender:innen und Analysts im Umgang mit Snowflake um und erstellst Dokumentationen und Guidelines.
- Aktiv im Presales mitwirken: Je nach Erfahrung entwickelst du technische Lösungskonzepte, begleitest Angebotspräsentationen und führst Workshops durch.
Requirements
- Data Platform Kenntnisse: Du hast Erfahrung in Data Platform Projekten, idealerweise mit Snowflake und beherrschst Data Platform Konzepte (DWH/Data Lake/Datalakehouse und Data Mesh) und die Modellierung mit Data Vault 2.0. oder klassischen Modellierungspattern wie Snowflake und Star.
- Cloud-Expertise: Du bringst Erfahrung im Bereich Cloud Data Platforms und einem Cloud Hyperscaler wie AWS, GCP oder Azure mit und kennst dich grundlegend mit Cloudinfrastruktur aus (VPC, IAM, etc.), ebenso ist dir IaC wie z.B. mit Terraform ein Begriff.
- ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
- Consultingerfahrung: Berufserfahrung im Consultingbereich ist von Vorteil.
- KI Kompetenz: Du setzt KI-Tools in deinem Fachgebiet souverän ein, bewertest die Ergebnisse kritisch und unterstützt Kunden und adessi dabei, Potenziale von KI zu nutzen.
- Sprachkenntnisse: Du beherrschst sehr gute Deutsch- und gute Englischkenntnisse.
Unser Versprechen: Du wirst dich bei uns wohlfühlen! Kollegial, familiär und auf Augenhöhe - wir leben Austausch, Teamgeist und einen respektvollen Umgang miteinander. Diversität und verschiedene Blickwinkel werden bei uns genauso geschätzt wie du als Mensch. Das und viel mehr steht für unser ganz besonderes Wir-Gefühl. Für das es sogar ein Wort gibt: adessi.