Job Description
Overzicht FunctieOnze afdeling, Data Business Value TDO, is verantwoordelijk voor het transformeren van data uit IT-systemen naar bruikbare dataproducten. Onze klanten bevinden zich aan de netwerkkant van het bedrijf. Dit werk wordt uitgevoerd door meerdere scrumteams. Binnen deze context is ons DevOps-team, DataFANs, verantwoordelijk voor alle strategische en tactische data met betrekking tot de uitrol van KPN Fiber. Ons team draagt bij aan het versnellen van de uitrol van glasvezel tegen optimale kosten.KerntakenWaarde creëren voor stakeholders door data te ontsluiten en te integreren.Het ontwikkelen van geavanceerde analytics use cases om inzichten en optimalisaties te genereren.Het migreren van gegevens naar een nieuw platform, inclusief het uitvoeren van User Acceptance Testing (UAT).Technische VaardighedenTaalvaardigheid: Vaardig in zowel Nederlands als Engels, geschreven en gesproken.Cloudexpertise: Hands-on ervaring met Microsoft Fabric, inclusief het werken met dataflows, pipelines, notebooks, Lakehouse en magazijnomgevingen, Azure datalake en PySpark voor grootschalige gegevensverwerking.ETL/ELT-ontwikkeling: ervaring met het ontwikkelen, onderhouden en optimaliseren van ETL/ELT-pijplijnen met behulp van Informatica PowerCenter / Informatica Cloud Data Integration (CDI).Architectuurkennis: Sterk begrip van datawarehouse-concepten, Data Mesh-principes, Big data en best practices voor moderne data-architectuur.Programmeren: Praktische codeerexpertise in Python of PySpark voor gegevensverwerking en -transformatie.SQL-vaardigheid: Ervaren in het schrijven van complexe SQL-query’s, het uitvoeren van diepgaande gegevensanalyse en het optimaliseren van queryprestaties voor efficiëntie en schaalbaarheid.Gegevensmodellering: Kennis van het ontwerpen van efficiënte gegevensmodellen en -structuren dimensionale Ster & sneeuwvlok schema, en Lakehouse architecturen. De eisenTaalvaardigheid: Vaardig in zowel Nederlands als Engels, geschreven en gesprokenCloudexpertise: Hands-on ervaring met Microsoft Fabric, inclusief het werken met dataflows, pipelines, notebooks, Lakehouse en magazijnomgevingen, Azure datalake en PySpark voor grootschalige gegevensverwerking.ETL/ELT-ontwikkeling: ervaring met het ontwikkelen, onderhouden en optimaliseren van ETL/ELT-pijplijnen met behulp van Informatica PowerCenter / Informatica Cloud Data Integration (CDI)Architectuurkennis: Sterk begrip van datawarehouse-concepten, Data Mesh-principes, Big data en best practices voor moderne data-architectuurProgrammeren: Praktische codeerexpertise in Python of PySpark voor gegevensverwerking en -transformatieSQL-vaardigheid: Ervaren in het schrijven van complexe SQL-query's, het uitvoeren van diepgaande gegevensanalyse en het optimaliseren van queryprestaties voor efficiëntie en schaalbaarheidGegevensmodellering: Kennis van het ontwerpen van efficiënte gegevensmodellen en -structuren dimensionale Ster & sneeuwvlok schema, en Lakehouse architecturen De wensenGoede communicatieve vaardigheden, werkt graag nauw samen met de belanghebbendenAnalytische instelling met veel aandacht voor detail en een sterk probleemoplossend vermogenSnelle leerling met een proactieve houding ten opzichte van het adopteren van nieuwe technologieën en toolsToont een sterke teamgerichte en collaboratieve mentaliteit en draagt effectief bij in cross-functionele omgevingen5cd8a0b9cc68f9ffa4c9253553278a55wer
Job Application Tips
- Tailor your resume to highlight relevant experience for this position
- Write a compelling cover letter that addresses the specific requirements
- Research the company culture and values before applying
- Prepare examples of your work that demonstrate your skills
- Follow up on your application after a reasonable time period