
DevOps-DataOps Engineer DSO
Job description
Als DevOps - DataOps Engineer ontwikkel en beheer je het AKS datacluster van het DSO, de Azure DataBricks en de PowerBI rapportages. Je bent verantwoordelijk voor het ontsluiten, opschonen en aggregeren van data uit de DSO-keten. Daarnaast werk je aan het ontwikkelen van rapportages die strategische beleidsmakers ondersteunen in hun besluitvorming.
Belangrijkste technieken, methoden en tools
- Container/Orchestration technologie (Docker/Kubernetes);
- Network tooling en concepten (API’s, authenticatie, etc);
- EDW tooling (Blob Storage, Azure Databricks, Airflow, PowerBI);
- Python;
- Pyspark;
- SQL;
- Gherkin, Behave;
- CI/CD tooling (Git);
- BetterStack;
- Issue tracking (Jira).
Verantwoordelijkheden
De belangrijkste taken en verantwoordelijkheden zijn:
- Vanuit technisch oogpunt ondersteunen van de PO bij het ophalen van klantvragen en het uitwerken van specificaties in user stories;
- Ontsluiten van verdere ketencomponenten (databronnen), i.s.m. de ketenpartners;
- Uitbreiden en doorontwikkelen EDW tooling, met name Azure Databricks, Airflow en Power BI;
- Opleveren gewenste monitoring data, API's en rapportages aan stakeholders;
- Sparren over ontwerpkeuzes/ toekomstbestendige oplossingen;
- Peer reviewing en borgen van kennis (documentatie en kennisdeling);
- Afstemmen met PO, Integratiespecialisten en ketenpartners;
- Het uitvoeren van beheer en onderhoud, denk hierbij aan lifecycle management en het verhelpen van bugs en verstoringen;
- Onderhouden en uitbreiden van de geautomatiseerde testen Gurkin/behave.
Company profile
Het Kadaster registreert en verstrekt gegevens over de ligging van vastgoed in Nederland en de daarmee samenhangende rechten, zoals eigendom en hypotheek. Als zelfstandig bestuursorgaan is dat onze wettelijke taak. Onze gegevens bieden houvast bij het onderzoeken van maatschappelijke vraagstukken, of het nu gaat om de beste route voor een nieuwe snelweg, actuele ontwikkelingen op de woningmarkt of het in beeld brengen van leegstand.
Omgevingswet en DSO-LV
Voor de OBO Kadaster zijn wij op zoek naar een enthousiaste DataOps Engineer ter versterking van het DSO Monitoring team. Het Kadaster is ketenpartner in het Digitaal Stelsel van de Omgevingswet (DSO). We zijn samen met andere ontwikkelpartners georganiseerd in operationele beheerorganisaties (OBO’s). De diensten die de verschillende OBO’s ontwikkelen en beheren, vormen de operationele keten van het DSO-LV.
Met de Omgevingswet wil de overheid de regels voor ruimtelijke ontwikkeling vereenvoudigen en samenvoegen. Zodat het straks bijvoorbeeld makkelijker is om bouwprojecten te starten. De Omgevingswet is een bundeling van 26 wetten en regels over ruimtelijke ordening, wonen, infrastructuur, milieu, water en natuur. De Omgevingswet moet verheldering en efficiëntie bieden. Een samenhangende benadering moet leiden tot een goede en duurzame fysieke leefomgeving.
De teams binnen de OBO’s werken nauw samen om de gewenste functionaliteit voor het programma Digitaal Stelsel Omgevingswet te realiseren. In dat programma werken verschillende organisaties op een Agile wijze samen op basis van het SAFe framework. Dat betekent onder andere dat er wordt gewerkt in sprints van 2 weken en Program Increments van een kwartaal. Let op: aangezien deze organisaties door het hele land verspreid zitten, zijn de bijbehorende events ook door het land verspreid.
De DSO Monitoring team ontwikkelt en beheert de monitoring, alerting en rapportage faciliteiten voor de DSO-LV. Hiervoor zijn diverse dashboards en rapportages ontwikkeld, op basis van real time en historische gegevens. Er wordt hierbij gebruik gemaakt van moderne monitoring- en EDW tools. De dashboards worden gebruikt door alle OBO’s en door de tactische en strategische beheerorganisaties.
Requirements
• Het cv is opgesteld in het Nederlands en is niet langer dan 6 pagina’s A4
• Minimaal hbo werk- en denkniveau
• Minimaal 4 jaar ervaring met containertechnologie en cloudconcepten (Azure, Docker, Kubernetes)
• Minimaal 4 jaar ervaring met netwerktooling en -concepten
• Minimaal 4 jaar ervaring met monitoringtooling (bij voorkeur Prometheus en Grafana)
• Minimaal 4 jaar ervaring met EDW-tooling (Blob Storage, Azure Databricks, PowerBI)
• Minimaal 4 jaar ervaring met Agile en Scrum
• Door de kandidaat geschreven motivatiebrief (maximaal 400 woorden)
• Bring your own device
Wensen (gunningscriteria)
• Beschrijving van ervaring met EDW-tooling in het algemeen, en specifiek met Azure Data Lake Storage, Databricks en PowerBI (max. 300 woorden) – weging: 50 punten
• Beschrijving van ervaring met netwerktooling en -concepten, containertechnologie en cloudconcepten (max. 300 woorden) – weging: 25 punten
• Aantoonbaar maken op welke wijze de expertise en competenties bijdragen aan de interdepartementale DSO-keten (max. 300 woorden) – weging: 25 punten
Competenties
- Zelfstandigheid, en ervaring in zowel beheer- als vernieuwingstrajecten;
- Actieve deelname in het Scrum Team;
- Zelfstandig komen met verbetervoorstellen en overleg over de implementatie hiervan;
- Gedegen kennis van de te gebruiken methoden en technieken;
- Flexibele werkhouding;
- Over eigen grenzen heen kijken en bereid zijn aanpalende werkzaamheden op te pakken;
- Communicatief vaardig;
- Duidelijke gerichtheid op samenwerking.
Benefits
- Duur: tot 31 augustus 2026
- Opties verlenging: 2 maal 6 maanden
- Uren per week: 24 uur
- Start: 1 september 2025
- Opleidingsniveau: HBO
- Regio: Gelderland
De gesprekken bij de opdrachtgever zijn gepland op donderdag 21 augustus 2025. Deze datum staat vast en hier wordt niet van afgeweken.
De aangeboden kandidaat gaat akkoord met detachering.