Der AI-Integration Engineer übernimmt eine zentrale Rolle für die technische und organisatorische Überführung von KI-Lösungen aus MVP- und Delivery-Phasen in einen stabilen, produktiven Betrieb. In dieser Funktion Definition infrastrukturnaher Standards für Deployment, Integration und Betrieb, Aufbau der Brücke zwischen ML Engineers / Data Scientists, Business IT / Service-Clustern, KI-Governance sowie Plattform- und Infrastrukturfunktionen und Beitrag dazu, dass Produktivsetzung, Monitoring und Lifecycle-Management von Beginn an mitgedacht und nach Produktivsetzung kontinuierlich gesteuert werden.
IHRE AUFGABEN- Strategische und operative Gestaltung der Anforderungen und Standards für Produktivsetzung, Betriebsübernahme und Skalierung von KI-Lösungen aller KI-Einheiten bei Amprion – unter Berücksichtigung der geltenden EU-AI-Act-Vorgaben, beginnend bereits in der PoC-/MVP-Phase
- Definition von Vorgehen und technischen Rahmenbedingungen für die Produktivsetzung von KI-Lösungen innerhalb und außerhalb von Azure (z. B. Architektur-Patterns, Sicherheits- und Compliance-Anforderungen, Betriebsmodelle)
- Konzeption und Weiterentwicklung von Deployment-Standards, CI/CD-Pipelines, Referenzarchitekturen sowie technischen Rahmenbedingungen für MLOps (inkl. Azure ML) in enger Abstimmung mit Plattform-, Infrastruktur- und Security-Teams
- Verantwortung für das Modell-Lifecycle-Management: Freigabeprozesse, Drift-Erkennung, Re-Training und Versionierung von Modellen sowie Performanz- und Skalierungsoptimierung (z. B. Quantisierung, Pruning, Batch-/Streaming-Verarbeitung, Nutzung von GPUs)
- Übergeordnetes Management, Strukturierung und Moderation der Übergabepunkte zwischen KI-Teams, Business IT / Service-Clustern und Fachbereichen; Klärung und Dokumentation klarer Verantwortlichkeiten für Datenanbindung, Monitoring, Support und Lizenzierung
- Prüfung und Unterstützung bei der produktiven Integrations- und Betriebsfähigkeit von Modellen und KI-Lösungen (u. a. Skalierung, Robustheit, Observability, Incident-/Change-Handling) sowie Mitverantwortung für Betrieb und Monitoring bestehender produktiver KI-Services
- abgeschlossenes Hochschulstudium der Informatik, Wirtschaftsinformatik, Ingenieurwissenschaften oder eines vergleichbaren Studiengangs oder eine gleichwertige, in der Praxis erworbene Qualifikation im Bereich Software-, Daten- oder Cloud-/KI-Engineering
- mehrjährige Berufserfahrung (z. B. 3–5 Jahre) in der technischen Integration, dem Betrieb oder der Architektur von datengetriebenen bzw. (KI-)Lösungen in Unternehmensumgebungen; Erfahrung in komplexen Unternehmenslandschaften von Vorteil
- sehr gute Kenntnisse von Deployment-Standards und in Cloud- und Plattformtechnologien, bevorzugt Microsoft Azure (z. B. Azure ML, Kubernetes, Container-Orchestrierung, API-Management), sowie praktische Erfahrung im Aufbau und Betrieb von CI/CD-Pipelines und MLOps-Umgebungen
- Erfahrung in der Zusammenarbeit mit Data Scientists, ML Engineers, Softwareentwicklern, IT-Betrieb und Fachbereichen; Fähigkeit, technische Anforderungen und betriebliche Notwendigkeiten adressatengerecht zu vermitteln
- Kenntnisse in Themen wie Monitoring/Observability, Logging, Performance-Optimierung, Security und Compliance im Kontext produktiver KI-Workloads; Bereitschaft, diese Themen im Austausch mit Fach- und Security-Teams weiter zu vertiefen
- Eigenverantwortliche und strukturierte Arbeitsweise mit Blick für Qualität und Umsetzbarkeit, kombiniert mit Pragmatismus in der Lösungsfindung