Prüfungsfeste KI für regulierte Branchen

Dr. Tarlan Vezirov begleitet Konzerne, Versicherungen und Finanzdienstleister durch EU AI Act, interne Revision und Vorstands-Sign-off. Promotion in theoretischer Physik plus mehrjährige Praxis in quantitativer Modellvalidierung treffen auf produktive KI-Architektur — für KI-Anwendungen, die Compliance, Prüfung und Vorstand passieren.

Jedes Projekt beginnt mit einer Idee.

In regulierten Branchen — Konzerne, Versicherungen, Finanzdienstleister — entscheidet nicht nur, ob KI funktioniert, sondern ob sie EU AI Act, interne Revision und Vorstands-Sign-off passiert. Genau hier setze ich an: Aufbau prüfungsfester KI-Governance-Strukturen, mathematisch fundierte KI-Validierung mit über fünf Jahren Praxis aus dem quantitativen Risikomanagement, und produktive Architektur (Microsoft Copilot Studio, Azure OpenAI, AI-Agent-Setups, MCP). Statt teurer Berater-Entouragen setze ich moderne Werkzeuge gezielt ein — für Kunden, die ein erfahrener Spezialist mit quantitativer Tiefe begleiten soll, nicht ein ganzes Team.

KI-Governance & EU AI Act

  • KI-Governance-Framework aufbauen – Konzeption und Aufbau prüfungsfester KI-Governance-Strukturen für regulierte Branchen — abgestimmt auf interne Revision, Compliance und Vorstand.

  • EU-AI-Act-Assessment durchführen –Risikoklassifikation von KI-Anwendungen nach EU AI Act, Lückenanalyse zu Art. 9 (Risikomanagement-System) und Art. 15 (Robustheit/Genauigkeit) — mit konkretem Maßnahmenplan.

  • KI-Risikomanagement-System aufbauen – Aufbau eines KI-Risikomanagement-Systems nach EU AI Act Art. 9 — Risiken identifizieren, bewerten und über den Lebenszyklus steuern. Brücke zu MaRisk/BCBS-239 für Banken-Mandate.

  • Stakeholder-Steuerung Compliance/Fach/IT – Vermittlung zwischen Compliance, Fachbereich, IT und Vorstand — KI-Themen so übersetzen, dass alle Stakeholder gemeinsam tragfähige Entscheidungen treffen.

Quantitative KI-Validierung

  • Modellvalidierungs-Methodik – Mathematisch fundierte Validierung von KI-Modellen — Backtest-Architekturen, Sensitivitäts- und Stabilitätsanalysen, Bias-Audits. Methodik aus über fünf Jahren quantitativem Risikomanagement.

  • Robustheits- und Genauigkeits-Validierung – Validierungs-Frameworks für Genauigkeit, Robustheit und Cybersicherheit von KI-Systemen gemäß EU AI Act Art. 15 — inklusive Adversarial-Robustheit, Drift-Erkennung, Performance-Monitoring.

  • Stresstest-Methodik für KI –Übertragung der Stresstest-Methodik aus dem Banken-Säule-2-Kontext auf KI-Modelle: Datendrift, Adversarial Inputs, Edge-Cases und systemische Ausfallszenarien — für KI in High-Risk-Anwendungen.

  • Quantitative Tiefe für High-Risk-Modelle – Mathematisch-statistische Grundlage für Modell- und KI-Bewertung: Bayessche Inferenz, Hypothesentests, stochastische Modellierung, Monte-Carlo-Simulationen — Promotion in theoretischer Physik.

Produktive KI-Architektur (End-to-End)

  • KI-Anwendungen konzipieren & bewerten – Identifikation geeigneter Use Cases für GenAI, LLMs und Multi-Agenten-Systeme — mit Nutzenargumentation, Machbarkeitsbewertung und Compliance-Check vor der Umsetzung.

  • GenAI- und Multi-Agenten-Lösungen entwickeln – Umsetzung produktiver KI-Anwendungen mit Microsoft Copilot Studio, Azure OpenAI, AI-Agent-Setups (CrewAI) und MCP-Anbindungen — auditierbar und revisionsfest.

  • RfP-Begleitung End-to-End – Begleitung bei Ausschreibungen für KI-Lösungen — von der Anforderungs-Erhebung über Anbieter-Bewertung und Vertragsverhandlung bis zur Umsetzungs-Begleitung im Konzernumfeld.

  • Test- und Validierungs-Konzepte erstellen – Planung und Durchführung von Tests und KI-Validierungen entlang des EU-AI-Act-Lebenszyklus — Schulung der Anwender und Qualitätssicherung über das Projekt hinweg.

KUNDENSTIMMEN

Erfolge, die für sich sprechen

Tarlan hat uns im Bereich AI Risk Management maßgeblich unterstützt. Seine ausgeprägten analytischen Fähigkeiten und sein lösungsorientierter Ansatz machten ihn zu einer echten Bereicherung für unser Team. Besonders hervorzuheben ist sein tiefes technisches Verständnis, kombiniert mit der Fähigkeit, auf Augenhöhe mit unterschiedlichsten Stakeholdern zu kommunizieren. Seine Impulse für neue Ansätze sowie die Weiterentwicklung unseres AI Risk Assessments waren für uns von großem Wert.

Stefanie Feld, Head of Global AI Governance, Henkel

Bewerbungsanwendung (Java)

Spielentwicklung (C# und Unity)

Dokumentenanalyse mit KI (Python)