Ein mittelständisches Unternehmen beauftragte den IT-Sachverständigen mit der tiefgehenden technischen Analyse einer unternehmensweiten ERP- und Datenintegrationsplattform. Ziel war die objektive Bewertung von Softwarearchitektur, Performance, Datenqualität und Wartbarkeit auf Basis technischer, normativer und wissenschaftlich fundierter Kriterien.
Ausgangssituation
Das Unternehmen betrieb eine mehrschichtige ERP-Plattform zur Abbildung zentraler Geschäftsprozesse in Produktion, Logistik und Rechnungswesen. Das System bestand aus einer Kombination proprietärer Softwaremodule, individueller Anpassungen und mehrerer externer Schnittstellen zu Lieferanten- und Finanzsystemen. Aufgrund wiederkehrender Systemausfälle, Performanceprobleme bei hoher Benutzerlast und divergierender Datenstände wurde der IT-Sachverständige mit einer unabhängigen technischen Analyse beauftragt. Die Untersuchung sollte Ursachen, Risiken und Optimierungspotenziale aufdecken und eine fundierte Grundlage für technische und organisatorische Entscheidungen liefern.
Problemstellung
Die Analyse verfolgte das Ziel, die technische Qualität und Reife der Plattform anhand reproduzierbarer Kriterien zu bewerten. Die Kernfragen lauteten:
- Erfüllt die Softwarearchitektur die Anforderungen an Wartbarkeit, Skalierbarkeit und Sicherheit gemäß [NORM_PLATZHALTER]?
- Wie konsistent, vollständig und aktuell sind die Datenbestände im Sinne des [NORM_PLATZHALTER] Data Quality Model?
- Welche systemischen Engpässe oder architektonischen Schwachstellen führen zu Performanceproblemen?
- Wie transparent und dokumentiert sind Architekturentscheidungen, Prozesse und Schnittstellen?
- Welche Risiken bestehen hinsichtlich technischer Schulden, Systemstabilität und organisatorischer Verantwortlichkeiten?
Vorgehen des IT-Sachverständigen
Die Untersuchung folgte einem methodisch klar definierten Vier-Phasen-Modell nach ingenieurmäßigen Analyseprinzipien (angelehnt an Nicolai Andler, Publicis, 2015) und den Normen [NORM_PLATZHALTER], 12207 und 27001:
- 1. Diagnosephase: Vollständige Erfassung der Systemlandschaft (ERP-Kernsystem, Datenbanken, Middleware, API-Gateways) sowie der Infrastrukturparameter. Dokumentations- und Quellcodeanalyse mit Fokus auf Versionierung, Abhängigkeiten und technischen Schulden.
- 2. Zielformulierung:
Definition von Prüf- und Bewertungsmetriken, darunter:
- Cyclomatic Complexity (Code-Komplexität)
- Coupling/Cohesion Ratio (Modularität)
- Data Completeness Ratio (Datenvollständigkeit)
- MTTR/MTBF (Systemzuverlässigkeit)
- Response Time / Throughput (Leistungskennzahlen)
- 3. Analysephase:
Anwendung kombinierter Verfahren aus Softwaretechnik und Data Engineering:
- Statische und dynamische Codeanalysen mit SonarQube und PMD,
- Architektur-Review (Layer-Struktur, Schnittstellen, Abhängigkeiten, Deployment-Topologie),
- Datenfluss- und ETL-Analyse zur Überprüfung von Synchronisationszyklen und Datenintegrität,
- Last- und Performancetests (JMeter, Grafana) zur Identifikation von Skalierungsengpässen.
- 4. Bewertung & Klassifikation: Zusammenführung aller Ergebnisse in einer normbasierten Reifegradmatrix (1 = kritisch – 5 = exzellent) für die Dimensionen Codequalität, Architektur, Datenqualität, Performance, Dokumentation und Governance.
Analyseergebnisse
Die Untersuchung führte zu einem differenzierten Gesamtbild:
- Softwarequalität: Der Quellcode war grundsätzlich stabil, aber stark heterogen. Nur 42 % der Module erfüllten interne Coding-Standards; Testabdeckung: 36 %. Durchschnittliche Cyclomatic Complexity: 14,2 (Grenzwert: 10). Identifiziert wurden 124 Code Smells und 18 potenzielle Sicherheitslücken.
- Architektur: Die Applikation wies redundante Logikschichten auf. Ein direkter Datenbankzugriff aus der UI-Schicht verletzte das Schichtenprinzip (Layer Violation). Fehlende API-Governance führte zu inkonsistentem Schnittstellenverhalten.
- Datenqualität: ETL-Prozesse synchronisierten Daten nur alle 12 Stunden. Abweichungen zwischen Quellsystem und Zielsystem betrugen bis zu 8 %. Data Completeness Ratio: 91,7 %, Data Accuracy Score: 93,4 %.
- Performance: Durchschnittliche Antwortzeiten: 340–380 ms bei 1.000 gleichzeitigen Anfragen; Spitzenlast führte zu 11 % Timeouts. Hauptursache: Ineffiziente Joins und fehlende Indexierung im Order-Management-Modul.
- Dokumentation & Governance: Architekturdiagramme veraltet (Stand 2021), keine dokumentierten Architecture Decision Records (ADRs). Verantwortlichkeiten für Datenflüsse nicht eindeutig definiert.
Erkenntnisse & Empfehlungen
Aus der Analyse leitete der IT-Sachverständige einen priorisierten Maßnahmenplan ab:
- Architekturmodernisierung: Einführung eines konsistenten Drei-Schichten-Modells (Presentation – Business – Data Layer) mit API-Gateway und Service Registry. Refactoring der Schichtenkommunikation nach dem Dependency-Inversion-Prinzip.
- Softwarequalität: Aufbau eines Continuous-Integration-Systems mit automatisierter Testabdeckung (>80 %) und statischen Codeanalysen in der Build-Pipeline.
- Datenmanagement: Implementierung einer Datenqualitätsüberwachung mit Monitoring der KPIs Data Accuracy, Completeness und Timeliness.
- Performance: Optimierung der Abfragen (Query-Refactoring, Indexierung), Einführung von Connection-Pooling und Caching auf Application-Ebene, Integration von Load-Balancern zur horizontalen Skalierung.
- Governance & Dokumentation: Aufbau eines zentralen Architektur-Repositorys mit ADR-Dokumentation, klarer Verantwortlichkeitsstruktur (Data Owner / Process Owner) und jährlicher interner Auditierung nach [NORM_PLATZHALTER].
- Testabdeckung: +42 %
- Durchschnittliche Antwortzeit: –48 %
- Reduktion von Dateninkonsistenzen: –5,6 %
- Gesamtreifegrad: 4,4 / 5
Reflexion
Diese Fallstudie verdeutlicht den Nutzen einer methodisch fundierten, datenbasierten Analyse als Grundlage technischer und strategischer Entscheidungen. Der IT-Sachverständige schafft durch den Einsatz normierter Bewertungsverfahren, reproduzierbarer Kennzahlen und technischer Transparenz eine belastbare Entscheidungsbasis für Geschäftsführung, Projektsteuerung und – im Streitfall – juristische Beurteilungen. Die Kombination aus technischer Tiefenanalyse und strukturiertem Bewertungsrahmen gewährleistet Objektivität, Nachvollziehbarkeit und Nachhaltigkeit der Gutachtenergebnisse.