Der Data Integration Manager nutzt dieselben Pre-Gates und Validierungsregeln wie die Benutzeroberfläche. Er bietet darüber hinaus eine mehrstufige Qualitätssicherung:
PreSQL-Validierung: Vor dem eigentlichen Import werden die Datensätze der Datenquelle geprüft, ob sie definierten Regeln und Standards entsprechen. Bei Fehlern kann der Import gezielt abgebrochen werden — fehlerhafte Datensätze werden in eine Fehlerdatei ausgelagert. Zusätzlich können PreSQL-Ist/Soll-Abgleiche ausgeführt werden, die die Konsistenz der Datenquelle im Vorfeld überprüfen.
Data Cleansing und Konsolidierung: Auf Datenquellenebene stehen drei Filtering-Varianten bereit (je Zeile einfach, je Zeile SQL-Batch, gesamte Datenquelle SQL-Batch). Die Konsolidierung ermöglicht die Bereinigung und Standardisierung von Schreibweisen — etwa die Vereinheitlichung von „München“, „Munchen“ und „Muenchen“ — und die Zusammenführung redundanter Datensätze vor dem Import.
Automatische Integrationstests: Bei der Zusammenführung von Datenquellen und Zieltabellen prüft das System automatisch das Vorhandensein von Identifizierungsspalten, die Konsistenz der Fremdschlüsselbeziehungen und die korrekte Zuordnung der Schlüsselfelder. Der Import wird nur gestartet, wenn alle Tests ohne Fehler bestanden sind.
Transformationsregeln auf Feldebene: Für jede Zieltabelle können Pre-Aktionen (Leerzeichen entfernen, Groß-/Kleinschreibung), Standardwerte, Ignorier-Regeln und SQL-basierte Transformationen definiert werden — universell auf Tabellenebene oder selektiv auf Datensatzebene.
ValidateBeforeInsert und ValidateBeforeUpdate: Validierungsregeln, die vor dem Einfügen oder Aktualisieren greifen und ungültige Datensätze blockieren, bevor sie die Zieltabelle erreichen.