Für Entwickler

    Lösungsbausteine: Technische Architektur und Konfiguration

    Die omniSuite stellt vorkonfigurierte Funktionseinheiten bereit, die universelle, systemtechnisch notwendige Funktionen mit der konfigurierbaren Umsetzung kontextbezogener Anforderungen verbinden. Jeder Baustein deckt technische Standards — CRUD-Operationen, Validierungen, Protokollierung — sofort ab. Entwickler konzentrieren sich auf das fachliche Regelwerk. Über 20 Jahre Projekterfahrung sind eingeflossen, was das Realisierungsrisiko reduziert und die Zeit bis zum ersten lauffähigen Artefakt von Wochen auf Stunden verkürzt.

    01 / 07

    Grundkonzept und Architekturprinzipien

    01.01

    Was ist das fundamentale Prinzip hinter den Lösungsbausteinen?

    Jeder Baustein verbindet universelle, systemtechnisch notwendige Funktionen mit konfigurierbaren Anknüpfungspunkten für kontextbezogene Anforderungen. Systemfunktionen übernehmen die Ausführung, Prüfung und Protokollierung, während die Fachlogik gezielt an klar definierten Hooks konfiguriert oder programmiert wird.

    In klassischen Projekten entfallen oft 80 % des Aufwands auf das „technische Grundrauschen“. Die omniSuite stellt diese Basisfunktionen als praxiserprobte Bausteine bereit.

    01.02

    Wie funktioniert das Zusammenspiel zwischen Systemlogik und Fachlogik?

    Event-Hooks wie AfterSave, OnClose oder CustomValidator ermöglichen die gezielte Reaktion auf Systemereignisse. Die Plattform erzwingt Qualitätsregeln und Berechtigungen systemweit — unabhängig davon, ob Daten über die UI, eine API, einen Import oder den Bulk-Editor verarbeitet werden. Entwickler müssen diese übergreifenden Mechanismen nicht selbst implementieren, sondern nutzen die vorhandene Infrastruktur und ergänzen ausschließlich die fachspezifische Logik.

    01.03

    Wie integrieren sich die Bausteine in die Gesamtarchitektur?

    Alle Bausteine arbeiten auf denselben Datenstrukturen, Berechtigungen und Qualitätsregeln. Die Adaptive Korrelations-Engine sichert die Konsistenz über Objektgrenzen hinweg, die State Tracking Engine dokumentiert Zustandswechsel, und das Historienmanagement protokolliert Änderungen — durchgängig und ohne Zusatzkonfiguration pro Baustein. Die Bausteine können über den Action Scheduler orchestriert und über das E-C-A-Gerüst mit Ereignissteuerung verbunden werden.

    02 / 07

    Zentrale funktionale Bausteine

    02.01

    Was leistet der Maskengenerator über das reine Layouting hinaus?

    Der Maskengenerator erstellt Oberflächen direkt aus der fachlichen Objektbeschreibung und stellt automatisch CRUD-Operationen für angebundene Tabellen bereit. Er integriert eine konfigurierbare Validierungslogik — zentral oder auf UI-Element-Ebene — und bietet Event-Hooks (AfterSave, OnClose, CustomValidator). Zur Performance-Steigerung implementiert er Caching von Berechtigungen, sodass Zugriffsprüfungen nicht bei jedem Seitenabruf neu berechnet werden müssen.

    02.02

    Wie unterstützt die Adaptive Korrelations-Engine (ACE) komplexe Prozesse?

    Die ACE ist für die kontext-, zustands- und beziehungsabhängige Ableitung von Werten und Zuständen über Objektgrenzen hinweg verantwortlich. Sie ermöglicht die automatische Kaskadierung von Zuständen auf abhängige Objekte und sichert die Datenkonsistenz in hochkomplexen Abhängigkeitsstrukturen. Entwickler müssen Kaskaden oder Synchronisationen nicht mehr individuell programmieren — die Engine übernimmt die regelbasierte Absicherung.

    02.03

    Was ist die Aufgabe der State Tracking Engine?

    Die State Tracking Engine ermöglicht die lückenlose Verfolgung und Dokumentation von Objektzuständen. Pro Objekt können mehrere Zustandstabellen angelegt werden — etwa für Lebenszyklus, Ausfallstatus und Bearbeitungsstatus. Zustandswechsel können automatisch Ereignisse wie Benachrichtigungen, Beziehungslöschungen oder Workflow-Starts auslösen. Jede Dimension kann eigene Regeln, Berechtigungen und Eskalationslogiken besitzen.

    02.04

    Wie unterscheidet sich das Historienmanagement von einfachem Logging?

    Das Historienmanagement bietet eine systematische Historisierung mit konfigurierbarer Detailtiefe auf Attributebene und ist für jede CRUD-Operation individuell konfigurierbar. Für jedes Informationsobjekt können mehrere Historientabellen angelegt werden, die unterschiedliche Aspekte abdecken.

    Sensible Daten können in separaten Historientabellen mit eigenem Zugriffsschutz geführt werden. Das Ergebnis ist nicht nur Nachvollziehbarkeit, sondern Revisionssicherheit nach regulatorischen Anforderungen.

    03 / 07

    Reporting und Self-Service-Bausteine

    03.01

    Was leistet der Reportgenerator technisch?

    Der Reportgenerator unterstützt drei Vorlagen-Typen: Standard-Reportvorlagen mit Step-by-Step-Navigation, komplexe Reportvorlagen mit grafischer Modellierungsoberfläche (Drag-and-Drop, visueller Designer, Vorschau) und frei formatierbare Reports mit voller Layout-Kontrolle. Datenobjekte werden über drei Wege angebunden: direkte Tabellenanbindung, automatische Pfadbildung über den Relation Miner oder universelle Anbindung über SQL-Skripte. Alle Report-Typen unterstützen den Export als Excel, CSV oder Druckversion.

    03.02

    Wie funktioniert das Berechtigungsmodell des Reportgenerators?

    Jede Reportvorlage verfügt über ein abgestuftes Berechtigungsmodell mit fünf Stufen: Select (Generieren), Update (Umbenennen/Beschreibung ändern), Delete (Löschen), Design (Layout ändern) und Owner (Weitergabe). Berechtigungen können für einzelne Mitarbeiter oder Gruppen vergeben werden — basierend auf Rollen, Organisationseinheiten oder Partnerfirmen. Reportvorlagen können kopiert und an andere Mitarbeiter übergeben werden.

    03.03

    Wie werden Reports automatisiert generiert und verteilt?

    Über den Action Scheduler lassen sich Reports zeitgesteuert generieren. Konfigurierbar ist, ob der generierte Report in der Datenbank gespeichert oder per E-Mail an einen definierten Empfängerkreis versandt wird. Reports können auch direkt in Applikationen eingebunden werden, wodurch ein vollständig automatisiertes und prozessintegriertes Reporting entsteht. Die Kontextvariable $LIST ermöglicht den Versand von Linklisten innerhalb automatisierter E-Mails.

    03.04

    Was leistet der Relation Miner?

    Der Relation Miner ermöglicht Pfadanalysen zwischen Informationsobjekten, ohne dass eigene Abfragen oder Modelle definiert werden müssen. Er identifiziert automatisch direkte und indirekte Verknüpfungen und stellt die Beziehungskette transparent dar. Im Reportgenerator wird er für die automatische Pfadbildung zwischen einem Start- und einem End-Datenobjekt eingesetzt, mit Einschluss-/Ausschluss-Filtern auf Datenobjekt- und Beziehungsebene.

    04 / 07

    Datenintegration und -operationen

    04.01

    Wie sichert der Baustein Data Reconciliation die Systemintegrität?

    Data Reconciliation identifiziert und korrigiert systematisch Abweichungen zwischen Soll- und Ist-Datenbeständen. Drei Formen: Einzelabgleich, eingebundene Abgleiche und gestaffelte Abgleiche. Der Baustein dient als aktive Steuergröße: Kritische Abweichungen können Folgeschritte im Prozess blockieren. Über den Action Scheduler lassen sich Ist/Soll-Abgleiche zeitgesteuert ausführen.

    04.02

    Was bietet der Data Import Manager?

    Der Data Import Manager ermöglicht die Anbindung vielfältiger Quellen: OLE DB, Excel, CSV, SQL-APIs. Vor dem Import führt er automatische Integrationstests durch — etwa die Prüfung auf Fremdschlüssel-Konsistenz. Transformationsregeln, Data Cleansing und PostSQL-Nachbearbeitungen sind direkt im Baustein konfigurierbar.

    04.03

    Wie unterstützt der Bulk-Editor (Masseneingabe) die Datenqualität?

    Der Bulk-Editor ermöglicht die schnelle Bearbeitung großer Datenmengen über Masseneingabeformulare. Trotz Massenbearbeitung bleiben alle Validierungen, Ableitungen und Berechtigungsprüfungen der Logikschicht aktiv. Systemereignisse steuern die Verarbeitung: Vor dem initialen Laden, nach dem Laden einer Zeile, CustomValidator vor dem Speichern und JavaScriptAfterSave/SQLAfterSave nach dem Speichern.

    05 / 07

    Materialized Views und Performance

    05.01

    Was sind Materialized Views und wann werden sie eingesetzt?

    Materialized Views speichern Abfrageergebnisse in einer lokalen Tabelle und aktualisieren diese regelmäßig nach definierten Intervallen oder durch SQL-Skripte. Gängige Einsatzgebiete: Objekt-Aggregation, Beschleunigung komplexer Analysen, Zusammenführung von Daten aus verschiedenen Quellen, Optimierung für geografisch verteilte Systeme, Bereitstellung historischer Schnappschüsse für Audits.

    05.02

    Wie werden Materialized Views erstellt und verwaltet?

    Vier Erstellungswege: basierend auf internen Datenbanktabellen, über externe Datenbanken (OLE DB-Provider für Oracle, MySQL, MS SQL Server, CSV, Excel), über benutzerdefinierte SQL-APIs mit integriertem SQL-Abfrage-Wizard oder über C#-Skripte. Nach dem Testen erfolgt die Zuordnung über eine Mapping-Verwaltungsoberfläche, die noch nicht zugeordnete und bereits zugeordnete Attribute übersichtlich darstellt.

    05.03

    Wie funktioniert das Refresh-Management für Materialized Views?

    Materialized Views werden über den Action Scheduler zeitgesteuert aktualisiert — einmalig, täglich oder wöchentlich mit konfigurierbaren Intervallen. Neben dem zeitgesteuerten Refresh können Materialized Views auch föderierte Abfragen unterstützen, sodass Daten aus externen Systemen verarbeitet werden, ohne die externe Quelle bei jeder Abfrage zu belasten.

    06 / 07

    Steuerung, Berechtigung und Governance

    06.01

    Wie funktioniert das kombinierte Berechtigungsmodell?

    Die omniSuite kombiniert drei Berechtigungsansätze: RBAC (rollenbasiert), ABAC (attributbasiert) und PBAC (policybasiert). Zugriffsrechte können objekt- und zustandsbezogen vergeben werden. Dieses dreistufige Modell wird systemweit erzwungen — unabhängig vom Zugriffskanal (UI, API, Import, Bulk-Editor). Die Berechtigungsprüfung ist in den Maskengenerator integriert und nutzt Caching zur Performance-Optimierung.

    06.02

    Wie funktioniert die regelbasierte Datensteuerung auf Tabellenebene?

    Dieser Baustein erlaubt die Definition von Logiken — etwa Editierbarkeit oder gültige Fremdschlüsselwerte — direkt an der Datenquelle. Diese Regeln werden systemweit erzwungen, unabhängig davon, ob die Daten über die UI, eine API oder einen Import verarbeitet werden. Konfiguriert wird über Bedingungs-Builder oder Skripteditoren.

    06.03

    Was ist der Action Scheduler im technischen Detail?

    Der Action Scheduler automatisiert zeit- oder zustandsgesteuerte Abläufe. Vorgefertigte Schritttypen: Gruppe refreshen, Materialized View refreshen, Matrix generieren, Report generieren (Snapshot, CSV, XLSX oder E-Mail), Ist/Soll-Abgleich.

    Für individuelle Schritte stehen SQL- und C#-Skriptausführung zur Verfügung. Zeitpläne unterstützen einmalige, tägliche und wöchentliche Ausführung mit konfigurierbaren Intervallen.

    07 / 07

    Entwicklungshilfen und Qualitätssicherung

    07.01

    Welche Wizards und Assistenten stehen zur Verfügung?

    Geführte Wizards für die automatische Generierung von SQL-, C#- und JavaScript-Code, für Code-Pattern (Trigger, Transaktionen), E-Mail/SMS-Versand sowie komplexe Datenabfragen. Der SQL-Abfrage-Wizard für Materialized Views ermittelt automatisch Beziehungen zwischen Informationsobjekten und generiert das entsprechende Skript.

    07.02

    Wie ist die Qualitätssicherung strukturell integriert?

    Qualität ist durch blockierende Pre-Gates verankert, die Pflichtfelder, Formate und Referenzen prüfen, bevor Daten gespeichert werden. Diese Gates wirken systemweit — über Masken, APIs, Importe und Bulk-Editor hinweg. Automatisierte Integritätschecks und der Data Integrity Deployment Cycle (DIDC) sichern fehlerfreie Deployments. Die zentrale Fehlerprüfung unter „System-Integrität“ prüft alle SQL-Skripte, APIs, Trigger und Prozeduren.

    07.03

    Warum ist das E-C-A-Gerüst für die Zukunftssicherheit entscheidend?

    Das Event-Condition-Action-Gerüst verankert Ereignisse und Reaktionen maschinenlesbar in der Architektur. Diese formale Grammatik sorgt heute für maximale Steuerungsfreiheit — jede Geschäftsregel ist explizit definiert und damit testbar, dokumentierbar und änderbar. Zukünftig bildet das E-C-A-Gerüst die notwendige Basis für Prozessoptimierungen durch KI-Agenten.

    ter>