Die erweiterte Funktion Objekt-Prüfung … und mehr im neuen GEFEG.FX Release

Was ist Neu im GEFEG.FX Quartals-Release 2021-Q1?

Neue und überarbeitete Datenpakete in GEFEG.FX

  • EDIFACT D.20B in GEFEG.FX

Neu: IFTSTA als RECAST VERSION Message

  • UN/LOCODES Version 2020-2

Die Codeliste für codierte Ortsnamen in 249 Ländern weltweit wird zweimal jährlich von UN/CEFACT aktualisiert und mit GEFEG.FX ausgeliefert.

  • Automobil-Standards
    • Neue Versionen für Odette EDIFACT Messages
    • Finished Vehicle Logistics
    • Packaging Messages
    • Codelisten-Update
    • Neue Version der Auto-gration Schema Nachrichten
  • VDA-Standards (VDA Empfehlungen)
    • Neue oder überarbeitete Logistik-Nachrichten VDA 4933, VDA 4984, VDA 4985, VDA 4987, VDA 4989, VDA 4990
    • Codelisten-Update
  • WCO Datenmodell Version 3.10

Mit der Funktion Objekt-Prüfung Strukturproblemen gezielt auf die Spur kommen

Wenn Sie strukturelle Änderungen an Projektordnern vornehmen, kann sich dies direkt auf Ihre Objekte in GEFEG.FX auswirken. Im ungünstigsten Fall können Sie GEFEG.FX Guides nicht mehr öffnen. Woran liegt das?

Vielfach sind Objekte in GEFEG.FX mit Codelisten verlinkt oder basieren auf Basisstandards. Falls diese verknüpften Objekte nicht im GEFEG.FX Manager vorhanden sind, können GEFEG.FX Guides nicht ordentlich geöffnet werden. Ebenfalls problematisch sind mehrfach vorhandene Objekte: Auch dann kann GEFEG.FX keine eindeutige Zuordnung herstellen und das GEFEG.FX Objekt nicht öffnen.

Lösen Sie Ihre Probleme mit Verknüpfungen, Duplikaten oder verschobenen Objekten mit der Funktion Objekt-Prüfung

Nutzen Sie die Objekt-Prüfung im Manager, um Probleme in der Verlinkung, bei Duplikaten oder verschobenen Objekten zu identifizieren. Unabhängig vom Format (EDI–Guide, XML Schema oder Datenmodell) wird dabei das Ergebnis der Objekt-Prüfung als Fehlerliste ausgegeben und kann ab sofort als separate Datei zur weiteren Analyse gespeichert werden.

Navigieren Sie schnell in Datenmodell- und Schemastrukturen

Ein GEFEG.FX Schema oder Datenmodell kann sehr komplexe Strukturen annehmen. Dabei ist es nützlich, die benutzten Komponenten (Elemente, Typen, Attribute, Klassen) einer Nachricht bei Bedarf global zu definieren.

Vorteile eines globalen Designs sind die …

  • Wiederwendung

Benutzen Sie Komponenten wieder, so dass Strukturen, Inhalte und Einschränkungen übernommen und nicht erneut erfasst werden

  • Systematische Fehlerbehebung

Mit der Korrektur an einer Stelle werden alle Wiederverwendungen automatisch mit korrigiert

 

Ab sofort steht Ihnen eine Erweiterung für die Navigation innerhalb globaler Objekte zur Verfügung, die insbesondere für Schema- und Datenmodellentwickler relevant sein sollte: „Zeige Verwendungen in Nachrichten“. Springen Sie von einer globalen Komponente direkt in die Elementstruktur und sparen Sie Zeit und Mühe ohne jede einzelne Verwendung nachverfolgen zu müssen.

Wie sieht ein typisches Beispiel für die Nutzung dieser Funktion aus? Sie haben einen globalen Typen ‚Party‘ definiert. Mit „Zeige Verwendungen in Nachrichten“ überspringen Sie die Zwischenebenen und gelangen zum ‚Buyer‘ oder ‚Seller‘ in der Nachricht.

Zum Thema OpenAPI gibt es eine ganze Reihe Artikel und Seiten im Netz. Warum sollte ich also einen weiteren schreiben? Ganz einfach. Viele dieser Artikel richten sich an (erfahrene) Webentwickler. Was ist aber mit all denjenigen, die sich bisher mit EDI oder dem Austausch von elektronischen Geschäftsnachrichten beschäftigt haben? Dieser kurze Einstieg ist für Euch.

APIs zum Austausch von Geschäftsdokumenten

Eine API als Verbindungsstück zwischen zwei Systemen oder Softwarekomponenten an sich ist nichts Neues. Deren Anwendung für den Austausch von Geschäftsdokumenten aber schon. Für diese Anforderung gibt es seit vielen Jahrzehnten Lösungen für den elektronischen Geschäftsdatenaustausch. Beispiele sind das klassische EDI auf Basis von EDIFACT oder der Austausch von XML-Dateien. Letztere erfährt gerade im Zug der verpflichtenden Einführung elektronischer Rechnungen für öffentliche Auftraggeber eine stärkere Verbreitung.

Doch gerade hier zeigen sich auch die Probleme der bisherigen Lösungen. Klassischer Dokumentenaustausch ist prinzipiell nichts anderes als die digitale Nachbildung der Papierwelt. Also hat sich im Grunde genommen in den letzten 100 Jahren kaum etwas am Grundprinzip geändert. Nur das Übertragungsmedium hat sich geändert: von Papier zu einem von vielen elektronischen Formaten. Das ging so lange gut, wie die zu übertragenden Dokumente nur zwischen zwei Partnern ausgetauscht wurden. Zum Beispiel die Rechnung vom Verkäufer zum Käufer.

Durch die fortschreitende Digitalisierung verbunden mit der Globalisierung steigen jedoch die Anforderungen. Oftmals sind am Austausch der Informationen nicht nur zwei, sondern mehr Partner interessiert, zum Beispiel, wenn Waren grenzüberschreitend transportiert werden sollen. Dann kommen neben den klassischen Partnern auch noch die ein- und die ausführende Zollbehörde, das Transportunternehmen und ggf. noch weitere Partner hinzu. Folglich ist dies eine sehr heterogene Welt in Bezug auf die Technik. Und gleichzeitig steigt die Anforderung nach Transparenz in der Lieferkette. Und die Forderung Produktpiraterie und -fälschungen besser erkennen und verhindern zu können.

Mit klassischem EDI ist das kaum umsetzbar

Doch warum ist das mit klassischem EDI so schwierig umzusetzen? Sicherlich spielt dabei eine wesentliche Rolle, dass es nicht „Das EDI“ gibt, sondern viele verschiedene Standards zum Austausch von Geschäftsdokumenten. Diese sind teilweise durch Anforderungen einer Branche oder individuelle Anforderungen einzelner Unternehmen noch zusätzlich beladen. Dadurch wird ein Standard oftmals so stark verwässert, dass es viele hundert Varianten einer einzelnen Nachricht geben kann. Darüber hinaus kommt noch erschwerend dazu, dass hier die Anforderungen an „Geschäftsdokumente“ erfüllt werden sollen.

Doch diese Anforderungen kommen aus der Papierwelt. Einer Welt, in der Menschen das erhaltene (Papier-) Dokument mit den Büchern (Buchhaltung) abgleichen. Diese Dokumente enthalten außerdem sehr viele Informationen, die in einem elektronischen Prozess eigentlich überflüssig sein könnten.

So braucht zum Beispiel eine Zollbehörde nicht die kompletten Vertragsbeziehungen einschließlich Lieferbedingungen oder vereinbarten Konditionen zu kennen. Klassisch entstehen hierfür wiederum neue Dokumente und neue (EDI -) Nachrichten. Oder beteiligte Personen oder Systeme haben (noch) keinen einheitlichen elektronischen Zugriff auf die Informationen. Heute kündigen große Lieferanten und ihren Kunden Lieferungen elektronisch an (Despatch advice). Und dennoch wird zusätzlich ein Lieferschein oder Warenbegleitschein ausgedruckt und der Sendung beigefügt.

Für eine EDI-Umsetzung müssen also die Prozesse der einzelnen Organisationen entlang der Wertschöpfungsketten auch semantisch ineinandergreifen. Also müssen auch die Managementsysteme der Organisationen mit solchen elektronischen Nachrichten umgehen können. Und immer auf einem gleichen Stand sein. Das ist in der Praxis nur schwer zu erreichen. Standards helfen dabei, aber eine Umsetzung ist oftmals zu schwierig und zu teuer.

Wer cloud meine Daten?

Noch ein weiterer Aspekt kommt hinzu. Eine Studie aus dem Jahr 2020 hat gezeigt, dass eines der größten Hemmnisse die Angst ist, durch zentrale Datenaustauschplattformen die Kontrolle über die eigenen Daten zu verlieren.

Die Sicherung der Datensouveränität ist also ein wesentlicher Aspekt, wenn im Business-to-Business Bereich Plattformen neu geschaffen werden sollen.

REST APIs bieten hier einen klaren Ansatz, sich von den Geschäftsdokumenten für den Datenaustausch zu lösen. Stattdessen werden nur die tatsächlich benötigten Informationen ausgetauscht. Mit klar definierten Partnern. So kann zum Beispiel sichergestellt werden, dass keine vereinbarten Preise über ein Lieferantenportal in die falschen Hände gelangen.

Trennung von Datenstrukturen und Services

Ein klassisches EDI Szenario umfasst im Wesentlichen nur zwei Services. Die Umwandlung von Daten eines Quellsystems in das Datenformat des Zielsystems und die Weiterleitung der Daten an das Zielsystem. Natürlich kann es komplexere Szenarien mit Rückmeldungen geben, die ähnlich wie ein Einschreiben mit Rückschein funktionieren. Aber alles, was darüber hinausgeht, ist eigentlich nicht mehr Bestandteil des eigentlichen EDI-Szenarios. Die Prozesse selbst müssen von den jeweiligen Endsystemen erbracht werden, zum Beispiel wird eine Auftragsbestätigung zu einer Bestellung vom System des Verkäufers erstellt. Die EDI-Lösung überträgt diese dann wiederum zurück. Also wiederum mit denselben Services, jedoch einem anderen Dokument.

In der Welt der APIs geht der Servicegedanke darüber hinaus. Eine API kann aktiv einzelne Prozessschritte unterstützen. Oder sie kann auch echten Mehrwert bieten, wie zum Beispiel die Bereitstellung von Informationen, wobei der API-Nutzer festlegen kann, welche Filterkriterien dabei angewendet werden sollen. Dies ist in der klassischen EDI-Welt kaum denkbar.

Diese Möglichkeiten führen dazu, dass in einer API nicht nur die Datenstrukturen definiert sind, sondern auch die Services. Diese verwenden dann die definierten Datenstrukturen, um eingehende Informationen zu verarbeiten, oder ausgehende Informationen bereitzustellen.

Machen APIs nicht alles komplizierter?

Puh, das klingt ziemlich kompliziert. Und wenn jetzt noch mehr dazu kommt, wird es dann nicht noch unübersichtlicher? Und irgendjemand muss es ja auch noch implementieren!

Genau hier setzt OpenAPI an. Gerade keine proprietären Regeln zu entwickeln, sondern die Spezifikation einer API zu standardisieren. Diesen Unterschied zu verstehen, ist immens wichtig. Es geht also nicht darum, wie eine API implementiert wird. Nein, sondern darum, was sie genau leisten soll. Welche Services sie bietet und welche Datenstrukturen sie dabei unterstützt.

Wie oben beschrieben gibt es im EDI-Umfeld viele Standards, auch internationale. Das Zentrum der Vereinten Nationen für Handelserleichterungen und elektronische Geschäftsprozesse UN/CEFACT standardisiert bereits seit vielen Jahren die Bedeutungen von Datenstrukturen bei Geschäftsdokumenten. UN/CEFACT veröffentlicht semantische Referenzdatenmodelle, an denen sich weltweit viele Organisationen und Branchen orientieren.

Von Bedeutungen und Zwillingen

REST APIs werden im Internet bereits viele Jahre eingesetzt. Vor allem zur Bereitstellung von Dienstleistungen für andere Webseiten oder auf mobilen Geräten. Beispiele sind APIs zur Währungsumrechnung oder die diversen Karten-APIs, mit der man einfach von A nach B navigieren kann. Das semantische Web spielt dabei ebenfalls eine wichtige Rolle. Die Systeme der Onlineshops, Suchmaschinen und sozialen Netzwerke sollen semantische Zusammenhänge erkennen können. Zum Beispiel welche Zutaten ein Rezept benötigt, wie lange die Zubereitung dauert, und welche Shops diese Zutaten zu welchen Preisen anbieten.

Eine wesentliche Grundlage dafür bieten die Standards auf schema.org. An diesen klaren Definitionen orientieren sich all diese Dienste und ermöglichen es sogenannte digitale Zwillinge (Digital Twins) abzubilden. Alles Identifizierbare der realen Welt lässt sich auch digital abbilden: Personen, Veranstaltungen, Häuser, Lizenzen, Software, Produkte und Dienstleistungen, um nur einige zu nennen. Und das Ganze verständlich für Menschen und durch Maschinen verarbeitbar.

Kein Wunder also, dass viele sich die Frage gestellt haben, wie sich dies auf die Business-to-Business-Ebene übertragen lässt, auch UN/CEFACT. Wie bleiben die Errungenschaften der letzten Jahrzehnte mit Web-APIs erhalten?

OpenAPI – Ein Spezifikationsstandard für APIs

Der Spezifikationsstandard OpenAPI definiert also ein Regelwerk, wie APIs zu spezifizieren sind. Welche Services werden bereitgestellt? Welche Datenstrukturen werden benötigt? Was sind die Anforderungen an eine Implementierung? Und das Ganze sowohl in einer Version, die durch den Entwickler gelesen werden kann, aber auch durch eine Maschine.

Genau hier liegt die eigentliche Stärke dieses Standards. Der sehr große Support durch eine Vielzahl an Tools und Programmierumgebungen. Damit ist es möglich, eine API auf der Fachebene zu definieren. Mit all ihren Services und Datenstrukturen. Sie kann gleichzeitig beschrieben werden, so dass ein Entwickler diese möglichst intuitiv umsetzen kann.

Und dabei wird der Entwickler massiv unterstützt. Da die Spezifikation maschinenlesbar ist, existieren Tools, die direkt aus der Spezifikation Quellcode erzeugen. Damit ist sichergestellt, dass die spezifizierten Eigenschaften der Schnittstelle selbst korrekt implementiert sind: Die Namen von Endpunkten (Services) sind korrekt. Die von diesen verwendeten Datenstrukturen sind korrekt umgesetzt und auch alle Rückgabewerte klar definiert.

Natürlich muss der Entwickler noch die eigentliche Implementierung der Server- bzw. Clientseite vornehmen. Stellt er sich dabei geschickt an, kann diese Implementierung sogar sicher gegenüber künftigen Änderungen sein. Eine Aktualisierung der Spezifikation kann direkt in den Sourcecode übernommen werden und bedarf nur kleinerer Anpassungen.

Wer definiert OpenAPI?

OpenAPI hat seinen Ursprung in Swagger. Bereits im Jahr 2010 hat der Hersteller von Swagger, die Firma SmartBear erkannt, dass eine API Spezifikation nur dann erfolgreich sein kann, wenn sie offen und gemeinschaftlich (community-driven) entwickelt wird. Daher hat sie die Rechte an die OpenAPI Initiative übertragen. Zu dieser gehören durchaus große Namen wie Google, Microsoft, SAP, Bloomberg und IBM. Diese Community ist sehr aktiv und entwickelt die Spezifikation stetig weiter. Die zum Zeitpunkt dieses Artikels jüngste Veröffentlichung ist OpenAPI 3.1.

Spätestens seit dem Jahr 2016 steht also Swagger nur noch für die von der Firma SmartBear erstellten Tools. Die mit diesen Tools erstellten Spezifikationen sind in der Regel OpenAPI Spezifikationen. Allerdings unterstützten diese Tools auch noch die alten Vorgängerformate, insbesondere das Format Swagger 2.0.

Nutzung und Verbreitung von OpenAPI

Das TMForum führt regelmäßig Studien zur Verbreitung von OpenAPI durch. Die letzte Studie zeigt eine deutliche Zunahme an Adoptionen. Vermehrt umkleiden Unternehmen ihre bestehenden APIs in OpenAPI Spezifikationen, sobald diese zum unternehmensübergreifenden Datenaustausch dienen. Gemäß der Studie teile sich der Markt insbesondere in zwei Lager auf: Klare Vertreter von OpenAPI und solche Organisationen, die sich künftig verstärkt um OpenAPI kümmern wollen.

In der Vorstellung von OpenAPI 3.1 erklärte Darrel Miller von Microsoft, dass es auch noch viele Implementierungen mit RAML gäbe. Jedoch zeige der Trend, dass RAML mehr bei Inhouse-Lösungen zu finden ist. OpenAPI bildet dabei vermehrt die Grundlage für unternehmensübergreifende Szenarien.

Code-First (Swagger) oder Model-First (GEFEG.FX)?

Ein wesentlicher Unterschied bei den derzeit auf dem Markt vorhandenen Tools liegt darin, ob die Quellcodeentwicklung oder die modellbasierte Entwicklung im Vordergrund steht. Der Swagger-Editor ist ein typisches Beispiel für eine Code-First-Anwendung. In einem Editor kann der API-Entwickler direkt seine API-Spezifikation erfassen und dokumentieren. Dies umfasst sowohl die Servicestrukturen, als auch die Datenstrukturen. Neben diesem maschinenlesbaren Format sieht er auch gleich die aufbereitete Dokumentation für einen anderen Entwickler. Die Dokumentation steht dann zum Beispiel in einem Developer-Portal zur Verfügung.

Im Gegensatz dazu verfolgt die Lösung GEFEG.FX einen Modell-getriebenen Ansatz. Nicht der technische Entwickler, sondern der Fachanwender steht hier im Vordergrund. Er ist verantwortlich für die betriebswirtschaftliche Sicht und die Prozesse in der Organisation oder zwischen den Organisationen. Oftmals ist er mit den bestehenden EDI-Implementierungen vertraut, oder er kennt zumindest die (wirtschaftlichen und rechtlichen) Anforderungen an die umzusetzenden Prozesse. Mit diesem Wissen ist er in der Lage die vorhandenen semantischen Referenzmodelle und Standards bei der API-Spezifikation zu verwenden. Das Rad wird nicht jedes Mal neu erfunden. Ändert sich ein solcher Standard, übernimmt GEFEG.FX die Änderung einfach in die API-Spezifikation. Zeitgleich werden die Governance-Anforderungen smart umgesetzt, ohne die einzelnen Abteilungen zu sehr einzuschränken. Dafür spielt es keine Rolle, ob es um die Umsetzung der elektronischen Rechnung, des elektronischen Lieferscheins, EDI, die Konsumgüterindustrie, die Automobilindustrie, die Branche der Energieversorger, UN/CEFACT oder andere geht.

Meine Empfehlung

Der Code-First Ansatz ist perfekt für Web-Entwickler. Fachanwender sind damit aber überfordert. Daher gibt es von mir die klare Empfehlung an all diejenigen mit Schwerpunkt EDI oder dem Austausch von elektronischen Geschäftsnachrichten: Plant OpenAPI als Model-First-Ansatz. Das ist zukunftssicher, erweiterbar und anpassbar.

Was ist Neu im GEFEG.FX Quartals-Release 2020-Q4?

 

Datenpakete in GEFEG.FX

  • ISO20022 – Datenmodell und Codelisten, Stand 09/2020
  • OAGIS 10.6 Standard und Enterprise Edition

FACELIFT für GEFEG.FX: Jetzt mit Ribbons (Menübänder)

GEFEG.FX präsentiert sich ab sofort mit einem neuen Erscheinungsbild. Die Menüfunktionen sind übersichtlich in Ribbons gruppiert. Wie aus anderen Software-Anwendungen bekannt, werden mit Ribbons zusammengehörige Funktionen und Befehle gruppiert, wodurch Sie Ihre Spezifikationen schneller und effizienter bearbeiten können. Zum Beispiel: die Befehle für Löschen, Umbenennen und Einfügen werden in der Gruppe Organisation gebündelt. Anhand der Icons erkennen Sie die verknüpfte Funktion auf den ersten Blick und müssen nicht durch das Kontextmenü navigieren.

Beim Öffnen eines Testdaten-Layouts muss keine Testdatei ausgewählt werden

Beim Testen von eingehenden oder ausgehenden Nachrichten in GEFEG.FX sparen Sie viel Aufwand, der andernfalls für die Analyse von Struktur- oder Formatabweichungen bei fehlerhaften Nachrichten anfallen würde. Verwenden Sie die Ergebnisse der Tests in den Protokolldateien als Grundlage für die anschließende Fehlerbehebung.

Wenn Sie anschließend Ihre Testdateien besprechen oder weiterleiten wollen, können Sie in GEFEG.FX eine Testnachricht-Dokumentation und mithilfe von Layouts eine benutzerspezifische, einheitliche Darstellung erstellen.

Das Testszenario kann dabei eine einzelne Nachricht oder aber auch ein Set von mehreren hundert Nachrichten umfassen. Nutzen Sie Testdaten-Layouts auch für die gezielte Ausgabe von ausgewählten Informationen einer Testnachricht.

Im neuen Release haben wir die Layout-Bearbeitung optimiert: Bisher musste für die Bearbeitung von Testdaten-Layouts im Vorfeld eine Testdatei bestimmt werden, anhand derer das Layout angezeigt wurde. Nun werden Testdaten-Layouts zum Editieren geöffnet, ohne dass Testdateien aufgerufen werden müssen.

Verbessern Sie die Navigation in Ihrer HTML-Dokumentation mit modernen Dropdown-Menüs

Viele GEFEG.FX Nutzer erstellen neben PDF- und Worddokumentationen auch menschenlesbare HTML-Dokumentation Ihrer Spezifikationen. Zu diesem Zweck generiert GEFEG.FX per Knopfdruck automatisch Hyperlinks innerhalb der Struktur Ihres Objekts.

HTML-Dokumentationen eignen sich insbesondere für die Veröffentlichung auf Webseiten. Indem Sie Ihre Spezifikationen im HTML-Format veröffentlichen, ermöglichen Sie Ihren Partnern ein benutzerfreundliches Browsen und ein schnelles Auffinden der gesuchten Informationen in Ihren komplexen oder umfangreichen Spezifikation(en). Anstatt in einer PDF- oder Word-Datei mühsam hin und her zu blättern, können sich Ihre Partner bequem durch die Dokumentation klicken.

Ab sofort stehen Ihnen in HTML-Dokumentationen auch Dropdown-Menüs zur Verfügung. Dies macht die Navigation übersichtlicher und einfacher, wie das folgende Beispiel zeigt: Sie verwenden Varianten von Schemas oder Datenmodellen, die geringfügig voneinander abweichen. Nutzen Sie Dropdown-Menüs, um diese Varianten in einer Gruppe zusammenzufassen und per Auswahlliste zu selektieren.

Im neuesten GEFEG.FX Quartals-Release 2020-Q2 finden Sie folgende neue oder weiterentwickelte Funktionalitäten.

Datenpakete in GEFEG.FX

  • GS1 XML 3.4.1 und Codelisten
  • ISO 20022 Modelle, Schemas und Codelisten, Stand 04/2020

GIT-Support in GEFEG.FX

Die Zusammenarbeit an Dokumenten und Ordnern mithilfe des Versionskontrollsystems GIT erfreut sich einer wachsenden Beliebtheit und stellt neben Subversion (SVN) eine der gängigsten Repository-Lösungen dar. Ab sofort unterstützt GEFEG.FX auch GIT Repositories und kann somit als GIT Client eingesetzt werden. Verknüpfen Sie GIT-kontrollierte Ordner in GEFEG.FX und wenden Sie bewährte Funktionen von Versionskontrollsystemen auf Ihre Daten an, beispielsweise das Hinzufügen oder Einchecken von Dateien.

Subversion (SVN) wird selbstverständlich weiterhin in GEFEG.FX unterstützt, sodass SVN und GIT als Versionskontrollsystem für Ihre Repository-Verwaltung in GEFEG.FX eingesetzt werden können.

Schnellere Auswahl von Typen bei der Schema-Entwicklung

Typen, Elemente und Attribute sind wesentliche Bestandteile eines XML Schemas, mit denen eine Schemastruktur aufgebaut werden kann. Dabei basieren Elemente immer auf Typen, die zur Einschränkung und Formatierung von Elementen dienen.

In der Schema-Entwicklung oder –Bearbeitung muss demnach jedem Element ein Typ zugeordnet werden. Dafür stehen, abhängig vom gewählten Schemadesign-Prinzip, lokale oder globale Typen zur Verfügung. Im neuen Release erleichtern wir Ihnen die Auswahl eines passenden Typen über ein Suchfeld, sodass Sie nicht mehr eine womöglich lange Liste der Typen mühsam durchscrollen müssen. Mit der Eingabe des Typnamens springen Sie direkt zum gewünschten Typen und wählen diesen aus.

Neue Diagramm-Variante für Datenmodell bzw. Schema: Ausgabe ohne Attribute möglich

Diagramme erleichtern das Verständnis der Nachrichtenstruktur und zeigen den Aufbau einer Nachricht mit wenigen technischen Details. Für die GEFEG.FX Datenobjekte Datenmodell und Schema sowie deren Guides können Diagramme im GEFEG.FX Manager aufgerufen und als Bilddatei exportiert werden.

Mit dem aktuellen Release erhalten Sie die Möglichkeit, eine Diagramm-Variante ohne Attribute auszugeben, alternativ zur umfassenderen Darstellung mit Attributen. Dies ist insbesondere dann relevant, wenn eine eher business-orientierte Sicht auf die Nachricht gewünscht wird. Ebenso nützlich ist diese Variante, wenn vorhandene Attribute erst zu einem späteren Zeitpunkt eine Relevanz haben und vorerst ausgeblendet werden können.

Ausgabe von Attribut-Pfaden in Reports nun auch für verlinkte Objekte

In der Datenmodellierung werden Attribute für die Beschreibung von Eigenschaften und Merkmalen verwendet. Ähnlich hierzu werden in XML-Strukturen Attribute zur Übertragung von Metadaten eingesetzt. Seit dem letzten Release werden in Datenmodell- und Schema-Reports auch Attribute mit Kurz-, Langnamenspfaden und der IndexPath ausgegeben. Dieses erleichtert die Einordnung des Attributes in die Gesamtstruktur der Nachricht, weil auf einen Blick die Position des Attributes in der Nachricht abgelesen wird.

Im aktuellen Release haben wir diese Funktion erweitert, sodass die Ausgabe der Pfade nicht nur innerhalb des GEFEG.FX Objekts selbst, sondern auch für verlinkte Objekte möglich ist. Verlinkungen zwischen GEFEG.FX Datenobjekten liegen beispielsweise bei Mappingprojekten vor. Waren vorher separate Reports nötig, um Pfadnamen und IndexPath für Attribute in beteiligten Mappingobjekten auszugeben, kann nun in einem einzelnen Report auf die Angaben des Mappingpartners zugegriffen werden. Dies spart Arbeitsgänge und führt damit zu effizienterem Arbeiten.

Neue Gestaltungsfunktion für Hintergrundlayouts in Dokumentation

Dokumentationen in GEFEG.FX können sehr flexibel gestaltet werden. Dabei bilden Layout- und Report-Dateien in GEFEG.FX eine Einheit, um beispielsweise Word oder PDF-Datei zu generieren.

Beim Zusammenspiel von Layouts und Reports werden die vielfältigen Gestaltungsmöglichkeiten bezüglich Farben, Schriftarten und Schriftgrößen in der Layout-Datei definiert und damit als Basis für den Report festgelegt. Im aktuellen Release kann ab sofort eine neue Einstellung für den Seitenhintergrund vorgenommen werden: Die Deckkraft der Hintergrundfarbe kann individuell als Prozentangabe eingestellt werden.