E-Rechnungen und Wachstumschancengesetz

Mit Beschluss des „Gesetzes zur Stärkung von Wachstumschancen, Investitionen und Innovation sowie Steuervereinfachung und Steuerfairness“, kurz Wachstumschancengesetz, vom 30.8.2023, kommen in den nächsten Jahren einige Änderungen auf inländische Unternehmen zu. Eine davon betrifft die obligatorische Verwendung von elektronischen Rechnungen im B2B-Bereich.

Dieser Blogbeitrag widmet sich vorrangig den technischen Aspekten der E-Rechnung und den Folgen des Wachstumschancengesetzes in Bezug auf Rechnungsdokumente für Unternehmen. Für einen detaillierten rechtlichen Hintergrund zu E-Rechnungen und den sich ergebenden Anforderungen aus den GoBD empfehlen wir das Webinar der Wirtschaftsprüfungskanzlei dhpg am 24. Oktober 2023.

Was ist eine elektronische Rechnung? 

Eine elektronische Rechnung (E-Rechnung) ist eine Rechnung, die in einem strukturierten Datenformat ausgestellt, übermittelt und empfangen wird, wodurch eine elektronische und auch automatisierte Verarbeitung ermöglicht wird. Konkret gesagt handelt es sich um Dateien im XML-Format, in der die Rechnungsdaten strukturiert aufgelistet sind. Beispielsweise sehen solche Rechnungen für das menschliche Auge dann so aus: 

Abb. 1: Beginn einer E-Rechnung im UBL 2.0 Standard 

Abb. 2: Beginn einer E-Rechnung im CII 2.0 Standard 

Zusätzlich gibt es auch hybride Rechnungsformate wie ZuGFeRD 2.x, in denen im Hintergrund einer üblichen PDF-Rechnung eine XML-Datei im CII-Standard eingebettet ist. Dadurch wird die Rechnung sowohl menschlich als auch maschinell lesbar.  

Das Ziel von elektronischen Rechnungen ist es, den Zahlungsverkehr zwischen Unternehmen sowie Vorgänge im Rechnungswesen zu vereinfachen, zu beschleunigen und zu automatisieren. Zusätzlich bieten sie für Staaten die Möglichkeit, Zahlungsverkehre besser nachvollziehen zu können und damit Mehrwertsteuerlücken zu verkleinern. 

Welche Standards und Vorgaben existieren zu elektronischen Rechnungen? 

Es existieren eine Vielzahl an unterschiedlichen E-Rechnungsformaten in Europa, die sich an den jeweiligen speziellen Anforderungen ihrer Ursprungsländer orientieren. Im Kern basieren jedoch die meisten auf bestimmten Standards, die in der Europäischen Norm EN 16931 definiert sind. Diese Norm gibt unter anderem vor, dass die verwendete Syntax aller E-Rechnungsformate entweder dem CII- (UN/CEFACT Cross Industry Invoice) oder dem UBL- (Unified Business Language) Schema entspricht.  

Nachfolgend ein kleiner Auszug von gängigen E-Rechnungsformaten in Europa: 

An dieser Stelle ist für den deutschen Markt nochmal im speziellen auf das ZUGFeRD-Format einzugehen. Wie bereits erwähnt, handelt es sich dabei um ein hybrides Rechnungsformat: PDF im Vordergrund, XML im Hintergrund.  

Abb. 3: Schematischer Aufbau einer ZUGFeRD-Rechnung

Nach Einschätzung des Instituts der Wirtschaftsprüfer ist das ZUGFeRD-Format als elektronische Rechnung zu bevorzugen, da durch die gleichzeitige Möglichkeit von sowohl menschlicher, wie auch maschineller Lesbarkeit keine speziellen Hilfsprogramme zur Visualisierung notwendig sind. Dies soll die technischen Barrieren für Unternehmen, besonders kleine und mittelgroße, niedrig halten und die Akzeptanz zur Umstellung erhöhen. 

Erwähnenswert ist ebenfalls die bereits seit Jahrzehnten implementierte und insbesondere von größeren Unternehmen genutzte Kommunikationstechnologie UN/EDIFACT (United Nations / Electronic Data Interchange for Administration, Commerce and Transport). Damit lassen sich eine Vielzahl elektronischer Daten in Form einer speziellen Nachrichten-Syntax austauschen, darunter auch Rechnungsdokumente. Eine Stellungnahme des Instituts für Digitalisierung im Steuerrecht bemängelt, dass nach aktuellem Stand dieser etablierte Standard in Zukunft nicht mehr durch das Wachstumschancengesetz abgedeckt und somit nicht mehr als E-Rechnung anerkannt wird.

Laut einer aktuellen Stellungnahme des BMF bzgl. EDI-Verfahren ist man sich dieser Problematik bewusst und „es wird aktuell an einer Lösung gearbeitet, die die Weiternutzung der EDI-Verfahren auch unter dem künftigen Rechtsrahmen so weit wie möglich sicherstellen soll.“

Was kommt auf mein Unternehmen zu? 

Ab 2025 handelt es sich aufgrund der Definitionen im Wachstumschancengesetz bei einer digital versendeten Rechnung im PDF-Format NICHT mehr um eine elektronische Rechnung, da diese nicht standardisiert, nicht strukturiert und nicht ohne Hilfstools elektronisch auslesbar ist. Eine PDF-Rechnung wird unter dem Begriff „sonstige Rechnungen“ gleichgestellt mit Papierrechnungen.

Die Anforderungen an eine elektronische Rechnung erfüllen dann nur noch XML-Formate wie XRechnung oder hybride Formate wie das ZuGFeRD-Format. Dabei wird auch geändert, dass der strukturierte Teil (XML) einer Hybridrechnung der führende ist. Dies bedeutet, dass im Falle einer inhaltlichen Diskrepanz zwischen den beiden Teilen der strukturierte Teil rechtlich als das tatsächliche Rechnungsdokument betrachtet wird – dies ist aktuell noch nicht so. 

Zusätzlich wird eine Verpflichtung zum Empfang, zur Verarbeitung und Archivierung von elektronischen Rechnungen ab dem 1.1.2025 (mit gewissen Übergangsfristen bis zum 1.1.2028) eingeführt. Auch der Versand wird ab dem 1.1.2026 verpflichtend (mehr Infos im Nachtrag). Dies bedeutet, dass keine Ablehnung von elektronischen Eingangsrechnungen beim Rechnungssteller mehr möglich ist. Bereits heutzutage findet der Rechnungsverkehr im B2G (Business-to-Government)-Bereich ausschließlich über XRechnung statt. 

Jedoch haben die Ausschüsse des Bundesrates in einer Empfehlung vom 9.10.23 vorgeschlagen, die verpflichtende Anwendung von E-Rechnungen im B2B-Bereich auf den 1.1.2027 zu verschieben. „Der Bundesrat spricht sich dafür aus, die Einführung der elektronischen Rechnung um zwei Jahre zu verschieben. Er ist der Auffassung, dass auch der Empfang von elektronischen Rechnungen erst ab dem 1. Januar 2027 verpflichtend sein sollte.“

Mit eben erklärter Definition einer elektronischen Rechnung im Hinterkopf wird schnell klar, dass Unternehmen nicht mehr auf ein GoBD-konformes DMS verzichten können. Einerseits werden die allermeisten Unternehmen eine Möglichkeit zur Kontrolle der elektronischen Rechnungen durch ein menschliches Auge benötigen – dies bedarf einer Softwarelösung, die reine XML-Rechnungen in lesbare PDF-Rechnungen konvertiert. Andererseits besteht weiterhin die Notwendigkeit einer GoBD-konformen Lösung zur Archivierung der Rechnungen. 

Die Vorteile von E-Rechnungen sind jedoch nicht von der Hand zu weisen: sobald sich das System im B2B-Bereich etabliert hat, bedeutet das für alle Beteiligten im Rechnungsprozess weniger Arbeit bei der Erstellung von Ausgangsrechnungen, beim Import von Eingangsrechnungen (kein „Abtippen“ von Rechnungsdaten mehr), eine höhere Effizienz und eine geringere Fehleranfälligkeit.

Der benötigte Speicherplatz zur Einhaltung der 10-jährigen Aufbewahrungspflicht von Rechnungsdokumenten reduziert sich bei reinen XML-Rechnungen im Vergleich zu PDF-Rechnung enorm, was Kosten in Form von Speichermedien und Strom spart. Zusätzlich ist ein drastisch verkleinertes Dateiformat auch förderlich für den ökologischen Fußabdruck in Versand, Verarbeitung und Archivierung.  

E-Invoice-Lösungen bei synalis 

Als gesamtheitliche Lösung vom Rechnungseingang bis zur Übergabe an ein ERP-System Ihrer Wahl bietet sich die ELO ECM Suite mit ELO Invoice an. Beginnend bei der optionalen Rechnungspostfachverarbeitung ELOxc werden Ihre Rechnungsmails automatisiert nach ELO übergeben und revisionssicher archiviert. Im Anschluss startet der Rechnungsfreigabe-Workflow, indem die Daten der E-Rechnung automatisiert in ein Formular übertragen werden und zusätzlich eine auf Ihre Wünsche anpassbare PDF-Rechnung zur Visualisierung erzeugt wird. Nach der Freigabe des Belegs werden die Rechnungsdaten an Ihr ERP-System übergeben. Dafür gibt es neben den von ELO standardisierten Schnittstellen auch von uns entwickelte Lösungen. 

Auch in der Welt von Microsoft Dynamics 365 Business Central gibt es Lösungen für E-Rechnungen. Sowohl Continia Document Capture als auch Continia Document Output sind integrierte Addons für die Verarbeitung von E-Rechnungen in MS Business Central. Document Capture ermöglicht die Erfassung und automatische Datenerkennung von eingehenden E-Rechnungen. Gleichzeitig unterstützt Document Output die einfache Erstellung von Ausgangsrechnungen im XML-Format direkt aus dem ERP-System. 

Jetzt handeln! 

Abschließend ist zu sagen, dass die Zeit zum Handeln für Unternehmen gekommen ist. In etwas mehr als einem Jahr werden die meisten Unternehmen verpflichtet sein, E-Rechnungen empfangen, verarbeiten und archivieren zu können. Die Implementierung von IT-Lösungen geschieht bekanntlich nicht von heute auf morgen, jedes Projekt und jedes Unternehmen sind individuell. Jedoch unabhängig davon, wie Ihre Anforderung in Bezug auf E-Rechnungen aussieht: synalis steht Ihnen gerne als verlässlicher Partner zur Verfügung, um Sie bei der reibungslosen Umstellung auf E-Rechnungen zu unterstützen.

Gemeinsam finden wir die passende Lösung, um Ihr Unternehmen bestmöglich auf die bevorstehenden Veränderungen vorzubereiten und von den langfristigen Vorteilen der E-Rechnungen zu profitieren. 

Wie KI die Zukunft gestaltet

Das hält die Zukunft bereit!

Den Erfolg der Mitarbeitenden durch kontinuierliches Lernen und regelmäßiges Feedback fördern und dafür Organisationen mit LMS365 und Weekly10 die richtigen im Arbeitsalltag verankerten Lösungen an die Hand geben – darum ging es beim LMS365 Partner Accelerator vom 5. bis 6. Oktober in Valetta, Malta. 

Neben dem Netzwerken und einem regen Austausch lag das Ziel der Veranstaltung darin, Partnern wie synalis einen Einblick in aktuelle und zukünftige Produktthemen sowie die strategische Ausrichtung von LMS365 zu geben. An dieser Stelle können wir noch nicht alles verraten 😉 Aber wir möchten Ihnen gern zwei zentrale und sehr spannende Aspekte der Veranstaltung näherbringen: Künstliche Intelligenz und Weekly10. 

Unsere LMS365-Consultants fanden das Event wunder-Bar spannend.

Künstliche Intelligenz (KI)

Ein Schwerpunkt des LMS365 Partner Accelerators war die Rolle der Künstlichen Intelligenz (KI) im Kontext von kontinuierlichem Lernen und Mitarbeiterentwicklung. KI-Funktionen in LMS365 sollen Organisationen die Möglichkeit bieten, Lernprozesse zu personalisieren und effektiver zu gestalten.

So können Mitarbeitende dabei unterstützt werden, maßgeschneiderte Schulungspläne zu erstellen, die ihren individuellen Bedürfnissen und Fähigkeiten entsprechen. Zudem soll die KI für Administratoren die einfache Analyse von Leistungsdaten und die Identifikation von Wissenslücken ermöglichen, um gezielte Weiterbildungsmaßnahmen zu planen. Darüber hinaus sollen Ersteller von Lerninhalten die Möglichkeit erhalten, LMS365-Kurse mit der Hilfe von KI ganz einfach und schnell aus vorhandenen Inhalten wie Videos zu erzeugen.

Die Integration von KI in LMS365 wird somit neue Perspektiven für Lerner, Administratoren und Ersteller von Lerninhalten eröffnen. Bereitgestellt werden die neuen KI-Funktionen von LMS365 in regelmäßigen Abständen bereits ab diesem Jahr. Die erste Version eines KI-Chatbots, der Kursempfehlungen gibt, ist schon jetzt innerhalb der LMS365-App in Teams verfügbar und kann bei Bedarf aktiviert werden.

Weekly10: Das Werkzeug für kontinuierliches Feedback

Ein weiteres wichtiges Thema war die Vorstellung von Weekly10, einem Unternehmen mit gleichnamigem Produkt, das Mitte August 2023 von LMS365 übernommen wurde. Das Tool, das ebenso wie LMS365 vollständig in Microsoft 365 integriert ist, fördert regelmäßiges Feedback zur Leistungs- und Erfolgssteigerung von Mitarbeitenden.

Es ermöglicht ihnen, wöchentliche, 10-minütige Updates (daher Weekly10 😉) zu ihren Zielen und Aktivitäten zu geben. Dadurch stellt das Tool sicher, dass Feedback und Leistungsbeurteilungen in den Arbeitsalltag integriert sind und nicht nur zum Beispiel in den jährlichen Mitarbeitergesprächen ihren Platz finden. Diese Herangehensweise fördert die Kommunikation zwischen Mitarbeitenden und Vorgesetzten und schafft eine transparente Feedbackkultur.

Die Verbindung von Weekly10 und LMS365, die stetig ausgeweitet wird, bietet zudem die Möglichkeit, Feedback und Lernprozesse miteinander zu verknüpfen, um kontinuierliche Verbesserungen auf individueller und organisatorischer Ebene zu erzielen.

Insgesamt zeigte der LMS365 Partner Accelerator, wie Organisationen von modernen Lösungen wie LMS365 und Weekly10 in Verbindung mit KI profitieren, um den Erfolg ihrer Mitarbeitenden und damit letztendlich der gesamten Organisation zu fördern. Es bleibt spannend: Wie wird sich das Thema in den kommenden Monaten und Jahren entwickeln und wie werden die neuen Funktionen konkret aussehen?

Praxissemester an der Hochschule Bonn-Rhein-Sieg

FAQ: Entwicklung von Microsoft Low-Code-Anwendungen

Auch in diesem Wintersemester bietet synalis wieder ein Praxisprojekt an, bei dem Studierende der Hochschule Bonn-Rein-Sieg aus dem Studiengang der Wirtschaftswissenschaften praktische Einblicke und Erfahrungen in Welt der Microsoft Low-Code Geschäftsanwendungen der neusten Generation erhalten. Das Leistungsangebot für Projekte mit der Hochschule Bonn-Rhein-Sieg gestalte ich – Jens P. Klasen, Bereichsleiter für Customer Engagement und Low-Code Solutions. Meiner Funktion als Lehrbeauftragter komme ich seit bald 16 Jahren nach – und das aus voller Überzeugung.  Da mir häufiger dieselben Fragen zum Praxissemester gestellt werden, gebe ich hier mal einen kurzen Überblick.

Wie kamst du dazu, dich an der Hochschule zu engagieren?

Zum Ende meines Studiums der Wirtschaftswissenschaften habe ich den Schwerpunkt Wirtschaftsinformatik nach B2B Marketing belegt und im Zuge dessen noch ein Praxisprojekt zu Content Management-Systemen absolviert. Das war damals noch alles sehr theoretisch bzw. „folienlastig“ und wir Studenten haben uns genau darüber beschwert. Mein derzeitiger Professor, Prodekan für den Fachbereich der Wirtschaftswissenschaften, meinte dann zu mir: Jens, dann mach es doch besser. Nach 16 eindrucksvollen Jahren hoffe ich reflektierend sagen zu können, es greifbarer und somit praxisnaher gestaltet zu haben. Das regelmäßige positive Feedback und die Langlebigkeit des Projekts sprechen jedoch dafür, dass wir einiges richtig gemacht haben 😉 

Mit welchen Technologien beschäftigt ihr euch aktuell mit den Studierenden?

Technologisch beschäftigen wir uns derzeit mit der Lösung PowerApps der Microsoft Power Platform. Dabei handelt es sich um Microsofts Low-CodePlattform, die auch Studierende ohne große IT-Fachkenntnis relativ zeitnah in die Lage versetzten kann, eine Geschäftsanwendung für spezielle Bedarfe zu „entwickeln“. Low-Code-Applikationen treffen dabei genau den Nabel der Zeit: IT-Budgets verlagern sich seit Jahren immer deutlicher von der EDV weg in Richtung der einzelnen Fachabteilungen von Unternehmen. Diese benötigen meist zeitkritische Lösungen für ein konkretes Problem und wissen i.d.R. genau, welche Anforderungen dabei realisiert werden sollen. Demnach ist es für Studierende spannend zu sehen, welche IT-Herausforderungen im späteren Berufsleben (trotz einer kaufmännischen Ausbildung) auf einen warten. 

Wie läuft ein Praxisprojekt mit der Hochschule grundsätzlich ab und wie profitieren die Studierenden davon? 

Vom Prinzip her verläuft das Projekt an der Hochschule wie ein Kundenprojekt, bei dem die Studierenden lernen, sich auf einer Microsoft Teams-Umgebung zu organisieren und ein vorgesetztes Thema mit oder ohne Kundenkontext gemeinsam zu bearbeiten. Schließlich wird die Arbeit der Teilnehmer am Ende bewertet und ist damit ein fester Bestandteil der Benotung ihres Studiums.

In speziellen Fällen involvieren wir das Praxisprojekt auch in ein laufendes Kundenprojekt, wodurch die Studierenden dann auch noch eine Teilnahmebestätigung erhalten, der sich zudem ganz gut im Lebenslauf macht. Es ist auch schon vorgekommen, dass sich ein Absolvent bei seinem zukünftigen Arbeitgeber an uns erinnerte und uns anschließend als Dienstleister empfohlen hat.

In diesem Jahr wollen wir gemeinsam eine Campus-App entwickeln, die sämtliche Bedarfe des studentischen Lebens abdecken soll. Dabei durchlaufen wir nahezu alle Phasen eines agilen Low-Code-Projekts: Die Studierenden werden dabei an die Systematik bzw. Methode herangeführt, wie man dabei idealerweise vorgeht.

Praxissemester-Hochschule-Bonn-Rhein-Sieg-synalis-SemesterplanPraxissemester-Hochschule-Bonn-Rhein-Sieg-synalis-Semesterplan

Praxissemester bei synalis

Neben dem Einblick in die modernsten Technologien zur Gestaltung von Geschäftsanwendungen bieten wir als synalis für Studierende die Möglichkeit, Ihr Pflicht-Praktikum bzw. Praxis-Semester ebenfalls direkt bei uns zu absolvieren. Darüber hinaus haben wir schon sehr gute Erfahrungen mit Werksstudenten und in der Betreuung von Bachelorarbeiten gemacht.

In diesem Semester werde ich beispielsweise von unserem Werksstudenten Julian im Hochschulprojekt unterstützt, der im letzten Semester als Teilnehmer auftrat und das Projekt mit veranstaltet. Diese Tätigkeiten bringen die ersten Erfahrungen im organisatorischen und technischen Umfeld unseres Unternehmens hervor, bevor man sich gegebenenfalls später vor dem Einstieg in das Berufsleben als Berater offiziell um eine Stelle bewirbt. Insofern kann man von einer WIN-WIN Situation von Studierenden und der Unternehmen sprechen, was die Bedeutung dieser Hochschulprojekte auch noch einmal betont. 

>> Mehr zum Thema Power Platform

Effiziente Datenverarbeitung mit Data Factory

Im letzten Teil unserer Serie zu Microsoft Fabric sind wir darauf eingegangen, aus welchen Komponenten Microsoft Fabric besteht. In den folgenden Beiträgen gehen wir näher auf die einzelnen Komponenten und Teilbereiche von Fabric ein. Den Beginn dafür legen wir mit der Data Factory.

In der heutigen datengetriebenen Welt ist die Fähigkeit, Daten zu sammeln, zu verarbeiten und zu analysieren, von entscheidender Bedeutung für den Geschäftserfolg. Unternehmen stehen jedoch oft vor der Herausforderung, Daten aus verschiedenen Quellen zu extrahieren, zu transformieren und zu laden (Extract, Transform, Load = ETL), um sinnvolle Erkenntnisse zu gewinnen. Hier kommt Data Factory ins Spiel – ein leistungsstarkes Integrationswerkzeug von Microsoft, die die nahtlose Datenverarbeitung über verschiedene Cloud- und On-Premise-Quellen hinweg ermöglicht.

Was ist Data Factory?

Data Factory ist ein cloudbasierter ETL-Dienst, der entwickelt wurde, um Unternehmen bei der Erstellung, Planung und Ausführung von Datenverarbeitungsaufgaben zu unterstützen. Mit Data Factory können Sie Daten aus einer Vielzahl von Quellen extrahieren, transformieren und in verschiedene Ziele laden, darunter Datenbanken, Data Warehouses, Big Data-Plattformen und mehr. Das Schöne an Data Factory ist, dass es eine visuelle Oberfläche bietet, die es ermöglicht, Datenpipelines mit Drag-and-Drop-Operationen zu erstellen und zu verwalten, ohne umfangreiche Codierungskenntnisse zu benötigen.

Welche Vorteile bietet Data Factory?

Skalierbarkeit und Flexibilität: Data Factory ermöglicht es Ihnen, Datenpipelines nach Bedarf zu skalieren und in der Cloud auszuführen. Dies bedeutet, dass Sie keine teure Hardwareinfrastruktur benötigen, um große Datenmengen zu verarbeiten.
Umfangreiche Konnektivität: Die Plattform bietet eine breite Palette an Konnektoren für verschiedene Datenquellen und -ziele. Sie können Daten aus lokalen Datenbanken, cloudbasierten Diensten wie Azure SQL Database, Azure Blob Storage, Salesforce und weiteren Quellen extrahieren.
Daten Transformation: Data Factory ermöglicht es Ihnen, Daten während des ETL-Prozesses mithilfe von Power Query zu transformieren. Sie können Daten bereinigen, filtern, aggregieren und in das gewünschte Format konvertieren, um aussagekräftige Analysen darauf durchzuführen.
Scheduling und Überwachung: Sie können Datenpipelines zeitgesteuert planen und Überwachungs- und Warnfunktionen nutzen, um sicherzustellen, dass Ihre Pipelines ordnungsgemäß ausgeführt werden. Dies gewährleistet eine hohe Konsistenz und Aktualität der Daten.
Integration in Fabric: Data Factory erlaubt den nahtlosen Übergang zu anderen Fabric-Diensten wie zum Beispiel Synapse Real Time Analytics für erweiterte Analytik oder Synapse Machine Learning für maschinelles Lernen.

Wo kann Data Factory zum Einsatz kommen?

Business Intelligence und Analytics: Data Factory ist Ihre Möglichkeit, Daten aus verschiedenen Quellen zu sammeln, in einem Data Warehouse zu konsolidieren und für Power Bi bereitzustellen, um aussagekräftige Geschäftsberichte und Visualisierungen zu erstellen.

Datenaufbereitung für maschinelles Lernen: Vor der Verwendung von Daten für maschinelles Lernen müssen sie oft bereinigt und transformiert werden. Data Factory kann diesen Prozess automatisieren und die Daten in das gewünschte Format bringen.

Hybride Datenintegration: Wenn Unternehmen sowohl lokale als auch cloudbasierte Datenquellen haben, kann Data Factory helfen, eine nahtlose Integration zwischen beiden herzustellen.

Data Factory nochmal zusammengefasst

Data Factory ist eine leistungsstarke Plattform, die Unternehmen dabei unterstützt, Daten effizient aus verschiedenen Quellen zu extrahieren, zu transformieren und zu laden. Mit ihrer benutzerfreundlichen Oberfläche, Skalierbarkeit und der umfangreichen Konnektivität ist sie eine wertvolle Ressource für diejenigen, die in der heutigen datengetriebenen Geschäftswelt erfolgreich arbeiten möchten. Indem sie den Prozess der Datenintegration und -verarbeitung rationalisiert, schafft Data Factory für Unternehmen die Basis, schneller und fundierter auf ihre Daten zuzugreifen und Erkenntnisse zu gewinnen, die den Geschäftserfolg vorantreiben.

DigiKon 2023 – Im Zeichen von Datenkompetenz und KI für KMUs

Eindrücke und Erfahrungen der DigiKon 2023

Am 13. November hat die Bundesnetzagentur zur ersten DigiKon unter dem Motto Netzwerktag trifft KI nach Bonn eingeladen. Der Fokus wurde dabei auf die Herausforderungen und Chancen für kleinere und mittelständische Unternehmen (KMUs) beim digitalen Wandel gerichtet.

Lars Becker und Fabian Friedrichs, synalis IT Köln Bonn bei der DigiKon 2023

Der Vormittag konzentrierte sich stark auf das Thema Datenkompetenz. Diese bildet nicht nur eine elementare Säule, um datengestützte Entscheidungen treffen zu können, sondern ist auch eine nötige Voraussetzung, um den Einsatz von künstlicher Intelligenz im Unternehmen zu ermöglichen.  

Neben den technischen Komponenten wurden auch soziale, ethische und ökologische Aspekte beim Einsatz von KI beleuchtet. Durch ein breites Portfolio an Vorträgen, Podiumsdiskussionen und Workshops ist jeder auf seine Kosten gekommen. Zudem konnten die Pausen genutzt werden, um sich über die neusten Trends und Perspektiven im Bereich KI fachkundig auszutauschen.

Eröffnet wurde die Konferenz von Klaus Müller, Präsident der Bundesnetzagentur, sowie Sybille Gabler, Mitglied der Geschäftsleitung des DIN. In ihren Ansprachen wurde sofort deutlich, dass kleinere und mittelständische Unternehmen im Bereich Digitalisierung und künstlicher Intelligenz vor ganz anderen Herausforderungen stehen, als Großunternehmen. Zum einen ist es die teilweise fehlende digitale Infrastruktur und Datenkompetenz, welche erforderlich ist, um den anschließenden Schritt Richtung Einsatz von KI zu gehen. Zum anderen ist es das teure und spezialisierte Personal, welches außerhalb der üblichen Budgets für IT-Infrastruktur und Investitionen bei KMUs liegt. Um die Kostenlast für KMUs zu reduzieren, wäre es eine Möglichkeit, im Bereich KI Standards und Normen zu schaffen, damit KI auch von einer breiten Masse an Unternehmen genutzt werden kann und die Kosten dabei möglichst gering gehalten werden.

Eines wurde sofort deutlich: Daten sind die alles entscheidende Grundlage für effiziente, zielgerichtete Entscheidungen im Unternehmen. Dabei hat sich der Blickwinkel auf Daten im Laufe der Zeit verändert. Der weltweite Datenbestand ist gerade in einer Phase des stetigen und starken Wachstums. So wird sich das Volumen des weltweiten Datenbestands von 126,32 ZB im Jahr 2023 auf 284,3 ZB im Jahr 2027 mehr als verdoppeln. Doch große Datenmengen allein bringen keinen Mehrwert. Viel bedeutender sind qualitativ hochwertige Daten, die korrekt erfasst werden. Hier ist die Datenkompetenz der Schlüssel zum Erfolg. Schließlich sind die Kosten für eine korrekte Datenerfassung deutlich geringer, als die spätere Korrektur der aufwändig erstellten und trainierten Modelle.

An diesem Punkt wird der Blickwinkel von der technologisch, ökonomischen Komponente erweitert, damit auch soziale, ökologische und etische Aspekte von KI betrachtet werden. In einer Podiumsdiskussion wurden die Chancen sowie Schwierigkeiten des Gesetzesentwurf (AI Act) der Europäischen Union zur Regulierung von KI diskutiert. Durch den AI Act soll zum einen das Verantwortungsbewusstsein in der Entwicklung von KI gestärkt werden, sodass Chancengleichheit und Fairness bei der Nutzung von KI gewährleistet werden. Zum anderen wird eine zu starke Regulierung als Innovationsbremse und zusätzlicher bürokratischer Aufwand gesehen.

Ein anderer Aspekt ist der Ressourcenverbrauch für KI. Die großen neuronalen Netzwerke, die hinter den bekannten Sprachmodellen wie GPT-3 oder Gopher stehen, brauchen enorme Mengen an Energie für den Trainingsprozess. Aus diesem Grund hat beispielsweise Meta mit Llama ein deutlich kleineres und ressourcenschonendes Sprachmodell veröffentlicht.

Ebenfalls sollte darauf geachtet werden, die Belegschaft in den Prozess zu einem KI gestützten Unternehmen mitzunehmen. So soll KI nicht das Personal ersetzen, sondern als Assistent fungieren und Mitarbeiter von repetitiven Tätigkeiten sowie zeitintensiven Routineaufgaben entlasten.

So stehen dem Unternehmen mehr Kapazitäten für die entscheidenden Aufgaben zur Verfügung, die nicht von Assistenzsystemen oder KI bewältigt werden können.

Das Thema KI ist aktuell ein sehr spannendes und sehr wichtiges Thema. Die DigiKon greift die kritischen Punkte sehr detailliert auf und ermöglicht allen Teilnehmern einen sehr guten Austausch mit Experten in den jeweiligen Bereichen. Abgerundet wurde der Abend mit einem lustigen Auftritt von Luca Neuperti, der den Entwicklungen im Bereich künstlicher Intelligenz eine neu humorvolle Komponente verliehen hat. 

Datenanalyseplattform Microsoft Fabric: Offizieller Rollout

Vollumfängliche Plattform für Datenanalyse

Endlich ist es soweit: Microsoft Fabric hat lang in den Startlöchern gesteckt – jetzt ist der Startschuss gefallen und der Hersteller hat die generelle Verfügbarkeit von Microsoft Fabric verkündet. Zwar standen einige Features den Nutzern bereits als Preview zur Verfügung, doch blieben viele Fragen bis zum offiziellen Start offen. Diese können nun beantwortet werden. Lohnenswert ist definitiv auch ein Blick auf die Neuheiten in Fabric!

Fabric ist eine vollumfängliche Datenanalyseplattform und bietet in sieben verschiedenen Bereichen für jeden Teilprozess in der Datenauswertung das passende Werkzeug. Namentlich sind das:

Die Besonderheit hierbei ist die Architektur der Plattform. Denn die einzelnen Werkzeuge gehen Hand in Hand und bieten somit eine optimale Verknüpfung der Teilabschnitte in der Prozesskette. Das spart kostbare Zeit in der Entwicklung und sorgt für übersichtliche Prozesse in der Datenauswertung. Gleichzeit wird mit dem OneLake ein zentraler Datenlake für alle Datenquellen eingerichtet, der auf dem DeltaLake-Prinzip beruht. Das schafft einen noch schnelleren Zugriff und Datentransfer.

Alle profitieren

Die neuen Möglichkeiten durch Fabric kommen nicht nur Entwicklern zugute: Dank einfacher Integration in die 365-App profitieren auch Business Anwender von den Neuerungen. Mit der Einführung von Copilot wird deutlich, dass Microsoft nicht nur den Anspruch verfolgt, State-of-the-Art-Technologie zu entwickeln, sondern auch entsprechend leicht zugänglich zu machen. So neu wie praktisch ist das Explore-Feature. Dieses bietet die Möglichkeit, Daten und deren Semantik in einem eigenen Preview-Fenster zu untersuchen, bevor ein neuer Bericht erstellt wird.

Die zwei Pricing-Modelle

Eine bislang ungeklärte Frage zum Thema Preisgestaltung bei Fabric wird nun endlich gelöst: Microsoft bietet ihren Kunden zwei Modelle an. Das erste ist eine Pay-as-you-go-Variante. Hier zahlt der Kunde entsprechend nach seinem Bedarf. Wird mehr oder weniger Rechenleistung benötigt, so wird diese dynamisch angepasst, äquivalent natürlich auch der Preis. Es ist sogar möglich, den Service komplett zu pausieren. Die zweite Variante ist das Reservation Pricing. Hier bucht der Kunde jährlich eine feste Rechenkapazität. Diese ist zwar nicht flexibel, doch mithilfe präziser Prognose bzw. Kalkulation von benötigten Rechenleistungen können hier Kosten gespart wird; die Reservation Pricing-Variante ist ca. 41% günstiger als die Pay-as-you-go-Variante.

Abschließend lässt sich sagen, dass mit der Verkündung der allgemeinen Verfügbarkeit von Fabric die wichtigsten Fragen für die Nutzung geklärt sind und jetzt die Anwendung in Fokus steht. Mit großer Freude werden Entwickler die neuen Möglichkeiten von Fabric sowie Copilot nutzen und sind gespannt, in welchen Bereichen sich die verschiedenen Werkzeuge als besonders nützlich erweisen.

ELO in der Insolvenzverwaltung

Die Ausgangslage: Einheitlichkeit – aber wie?

Wenn es um die Einführung einer digitalen Verfahrensakte in der Insolvenzverwaltung geht, fällt der erste Blick auf das Dokumentenmanagementsystem, das der Hersteller der Insolvenz-Software anbietet; so bietet etwa STP winsolvenz.p4 zusammen mit Lexolution.DMS an. Die Vorteile liegen dabei in der Integrationstiefe, sodass die Kanzlei-Prozesse fortan hoch automatisiert ablaufen.

Häufig offerieren Insolvenzkanzleien aber auch zusätzliche Leistungen in der Steuerberatung und der Rechtsberatung, zumal sich die Aufgaben aus den Insolvenzverfahren heraus ergeben. Nutzt die Kanzlei dann beispielsweise DATEV für die Steuern oder DATEV Anwalt für die Rechtsberatungsangelegenheiten, stellt sich schnell die Frage, wie man eine einheitliche Aktenverwaltung oder einen systemübergreifenden Posteingang überhaupt organisieren kann.

Unabhängigkeit dank der ELO ECM Suite

Bei der Frage nach dem Wie schafft die ELO ECM Suite passgenaue Abhilfe durch ihre Features. Das Content-Management-System bietet

  • eine einheitliche Aktenverwaltung – auch wenn mehrere Fachapplikationen im Einsatz sind
  • Workflowunterstützung für typische Kanzleiprozesse, darunter beispielsweise die Freigaben durch den Insolvenzverwalter / Partner
  • einen workflowgesteuerten Posteingang zur Verteilung und Ablage eingehender Dokumente
  • Unterstützung des Postausgangs durch automatisierte Ablage

Insbesondere mit STP winsolvenz.p4 lassen sich gemeinsam mit STP auch Prozesse zur Nutzung von beA-Desk oder dem digitalen Gläubigerinformationssystem GIS abbilden. Dokumente können automatisch zwischen den Systemen ausgetauscht werden, wobei ELO weiterhin den primären Ort der Aktenverwaltung darstellt. Auf diese Weise bleibt die Verfahrensakte in ELO vollständig – zusätzlich können Sie die Vorteile der Fachapplikation nutzen.

Neben diesen Vorteilen holt die ELO ECM Suite ihre Nutzer wie üblich durch bekannte beliebte Funktionen ab, die den Arbeitsalltag erleichtern und die Compliance sicherstellen:

  • Aktenübergreifende Volltextsuche mit OCR
  • Unveränderbare, revisionssichere Archivierung
  • Standortunabhängiger Zugriff durch die ELO-Apps
  • Offline-Mitnahme von Akten
  • Starke Integration in die Office365-Welt

Fazit: Breite Unterstützung durch ELO

ELO unterstützt dabei nicht ausschließlich leistungserbringende Abteilungen in der Insolvenzverwaltung und Rechtsberatung. Mit den ELO Business Solutions schafft der Hersteller darüber hinaus fertige Erweiterungsmöglichkeiten für die interne Kanzleiverwaltung:

  • ELO for DATEV unterstützt  DATEV-Kanzleien beim Rechnungswesen durch digitales Rechnungsmanagement
  • ELO Contract dient der elektronischen Vertragsverwaltung für alle Arten von eingehenden und ausgehenden Verträgen.
  • ELO HR Recruiting greift Ihrer Personalabteilung beim digitalen Bewerbermanagement vom Stellenbedarf über die Ausschreibung bis hin zur Bewerberauswahl unter die Arme.
  • ELO Personnel File ist das ELO-Modul zur Anlage und Verwaltung digitaler Personalakten.

Die ELO ECM Suite eignet sich besonders dann für den Einsatz in der Insolvenzverwaltung, wenn die Kanzlei mehrere Fachapplikationen verwendet oder zu große Abhängigkeiten von einem Softwareanbieter scheut. Mit ELO lassen sich nicht nur typische Arbeitsprozesse in der Insolvenzverwaltung abbilden, sondern auch die internen Kanzleiprozesse.

Die Frage, ob man sich für das Dokumentenmanagement der Insolvenz-Software oder ein universelles, übergreifendes System wie die ELO ECM Suite entscheidet, ist individuell abzuwägen. Unsere Kunden sind jedenfalls mit ihrer Entscheidung zufrieden.

Interview zur besseren Einordnung von Microsoft Power Apps

Fachlich gut in Form: Unsere Ansprechpartner für Power Platform & Power Apps

Interview zur besseren Einordnung der Microsoft Power Apps

Die Microsoft Business Applications gewinnen gerade besonders an Bedeutung. Grund genug, aktuelle Themen und Lösungen einmal genauer zu beleuchten! Dieser Beitrag fokussiert Microsofts Power Platform und erklärt auch die Power Apps. Warum seid ihr da die richtigen Ansprechpartner?

Jens P. Klasen: Als Leiter des Geschäftsbereich Customer Engagement & Low-Code Solutions beschäftige ich mich – wie viele unserer Mitarbeiter – seit über 20 Jahren mit der Einführung und Integration von CRM-Systemen. Ich arbeite zudem als Lehrbeauftragter an der Hochschule Bonn-Rhein-Sieg, wo wir den Berufseinsteigern von Morgen einen praxisnahen Einblick in die Geschäftsanwendungen der neuesten Generation von Microsoft ermöglichen.

André Floßdorf: Ich leite das Low-Code-Solution-Team CRM-Bereich, das sich dezidiert mit den Power Platform-Anwendungen der MS Business Applications beschäftigt. Dabei handelt es sich um Geschäftsanwendungen, die zu einem Großteil via Konfiguration bereitgestellt und auf die individuellen Bedürfnisse der Kunden angepasst werden können.

Bloßes Buzzword oder echte Innovation?

Power Platform und Microsoft Business Applications: Was sollten Interessenten unbedingt wissen? Mittlerweile hat Microsoft so viele Entwicklungen vorgenommen und auch Namen teilweise geändert, dass es immer schwerer fällt, dort den Überblick zu behalten.

Jens P. Klasen: Das stimmt. Viele Kunden und Interessenten sind mit der neuen Microsoft-Welt gnadenlos überfordert – und das ist nicht verwunderlich: Sie suchen Lösungen, welche die Digitalisierung in ihren Unternehmen bestmöglich unterstützen. Hat man allerdings früher nach einem CRM- oder ERP-System gesucht, findet man heute im Microsoft-Portfolio nur noch relativ wenig Lösungen unter diesen Begriffen und dieser Art.

Vielmehr ist man auf einen geschulten Microsoft-Partner angewiesen, der die Vision hinter den Microsoft Business Applications vermittelt. Außerdem muss er fachlich souverän einordnen können, welche Anwendungen am besten zu den unternehmensspezifischen Anforderungen passen und wie diese optimal miteinander kombiniert werden.

André Floßdorf: Aber zurück zur Frage: Genau, wir fokussieren in diesem Beitrag die Microsoft Business Applications – auch gerne „BIZ APPS“ genannt – und betrachten dabei auch die Microsoft Power Platform genauer. Wie Jens bereits angedeutet hat, haben wir für uns erkannt, dass die Anforderungen der Interessenten immer individueller werden. Das war zumindest für uns Grund genug, um im CRM-Bereich ein eigenes Geschäftsfeld zu etablieren, das sich ausschließlich mit den Low-Code Applications von MS beschäftigt, um mit der Werkzeugkiste der Power Platform den unternehmensspezifischen Anforderungen gerecht zu werden.

Also: Was sollten Unternehmen über die MS Power Platform wissen und wie unterscheidet sich diese von den herkömmlichen Geschäftsanwendungen, die allesamt unter der Dynamics 365-Flagge laufen?

André Floßdorf: Ich würde sagen, dass die Microsoft Power Platform in der gesamten Entwicklung moderner Geschäftsanwendungen aus dem Hause Microsoft derzeit das spannendste Thema ist. Wir sprechen hier von einer Produktgruppe der Microsoft Business Applications: Diese definieren sich dadurch, dass sie in Form von unterschiedlichen Apps ein Low-Code Framework bilden, bei dem man unabhängig von den Leitplanken üblicher Standardsoftware nicht an eine bestimmte vorgegebene Prozess- oder Systemlogik gebunden ist, sondern diese mit gängigen Standards selbst gestalten kann.

Jens P. Klasen: Im Fachjargon spricht man dabei von Low-Code- bzw. No-Code-Software. Softwarelösungen wie diese liegen am Puls der Zeit, da sich in den letzten Jahren immer mehr IT-Kompetenzen und Budgets von der EDV weg hin zu den Fachanwendern verlagert haben.

Diese möchten ihre Produkte durch die Nutzung von Low- / No-Code schneller und eigenständiger entwickeln, um die Umsetzung ihrer Digitalisierungs-Roadmap damit zu beschleunigen. Mit der MS Power Platform erhalten sie ein Low-Code-Produkt-Framework, das diese Anforderungen optimal unterstützt und sich nahtlos in die Standards der Microsoft Produktwelt integriert sowie in die Software von Drittanbietern. Man kann sich vorstellen, dass dieser Software-Typ viele Stereotypen im Projektgeschäft auch zukünftig verändern wird.

Microsoft Power PlatformMicrosoft Power Platform

Zur Einordnung: Das macht Power Apps aus

Die MS Power Apps basieren also genau auf dem Low-Code-Prinzip und erfreuen sich deswegen zunehmender Beliebtheit. Allerdings werden sie – obwohl schon viele davon gehört haben – häufig noch falsch eingeordnet, gerade in Bezug auf die Lösungen Dynamics 365 for Sales, Service & Marketing. Könnt ihr da ein wenig Licht ins Dunkel bringen?

André Floßdorf: Die Power Apps stellen in unserem Geschäftsfeld Power Platform mittlerweile die wichtigste Grundlage bei der Entwicklung einer neuen Geschäftsanwendung dar. Auch bei unseren Kunden stehen sie hoch im Kurs, sofern nicht auf eine feste Systemlogik wie bei den Lösungen von Dynamics 365 Marketing, Sales und Customer Service verwendet bestanden wird.

Unternehmen, die sich für Power Apps entscheiden, sind meist jene, die für ihre Geschäftsprozesse am freien Markt keine passende Branchenlösung finden. Der Einsatz von Power Apps überzeugt aber auch in der Lizenzierung: Eine Power App ist deutlich günstiger als eine vergleichbare Dynamics 365 for Sales-Lizenz; das liegt daran, dass Microsoft es uns hierbei ermöglicht, auf der grünen Wiese zu beginnen, ohne vorgefertigte Prozesse aus den Bereichen Marketing, Vertrieb und Service einzusetzen.

Später im Projekt können wir diese aber trotzdem miteinander verknüpfen, da sie letztlich das gleiche Entwicklungswerkzeug nutzen. Ein Beispiel: Power Apps für die interne IT-Beschaffung lässt sich prima mit dem Dynamics 365 Sales-Modul für den Vertrieb kombinieren .

Jens P. Klasen: Noch vor nicht allzu langer Zeit wurden Digitalisierungsprojekte häufig auf Basis der Microsoft Dynamics 365 Sales oder Service-Module entwickelt, auch wenn viele Features aus diesen Modulen gar nicht eingesetzt wurden. Das Sales-Modul verfügt z.B. über eine Produktverwaltung und einen durchgängigen Qualifizierungsprozess von Interessenten, der vom Angebot über den Auftrag bis hin zur Rechnung reicht.

Wenn all diese Standards dann plötzlich nicht mehr zu eigenen Geschäftsmodell passen oder gegebenenfalls nur im weiteren Verlauf ergänzt werden sollen ist ein Umdenken gefragt, bei dem Power Apps sich als praktikable Lösung herauskristallisiert hat.  

Meist beginnen wir in großen IT-Projekten mit dem Standard der Adressverwaltung von Power Apps und entwickeln dann kleine, mittlere bis große relationale Datenmodelle mit neuen Entitäten, Tabellen, Formularen, Feldern, Prozessautomatisierungen etc. Diese Vorgehensweise ermöglicht fachlich einen beschleunigten Einstieg in die Projekte und liefert zeitnahe erlebbare Applikationen für die Endanwender. 

Dashboard Diagramm Model-Driven-Power-AppsDashboard Diagramm Model-Driven-Power-Apps

Projekte wurden durch euch bereits erfolgreich mit den Werkzeugen von Power Platform umgesetzt. Wie sind eure Eindrücke und die Resonanzen der Kunden?

André Floßdorf: Neben der deutlich gestiegen Nachfrage, die sicherlich auch ein wenig auf die günstigeren Lizenzen zurückzuführen ist, bemerken wir insbesondere auf Kundenseite ein hohes Interesse an der Möglichkeit, einzelne Applikationen eigenständig konfigurieren zu können.

Das bringt natürlich den Vorteil mit sich, dass spätere Anpassungen und Wartungen eigenständig und ohne externe Unterstützung durchgeführt werden können. In vielen Projekten hat sogar der Kunde die Umsetzung weitestgehend eigenständig durchgeführt. Wir waren primär als Mentoren für strategische und konzeptionelle Entscheidungen gefragt.

Dass Kunden im Projekt tatsächlich mitarbeiten und sogar federführend die Anpassungen vornehmen, wäre vor vielen Jahren undenkbar gewesen. Der Low-Code-Ansatz der Power Platform hat die Zusammenarbeit in Projekten definitiv deutlich zum Positiven verändert. Insbesondere die gemeinsame Realisierung von Projekten jeglicher Art finden wir sehr spannend.

Die Architektur hinter MS Copilot 

Mit Hilfe von Retrieval Augmented Generation (RAG) ein individuelles Assistenzsystem aufbauen

Gut ein Jahr ist es nun her, dass OpenAI mit ChatGPT an die Öffentlichkeit getreten ist und einen beispiellosen Hype um das Thema generative künstliche Intelligenz ins Rollen gebracht hat. So brauchte OpenAI lediglich 5 Tage, um die Marke von 1 Million Nutzer zu knacken und pulverisierte damit den bisherigen Rekord von Instagram aus dem Jahr 2010 mit 75 Tagen. Mit rund 1,85 Milliarden Besuchern im Mai ist ChatGPT im täglichen Gebrauch der Menschen angekommen. 

Die Magie von ChatGPT

Die Gründe für diesen enormen Erfolg sind vielfältig: Sicher haben gezieltes Marketing und prominente Unterstützer wie Elon Musk ihren Anteil an der Popularität. Doch der Hauptgrund für das große Interesse liegt darin, dass ChatGPT generative künstliche Intelligenz einem großen Publikum zugänglich macht und keine Programmierkenntnisse voraussetzt. Schließlich findet die Interaktion in natürlicher Sprache statt. Die Ausgaben, die ChatGPT generieren kann, haben viele Menschen fasziniert und zum Staunen gebracht. Mit diesen Fähigkeiten hat ChatGPT großes Potenzial, den Menschen zeitintensive Routineaufgaben abzunehmen.  

Wer ChatGPT schon einmal ausprobiert hat, musste allerdings feststellen, dass das System auch schnell an seine Grenzen kommt. Das ist insbesondere dann der Fall, wenn es um aktuelle Daten geht. Gleiches gilt auch für nicht öffentliche Daten, so wie es sie in jedem Unternehmen gibt. Ein solch großes Sprachmodell mit unternehmenseigenem Wissen als Unterstützung wäre dennoch weiterhin für viele Unternehmen sehr interessant und könnte viele Prozesse optimieren. 

Retrieval Augmented Generation

Hinter den Large Language Models wie GPT-4, Llama oder Falcon stehen große künstliche neuronale Netzwerke. Ähnlich wie ein menschliches Gehirn können diese Sprachmodelle nur das wiedergeben, was sie gelernt bzw. trainiert haben. Hier besteht die Möglichkeit, eines der bekannten Sprachmodelle mit unternehmenseigenen Daten zu trainiert und anschließend den Nutzern zu Verfügung zu stellen. Doch analog zum menschlichen Gehirn kostet Lernen viel Zeit und Energie. Außerdem lernt der Mensch nicht alle Informationen auswendig, die ihm zugetragen werden, sondern er merkt sich, wo dieses Wissen gespeichert und gegebenenfalls nachgeschlagen werden kann. Diesen Ansatz verfolgt auch Retrieval Augmented Generation

Der entscheidende Faktor bei dieser Herangehensweise ist das Zusammenspiel zwischen den beiden Komponenten, nämlich dem Information Retrieval und den generativen Sprachmodellen in natürlicher Sprache. Die erstere dient dazu, die gewünschten Informationen aus den eigenen Wissensdatenbanken zu extrahieren. Die Daten und Speicherorte können sich in Format und Art unterschieden wie Intranet, Blob Storage, Sharepoint, PDFs, Emails, Word-Dateien oder PowerPoint. In einer Microsoft Infrastruktur bietet sich die Azure Cognitive Search gut an. Diese kann entweder Keyword-basiert oder mithilfe von Embeddings eine vektorbasierte Semantikanalyse im unternehmenseigenen Datenbestand durchführen und die relevanten Informationen extrahieren. Diese Informationen werden dann in Textform respektive natürlicher Sprache als Eingabe des generativen Sprachmodells genutzt.

Genauere Ausgaben dank Prompting

Die Implementierung basiert auf einem sogenannten Prompt Flow. Dieser bildet ein Gerüst um den Information Retrieval und generativen Prozess; außerdem dient dieser als Interface zum Anwender. In diesem Flow werden die Anfrage des Nutzers sowie der Chatverlauf als Eingabe verwendet. Anschließend wird diese in verschiedenen Teilprozessen analysiert und um spezifische Prompts bei der Eingabe in die Sprachmodelle ergänzt. Als Prompt wird die Eingabe an ein LLM bezeichnet. Durch gezieltes Prompting können bessere und spezifischere Ausgaben generiert werden. Dieses Verfahren nutzt auch der Microsoft 365 Copilot. 

Die Vorteile von Retrieval Augmented Generation liegen nicht nur darin, einen Sprachassistenten mit Wissen zu unternehmenseigenen Daten erstellen zu können, sondern es ist auch kein aufwendiges Training von eigenen LLMs notwendig. Dadurch können Anpassungen im Datenbestand schnell und flexibel in das Modell integriert werden. Zudem können durch die spezifischen Prompts nicht nur genauere Antworten generiert, sondern auch Referenzen für die zugrunde liegenden Daten ausgegeben werden. Daher ist es nicht überraschend, dass immer häufiger Sprachassistenten in bekannte Anwendungen integriert werden. 

Retrieval Augmented Generation: Architektonisch am Beispiel von Microsoft 365 Copilot erklärt.Retrieval Augmented Generation: Architektonisch am Beispiel von Microsoft 365 Copilot erklärt.
Retrieval Augmented Generation: Die Architektur am Beispiel von Microsoft 365 Copilot erklärt.

Einführung in Synapse Data Engineering in Microsoft Fabric

Von Data Factory hin zu der Weiterverarbeitung mit Hilfe von Data Engineering

Im letzten Teil unserer Serie haben wir Ihnen einen Überblick über Data Factory gegeben, ein cloudbasierter ETL-Dienst, mit dem Daten aus verschiedensten Datenquellen in Microsoft Fabric geladen werden können.
In diesem Teil tauchen wir in die Weiterverarbeitung mit Hilfe von Synapse Data Engineering ein.

Synapse Data Engineering in Microsoft Fabric

Was ist Azure Synapse Data Engineering?

Azure Synapse Data Engineering ist eine integrierte Analyseplattform, die speziell entwickelt wurde, um Unternehmen bei der Bewältigung von Herausforderungen mit der Datenverarbeitung zu unterstützen. Mit einer breiten Palette von Tools und Funktionen ermöglicht sie es Data Engineers und Data Scientists, die Daten, die von Data Factory geladen wurden, zu transformieren: Auf diese Weise kann eine Weiterverarbeitung – etwa in KI-Modellen in Synapse Data Science oder Analysen mit Power BI – erfolgen. 

Key Features und Vorteile

1. Integration von Big Data und Data Warehousing
Azure Data Engineering kombiniert die Leistung von Big Data und Data Warehousing auf einer einzigen Plattform. Das wiederum ermöglicht die nahtlose Verarbeitung von strukturierten und unstrukturierten Daten, wodurch Unternehmen flexibel auf verschiedene Datenquellen und Datenformate zugreifen können.

2. Skalierbarkeit
Die Plattform bietet eine hohe Skalierbarkeit und wird damit den Anforderungen von Unternehmen jeder Größe gerecht. Sie können die Rechenleistung und den Speicher nach Bedarf anpassen, um die Leistung zu optimieren und Kosten zu sparen.

3. Sicherheit und Compliance
Datensicherheit hat oberste Priorität! Auch in dieser Hinsicht enttäuscht Azure Synapse Data Engineering Sie nicht. Die Plattform bietet umfassende Sicherheitsfunktionen und erfüllt verschiedene Compliance- und Datenschutzstandards, was insbesondere in regulierten Branchen von enormer Bedeutung ist.

Praxisbeispiele für den Einsatz der Plattform

1. Predictive Maintenance in der Fertigungsindustrie
In der Fertigungsindustrie ist die vorbeugende Wartung entscheidend, um Ausfallzeiten zu minimieren. Synapse Data Engineering ermöglicht die Integration von Sensordaten aus Produktionsanlagen, um prädiktive Wartungsmodelle zu erstellen. Durch die Analyse von Datenströmen können Unternehmen Ihren Wartungsbedarf vorhersagen und Ausfälle vermeiden.

2. Globale Supply Chain-Optimierung
Für Unternehmen mit komplexen Lieferketten ist die Optimierung der Supply Chain von entscheidender Bedeutung. Synapse Data Engineering kann Daten aus verschiedenen Quellen integrieren, darunter Lieferanteninformationen, Logistikdaten und Marktnachfrage. Dies ermöglicht eine ganzheitliche Analyse, um Engpässe zu identifizieren, Bestände zu optimieren und Lieferketten effizienter zu gestalten.

3. Gesundheitsdatenanalyse für die Forschung
Im Gesundheitswesen ist die Analyse großer Mengen von Patientendaten entscheidend für die Forschung und die Bereitstellung einer besseren Patientenversorgung. Data Engineering kann nicht nur genetische Daten und klinische Aufzeichnungen, sondern auch andere Gesundheitsdaten verarbeiten, um Muster zu erkennen, personalisierte Medizinansätze zu entwickeln und Forschungsinitiativen zu unterstützen.

Fazit: Das zeichnet den Einsatz von Data Engineering aus

Synapse Data Engineering ist zweifellos eine leistungsstarke und vielseitige Plattform für die Datenverarbeitung. Sie bietet Unternehmen die Möglichkeit, Daten effizient zu nutzen und in wertvolle Einblicke umzuwandeln. Mit ihrer Skalierbarkeit, Sicherheit und Integration von Big Data und Data Warehousing ist sie eine ideale Lösung für Organisationen, die sich auf ihre Daten verlassen, um nachhaltig erfolgreich zu sein. Die Plattform bietet damit nicht nur leistungsstarke Funktionen sondern ermöglicht auch innovative Lösungen für reale Herausforderungen.