SharePoint Online Markencenter: Intranet in Ihrem CD

So erstrahlt Ihr Intranet im Licht Ihres Corporate Designs

SharePoint Online ist aus dem Microsoft 365-Umfeld nicht weg zu denken. Oft wird SharePoint Online zum Aufbau von Intranetportalen genutzt: Dabei können verschiedene Seiten für unterschiedliche Themen angelegt werden. Meistens gibt es eine zentral gepflegte Hauptseite, auf der Unternehmensnews und -events aggregiert und allgemeine Informationen bereitgestellt werden. In einem SharePoint-Intranetportal erhalten zudem einzelne Unternehmensbereiche die Möglichkeit, ihre Abteilungsstrukturen vorzustellen oder wichtige Dokumente abzulegen.

Eine Herausforderung dabei: Intranetportale und deren Unterseiten sollten möglichst dem Unternehmensdesign entsprechen, um einen Wiedererkennungswert zu gewährleisten und die eigene Marke darüber hinaus intern zu stärken. Bisher war es so, dass Designs in SharePoint Online nur per PowerShell durch einen SharePoint-Administrator erstellt werden konnten. Außerdem gab es nur die von Microsoft vorgegebene Schriftart Segoe UI, die wohl in den seltensten Fällen die vom Unternehmen vorgegebene Schriftart ist. Mit dem SharePoint Online-Markencenter soll sich das nun ändern.

Das neue SharePoint Online Markencenter

Mitte September 2024 wurde das SharePoint Online Markencenter weltweit ausgerollt. Es wird im Microsoft 365 Admin Center unter den Organisationseinstellungen aktiviert und kann dann in einer Websitesammlung (z.B. dem Intranetportal) installiert werden. Auf das Markencenter haben anschließend alle Siteadministratoren und Websitebesitzer der entsprechenden Websitesammlung Zugriff. Im SharePoint Online Markencenter können nun Schriftarten und Farben des Unternehmens hinterlegt werden.

Nach dem Einspielen beider Elemente können Sie festlegen, in welchen Kombinationen diese in SharePoint Online und Viva Connections genutzt werden können.

Praktisch: Aus den Schriftarten werden Schriftartpakete erstellt. Bei diesen können Sie verschiedene Schriftarten und -stile für Titel, Überschriften, Texte und interaktive Texte (z.B. URLs) wählen.

Im Bereich „Design“ haben Sie die Option, verschiedene Farben und Markenfarben zu einem Unternehmensdesign zu kombinieren. Dabei müssen Primär-, Text-, Hintergrund- und Akzentfarbe angegeben werden. Der Designer enthält auf der rechten Seite eine Vorschau der aktuellen Farbauswahl und weist beispielsweise auf zu geringe Kontraste hin.

Die Auswirkungen des SharePoint Online Markencenters

Sobald ein Schriftartpaket oder ein Design über das SharePoint Online Markencenter angelegt wurde, können die Schriftpakete und Designs in allen Websitesammlungen innerhalb der Microsoft 365-Umgebung genutzt werden. Demnach steht auch auf Bereichsseiten das Design des Intranetportals zur Verfügung. Das konnte man bisher nur über Microsoft PowerShell-Befehle erreichen. Über den Button „Aussehen ändern“ und Design bzw. Schriftart findet man nun im Bereich „Von Ihrer Organisation“ die neuen Designs und Schriftarten.

Bei Auswahl eines neuen Designs oder einer neuen Schriftart wird diese zunächst als Vorschau auf der aktuellen Seite angezeigt und kann dann gespeichert werden.

Fazit: Neue Features für Ihr Corporate Design

Das neue SharePoint Online Markencenter hilft Unternehmen dabei, das eigene CD stringent umzusetzen, hat aber aus meiner Sicht noch Verbesserungspotenzial. Es kann beispielsweise nicht garantiert werden, dass alle Siteadministratoren oder Websitebesitzer auch wirklich die neuen Gestaltungsmöglichkeiten nutzen. Außerdem werden bisher nicht alle Webparts supportet. Das bedeutet, dass bei manchen die Schriftart nicht angepasst wird. Wenn man nun also die Schriftart der Websitesammlung anpasst, jedoch z.B. das Viva Engage-Webpart verwendet, kann es unsauber aussehen, da verschiedene Schriftarten auf einer Seite gemischt werden. Hier würde ich mir wünschen, dass die entsprechenden Webparts zeitnah angepasst werden.

Dennoch erleichtert das Markencenter besonders den globalen bzw. SharePoint Online Administratoren die Arbeit bezüglich Designs und ermöglicht es den Benutzenden, die sich ohnehin um CD-Themen kümmern, eigenständig Anpassungen vorzunehmen.

Ich persönlich bin sehr gespannt darauf, wie die Reise des SharePoint Online Markencenters weitergeht und hoffe, dass dadurch noch weitere Erleichterungen auf uns zu kommen.

Pflicht ab Oktober für Admin Portale 

Microsoft macht ernst: Multifaktorverpflichtung für Administratoren ab 15. Oktober 

Am 15. Oktober wird Microsoft die Multifaktorauthentifizierung (MFA) für sicherheitskritische Admin-Portale durchsetzen. Für Entra ID Admin Center, Intune Admin Center, Azure Portal und das Microsoft 365 Admin Center wird dann keine Anmeldung ohne zweiten Faktor mehr möglich sein. Weitere Dienste werden folgen. Microsoft weist in seinen Portalen seit Mitte September darauf hin. 

Microsoft macht im Rahmen seiner Secure Future Initiative also ernst. Das erste Mal boxt Microsoft bei seinen Administratoren ein Mindestmaß an Sicherheit durch: Anscheinend sind alle vorherigen Bitten, die Secure Defaults zu benutzen, von zu vielen ignoriert worden. Nun also dien Pflicht. 

Damit Sie nicht unangenehm überrascht werden, können Sie leicht folgende Dinge prüfen: 

  • Um zu sehen, welche User diese Apps benutzen, filtern Sie die Entra ID Sign Logs nach Applications auf folgende App IDs: 
    c44b4083-3bb0-49c1-b47d-974e53cbdf3c (Azure Portal) und 00000006-0000-0ff1-ce00-000000000000 (Microsoft Admin Center). Stellen Sie sicher, dass diese Benutzer eine MFA-Methode registriert haben. 
  • Filtern Sie zusätzlich nach Authentifizierungsanforderung / Authentication Requirement auf den Wert Single-Factor Authentication. Hier sehen Sie, welche Benutzer noch keine MFA für das Azure Portal benötigen. 
  • Prüfen Sie darüber hinaus privilegierte Rollen auf verwaiste Benutzer und entfernen Sie diese. 

Achtung: MFA wird auch für Breakglass Accounts erforderlich. Registrieren Sie hierfür am besten einen FIDO2 Security Key. 

Microsoft hat umfangreiche Ressourcen für Administratoren bereitgestellt. Falls Sie Unterstützung benötigen, melden Sie sich gerne bei uns. 

Einstellung Outbound-Marketing zum 30. Juni 2025

Wichtige Information zur Änderung im Dynamics 365 Customer Insights – Journeys

Microsoft hat angekündigt, dass das Outbound-Marketing-Modul von Dynamics 365 ab dem 30. Juni 2025 nicht mehr unterstützt wird und sich mit Real-Time-Marketing (RTM) auf die zukunftsorientierten Anforderungen im digitalen Echtzeit-Marketing konzentriert wird. Diese Umstellung bietet neue Chancen, die Plattform effizienter zu nutzen, Marketingkampagnen personalisierter zu gestalten und weitere Vorteile in den Bereichen Automatisierung und Performance anzuwenden.

Einstellung des Outbound-Marketing-Moduls zum Reatime-Marketing

Umstellung auf Real-Time-Marketing: Was bedeutet das für Sie als Nutzer konkret?

Die Umstellung auf Real-Time-Marketing ist obligatorisch, um das Marketing-Modul weiterhin nutzen zu können. So ist sichergestellt, dass Ihr System auch langfristig nutzbar bleibt und den aktuellen Anforderungen des digitalen Marketings entspricht. Diese Anpassung eröffnet Ihnen zahlreiche neue Möglichkeiten und ist Teil der kontinuierlichen Verbesserung der Plattform. Sie zielt darauf ab, gezieltere und personalisierte Kampagnen durchzuführen.

Die Vorteile von Real-Time-Marketing im Vergleich zum alten Outbound-Marketing

  1. Personalisierte Interaktionen in Echtzeit: Real-Time-Marketing reagiert auf Ereignisse und Kundenverhalten in Echtzeit, was zu relevanten und personalisierten Kundeninteraktionen führt, mit denen wir in Zukunft arbeiten können.
  2. Höhere Flexibilität: Kampagnen können flexibel und basierend auf Echtzeit-Daten erstellt und angepasst werden, im Gegensatz zu den starren, vorgeplanten Kampagnen des Outbound-Marketings.
  3. Bessere Kundenbindung: Durch die Möglichkeit, schneller auf Kundenaktionen zu reagieren, führt Real-Time-Marketing zu dynamischeren Interaktionen und einer verbesserten Kundenbindung.
  4. Erweiterte Automatisierung: Real-Time-Marketing bietet umfangreichere Automatisierungsmöglichkeiten, insbesondere durch Workflows, die auf Echtzeit-Trigger reagieren, während Outbound-Marketing in der Automatisierung limitiert war.
  5. Bessere Datenintegration: Real-Time-Marketing nutzt Echtzeit-Daten aus verschiedenen Quellen, um Kampagnen kontinuierlich zu optimieren, während Outbound-Marketing oft auf statischen Datensätzen basiert.
  6. Einbeziehung zusätzlicher Kommunikationskanäle: Mit Real-Time-Marketing lassen sich auch Kanäle wie SMS und Push-Nachrichten integrieren, die im Outbound-Marketing nicht verfügbar sind.
  7. Segmentierung und Lead-Integration: Real-Time-Marketing ermöglicht es, Segmente aus Leads zu erstellen und diese in Kampagnen aufzunehmen, was eine größere Zielgruppenflexibilität bietet und gezielte Aktionen auf potenzielle Neukunden ermöglicht.

Welche Schritte sollten Sie jetzt unternehmen, wenn Sie aktuell Outbound-Marketing nutzen?

Sofern Sie synalis-Kunde sind, müssen Sie aktuell keine Maßnahmen ergreifen. Wir werden uns in den kommenden Wochen bei Ihnen melden, um den Übergangsprozess vom Outbound-Marketing ins Real-Time-Marketing im Detail mit Ihnen zu besprechen und einen gemeinsamen Plan zu entwickeln. Unser Ziel ist es, den Übergang so reibungslos wie möglich mit Ihnen zu gestalten, damit Sie die Vorteile des Echtzeitmarketings für Ihr Unternehmen optimal nutzen können.

Bei Fragen können Sie sich jederzeit an uns wenden. Unser Ziel ist es, diesen Übergang so reibungslos wie möglich zu gestalten und die Vorteile des Echtzeitmarketings für Ihr Unternehmen optimal zu nutzen.

Der Microsoft Dynamics Lebenszyklus

Die Lösung für herausragende Kundenerlebnisse und langfristige Kundenbindung

Erfahren Sie, wie Microsoft Dynamics Marketing, Sales und Service zusammenarbeiten, um eine außergewöhnliche Kundenerfahrung zu schaffen und Kunden langfristig an Ihr Unternehmen binden.

Erfolgreiche Unternehmen konzentrieren sich nicht ausschließlich auf die Neukundengewinnung, sondern setzen vielmehr auf den Aufbau langfristiger Kundenbeziehungen. Sie erkennen den Wert eines Kunden nicht nur im Moment des Verkaufs, sondern betrachten ihn als Ausgangspunkt für zukünftige Transaktionen. Die Investition in die Pflege und Weiterentwicklung bestehender Kundenbeziehungen zahlt sich langfristig aus, da ein erhöhter Kundenwert den Wert jeder Neukundengewinnung steigert. In diesem Beitrag erläutern wir, wie Microsoft Dynamics über die CRM-Funktionalitäten hinaus die vollwertige Digitalisierung in Marketing, Sales und Service möglich macht.

Hierbei geht es nicht speziell um die einzelnen Features der Lösungen, sondern um einen idealtypischen Prozess, der standardmäßig durchlaufen wird. Diesen Prozess nennen wir den Lebenszyklus und dieser spiegelt sich in einer endlosen Schleife wider, da Kundeninteraktionen, Bedürfnisse und Erwartungen sich kontinuierlich verändern und wachsen. Im Idealfall wiederholt sich dieser Zyklus immer wieder, um eine langfristige Kundenbindung, Weiterempfehlungen und weitere Verkäufe möglich zu machen.

Die Phasen des Microsoft Dynamics Lebenszyklus

Im Folgenden werden die einzelnen Phasen des Lebenszyklus im Detail erläutert.

Lead-Erfassung: Potenzielle Kunden identifizieren

In der ersten Phase des Prozesses nutzt das Marketingmodul verschiedene Aktivitäten wie verkaufsstarke Landingpages für Veranstaltungsanmeldungen und Kontakt-Formulare, um potenzielle Kunden zu erfassen. Ziel ist es, deren Interesse zu wecken und sie dazu zu bringen, mit dem Unternehmen in Kontakt zu treten. Dabei hinterlassen sie wichtige Geschäftsinformationen, die für die spätere Geschäftsbeziehung relevant sind.

Lead-Qualifizierung: Kaufbereite Kunden herausfiltern

Nach der Erfassung werden die Leads qualifiziert, um sicherzustellen, dass sie dem Idealprofil eines potenziellen Kunden entsprechen. Dies erfolgt durch die Bewertung von Kriterien wie z.B. Bedarf, Budget, Entscheidungsautorität und Kaufbereitschaft. Qualifizierte Leads haben ein echtes Interesse an den Produkten oder Dienstleistungen des Unternehmens und sind potenziell bereit, einen Kauf zu tätigen.

Lead-Entwicklung: Interessenten informieren und Vertrauen aufbauen

In dieser Phase werden die Leads durch Marketingkampagnen und gezielte Interaktionen weiterentwickelt. Das Ziel ist es, das Interesse der Leads zu vertiefen und ihr Vertrauen in das Unternehmen zu stärken. Personalisierte Inhalte, Follow-up-Kommunikation und Lösungen für ihre spezifischen Bedürfnisse erhöhen die Wahrscheinlichkeit, dass die Leads eine Zusammenarbeit mit dem Unternehmen intensiver in Betracht ziehen.

Vertriebsübergabe: Reife Leads an das Vertriebsteam weitergeben

Wenn sich ein Lead als reif für den Kauf identifiziert, erfolgt die Übergabe an das Vertriebsteam mit allen relevanten Informationen. In den meisten Fällen ist der Lead bereits „aufgewärmt“, da er durch verschiedene Marketingaktivitäten wie gezielte Kampagnen und personalisierte Kommunikation betreut wurde. Diese Vorarbeit sorgt dafür, dass das Vertriebsteam einen potenziellen Kunden übernimmt, der ein echtes Interesse zeigt und bereit ist, den nächsten Schritt zu gehen.

Verkaufspipeline: Effektive Verwaltung der Verkaufschancen

Die Verwaltung der Verkaufschancen erfolgt in einer strukturierten Pipeline, die es dem Vertriebsteam ermöglicht, den Fortschritt jedes Leads im Verkaufsprozess zu überwachen. Besonders bei längeren Sales-Zyklen mit mehreren Entscheidungsträgern ist es wichtig, den Überblick über alle offenen Verkaufschancen zu behalten. Die Pipeline hilft dabei, die nächsten Schritte zu planen, Prioritäten zu setzen und sicherzustellen, dass keine Möglichkeit übersehen wird. Durch die Verwaltung der Pipeline kann das Vertriebsteam Ressourcen optimal nutzen, den Verkaufsprozess effektiv steuern und Geschäfte zügig und effizient abschließen.

Kunden-Onboarding: Erfolgreicher Start für neue Kunden

Nach dem Verkaufsabschluss erfolgt das Onboarding neuer Kunden, um sicherzustellen, dass sie erfolgreich mit den Produkten oder Dienstleistungen des Unternehmens arbeiten können. Das Onboarding umfasst Schulungen, Einführungen, Support und die Bereitstellung von Ressourcen (Wissensdatenbanken), um einen reibungslosen Start für den Kunden zu gewährleisten. Dem Kunden wird direkt vermittelt, dass er eine gute Kaufentscheidung getroffen hat.

Anfragen-Management: Kontinuierlicher Support für eine positive Erfahrung

Während der gesamten Kundenbeziehung werden Anfragen und Probleme über das Service-Modul bearbeitet und gelöst. Das Service-Team kümmert sich um Support-Anfragen, technische Probleme, Reklamationen und andere Kundenbedürfnisse, um eine positive Kundenerfahrung durchgehend sicherzustellen.

Kundenzufriedenheits-Management: Langfristige Kundenzufriedenheit sicherstellen

Die Kundenzufriedenheit ist entscheidend für den langfristigen Erfolg des Unternehmens. Zufriedene Kunden sind eher bereit, dem Unternehmen treu zu bleiben, es weiterzuempfehlen und positive Referenzen abzugeben. Durch einen erstklassigen Kundenservice, die Bereitstellung hochwertiger Produkte und Dienstleistungen sowie einer proaktiven Beratung angelehnt an die speziellen Bedürfnisse, kann das Unternehmen die Kundenzufriedenheit steigern, langfristige Beziehungen aufbauen und ggf. weitere Produkte und Dienstleistungen verkaufen.

Fazit: Vorteile eines integrierten Kundenlebenszyklus

Ein reibungslos durchlaufener Kundenlebenszyklus fördert nicht nur die langfristige Bindung, sondern auch wiederholte Käufe und Empfehlungen. Durch die enge Verzahnung von Marketing, Vertrieb und Service entsteht eine einheitliche Sicht auf den Kunden. Dies wiederum ermöglicht eine gezielte und effiziente Ansprache. Die Zusammenarbeit der Abteilungen verbessert die Ressourcennutzung und schafft eine optimierte Kundenerfahrung, die den langfristigen Erfolg des Unternehmens sichert.

Nutzen auch Sie den Lebenszyklus und vereinen Sie Marketing, Sales und Service

Die Dynamics Module Marketing, Sales und Service bieten Ihnen die Möglichkeit, Ihr Unternehmen auf das nächste Level zu heben. Jedes Modul ist – für sich genommen – bereits äußerst leistungsfähig und bringt sofortigen Mehrwert. Wenn Sie eine vollständige Integration aller Module anstreben, kann dies schrittweise über einen längeren Zeitraum erfolgen, um eine reibungslose Implementierung zu gewährleisten. Kontaktieren Sie uns jetzt, um mehr über die für Ihr Unternehmen passende Lösung zu erfahren.

Der Schlüssel zu einer besseren Zukunft

Chancen nutzen, Risiken verstehen – Für einen verantwortungsvollen Umgang mit der Zukunftstechnologie

Künstliche Intelligenz (KI) ist aus unserer heutigen Gesellschaft nicht mehr wegzudenken. Was einst als Thema wissenschaftlicher Spekulation galt, hat sich mittlerweile zu einer Technologie entwickelt, die in nahezu alle Bereiche unseres Lebens Einzug gehalten hat. Von der medizinischen Diagnostik über die Finanzwelt bis hin zu alltäglichen Anwendungen wie Terminplanung oder Textkorrektur – KI unterstützt uns bereits in vielerlei Hinsicht. Doch während sie zweifellos große Vorteile mit sich bringt, birgt sie auch Risiken, die sorgfältig abgewogen werden müssen. Daher wird die Frage nach einem verantwortungsvollen Umgang mit KI immer dringlicher.

Die Risiken von KI: Potenzielle Diskriminierung und Verzerrungen

Eines der Risiken, das mit der Nutzung von KI einhergeht, ist die Gefahr der unbewussten Diskriminierung durch voreingenommene Systeme. Ein bekanntes Beispiel ist die „Apple Card“, deren Kreditbewertungsalgorithmus Männern deutlich höhere Kreditlimits gewährte als Frauen, obwohl diese über vergleichbare finanzielle Profile verfügten. Wie können solche Verzerrungen auftreten, wenn eine KI selbst keine eigenen Meinungen hat?

Die Antwort liegt in den Daten, die verwendet werden, um KI-Modelle zu trainieren. Unternehmen wie OpenAI nutzen dabei frei zugängliche, menschengenerierte Daten aus dem Internet, die durch zusätzliche manuelle Überprüfung ergänzt werden. Doch auch diese Daten sind nicht immer fehlerfrei. Verzerrte oder mangelhafte Daten können dazu führen, dass KI-Modelle diskriminierendes Verhalten lernen und verstärken. Die drei häufigsten Ursachen dafür sind:

1. Verzerrte Trainingsdaten: Wenn die Daten, auf denen die KI basiert, bestehende gesellschaftliche Ungleichheiten abbilden – etwa die Unterrepräsentation von Frauen in Führungspositionen – dann kann die KI diese Ungleichheiten übernehmen und möglicherweise verstärken. Ein Rekrutierungsalgorithmus könnte dadurch beispielsweise eher männliche Bewerber bevorzugen.

2. Fehlende Diversität: Wenn die Trainingsdaten nicht ausreichend divers sind – etwa, wenn ein Gesichtserkennungsprogramm hauptsächlich mit Bildern von hellhäutigen Personen trainiert wird – hat die KI Schwierigkeiten, Muster bei anderen Hauttönen zu erkennen. Dies kann dazu führen, dass die Technologie in der Praxis für bestimmte Gruppen weniger genau arbeitet.

3. Algorithmische Voreingenommenheit: Auch die Art und Weise, wie Algorithmen gestaltet sind, kann unbeabsichtigte Verzerrungen mit sich bringen. Ein Algorithmus könnte beispielsweise bestimmte Merkmale über- oder unterbewerten, was zu ungerechten Entscheidungen führen kann, wie etwa der bevorzugten Kreditvergabe an eine bestimmte Bevölkerungsgruppe.

Das Black-Box-Problem: Die Herausforderung der Transparenz

Das Training eines KI-Modells ist oft vergleichbar mit dem Konzept der „Black Box“, das von W.R. Ashby 1956 entwickelt wurde. Eine „Black Box“ hat auf der einen Seite einen Input – die Trainingsdaten – und auf der anderen Seite einen Output – das Ergebnis oder die Entscheidung. Doch wie das Modell zu seiner konkreten Entscheidung gelangt, bleibt häufig undurchsichtig.

Um die Entscheidungen von KI-Modellen besser nachvollziehbar zu machen, setzen Entwickler auf verschiedene Methoden und Ansätze. Erklärungsmechanismen wie LIME (Local Interpretable Model-agnostic Explanations) und SHAP (SHapley Additive exPlanations) sind speziell entwickelt worden, um die Entscheidungsprozesse von KI-Systemen transparenter zu machen. Diese Werkzeuge bieten Einblicke in die Gewichtung der einzelnen Merkmale und zeigen auf, wie unterschiedliche Eingaben zu den jeweiligen Ausgaben führen. Auch einfachere Modellarchitekturen wie Entscheidungsbäume spielen eine wichtige Rolle bei der Verbesserung der Interpretierbarkeit, da sie aufgrund ihrer strukturellen Klarheit leichter nachvollziehbar sind.

Durch kontinuierliche Forschung und regelmäßige Tests im Bereich der erklärbaren KI wird die Transparenz und Nachvollziehbarkeit der Modelle weiter verbessert, was letztlich das Vertrauen in ihre Entscheidungen stärkt. Allerdings ist es technisch kaum möglich, absolut sicherzustellen, dass eine KI immer ethisch korrekt handelt. Wie können diese Risiken also minimiert werden?

Responsible AI: Ein Konzept für ethische KI

Der Begriff „Responsible AI“ beschreibt das Ziel, KI-Systeme so zu entwickeln und einzusetzen, dass sie den ethischen und moralischen Werten einer demokratischen Gesellschaft entsprechen. Es geht darum, sicherzustellen, dass KI fair, transparent, sicher und unter menschlicher Kontrolle bleibt.

Microsoft etwa hat einen „Responsible AI Report“ veröffentlicht, in dem ethische Leitlinien für den verantwortungsvollen Einsatz von KI festgelegt sind. Diese Leitlinien gliedern sich in sechs zentrale Prinzipien:

1. Fairness: KI-Systeme sollten alle Menschen gleich behandeln und keine Vorurteile oder Diskriminierungen fördern. Beispielsweise sollte ein KI-gesteuertes Bewerbungssystem keine Bewerber aufgrund ihres Geschlechts oder ihrer Herkunft benachteiligen.

2. Zuverlässigkeit und Sicherheit: KI-Systeme sollten auch unter unerwarteten Bedingungen robust und zuverlässig arbeiten. Dies ist besonders in sicherheitskritischen Bereichen wie der Medizin oder dem autonomen Fahren wichtig.

3. Datenschutz: Die Privatsphäre der Nutzer muss gewahrt und ihre Daten sicher verarbeitet werden. Dies bedeutet zum Beispiel, dass sensible Gesundheitsdaten in medizinischen KI-Anwendungen strikt geschützt werden.

4. Inklusion: KI-Technologien sollten für alle Menschen zugänglich und nutzbar sein, unabhängig von individuellen Fähigkeiten oder Hintergründen. Ein Beispiel hierfür ist die Entwicklung von Spracherkennungssystemen, die auch Dialekte und Sprachbarrieren berücksichtigen.

5. Transparenz: Die Funktionsweise von KI-Systemen sollte möglichst verständlich bleiben, und Entscheidungen sollten nachvollziehbar sein. Ein Beispiel ist die Offenlegung der Kriterien, nach denen ein Kreditgenehmigungsalgorithmus entscheidet.

6. Verantwortlichkeit: Unternehmen und Entwickler müssen für die Auswirkungen ihrer KI-Technologien Verantwortung übernehmen und sich ihrer ethischen Verpflichtungen bewusst sein. Dies beinhaltet auch, dass sie für etwaige Fehler oder den Missbrauch ihrer Systeme zur Rechenschaft gezogen werden können.

Darüber hinaus setzt der EU AI Act strenge gesetzliche Standards für Transparenz, Fairness und Sicherheit von KI-Systemen fest. Diese Vorschriften schützen nicht nur die Grundrechte der Nutzer, sondern stärken auch das Vertrauen der Öffentlichkeit in eine zunehmend digitalisierte Welt.

Blick in die Zukunft: Herausforderungen und Chancen für eine ethische KI

Ein verantwortungsvoller Umgang mit KI ist notwendig, um soziale Ungerechtigkeiten und Diskriminierungen zu vermeiden und das Vertrauen der Öffentlichkeit in diese Technologien zu stärken. Wenn Unternehmen und Entwickler klare ethische Richtlinien befolgen und sicherstellen, dass ihre KI-Systeme fair, transparent und sicher sind, können sie dazu beitragen, dass KI-Technologien einen positiven Einfluss auf die Gesellschaft haben.

In der Zukunft wird es noch wichtiger werden, diese Prinzipien und Regelungen einzuhalten, da die Auswirkungen von KI auf verschiedene Lebensbereiche weiter wachsen. Die ethischen Fragestellungen im Bereich KI sind komplex und vielschichtig, und viele von ihnen sind heute noch unbeantwortet. Fragen zu Datenschutz, algorithmischer Fairness, Verantwortung bei Fehlentscheidungen und der Einfluss von KI auf Arbeitsmärkte und soziale Strukturen sind nur einige der Herausforderungen, die es zu bewältigen gilt.

Ein zukunftsfähiger Ansatz muss daher nicht nur auf bestehenden ethischen Prinzipien aufbauen, sondern auch kontinuierlich neue Fragestellungen und Herausforderungen berücksichtigen. Fortlaufende Forschung und regelmäßige Anpassungen der ethischen Leitlinien werden notwendig sein, um mit der schnellen Entwicklung der Technologie Schritt zu halten und sicherzustellen, dass KI-Systeme immer im besten Interesse der Gesellschaft gestaltet und eingesetzt werden.

Fazit: KI als Spiegel unserer Gesellschaft

KI spiegelt die Gesellschaft wider, aus der sie hervorgeht. Wenn unsere Gesellschaft von Vorurteilen durchzogen ist, wird auch die KI diese Vorurteile reflektieren. Daher liegt es in unserer Verantwortung, ethische Grundsätze in der Entwicklung und Anwendung von KI zu verankern. Nur so kann sichergestellt werden, dass diese Technologien zu einer gerechteren und inklusiveren Zukunft beitragen. Die kontinuierliche Auseinandersetzung mit diesen ethischen Fragen wird entscheidend sein, um die KI von morgen verantwortungsvoll zu gestalten.

KI im Umfeld von Dokumentenmanagement

So lässt sich KI im Umfeld von Dokumentenmanagement einsetzen

Künstliche Intelligenz ist in aller Munde und das aktuelle Hype-Thema in Unternehmen. Die Ergebnisse, die viele bereits mit einfachen Eingaben in ChatGPT erzielen, sind verblüffend. Dennoch fällt es Unternehmen häufig noch schwer, Prozesse zu definieren, die mithilfe der KI-Technologien unterstützt werden können. Daher beleuchten wir in diesem Artikel für Sie einmal mögliche Anwendungspotenziale.

Konkret: Um welche KI-Technologien geht es hier?

Als Microsoft-Partner sprechen wir im Wesentlichen über die Azure AI-Services, die eine Vielzahl von KI-Modellen – aktuell ca. 1.800 Stück – beinhalten: Diese reichen von der Analyse von Audio- und Videodaten über spezialisierte Klassifizierungsmodelle bis hin zu den weit verbreiteten Sprachmodellen (Large Language Models) wie GPT-4o.

Da dieser Beitrag vor allem die Anwendung im Bereich des Dokumentenmanagements beleuchtet, möchten wir im Folgenden insbesondere Klassifizierungsmodelle und Sprachmodelle tiefergehend beleuchten.

Klassifizierungsmodelle lassen sich zum Beispiel dazu einsetzen, Dokumente automatisch in Kategorien zu sortieren. Das kann im Rahmen der Klassifizierung des Posteingangs oder des E-Mail-Eingangs von Unternehmen dabei helfen, die Dokumente schneller und mit geringerem Aufwand an die richtigen Empfänger zu verteilen. Klassifizierungsmodelle werden für eine festgelegte Auswahl an Kategorien trainiert, bevor sie eingesetzt werden können. Sie haben dann eine hohe Erkennungsrate, sind häufig aber wenig flexibel, da die Hinzunahme weiterer Kategorien ein erneutes Anlernen des Modells erfordert.

Die Sprachmodelle von OpenAI und anderen Herstellern liegen mittlerweile in mehreren Versionen vor, die sich auch darin unterscheiden, wie komplex die zu bearbeitenden Anfragen sein dürfen. Die Kosten sind dabei stets nutzungsabhängig und von der Komplexität des Modells abhängig.

Wie hilft mir das konkret?

Um Ihnen das Ganze zu veranschaulichen, führe ich einmal ein paar Beispiele aus der Praxis auf, in denen Künstliche Intelligenz gezielt helfen kann, Prozesse zu vereinfachen und zu beschleunigen. Auch Kombinationen der verschiedenen Modelle beziehungsweise Services sind möglich und erweisen sich durchaus als sinnvoll.

Ein Beispiel: Im Posteingang des Unternehmens wird zunächst die Dokumentenart ermittelt. Für unterschiedliche Dokumentenarten wie beispielsweise Verträge werden dann weitere inhaltliche Analysen ausgeführt, um automatisch den Vertragspartner, das Vertragsdatum, die Laufzeit sowie die Kündigungsfrist auszulesen. Außerdem soll eine inhaltliche Zusammenfassung in deutscher und englischer Sprache hinterlegt werden.

Erarbeitung von KI-Anwendungsszenarien mit synalis

Erfahrungsgemäß stellt die Erarbeitung von Anwendungsszenarien die größte Hürde für den Einsatz von KI in vielen Unternehmen dar. Bei synalis haben wir daher ein Workshopformat entwickelt, das genau diese Herausforderung adressiert.

Fazit: Vom Chatbot zum Game Changer

KI-Tools haben eine lange Entwicklungsreise hinter sich und können mittlerweile zielgerichtet eingesetzt werden.

Als ChatGPT populär wurde haben wir alle gestaunt. Wir konnten mit einer künstlichen Intelligenz chatten und die Antworten waren oft verblüffend gut.

Dann jedoch kamen schnell die Fragen auf, wie Unternehmen davon profitieren können. Es erschien nicht effizient, jede Anfrage individuell an einen ChatBot zu formulieren – ein Automatismus sollte Abhilfe schaffen . Schnell wurden auch die Fragen nach der Korrektheit der Antworten und nicht zuletzt nach dem Datenschutz laut.

Mittlerweile hat der Datenschutz durch den EU AI-Act ein solides Fundament erhalten und regelt die Einsatzmöglichkeiten. Microsoft bietet den Kunden die Technologien so an, dass Eingaben nicht zur Weiterentwicklung des Modells genutzt werden. Außerdem stellt Microsoft umfangreiche Dokumentationen zur Datenverarbeitung und -speicherung in den entsprechenden Rechenzentren zur Verfügung. Nicht zuletzt können Anonymisierungswerkzeuge helfen, erst gar keine schützenswerten Daten an die KI zu übertragen.

Heute sehen wir auch den Nutzen klarer: Wir können den Sprachmodellen Dokumente zur Analyse übergeben. Die Arbeitsanweisungen, auch Metaprompts genannt, können vorab definiert werden und das Sprachmodell ist in der Lage, seine Antworten in Formaten (wie etwa JSON) auszugeben, sodass sie sich maschinell / IT-seitig einlesen und weiterverarbeiten lassen. Auf diese Weise eignet sich KI vor allem auch dazu, im Hintergrund vollautomatisch zu klassifizieren, Informationen zu sammeln und Auswertungen über Dokumenteninhalte zu erstellen.

Dabei sehen wir Ergebnisse, die schnell zur Verfügung stehen, von hoher Qualität sind und Unternehmen dabei helfen, ihre Prozesse effizienter zu gestalten.

Der neue Microsoft Digital Defense Report

Die verbreitetsten Angriffsszenarien 2024

Aktuelle Bedrohungen, Cyberattacken und Trends – im jährlichen Microsoft Digital Defense Report 2024 schildert der Softwaregigant seine Sicht auf Themen, die die Welt der Cyber Security umhertreiben. Die zugrundeliegenden Daten entstammen dem letzten Fiskaljahr.

Der anschauliche Bericht behandelt nicht nur den Bereich Microsoft 365 und Azure, sondern auch private Microsoft Dienste wie Office, Xbox und natürlich PCs mit Windows. Aus den gewonnenen Erkenntnissen skizziert Microsoft eine Bedrohungslandkarte, die sich stetig weiterentwickelt: Wo eben noch Lücken geschlossen wurden, nutzen Angreifer schon neue Exploits.

Der Report hilft mittelständischen Unternehmen bei der Bewertung und Entwicklung eigener Initiativen und Mechanismen – manchmal sogar bei der Entdeckung blinder Flecken.

Die aus meiner Sicht wichtigsten Erkenntnisse und Empfehlungen im technischen Bereich habe ich nachfolgend für Sie zusammengefasst.

Identity and Social Engineering

Identitäten sind und bleiben das Lieblingsziel von Cyberkriminellen. Angreifer dringen nicht ein, sie loggen sich ein: 99% aller Identity Attacken sind Passwort-Attacken – viel zu häufig sind Kriminelle erfolgreich, weil z.B. keine Multifaktorauthentifizierung (MFA) aktiviert wurde.

Perfide: Selbst Organisationen, die die MFA aktiviert haben, sind verwundbar. Attacken, die auf Lücken in der MFA-Abfrage zielen, steigen rasant – seien es MFA-Bypass, Adversary in the Middle (AitM) oder Tokendiebstahl.

Häufig ist das Vehikel hierfür Phishing. Auch dieses entwickelt sich weiter. Neu ist Phishing per QR-Code, Voice Phising (Danke an AI) oder Phishing per Teams. Phishing wiederum führt zu Business Email Compromise Attacken (BEC), in denen im Namen der Opfer Betrugsemails mit Phishing-Links versandt werden. Ein Schneeballsystem, das Vertrauen ausnutzen soll. Übrigens: Betrug umfasst im Digital Defense Report ein eigenes Kapitel (Seite 31 ff), das sogar einen eigenen Blogbeitrag wert wäre – unbedingt mal reinlesen.

Was können Sie also tun, um sich zu schützen?

  1. Schließen Sie aus, dass man sich nur mit einem Usernamen und Passwort an Cloudressourcen oder Fernzugriff anmelden kann: Aktivieren Sie MFA.
  2. Nutzen Sie Anmeldemethoden, die immun gegen Phishing sind – z.B. Passkeys, Windows Hello for Business oder FIDO2 Security Sticks: Beginnen Sie mit privilegierten Accounts.
  3. Trennen Sie User- und Administrator-Accounts auf Clients, im Active Directory, in der Cloud – überall.
  4. Erlauben Sie den Zugriff nur von bekannten, verwalteten Geräten.

Ransomware

Auch Ransomware ist ein alter Bekannter. Zuerst die schlechte Nachricht: Auch die Zahl der Ransomware-Attacken nimmt stark zu. Ransomware heißt heute eigentlich immer Human Operated Ransomware, also kriminelle Banden. Die gute Nachricht: Angreifer werden immer weniger erfolgreich. 3x weniger Attacken schaffen es laut Microsoft bis zur Verschlüsselungsphase, wenn die Organisation gut geschützt ist und eine gute Erkennung auf allen Geräten hat. Bei 90% der erfolgreichen Verschlüsselungsattacken waren nicht verwaltete Geräte das Problem.

Angreifer nutzen alle denkbaren Möglichkeiten, um Ransomware zu platzieren: Phishing, Identity Compromise, ungepatchte Systeme, die im Internet zu erreichen sind, oder neue Schwachstellen mit einem CVSS Score über 8. Wachsender Beliebtheit erfreuen sich schädliche Browser Extensions (auch befeuert durch den Wunsch, ChatGPT zu nutzen) oder pure Dreistigkeit, die vor allem Benutzer überlistet schädliche Dinge zu tun. Sind Angreifer einmal im Netzwerk, versuchen Sie als erstes die Erkennung abzuschalten.

Wie schützen Sie Ihre Unternehmensdaten?

Die Empfehlungen lauten (ich möchte fast sagen nach wie vor):

  1. Benutzer auf Clients dürfen keine Administratoren sein.
  2. Verwalten Sie Ihre Geräte: Ein privates Notebook ist ein schlechtes Notebook. Automatisiertes Patching für Betriebssysteme, Applikationen und eine zeitgemäße Endpoint Protection Lösung sind ein Muss.
  3. Aktivieren Sie Tamper Protection für Ihre Sicherheitslösung: Verwalten Sie Ihre Policies zentral. Schützen Sie darüber hinaus die Kommunikation zwischen Clients und der Security Cloud. Sogenannte EDR Silencer legen Regeln in der Windows Firewall an, die diese Kommunikation unterbinden.
  4. Überwachen und härten Sie Ihr Active Directory: Es ist der schnellste Weg zu Ihren kritischen Assets.

Das Gute ist: Wenn Sie Microsoft 365 Business Premium oder Microsoft 365 E3 Kunde sind, haben Sie bereits viele der nötigen Werkzeuge in der Hand. Gerne prüfen wir Ihre Security-Umgebung mit unserem Security Assessment oder helfen bei der Anwendung.

Mein abschließender Appell: Kümmern Sie sich um das Offensichtliche. Beginnen Sie. Lassen Sie nicht das Perfekte zum Feind des Guten werden.

Jetzt handeln und Daten schützen

Wie Sensitivity Labels und Microsoft 365 Copilot zusammenarbeiten, um Datenlecks zu verhindern

Sensitivity Labels gibt es schon seit vielen Jahren, aber nicht jedem Microsoft Cloud Kunden sind die Möglichkeiten dieses mächtigen Tools bewusst. Insbesondere jetzt, wo Kunden mit KI-gestützten Services, wie z.B. mit Microsoft 365 Copilot ihre Daten verarbeiten, ist es umso wichtiger, die Daten besser zu schützen. 

Was sind Sensitivity Labels?

Sensitivity Labels markieren ein Dokument mit einer Art Stempel. Der Stempel kann verschiedene Dinge für ein Dokument definieren. Die vermutlich wichtigste Funktion eines Labels ist die Festlegung des sensiblen Inhalts und den damit einhergehenden Zugriff auf ein Dokument. Darf der Inhalt von einer breiten Öffentlichkeit gelesen werden oder ist der Inhalt nur für interne Mitarbeitende gedacht? Oder ist es sogar so sensibel, dass ausschließlich die Geschäftsführung darauf Zugriff haben darf? Es können aber noch weitere Dinge mit dem Stempel bzw. dem Label definiert werden wie z.B. die Verschlüsselung, Zugriffsmöglichkeiten (bspw. Dauer eines Dokumentenzugriffs) oder weitere Einstellungen (darf das Dokument bspw. ausgedruckt werden?).  

Das Besondere an den Labels: Der Schutz wirkt unabhängig davon, wo sich die Datei befindet, da der Schutz in den Metadaten der Datei festgehalten wird.  

Neben Dokumenten können Labels auch auf verschiedene andere Items und Container angewendet werden (Office-Dateien, PDFs, E-Mails, Meetings, Microsoft 365-Gruppen oder sogar Assets in relationalen Datenbanken wie AWS RDS): 

Sensitivity Labels Struktur

Sensitivity Label können also auf verschiedenste Arten dabei helfen, Ihre Daten zu schützen und den Zugriff darauf zu kontrollieren.

Wie hängen Sensitivity Label und Microsoft Copilot zusammen?  

Stellen Sie sich folgendes Szenario vor: 

Sie verfügen über eine Microsoft 365 Copilot Lizenz und möchten sich als Projektleiter mit wenigen Prompts eine Projektübersicht erstellen. Sie als Projektleiter sind selbstverständlich auf den gesamten Projektordner (inkl. Budgetplanung) in der Cloud berechtigt und entsprechend ist Copilot in der Lage, alle Projektdaten zu verarbeiten (Hinweis: Microsoft Copilot verwertet immer nur die Daten, auf die ein User Zugriff hat, siehe hier). Die nun von Copilot erzeugte Zusammenfassung enthält möglicherweise vertrauliche Informationen zu Budgets, strategischen Prioritäten oder Partnern. Möglicherweise überfliegen Sie die Übersicht nur und sind sich nicht im Klaren darüber, welche Daten Copilot im Detail verarbeitet hat. Sie teilen die Informationen mit Teammitgliedern und haben nun ungewollt vertrauliche Informationen geteilt, mit möglicherweise geschäftsschädigenden Folgen.  

Wären Sensitivity Label konfiguriert gewesen, hätte dieses Datenleck verhindert werden können.  

Sobald Copilot in der Ausgabe ein Dokument verarbeitet und referenziert, welches mit einem Sensitivity Label markiert ist, kann es automatisch das am höchsten priorisierte Label anwenden und nur User mit entsprechender Berechtigung auf das Label hätten auch Zugriff auf das Dokument. Das folgende Video von Microsoft zeigt, wie sich das Label automatisch ändert.

Welche Lizenz benötige ich? 

Unabhängig von den KI-Lizenzen wie bspw. Microsoft 365 Copilot, die für die KI-Fähigkeiten benötigt werden, gibt es verschiedene Lizensierungsmöglichkeiten, um Sensitivity Labels zu nutzen.  

Dokumente können entweder manuell oder automatisch gelabelt werden. Für ersteres benötigen Sie eine der folgenden Lizenzen:  

  • Microsoft 365: E5, A5, G5, E3, A3, G3, F1, F3, Business Premium, und OneDrive for Business (Plan 2) 
  • Enterprise Mobility + Security: E3, E5 
  • Office 365: E5, A5, E3, A3 
  • Azure Information Protection (AIP): Plan 1, Plan 2 

Für die automatische Erstellung von Labels, ist für den User eine Azure Information Protection (AIP) P2 Lizenz notwendig. Diese ist in folgenden Lizenzen mit enthalten: 

  • Enterprise Mobility + Security: E5, A5, G5 
  • Microsoft 365: E5, A5, G5 
  • Microsoft 365 Compliance: E5, A5, G5, F5 
  • Microsoft 365 Security & Compliance: F5 
  • Microsoft 365 Information Protection and Governance: E5, F5, G5 

So können die Möglichkeiten, Daten mit Sensitivity Labels zu schützen, je nach Microsoft 365-Lizenz, unterschiedlich ausfallen. 

Microsoft selbst empfiehlt für einen sicheren Umgang mit Microsoft 365 Copilot eine Microsoft 365 E3-Lizenz. Neben den hier beschriebenen Sensitivity Labels können damit zusätzliche Data Loss Prevention Richtlinien umgesetzt werden, die verschiedene trainierbare Sensitive Information Types (SITs) identifizieren können. Zusätzlich bietet die E3-Lizenz weitere Schutzmaßnahmen, um Ihre Cloud-Umgebung besser zu schützen, wie bspw. Conditional Access Regeln oder eine sichere Endgeräte-Verwaltung. 

Sensitivity Labels Microsoft 365 CopilotSensitivity Labels Microsoft 365 Copilot

Aber auch kleine Unternehmen können mit einer Business Premium Lizenz bereits effektive Maßnahmen treffen. Gerne beraten wir Sie bei der Auswahl der richtigen Lizenz, beim Ausrollen von Microsoft 365 Copilot und zugehöriger Datensicherheitsmaßnahmen wie den hier beschriebenen Sensitivity Labels.  

Wie starte ich meine AI-Journey?

Endlich findet unsere lang ersehnte NPO-Veranstaltung zum Thema „Wie starte ich meine AI-Journey?“ bei uns in Bonn statt. Meine Kollegen Tobias Felten und Pascal Böckmann präsentieren anhand anschaulicher Folien aktuelle Entwicklungen aus dem Bereich der Künstlichen Intelligenz: vom Schachcomputer Deep Blue, dem es 1996 als erstem Computer gelang, den damals amtierenden Schachweltmeister Garri Kasparow in einer Partie mit regulären Zeitkontrollen zu schlagen, bis hin zur generativen KI, die in den letzten Jahren weiterentwickelt wurde.

Dabei machen sie deutlich, welche Relevanz KI bereits heute nicht nur in Unternehmen, sondern auch in gemeinnützigen Organisationen hat. Durch die Automatisierung vieler verwaltungstechnischer Aufgaben können sich die Mitarbeiter beispielsweise mehr auf die wichtigen Kernbereiche ihrer Arbeit konzentrieren.

Mit diesen Copiloten startet man durch

Im Fokus der Vorträge steht der Microsoft 365 Copilot: Praxisbezogene Live-Demos zeigen, wie dieser in Microsoft Teams problemlos Meetings zusammenfasst oder in Microsoft Outlook Mails verfasst, bei denen man sogar auf Knopfdruck die Tonalität anpassen kann. Auch die Copilot-Funktionen in Excel werden beleuchtet: Immer wieder erstaunlich, wie einfach sich durch den Copilot Tabellen erweitern und aufwendige Berechnungen durchführen lassen, finde nicht nur ich.

Auch Microsoft-Copilot Studio findet Aufmerksamkeit: Hierbei sprechen wir über ein Tool, mit dem sich eigenständige Copilot-Agenten in Form von Bots für spezifische Anwendungen erstellen lassen. Die Microsoft Azure-AI Studios hingegen gleichen einem Baukasten verschiedenster KI-Services, die Microsoft zur Programmierung von speziellen und deutlich aufwändigeren KI-Lösungen zur Verfügung stellt.

Nach einer physischen Stärkung (es leben Kaffee und Snacks) geht es am frühen Nachmittag darum, wie sich Use-Cases in der eigenen Organisation ermitteln lassen.

Aus der Praxis: Use Cases für NPOs

In einem spannenden Workshop haben alle Teilnehmer im Anschluss die Möglichkeit, einige potenzielle Use-Cases für ihre Organisation zu definieren und mit uns darüber zu sprechen, wie diese durch KI-Lösungen realisiert werden können. Hier heben sich die die individuellen Mehrwerte hervor, die maßgeschneiderte KI-Lösungen bieten können – zum Beispiel die Optimierung von Arbeitsprozessen, die Verbesserung der Datenanalyse und die allgemeine Steigerung der Effizienz.

Hoffentlich waren unsere Teilnehmer von der Materie und den Potenzialen genauso begeistert wie ich! Wir möchten uns bei Ihnen für die rege Beteiligung bedanken und freuen uns schon auf das nächste Event im Januar 2025.

Offline-Funktionalität Power Apps: Chancen & Einsatzbereiche

Wann lohnt sich der Aufwand für Offline-Apps – und worauf sollten Sie achten?

Die Power Platform von Microsoft bietet Unternehmen vielseitige Möglichkeiten, Prozesse zu digitalisieren und Anwendungen schnell zu entwickeln. Doch was passiert, wenn keine Internetverbindung verfügbar ist? Hier kommt die Offline-Funktionalität von Power Apps ins Spiel. Aber ist der Aufwand für eine Offline-fähige App immer gerechtfertigt? Und worauf muss man achten? Wir geben Ihnen einen Leitfaden für den gezielten Einsatz der Offline-Funktionalitäten in Power Apps mit an die Hand und beleuchten Chancen und Risiken.  

Warum Offline-Apps in Power Apps relevant sind? 

Nicht alle Anwendungen benötigen eine permanente Internetverbindung. Gerade in folgenden Szenarien sind Offline-fähige Apps sinnvoll: 

  • Außendienst & Baustellen: Techniker oder Inspektoren erfassen Daten vor Ort, oft ohne stabiles Netz. 
  • Lager & Logistik: Inventuren oder Wareneingangsprüfungen müssen unabhängig von der Internetverbindung funktionieren. 
  • Event- & Messe-Apps: Erfassung von Interessenten, Kontakten, Leads oder Check-ins bei schwankendem Netz. 

Das Ziel ist, dass Nutzer auch ohne Internetverbindung arbeiten können und ihre Daten später mit der Cloud synchronisieren.

Wie funktioniert die Offline-Unterstützung in Power Apps? 

Damit eine model-driven Power App im Offline-Modus funktioniert, müssen die App- und Benutzerdaten auf dem Endgerät heruntergeladen werden (Offline-Synchronisation). Sobald die Synchronisation abgeschlossen ist, können Nutzer die App ohne Internetverbindung verwenden!

In der Offline-App können die bekannten CRUD-Befehle (Create, Read, Update, Delete) angewendet werden. Sobald der Nutzer wieder online ist, werden alle Änderungen mit Microsoft Dataverse synchronisiert. Dadurch ist sichergestellt, dass sie sowohl offline als auch online mit den aktuellen Daten arbeiten können.

Bevor der Anwender offline arbeiten kann, muss er einige Schritte beachten und entsprechend einrichten.

  1. Mindestanforderungen des Endgeräts prüfen 
  2. Definieren, welche Tabellen offlinefähig sein sollen 
  3. Offline-Profil einrichten 
  4. Separate Offline-App nebst Formularen mit entsprechenden Filtereinstellungen erstellen 

Wichtig ist: Nicht alle Standardfunktionen von Power Apps sind automatisch offline-kompatibel. 

Offline vs. Online – Wo liegen die Unterschiede?

Offline-Funktionen Power-AppsOffline-Funktionen Power-Apps

Darüber hinaus gibt es auch einige Einschränkungen der Funktionalitäten, welche wir nachfolgenden aufgelistet haben.  

Einschränkungen Offline-FunktionenEinschränkungen Offline-Funktionen

Trotz Einschränkungen: Was können Sie optimieren? 

Obwohl einige Funktionen offline nicht direkt unterstützt werden, gibt es Möglichkeiten, Limitierungen zu umgehen. Ein Beispiel ist die Massenbearbeitung, welche standardmäßig nicht im Offline-Modus funktioniert. Mithilfe eines Custom Grids und Custom Code können Sie dennoch mehrere Datensätze gleichzeitig bearbeiten.

Herausforderungen & Stolpersteine 

  • Datenkonflikte: Was passiert, wenn zwei Nutzer offline Änderungen an denselben Daten vornehmen? 
  • Speicherlimits: Mobile Geräte haben begrenzten Speicher – große Datensätze können problematisch sein. 
  • Fehlende Live-Daten: Echtzeit-Dashboards oder Automatisierungen funktionieren nicht offline. 
  • Komplexität in der Entwicklung: Man muss Logiken für Speicherung, Synchronisierung und Fehlerbehandlung integrieren. 

Pro-Tipp: Eine hybride Lösung kann helfen. Sie arbeiten z.B. mit zwei unterschiedlichen Apps.  Einmal mit der Standard Online-App und einer reduzierten Version für bestimmte Zielgruppen/Anwender/Key Usern in der Offline-App.  

Best Practices für eine saubere Umsetzung 

  • Definieren, welche Daten offline benötigt werden – nur relevante Daten einbeziehen 
  • Datenmenge optimieren – durch gezielte Filterung unnötige Synchronisationslast vermeiden 
  • Synchronisation regelmäßig testen – insbesondere Edge Cases berücksichtigen 
  • Datenkonflikte vermeiden – über eine „Last Write Wins“- oder Merge-Strategie steuern 
  • Benutzerführung optimieren – klare Statusmeldungen anzeigen, wann Daten synchronisiert werden 
  • Strukturierte App-Entwicklung – konsistente Erstellung von Apps, Formularen und Ansichten. Saubere Struktur in make.powerapps beibehalten. 
  • Fehlermanagement berücksichtigen – klar definierte Prozesse für Synchronisationsfehler einführen

Fazit: Ist die Offline-Funktionalität in Power Apps die richtige Wahl? 

Eine Offline-fähige Power App kann in vielen Szenarien hilfreich sein, beispielsweise im Außendienst, in der Logistik oder bei Vor-Ort-Inspektionen. Dennoch ist eine sorgfältige Planung erforderlich, um Einschränkungen zu berücksichtigen und alternative Lösungen zu finden. 

Tipp: Unternehmen sollten genau abwägen, ob sich der Entwicklungsaufwand lohnt oder ob eine stabile Netzverbindung ausreicht. Falls eine Offline-Lösung benötigt wird, sollten frühzeitig geeignete Workarounds und Anpassungen eingeplant werden. 

Wenn Sie überlegen, eine Power App mit Offline-Funktionalität zu entwickeln, sprechen Sie mit einem Experten – wir helfen gerne weiter!