Die IT ist ein Dienstleister

Der Erfolg des IT-Einsatzes ist gegeben, wenn die Anwender damit effektiver und effizienter arbeiten können als vorher. Alle IT-Systeme sind in diesem Sinne Werkzeuge, die im Rahmen der Geschäftsprozesse angewendet werden. Dass die IT diese Werkzeuge entwickelt und betreibt, ist eine Dienstleistung gegenüber den Anwenderbereichen. Die IT, ob als Abteilung oder als Unternehmen innerhalb eines Konzernverbundes organisiert, agiert hier als Dienstleister.

Auch andere Bereiche eines Unternehmens erbringen Dienstleistungen für unternehmensinterne Leistungsempfänger, zum Beispiel das Rechnungswesen, der Personalbereich, das Facility Management.

Die Anwenderbereiche sind Kunden, sie bestellen Produkte und Dienstleistungen und bekommen diese entsprechend den Qualitäts-, Termin- und Kostenvorgaben von ihren internen Dienstleistern geliefert. So das Idealbild.

Sind wir nicht alle Dienstleister?

Die Anwenderbereiche selbst nützen die IT-Unterstützung zur Herstellung von Produkten und zur Erbringung von Dienstleistungen für ihre Kunden. Modernes Prozessmanagement sieht jeden Geschäftsprozess aus der Perspektive des Leistungsempfängers und es macht keinen Unterschied, ob dieser Teil desselben Unternehmens oder ein „echter“ Kunde ist. Jedes Unternehmen, jede Organisationseinheit, jede Person ist gleichzeitig Dienstleister und Empfänger von Dienstleistungen, also Kunde und Dienstleister je nach Situation. Insofern folgt aus einer Dienstleistungsbeziehung nicht automatisch ein generelles Autoritäts- und Prestigegefälle. Am Verhältnis von Vertrieb und Produktion kann man einen dauerhaft schwebenden und unauflösbaren Konflikt beobachten, welcher Bereich nun wessen Dienstleister ist.

Was ist, wenn der Dienstleister mehr weiß als der Kunde?

Interessant sind Dienstleister-Kunden-Modelle bei qualifizierten Berufen, zum Beispiel Ärzten, Rechtsanwälten, Wirtschaftsprüfern und Steuerberatern. Hier wird klar, dass die Anordnungsbefugnis des Kunden an Grenzen stößt, weil es um die Verfügbarkeit von spezifischem Know-how geht, das dem Kunden fehlt. Der Kunde muss also in gewissen Bereichen den Empfehlungen des Dienstleisters folgen, will er nicht Schaden erleiden. Andererseits kann der Kunde (auch Klient oder Patient) diesem Dienstleister das Mandat entziehen und letztlich auch gegen dessen Rat handeln. Tut dies etwa ein Patient, so muss er ausdrücklich und nachweislich über die damit verbundenen Risiken aufgeklärt werden, was dann geschieht, fällt in seine Eigenverantwortung.

IT Abteilungen hatten und haben vielfach damit zu kämpfen, dass man ihnen keine vergleichbare Position zugesteht wie den genannten qualifizierten Dienstleistern. Obwohl das Business-Management betont, von IT nichts zu verstehen und viele sind darauf sogar stolz, erwarten sie von der IT-Abteilung die widerspruchslose Ausführung von Aufträgen. Das kann allerdings genau so ins Auge gehen, wie wenn ich meinen Kardiologen vorschreibe, ob er mir einen Stent setzen soll oder nicht.

Die Vorteile des Dienstleistermodells

In den Anfängen des IT-Einsatzes waren viele IT-Abteilungen alles andere als Dienstleister. Sie sagten den Anwendern, was zu tun sei, wie es zu tun sei und insbesondere was nicht möglich sei. Auch heute noch gibt es IT-Abteilungen, die von ihren Anwendern in erster Linie als Nein-Sager und Innovationshemmnis erlebt werden. Ein Übriges trägt dazu die bekannte Unzuverlässigkeit bei der Erfüllung von Terminen und bei der Einhaltung von Budgets bei, die in IT-Projekten geradezu regelmäßig auftritt. Die Quote an gescheiterten IT-Projekten, von der die Standish Group jedes Jahr im Chaos Report berichtet, bestärkt mit statistischen Daten dieses Image.

Das Verständnis der IT als Dienstleister war in vielen Unternehmen daher ein Versuch, sich aus dieser Abhängigkeit zu befreien. Wie so oft führten auch hier Befreiungsversuche oft zu überzogenen Reaktionen, die der IT eine untergeordnete, rein ausführende Rolle zuschrieben. Dieses Verständnis der Dienstleisterrolle kann für Commodity-Services wie den Betrieb eines Data-Centers oder die Wartung der Arbeitsplatzausstattung durchaus ohne Schaden für das Ergebnis praktiziert werden. Nicht zufällig werden solche IT-Leistungen outgesourct und die Leistungserbringung wird über standardisierte Verträge mit Service Level Agreements und mengenabhängigen Fixpreisen geregelt.

Digitalisierung erfordert ein geändertes Rollenmodell

Unter dem Stichwort „Digitalisierung“ wird der umfassende Wandel und die Neugestaltung von Geschäftsmodellen, Produkten, Dienstleistungen und Arbeitsweisen durch den Einsatz digitaler Technologien beschrieben. Es geht dabei um eine tiefgreifende Transformation des gesamten Unternehmens oder wesentlicher Wertschöpfungsketten, nicht nur um die Optimierung einzelner Prozesse. Digitalisierung zielt darauf ab, durch den Einsatz neuer Technologien Wettbewerbsvorteile zu schaffen, die Kundenerfahrung zu verbessern und neue Geschäftsmodelle zu ermöglichen.

Mit der Digitalisierung wurde IT erstmals zur Sache des Top-Managements, sie ist nicht mehr nur ein Werkzeug zur Effizienzsteigerung oder gar nur ein Kostenfaktor, der so weit wie möglich zu reduzieren ist. Der IT-Einsatz ist zur unabdingbaren Voraussetzung für die Weiter- und Neuentwicklung von Geschäftsmodellen geworden. Ich kenne keine Top-Manager, die heute noch stolz verkünden, dass sie an IT nicht interessiert seien.

Unternehmen wie Amazon, Uber, Airbnb und natürlich Google und Facebook beruhen in ihrem Kern auf der Nutzung der Potenziale der Informationstechnologie. Hier ist offensichtlich der IT-Einsatz keine standardisierbare Dienstleistung, die man von einem zum Befehlsempfänger degradierten Dienstleister erbringen lässt, den man nach dem Kriterium des günstigsten Preises auswählt. IT ist hier die unverzichtbare Grundlage der gesamten Geschäftstätigkeit.

Mittlerweile gilt in immer mehr Branchen, dass die Nutzung der IT nicht mehr einseitig von den Anwenderbereichen definiert und dann angeordnet bzw. bestellt werden kann. Der Einsatz der IT muss im Dialog aller Unternehmensbereiche konzipiert werden. Es gibt keine Einbahnstraßen mehr: Die IT orientiert sich am Geschäftsmodell und den damit verbundenen Geschäftsprozessen. Die Anwenderbereiche wiederum reagieren auf Potenziale der IT und integrieren diese in neue Geschäftsprozesse und Geschäftsmodelle. Ein Vorgehen gemäß einem Wasserfall-Modell ist in solchen Settings kontraproduktiv. Es braucht einen Dialog und eine Zusammenarbeit auf Augenhöhe (siehe Grafik).

Rollenmodell für die Zusammenarbeit von Fachbereichen und IT

Wie kann Zusammenarbeit auf Augenhöhe funktionieren?

Anwenderbereiche und IT müssen gemeinsam an der Umsetzung der Unternehmensziele arbeiten. Die IT muss dafür sorgen, dass immer mehr Bereiche der IT-Services als standardisierte Services bereitgestellt werden. Diese Dienstleistung wird in einem optimierten Mix aus Eigen- und Zukaufleistungen erbracht. Durch das professionelle Management dieser Dienstleistungen schafft sich die IT die notwendigen Freiräume zur kreativen Mitwirkung an der Weiterentwicklung des Unternehmens. Durch eine hohe Qualität ihrer Beiträge schafft sich vor allem die unternehmensinterne IT-Organisation die notwendige Akzeptanz, um als Partner wahrgenommen zu werden. Alle Beteiligten nehmen ihre ureigenen Aufgaben mit Engagement und Qualität wahr und übernehmen dafür gegenüber der Geschäftsleitung gemeinsam die Verantwortung.

Die Anwenderbereiche sind dafür verantwortlich, ihre Geschäftsmodelle und Geschäftsprozesse zu optimieren und dabei auch disruptive Innovationen in Betracht zu ziehen. Diese Disruption kann durch Marktentwicklungen erzwungen oder ermöglicht werden, sie kann aber auch durch neue technische Optionen erzwungen oder ermöglicht werden. Die Anwendung von Künstlicher Intelligenz (KI) ist das aktuelle Beispiel. Auch wenn das aktuell alle Merkmale eines Hypes aufweist, können wir davon ausgehen, dass es eine nachhaltige Entwicklung ist. Das Aufzeigen von Optionen einer radikal geänderten Prozessgestaltung von Seiten der IT einerseits, die Innovationsbereitschaft und Kreativität des Business bei der Entwicklung von Geschäftsmodellen, die diese Chancen nutzen, kann nur durch so ein dialogisches Rollenmodell erreicht werden.

Was ist zu tun?

Ein Verharren in einem asymmetrischen Rollenmodell (Business schafft an, IT führt aus) ist eine existenzielle Gefahr für jedes Unternehmen und jede Organisation. Eine Kultur der partnerschaftlichen Zusammenarbeit muss entwickelt werden, sie erfordert Organisations- und Personalentwicklung. Das ist zu tun:

  • Abkehr vom Service-Provider-Modell: Die traditionelle Sichtweise von IT als reinem Dienstleister, der die Anweisungen der Fachbereiche ausführt, ist in Zeiten der Digitalisierung nicht mehr zeitgemäß. Die IT muss als gleichberechtigter Partner in die Entwicklung von Geschäftsmodellen und -prozessen eingebunden werden.
  • Dialog und Zusammenarbeit: Anstatt einseitig Aufträge zu erteilen oder entgegenzunehmen, sollten IT und Fachbereiche in einem kontinuierlichen Dialog stehen. Gemeinsame Workshops und Projektteams können dazu beitragen, die Bedürfnisse und Herausforderungen beider Seiten zu verstehen und gemeinsame Lösungen zu entwickeln.
  • Verständnis für die Expertise des jeweils anderen: Die Fachbereiche müssen die Komplexität der IT und die Bedeutung einer strategischen IT-Planung anerkennen. Die IT wiederum muss die fachlichen Anforderungen der Geschäftsbereiche verstehen und ihre Lösungen darauf abstimmen.
  • Gemeinsame Verantwortung: Sowohl IT als auch Fachbereiche tragen gemeinsam die Verantwortung für den Erfolg von IT-Projekten und die Umsetzung der Unternehmensziele. Eine klare Aufgabenverteilung und transparente Kommunikation sind dafür unerlässlich.
  • Schaffung einer Kultur des Vertrauens: Eine offene und wertschätzende Kommunikation ist die Grundlage für eine erfolgreiche Zusammenarbeit. Fehlerkultur und die Bereitschaft, voneinander zu lernen, sind wichtige Elemente einer vertrauensvollen Partnerschaft.
  • Entwicklung gemeinsamer Ziele: Die IT und die Fachbereiche sollten gemeinsame Ziele definieren, die auf die strategischen Ziele des Unternehmens ausgerichtet sind.
  • Professionelles Service Management: Die IT muss in der Lage sein, standardisierte IT-Services in hoher Qualität bereitzustellen. Dies schafft Freiräume für die IT, sich aktiv an der Entwicklung neuer Geschäftsmodelle zu beteiligen.

Fazit: Die digitale Transformation erfordert eine enge und partnerschaftliche Zusammenarbeit zwischen IT und Fachbereichen. Nur durch einen intensiven und wertschätzenden Dialog, ein klares Verständnis der gegenseitigen Rollen und die Schaffung einer Kultur des Vertrauens können Unternehmen und öffentliche Organisationen die Herausforderungen der Digitalisierung erfolgreich meistern.

Die Entstehung des USB-Sticks und seine Bedeutung

Wer erinnert sich nicht an die Zeiten, als man CDs, Disketten oder sogar Zip-Laufwerke mitschleppen musste, um Daten zu transportieren? Zum Glück kam dann der USB-Stick und revolutionierte die Art und Weise, wie wir mit Daten umgehen. Aber wie kam es eigentlich zu dieser kleinen, aber feinen Erfindung?

Die Geburtsstunde einer digitalen Revolution

Die Geschichte des USB-Sticks ist eine Geschichte des Erfindungsreichtums und der Zusammenarbeit. Obwohl es schwierig ist, eine einzelne Person als Erfinder zu benennen, spielten mehrere Schlüsselfiguren eine entscheidende Rolle:

  • Dr. Fujio Masuoka (1971): Dieser japanische Ingenieur erfand bei Toshiba den Flash-Speicher, das Herzstück jedes USB-Sticks.
  • Ajay Bhatt (1994): Dieser Intel-Ingenieur entwickelte den USB-Standard (Universal Serial Bus), der die einfache Verbindung von Geräten mit Computern ermöglichte.
  • Dov Moran (1998): Der israelische Ingenieur und seine Firma M-Systems brachten den ersten kommerziellen USB-Stick unter dem Namen „DiskOnKey“ auf den Markt.

Von Megabyte zu Terabyte: Die rasante Entwicklung der Speicherkapazität

Die ersten USB-Sticks hatten eine Speicherkapazität von 8 Megabyte – heute unvorstellbar! Doch die Technologie entwickelte sich rasant weiter. Innerhalb weniger Jahre verdoppelte, vervierfachte und schließlich vertausendfachte sich die Speicherkapazität. Heute gibt es USB-Sticks mit mehreren Terabyte Speicherplatz, auf denen ganze Bibliotheken Platz finden.

Der USB-Stick als Werbeträger und Alltagshelfer

Der USB-Stick wurde schnell zum unverzichtbaren Begleiter im Alltag. Schüler nutzten ihn für Hausaufgaben, Geschäftsleute für Präsentationen und Fotografen für ihre Bilder. Auch als Werbegeschenk erfreute sich der USB-Stick großer Beliebtheit. Mit Firmenlogos bedruckt, wurde er zum praktischen Markenbotschafter.

Sicherheit und Innovationen: Der USB-Stick im Wandel der Zeit

Mit der zunehmenden Beliebtheit des USB-Sticks kam auch die Notwendigkeit, Sicherheitsaspekte zu berücksichtigen. Hersteller begannen, Verschlüsselungstechnologien und Passwortschutz in ihre Produkte zu integrieren, um die gespeicherten Daten vor unbefugtem Zugriff zu schützen. Heute gibt es USB-Sticks, die spezielle Sicherheitsfunktionen wie biometrische Authentifizierung oder eingebaute Firewalls bieten.

Die Zukunft des USB-Sticks

Obwohl Cloud-Speicher und drahtlose Technologien immer beliebter werden, bleibt der USB-Stick ein zuverlässiges und sicheres Speichermedium. Seine kompakte Größe, die einfache Handhabung und die große Speicherkapazität machen ihn weiterhin attraktiv. Und wer weiß, welche Innovationen die Zukunft noch bereithält? Vielleicht USB-Sticks mit integrierten Fingerabdruckscannern oder sogar Mini-Projektoren? Oder sie könnten zu multifunktionalen Gadgets werden, die neben der Datenspeicherung auch Funktionen wie tragbare Ladegeräte, Wi-Fi-Hotspots oder sogar tragbare Computer bieten. Neue Materialien, verbesserte Energieeffizienz und erweiterte Kompatibilität mit verschiedenen Geräten und Systemen werden sicherstellen, dass der USB-Stick auch in den kommenden Jahren relevant bleibt. Die Integration von künstlicher Intelligenz könnte es den USB-Sticks sogar ermöglichen, Daten intelligent zu verwalten und zu schützen.

Die Rolle des USB-Sticks in der modernen Datenwelt

In einer Welt, in der Daten das neue Gold sind, bleibt der USB-Stick ein unverzichtbares Werkzeug. Er bietet eine einfache und zuverlässige Möglichkeit, große Datenmengen zu speichern und zu transportieren. Ob für den persönlichen Gebrauch oder im professionellen Umfeld – der USB-Stick bleibt ein unverzichtbares Werkzeug, das die Art und Weise, wie wir mit Daten umgehen, revolutioniert hat und weiterhin revolutionieren wird.

Fazit

Der USB-Stick hat die Art und Weise, wie wir Daten speichern und transportieren, grundlegend verändert. Er ist ein Symbol für den digitalen Fortschritt und ein Beweis dafür, wie kleine Erfindungen große Auswirkungen haben können. Ob in der Schule, im Büro oder unterwegs – der USB-Stick hat sich als unverzichtbares Werkzeug etabliert, das uns in vielen Lebensbereichen unterstützt.

IT-Fachkräftemangel: Managed Services als Lösung

Es gibt den Fachkräftemangel und es gibt DEN Fachkräftemangel. Landesweit kämpfen Unternehmen damit, Stellen zu besetzen und qualifiziertes Personal zu rekrutieren. Ungefähr jedes zweite Unternehmen kann derzeit offene Stellen zumindest teilweise nicht besetzen. Der Mangel an IT-Experten betrifft dabei branchenübergreifend sowohl große Konzerne als auch kleine oder mittelständische Unternehmen. Fast 80 % der Unternehmen erwarten sogar eine Verschärfung der Situation, wobei schon jetzt IT-Stellen im Schnitt 7,7 Monate vakant sind – und das während einer schwächelnden wirtschaftlichen und konjunkturellen Lage. Wir analysieren das Problem, beleuchten Aussichten und versuchen Lösungsansätze zu präsentieren.

IT-Fachkräftemangel: Schon heute ein riesiges Problem

Insbesondere der IT-Fachkräftemangel bedroht die Wettbewerbs- und Innovationsfähigkeit der deutschen Wirtschaft. Laut einer aktuellen Studie von Bitkom fehlten Ende 2023 rund 137.000 IT-Spezialisten. Warum ist das schlimm? Dies führt zu massiven Verzögerungen und Hemmnissen im normalen Geschäftsbetrieb bzgl. zukünftiger Projekte oder Vorhaben, aber auch zu erhöhten Kosten. Zum Beispiel müssen im Zuge der digitalen Transformation Umstrukturierungen, IT-Betriebsthemen oder auch die IT-Sicherheit in Angriff genommen werden. Nicht wenige Wirtschaftszweige sind schlichtweg auf moderne IT-Lösungen essenziell angewiesen. Der zunehmende Fachkräftemangel hemmt hier die Wachstumschancen, sowohl extern als auch unternehmensintern.

Der Fachkräftemangel fängt gerade erst an

Wir reden nicht lange drumherum: Die Aussichten sind düster. Zum einen wächst die Nachfrage nach IT-Fachkräften aufgrund der fortschreitenden Digitalisierung in nahezu allen Branchen. Zum anderen steigt die Zahl der Absolventen in IT-relevanten Ausbildungsbereichen oder Studiengängen nicht im gleichen Maße. Gleichzeitig trägt die demografische Entwicklung dazu bei, dass immer mehr Fachkräfte in den Ruhestand gehen. Eine Studie von McKinsey prognostiziert, dass bis 2030 rund 700.000 IT-Fachkräfte in Deutschland fehlen könnten. Auch die Gehälter in der IT-Branche steigen kontinuierlich. Wer diese bezahlen kann, lockt Fachkräfte. Doch das trifft auf viele Unternehmen nicht zu – ein Teufelskreis. Die Aussichten sind nicht düster. Sie sind tiefschwarz.

Lösungsansätze

Es sind nicht nur umfassende, sondern vor allem auch nachhaltige Maßnahmen erforderlich, um dem Fachkräftemangel entgegenzutreten. Eine zentrale Rolle spielt dabei die Förderung der Ausbildung und Qualifizierung. Dies umfasst die Reformierung etablierter Studiengänge und Ausbildungen sowie die Stärkung der dualen Ausbildung und möglicher Weiterbildungsmöglichkeiten. Zudem muss dringend die Abbrecherquote gesenkt und speziell Quereinsteigern müssen vermehrt Tür und Tor geöffnet werden. Älteren Mitarbeitenden sollte eine längere Tätigkeit ermöglicht werden. Und ein weiterer, entscheidender Hebel ist der stärkere Einbezug von Frauen. Sie sind derzeit in der IT stark unterrepräsentiert, was ein enormes Potenzial ungenutzt lässt. Durch gezielte Programme und Maßnahmen zur Förderung kann sich dies ändern.

Ein weiterer Ansatz ist die Anwerbung internationaler Fachkräfte. Hierzu müssen jedoch bürokratische Hürden abgebaut und attraktivere Arbeitsbedingungen geschaffen werden. Deutsche Unternehmen sollten sich proaktiv als interessante Adressen für IT-Experten positionieren. Es wird kaum zu vermeiden sein, dass künftig internationale IT-Abteilungen entstehen und dementsprechend mehrsprachig miteinander kommunizieren. Es muss aber auch ein Wille erkennbar sein, diese Fachkräfte nicht nur aufzunehmen, sondern auch zu unterstützen und zu integrieren. 

Natürlich, KI kann auch das Problem lindern. Es wird aber eher um Entlastung gehen als um vollumfängliche Automatisierung und Autonomisierung. So könnten z. B. Standardaufgaben abgenommen oder einzelne Arbeitsschritte erleichtert bzw. übernommen werden. Kurzfristig wird dies aber keinen grundlegenden Wandel mit sich bringen.

Die vielleicht effektivste Lösung sind Managed Services:
… Auslagern von Routineaufgaben: IT-Wartung, Systemüberwachung, Sicherheitsupdates usw.
… IT-Mitarbeitende können sich auf konkrete Projekte und Aufgaben konzentrieren.
… Zugang zu Spezialwissen, Fachkenntnissen und Erfahrungen erlangen.
… Von Skalierbarkeit und flexiblen IT-Lösungen profitieren, die sich an Ihren Bedarf anpassen.
… Kosten einsparen, indem weniger in Rekrutierung, Schulung und Bindung von IT-Fachkräften investiert werden muss.
… Zugang zu neuen Technologien erhalten, womit auch die Themen Innovations- & Wettbewerbsfähigkeit positiv beeinflusst werden.
… Kontinuierliche Unterstützung bekommen, z. B. durch einen 24/7 Support oder eine rund-um-die-Uhr-Überwachung. Das können die meisten Unternehmen aus eigenen Mitteln nicht stemmen und schafft wichtige Freiräume.

Fazit

Der Fachkräftemangel in der IT ist gravierend. Vor allem, weil IT-Technologien eine riesige Bedeutung haben, in dieser Bedeutung immer mehr zunehmen und hochgradig abhängig von Expertise und Know-how sind. Es ist nicht weniger als eine der größten Herausforderungen für die deutsche Wirtschaft, unabhängig von der Unternehmensgröße oder Branche. Wir haben die Aussichten als tiefschwarz bezeichnet. Doch ein Licht am Ende des Tunnels sehen die Unternehmen, die rechtzeitig und proaktiv gegensteuern. Klar, jedes Unternehmen ist unterschiedlich in seinen Mitteln aufgestellt. Aber den Kopf in den Sand zu stecken, ist keine Option. Erst recht nicht, wenn es doch überraschend vielfältige Lösungsansätze gibt.

Unser Tipp:

1.400 … 1/3 … 90 … 24/7 … Keine Sorge, das sind nicht die nächsten Horrorzahlen zum IT-Fachkräftemangel. Es sind einige der Zahlen, die aufzeigen, was für ein Managed Services Player die DTS ist. Mehr noch, es zeigt, wie sehr wir Sie in diesem Problem maßgeblich unterstützen können.

Bereits 1.400 Kunden sehen das so und profitieren von uns als zentralem Ansprechpartner, von erheblicher Entlastung an der IT-Front, von mehr Konzentration auf das Kerngeschäft, von DTS-Know-how und -Erfahrung, von Ersparnis und planbaren, kundenindividuell definierten Services und Kosten. Ca. 1/3 unseres Gesamtumsatzes generiert sich aus Managed Services. Allein 90 IT-Spezialisten stehen Ihnen in Tag- & Nachtschichten sowie in Rufbereitschaft zur Verfügung. Und alle DTS Managed Services sind auf 24/7 ausgelegt.

Nein, es gibt keinen Haken, kein Kleingedrucktes. Mit DTS „Everything as a Service“ helfen wir Ihnen entscheidend beim IT-Fachkräftemangel!

DTS Managed Services

Wie starte ich meine AI-Journey?

Endlich findet unsere lang ersehnte NPO-Veranstaltung zum Thema „Wie starte ich meine AI-Journey?“ bei uns in Bonn statt. Meine Kollegen Tobias Felten und Pascal Böckmann präsentieren anhand anschaulicher Folien aktuelle Entwicklungen aus dem Bereich der Künstlichen Intelligenz: vom Schachcomputer Deep Blue, dem es 1996 als erstem Computer gelang, den damals amtierenden Schachweltmeister Garri Kasparow in einer Partie mit regulären Zeitkontrollen zu schlagen, bis hin zur generativen KI, die in den letzten Jahren weiterentwickelt wurde.

Dabei machen sie deutlich, welche Relevanz KI bereits heute nicht nur in Unternehmen, sondern auch in gemeinnützigen Organisationen hat. Durch die Automatisierung vieler verwaltungstechnischer Aufgaben können sich die Mitarbeiter beispielsweise mehr auf die wichtigen Kernbereiche ihrer Arbeit konzentrieren.

Mit diesen Copiloten startet man durch

Im Fokus der Vorträge steht der Microsoft 365 Copilot: Praxisbezogene Live-Demos zeigen, wie dieser in Microsoft Teams problemlos Meetings zusammenfasst oder in Microsoft Outlook Mails verfasst, bei denen man sogar auf Knopfdruck die Tonalität anpassen kann. Auch die Copilot-Funktionen in Excel werden beleuchtet: Immer wieder erstaunlich, wie einfach sich durch den Copilot Tabellen erweitern und aufwendige Berechnungen durchführen lassen, finde nicht nur ich.

Auch Microsoft-Copilot Studio findet Aufmerksamkeit: Hierbei sprechen wir über ein Tool, mit dem sich eigenständige Copilot-Agenten in Form von Bots für spezifische Anwendungen erstellen lassen. Die Microsoft Azure-AI Studios hingegen gleichen einem Baukasten verschiedenster KI-Services, die Microsoft zur Programmierung von speziellen und deutlich aufwändigeren KI-Lösungen zur Verfügung stellt.

Nach einer physischen Stärkung (es leben Kaffee und Snacks) geht es am frühen Nachmittag darum, wie sich Use-Cases in der eigenen Organisation ermitteln lassen.

Aus der Praxis: Use Cases für NPOs

In einem spannenden Workshop haben alle Teilnehmer im Anschluss die Möglichkeit, einige potenzielle Use-Cases für ihre Organisation zu definieren und mit uns darüber zu sprechen, wie diese durch KI-Lösungen realisiert werden können. Hier heben sich die die individuellen Mehrwerte hervor, die maßgeschneiderte KI-Lösungen bieten können – zum Beispiel die Optimierung von Arbeitsprozessen, die Verbesserung der Datenanalyse und die allgemeine Steigerung der Effizienz.

Hoffentlich waren unsere Teilnehmer von der Materie und den Potenzialen genauso begeistert wie ich! Wir möchten uns bei Ihnen für die rege Beteiligung bedanken und freuen uns schon auf das nächste Event im Januar 2025.

Van Gogh TV: Piazza Virtuale und die Zukunft der Medien

Das visionäre Projekt, das Social Media vorwegnahm

1992 – das Internet war ein Mysterium für die meisten, Mobiltelefone so groß wie ein Ziegelstein, und Fernsehen war vor allem eines: einseitig. Doch während die Welt gerade erst begann, digitale Möglichkeiten zu entdecken, erschuf eine kleine Künstlergruppe ein Projekt, das die Zukunft der Medienlandschaft vorausahnte – Piazza Virtuale.

Dieses visionäre Experiment der Künstlergruppe Van Gogh TV wurde im Rahmen der documenta IX in Kassel präsentiert und war nichts weniger als ein revolutionärer Versuch, Menschen aus aller Welt miteinander zu vernetzen. War das Fernsehen bislang ein reines Konsum-Medium, so drehte Piazza Virtuale die Dynamik um: Zuschauer wurden zu aktiven Teilnehmern.


Was war Piazza Virtuale?

Stellen Sie sich eine Plattform vor, die Fernsehen, Telefon, Fax, Computer und das Internet miteinander verbindet. Genau das war Piazza Virtuale. Es war keine gewöhnliche Fernsehsendung, sondern ein interaktives Kunstprojekt, das eine Art virtuellen Marktplatz (daher der Name „Piazza“) schuf, auf dem Menschen aus aller Welt live interagieren konnten.

Die Grundidee: Jeder Zuschauer konnte selbst Teil der Sendung werden. Ob durch Telefonanrufe, eingereichte Faxe, Computersignale oder frühe Internet-Chats – alles wurde in Echtzeit auf die Bildschirme übertragen. Spiele, Diskussionen, kreative Beiträge oder einfache Textnachrichten – jede Art von Input war möglich.


So funktionierte Piazza Virtuale

Die Sendung lief als tägliches Format auf mehreren europäischen TV-Kanälen und dauerte insgesamt 100 Tage. Die Zuschauer wurden dazu aufgerufen, die Plattform mitzugestalten, und das auf vielfältige Weise:

  • Telefon: Zuschauer konnten anrufen und live an Diskussionen teilnehmen.
  • Fax: Grafiken, Botschaften oder Bilder wurden eingesandt und eingeblendet.
  • Computer/Modem: Über damals bahnbrechende Technologien wie BTX oder frühe Internetprotokolle konnten Menschen Nachrichten senden.
  • Interaktive Spiele: Spiele wie „Pong“ wurden in Echtzeit gemeinsam gespielt.

Das alles geschah unter dem Slogan „Das Fernsehen gehört euch!“ und spiegelte eine demokratische, partizipative Vision von Medien wider. Der Bildschirm war kein statischer Monolog mehr – er wurde zum offenen Raum.


Piazza Virtuale: Ein Meilenstein der Medienkunst

Warum ist Piazza Virtuale so besonders? Weil es Ideen erprobte, die Jahrzehnte später das Fundament unserer digitalen Gesellschaft bilden sollten. Denken Sie an YouTube, Twitch, TikTok oder Discord – Plattformen, die alle auf der Interaktion zwischen Nutzern basieren. Piazza Virtuale war ein Vorläufer, lange bevor es die technischen Möglichkeiten gab, solche Ideen vollständig umzusetzen.

Die Künstlergruppe Van Gogh TV stellte damit eine fundamentale Frage: Was passiert, wenn Zuschauer nicht mehr nur Konsumenten, sondern aktive Produzenten von Inhalten sind? Die Antwort darauf sehen wir heute in sozialen Netzwerken, in denen Likes, Kommentare und Beiträge von Nutzern selbst die Grundlage des Systems sind.


Das Experiment: Visionär, aber seiner Zeit voraus

Natürlich war Piazza Virtuale nicht perfekt. Die Technologie war im Jahr 1992 noch rudimentär, und viele Zuschauer konnten nur staunen, ohne wirklich zu verstehen, wie sie selbst Teil dieses globalen Kunstwerks werden konnten. Aber gerade diese technischen Beschränkungen machen das Projekt heute umso beeindruckender.

Während soziale Medien erst viele Jahre später durch schnelles Internet, Smartphones und massenhafte Vernetzung möglich wurden, war Piazza Virtuale ein mutiges Experiment in einer Zeit, in der Faxgeräte und analoge Telefonleitungen die Hauptkommunikationsmittel waren.


Warum Piazza Virtuale heute aktueller ist denn je

Mit Blick auf das Jahr 2025 wirkt Piazza Virtuale fast wie ein Blick in eine Parallelwelt. Die grundlegende Idee von Interaktivität, demokratischer Medienbeteiligung und globalem Austausch ist Realität geworden – aber zu welchem Preis? Während Piazza Virtuale den freien, kreativen Austausch von Ideen feierte, stehen moderne Social-Media-Plattformen oft in der Kritik: Sie fördern Filterblasen, manipulieren Nutzerverhalten und priorisieren Kommerzialisierung über kreativen Austausch.

Piazza Virtuale erinnert uns daran, dass es möglich ist, Technologie nicht nur als Werkzeug des Konsums, sondern als Plattform für Partizipation und Kreativität zu sehen.


Fazit: Ein visionäres Projekt mit großer Wirkung

Piazza Virtuale war seiner Zeit weit voraus und ist ein faszinierender Meilenstein in der Geschichte der Medienkunst. Es zeigte, dass Fernsehen mehr sein kann als eine Einbahnstraße – und inspirierte die Vision einer vernetzten Welt, in der jeder gehört werden kann.

Obwohl es nur 100 Tage existierte, lebt der Geist von Piazza Virtuale in den modernen sozialen Medien weiter. Vielleicht ist es an der Zeit, sich an die ursprüngliche Vision zu erinnern: Medien als Plattform für echte Teilhabe, Kreativität und globalen Austausch.


Neugierig geworden? Stellen Sie sich vor, wie Piazza Virtuale in der heutigen digitalen Welt aussehen würde. Wäre es eine App? Eine Live-Plattform? Oder vielleicht die perfekte Mischung aus Kunst und Technologie, die die Idee der Interaktivität auf ein völlig neues Level hebt?

Was wurde aus ihnen?

Obwohl Van Gogh TV nicht mehr aktiv ist, hat ihre Arbeit einen bleibenden Einfluss hinterlassen. Sie haben den Weg für viele spätere Entwicklungen im Bereich des interaktiven Fernsehens und der sozialen Medien geebnet.

Es gibt einige Projekte, die sich mit dem Erbe von Van Gogh TV befassen:

  • Forschungsprojekt: Von 2018 bis 2022 gab es ein von der DFG gefördertes Forschungsprojekt, das sich mit dem Werk der Gruppe auseinandergesetzt hat.
  • Ausstellung: Im November 2021 fand im Künstlerhaus Bethanien in Berlin die Ausstellung „Van Gogh TVs Piazza virtuale“ statt.
  • Online-Archiv: Das documenta archiv arbeitet an einem Online-Archiv, in dem Archivalien und audiovisuelle Medien von und über Van Gogh TV zugänglich gemacht werden sollen.

Mehr Informationen:

Die Arbeit von Van Gogh TV ist ein faszinierendes Beispiel dafür, wie Künstler neue Technologien nutzen können, um die Grenzen der Kunst zu erweitern und das Publikum auf neue Weise einzubeziehen.

Technologien & IT-Security 2025 – Teil 1: Top 10 der Technologie-Hypes

Neues Jahr, neue Top-Listen – Auch für 2025 darf eine Übersicht nicht fehlen, welche IT-Themen dieses Jahr prägen werden und welche Entwicklungen in der IT-Sicherheit Sie im Auge behalten sollten. Gerade im Bereich der IT-Technologien ist Dynamik vorprogrammiert. Die IT-Welt entwickelt sich rasant und auch das Jahr 2025 verspricht spannende Fortschritte. In zwei separaten Blog-Artikeln werfen wir einen Blick auf das, was kommen wird oder kommen könnte.

KI 2.0 & Quantencomputing

Das Jahr 2024 war ein weiteres Hype-Jahr für KI. Deren Weiterentwicklung führt aber schon bald zu einer neuen Generation. Sie wird noch leistungsfähiger und vielseitiger sein. KI 2.0 kann nicht nur selbstständig Daten analysieren und verarbeiten, sondern noch mehr eigene Schlüsse ziehen und viele kreative Aufgaben zuverlässig bewältigen. Besonders in der Medizin, Forschung und Bildung wird dies wegweisend sein.

Parallel dazu nimmt Quantencomputing ebenfalls an Fahrt auf. Diese Technologie verspricht eine revolutionäre Rechenleistung, die komplexeste Probleme in Windeseile lösen kann. Herkömmliche Computer würden für derartige Aufgaben mehrere Jahre benötigen. Nun wird die Technologie von verschiedenen Akteuren sehr aktiv gepusht. Denn mögliche Einsatzmöglichkeiten finden sich u. a. in der Kryptografie oder bei der Entwicklung neuer Materialien – attraktive Zukunftsmärkte.

Nachhaltige IT & Edge Computing

Nachhaltigkeit wird 2025 ein zentraler Fokus in der IT sein. Unternehmen setzen vermehrt auf grüne Rechenzentren, energieeffiziente Hardware und klimaneutrale Technologieentwicklung. Diese Ansätze zielen darauf ab, die Umweltauswirkungen der digitalen Transformation zu minimieren. Der steigende Material- und Energiebedarf der Digitalisierung macht es ohnehin notwendig, zunehmend Ressourcen einzusparen. In unserem Artikel zur Green IT gehen wir näher auf dieses Thema ein.

Edge Computing hingegen bringt Rechenkapazitäten näher an den Ort der Datenentstehung. Diese dezentrale Struktur reduziert Latenzen und entlastet zentrale Rechenzentren. Besonders in Bereichen wie autonomes Fahren und dem Internet der Dinge (IoT) wird diese Technologie unverzichtbar werden.

IT-Sicherheit & Zero-Trust-Architekturen

Wir werden nicht müde, die Notwendigkeit von Cyber Security zu betonen. Es ist ein Feld, welches enorme Schäden verhindert, alle betrifft und gleichzeitig EU-weit noch so viel Nachholbedarf hat. 2025 werden Unternehmen auf fortschrittliche Sicherheitsstrategien setzen müssen. Gerade in wirtschaftlich herausfordernden Zeiten gilt es, die Geschäftstätigkeit zu sichern und Wettbewerbsvorteile zu schützen.

Ein wichtiger Aspekt in dieser Hinsicht ist die Zero-Trust-Architektur. Dieses Sicherheitskonzept basiert darauf, jedem Nutzer, jedem Gerät, jeder Identität unabhängig vom Standort zu misstrauen. Nur durch kontinuierliche Verifizierung wird Zugang und Umgang mit sensiblen Daten gewährt.

Verschiedenste Aspekte der IT-Security und von Zero Trust haben wir bereits in mehreren Blog-Artikeln einzeln beleuchtet.

VR/AR & Metaverse

Virtual & Augmented Reality wird immer realistischer und findet breite Anwendung in Bereichen wie Gaming, Bildung oder Industrie. Mit neuen Geräten und Softwarelösungen wird der Alltag zunehmend mit digitalen Elementen angereichert.

Das Metaverse, praktisch eine eigene virtuelle Welt, die physische und digitale Realität verbindet, wird dabei zu einem zentralen Schauplatz für Unternehmen und Nutzer. Virtuelle Meetings, Baupläne oder Einkaufswelten könnten das Metaverse zum nächsten großen Wirtschaftsfaktor machen.

Blockchain & autonome Systeme

Die Blockchain wird 2025 weiterhin vermehrt Anwendung finden, auch außerhalb von Kryptowährungen. Vom Supply Chain Management über digitale Identitäten bis hin zu Abstimmungssystemen – die Technologie bietet sichere und transparente Lösungen für zahlreiche Branchen. Wir haben uns diesem Thema bereits im Detail gewidmet.

Autonome Systeme wie Roboter und Drohnen entwickeln sich ebenfalls weiter. Sie können komplexe Aufgaben ohne menschliches Eingreifen ausführen und finden Anwendung in der Logistik, der Landwirtschaft und der Medizin.

Fazit: Die Zukunft der IT ist vernetzt und nachhaltig

Die Technologie-Trends 2025 zeigen eine klare Richtung: Sie werden zunehmend intelligenter, nachhaltiger und vernetzter. Während KI und Quantencomputing neue Möglichkeiten eröffnen, wird Nachhaltigkeit ein immer wichtigerer Faktor. Die Kombination aus erhöhter Rechenleistung, grünem Denken und verbesserter Vernetzung wird die IT-Landschaft weiter transformieren. Unternehmen, die diese Trends frühzeitig adaptieren, können entscheidende Wettbewerbsvorteile erzielen.

Unser Tipp:

Unternehmensführungen richten ihren Blick zunehmend auf innovative Technologien und spezifische Themen wie IT-Sicherheit. Doch angesichts der Vielschichtigkeit, rasanten Veränderungen und Komplexität vieler technischer Entwicklungen genügt es nicht, lediglich finanzielle Mittel bereitzustellen. Investitionen und die Integration moderner Technologien erfordern ein fundiertes Vorgehen. Verschieben Sie Ihre individuellen Transformationsprojekte nicht zu lange, unabhängig davon, welcher Bereich betroffen ist. Wenn Sie einen erfahrenen Partner suchen, der Sie mit tiefgehendem IT-Fachwissen unterstützen soll, Kosten durch Managed Services optimiert und Sie spürbar entlastet, gibt es auch im Jahr 2025 nur eine richtige Entscheidung: „One Step Ahead“ mit DTS!

Cloud mit DTS

Cyber Security mit DTS

DTS Security Software & Plattformen

DTS Managed Services

Technologien mit DTS

Offline-Funktionalität Power Apps: Chancen & Einsatzbereiche

Wann lohnt sich der Aufwand für Offline-Apps – und worauf sollten Sie achten?

Die Power Platform von Microsoft bietet Unternehmen vielseitige Möglichkeiten, Prozesse zu digitalisieren und Anwendungen schnell zu entwickeln. Doch was passiert, wenn keine Internetverbindung verfügbar ist? Hier kommt die Offline-Funktionalität von Power Apps ins Spiel. Aber ist der Aufwand für eine Offline-fähige App immer gerechtfertigt? Und worauf muss man achten? Wir geben Ihnen einen Leitfaden für den gezielten Einsatz der Offline-Funktionalitäten in Power Apps mit an die Hand und beleuchten Chancen und Risiken.  

Warum Offline-Apps in Power Apps relevant sind? 

Nicht alle Anwendungen benötigen eine permanente Internetverbindung. Gerade in folgenden Szenarien sind Offline-fähige Apps sinnvoll: 

  • Außendienst & Baustellen: Techniker oder Inspektoren erfassen Daten vor Ort, oft ohne stabiles Netz. 
  • Lager & Logistik: Inventuren oder Wareneingangsprüfungen müssen unabhängig von der Internetverbindung funktionieren. 
  • Event- & Messe-Apps: Erfassung von Interessenten, Kontakten, Leads oder Check-ins bei schwankendem Netz. 

Das Ziel ist, dass Nutzer auch ohne Internetverbindung arbeiten können und ihre Daten später mit der Cloud synchronisieren.

Wie funktioniert die Offline-Unterstützung in Power Apps? 

Damit eine model-driven Power App im Offline-Modus funktioniert, müssen die App- und Benutzerdaten auf dem Endgerät heruntergeladen werden (Offline-Synchronisation). Sobald die Synchronisation abgeschlossen ist, können Nutzer die App ohne Internetverbindung verwenden!

In der Offline-App können die bekannten CRUD-Befehle (Create, Read, Update, Delete) angewendet werden. Sobald der Nutzer wieder online ist, werden alle Änderungen mit Microsoft Dataverse synchronisiert. Dadurch ist sichergestellt, dass sie sowohl offline als auch online mit den aktuellen Daten arbeiten können.

Bevor der Anwender offline arbeiten kann, muss er einige Schritte beachten und entsprechend einrichten.

  1. Mindestanforderungen des Endgeräts prüfen 
  2. Definieren, welche Tabellen offlinefähig sein sollen 
  3. Offline-Profil einrichten 
  4. Separate Offline-App nebst Formularen mit entsprechenden Filtereinstellungen erstellen 

Wichtig ist: Nicht alle Standardfunktionen von Power Apps sind automatisch offline-kompatibel. 

Offline vs. Online – Wo liegen die Unterschiede?

Offline-Funktionen Power-AppsOffline-Funktionen Power-Apps

Darüber hinaus gibt es auch einige Einschränkungen der Funktionalitäten, welche wir nachfolgenden aufgelistet haben.  

Einschränkungen Offline-FunktionenEinschränkungen Offline-Funktionen

Trotz Einschränkungen: Was können Sie optimieren? 

Obwohl einige Funktionen offline nicht direkt unterstützt werden, gibt es Möglichkeiten, Limitierungen zu umgehen. Ein Beispiel ist die Massenbearbeitung, welche standardmäßig nicht im Offline-Modus funktioniert. Mithilfe eines Custom Grids und Custom Code können Sie dennoch mehrere Datensätze gleichzeitig bearbeiten.

Herausforderungen & Stolpersteine 

  • Datenkonflikte: Was passiert, wenn zwei Nutzer offline Änderungen an denselben Daten vornehmen? 
  • Speicherlimits: Mobile Geräte haben begrenzten Speicher – große Datensätze können problematisch sein. 
  • Fehlende Live-Daten: Echtzeit-Dashboards oder Automatisierungen funktionieren nicht offline. 
  • Komplexität in der Entwicklung: Man muss Logiken für Speicherung, Synchronisierung und Fehlerbehandlung integrieren. 

Pro-Tipp: Eine hybride Lösung kann helfen. Sie arbeiten z.B. mit zwei unterschiedlichen Apps.  Einmal mit der Standard Online-App und einer reduzierten Version für bestimmte Zielgruppen/Anwender/Key Usern in der Offline-App.  

Best Practices für eine saubere Umsetzung 

  • Definieren, welche Daten offline benötigt werden – nur relevante Daten einbeziehen 
  • Datenmenge optimieren – durch gezielte Filterung unnötige Synchronisationslast vermeiden 
  • Synchronisation regelmäßig testen – insbesondere Edge Cases berücksichtigen 
  • Datenkonflikte vermeiden – über eine „Last Write Wins“- oder Merge-Strategie steuern 
  • Benutzerführung optimieren – klare Statusmeldungen anzeigen, wann Daten synchronisiert werden 
  • Strukturierte App-Entwicklung – konsistente Erstellung von Apps, Formularen und Ansichten. Saubere Struktur in make.powerapps beibehalten. 
  • Fehlermanagement berücksichtigen – klar definierte Prozesse für Synchronisationsfehler einführen

Fazit: Ist die Offline-Funktionalität in Power Apps die richtige Wahl? 

Eine Offline-fähige Power App kann in vielen Szenarien hilfreich sein, beispielsweise im Außendienst, in der Logistik oder bei Vor-Ort-Inspektionen. Dennoch ist eine sorgfältige Planung erforderlich, um Einschränkungen zu berücksichtigen und alternative Lösungen zu finden. 

Tipp: Unternehmen sollten genau abwägen, ob sich der Entwicklungsaufwand lohnt oder ob eine stabile Netzverbindung ausreicht. Falls eine Offline-Lösung benötigt wird, sollten frühzeitig geeignete Workarounds und Anpassungen eingeplant werden. 

Wenn Sie überlegen, eine Power App mit Offline-Funktionalität zu entwickeln, sprechen Sie mit einem Experten – wir helfen gerne weiter! 

Chancen und Risiken“ – Digital Management Blog

Über PD Dr. Fred Jopp

PD Dr. Fred Jopp war von Mai 2021 bis Februar 2023 für die PASS Business Unit Public Sector als Head of Business Solutions und Head of Project Management tätig. Er verfügt über mehr als 20 Jahre Leitungserfahrung in den Bereichen Data Science, KI, Industrie 4.0 und Digitale Geschäftsmodelle. Seit mehr als 15 Jahren arbeitet Dr. Jopp als Berater für die Öffentliche Hand zu Digitalisierungsstrategien und Softwareeinführungs-projekten. So leitete er beispielsweise von 2015-2017 das Forschungskonsortium „Hessische Forschungsinformationssysteme“, das erfolgreich an zehn hessischen Standorten Forschungsinformationssysteme entwickelte und aufbaute. Zudem verfügt Dr. Jopp über langjährige Beratungserfahrung für Interessens-und Unternehmensverbände.