KI im Umfeld von Dokumentenmanagement

So lässt sich KI im Umfeld von Dokumentenmanagement einsetzen

Künstliche Intelligenz ist in aller Munde und das aktuelle Hype-Thema in Unternehmen. Die Ergebnisse, die viele bereits mit einfachen Eingaben in ChatGPT erzielen, sind verblüffend. Dennoch fällt es Unternehmen häufig noch schwer, Prozesse zu definieren, die mithilfe der KI-Technologien unterstützt werden können. Daher beleuchten wir in diesem Artikel für Sie einmal mögliche Anwendungspotenziale.

Konkret: Um welche KI-Technologien geht es hier?

Als Microsoft-Partner sprechen wir im Wesentlichen über die Azure AI-Services, die eine Vielzahl von KI-Modellen – aktuell ca. 1.800 Stück – beinhalten: Diese reichen von der Analyse von Audio- und Videodaten über spezialisierte Klassifizierungsmodelle bis hin zu den weit verbreiteten Sprachmodellen (Large Language Models) wie GPT-4o.

Da dieser Beitrag vor allem die Anwendung im Bereich des Dokumentenmanagements beleuchtet, möchten wir im Folgenden insbesondere Klassifizierungsmodelle und Sprachmodelle tiefergehend beleuchten.

Klassifizierungsmodelle lassen sich zum Beispiel dazu einsetzen, Dokumente automatisch in Kategorien zu sortieren. Das kann im Rahmen der Klassifizierung des Posteingangs oder des E-Mail-Eingangs von Unternehmen dabei helfen, die Dokumente schneller und mit geringerem Aufwand an die richtigen Empfänger zu verteilen. Klassifizierungsmodelle werden für eine festgelegte Auswahl an Kategorien trainiert, bevor sie eingesetzt werden können. Sie haben dann eine hohe Erkennungsrate, sind häufig aber wenig flexibel, da die Hinzunahme weiterer Kategorien ein erneutes Anlernen des Modells erfordert.

Die Sprachmodelle von OpenAI und anderen Herstellern liegen mittlerweile in mehreren Versionen vor, die sich auch darin unterscheiden, wie komplex die zu bearbeitenden Anfragen sein dürfen. Die Kosten sind dabei stets nutzungsabhängig und von der Komplexität des Modells abhängig.

Wie hilft mir das konkret?

Um Ihnen das Ganze zu veranschaulichen, führe ich einmal ein paar Beispiele aus der Praxis auf, in denen Künstliche Intelligenz gezielt helfen kann, Prozesse zu vereinfachen und zu beschleunigen. Auch Kombinationen der verschiedenen Modelle beziehungsweise Services sind möglich und erweisen sich durchaus als sinnvoll.

Ein Beispiel: Im Posteingang des Unternehmens wird zunächst die Dokumentenart ermittelt. Für unterschiedliche Dokumentenarten wie beispielsweise Verträge werden dann weitere inhaltliche Analysen ausgeführt, um automatisch den Vertragspartner, das Vertragsdatum, die Laufzeit sowie die Kündigungsfrist auszulesen. Außerdem soll eine inhaltliche Zusammenfassung in deutscher und englischer Sprache hinterlegt werden.

Erarbeitung von KI-Anwendungsszenarien mit synalis

Erfahrungsgemäß stellt die Erarbeitung von Anwendungsszenarien die größte Hürde für den Einsatz von KI in vielen Unternehmen dar. Bei synalis haben wir daher ein Workshopformat entwickelt, das genau diese Herausforderung adressiert.

Fazit: Vom Chatbot zum Game Changer

KI-Tools haben eine lange Entwicklungsreise hinter sich und können mittlerweile zielgerichtet eingesetzt werden.

Als ChatGPT populär wurde haben wir alle gestaunt. Wir konnten mit einer künstlichen Intelligenz chatten und die Antworten waren oft verblüffend gut.

Dann jedoch kamen schnell die Fragen auf, wie Unternehmen davon profitieren können. Es erschien nicht effizient, jede Anfrage individuell an einen ChatBot zu formulieren – ein Automatismus sollte Abhilfe schaffen . Schnell wurden auch die Fragen nach der Korrektheit der Antworten und nicht zuletzt nach dem Datenschutz laut.

Mittlerweile hat der Datenschutz durch den EU AI-Act ein solides Fundament erhalten und regelt die Einsatzmöglichkeiten. Microsoft bietet den Kunden die Technologien so an, dass Eingaben nicht zur Weiterentwicklung des Modells genutzt werden. Außerdem stellt Microsoft umfangreiche Dokumentationen zur Datenverarbeitung und -speicherung in den entsprechenden Rechenzentren zur Verfügung. Nicht zuletzt können Anonymisierungswerkzeuge helfen, erst gar keine schützenswerten Daten an die KI zu übertragen.

Heute sehen wir auch den Nutzen klarer: Wir können den Sprachmodellen Dokumente zur Analyse übergeben. Die Arbeitsanweisungen, auch Metaprompts genannt, können vorab definiert werden und das Sprachmodell ist in der Lage, seine Antworten in Formaten (wie etwa JSON) auszugeben, sodass sie sich maschinell / IT-seitig einlesen und weiterverarbeiten lassen. Auf diese Weise eignet sich KI vor allem auch dazu, im Hintergrund vollautomatisch zu klassifizieren, Informationen zu sammeln und Auswertungen über Dokumenteninhalte zu erstellen.

Dabei sehen wir Ergebnisse, die schnell zur Verfügung stehen, von hoher Qualität sind und Unternehmen dabei helfen, ihre Prozesse effizienter zu gestalten.

Sicherheitsaspekt auf Geschäftsreisen wird wichtiger – Digital Management Blog

Dies spiegelt sich in Studien, aber auch in der Arbeit der International Standards Organization (ISO) wider, die derzeit an einer neuen ISO 31030 (Travel Risk Management – Guidance for Organization) arbeitet.

Geschäftsreisebüros und Travel Risk Anbieter können eine große Unterstützung für die Organisation von Geschäftsreisen sein. PASS liefert hierbei die Buchungsdaten für die präventive und aktive Risikoerkennung.

Wenn Reisebeschränkungen aufgehoben werden und wieder mehr Geschäftsreisen stattfinden, sind Fürsorgepflichten und Reisesicherheit so wichtig wie nie zuvor. Sie stellen sicher, dass die Reisenden vor und auf ihren Reisen aus sicherheitstechnischer, aber auch aus medizinischer Sicht unterstützt werden.

Bereits 2016 habe ich auf diesem Blog einen Artikel über Travel Risk Management geschrieben und darüber berichtet, wie IT die Sicherheit von Geschäftsreisen verbessern kann. Meine abschließende Aussage damals war: „Die Maßnahmen hinsichtlich persönlicher Sicherheit liegen im Vergleich zu denen für die IT-Sicherheit deutlich zurück. Hier gibt es also noch Aufholbedarf.“  Meiner Meinung nach ist spätestens jetzt der Zeitpunkt gekommen, diesen Rückstand aufzuholen. Dementsprechend geht es in meinem heutigen Artikel auch um die Frage, wie die Experten für Travel Risk Management bei diesem Thema unterstützen können.

Warum ist Travel Risk Management so wichtig?                                                

Verantwortungsvolle Unternehmen stellen das Wohlbefinden ihrer Mitarbeiter an erste Stelle. Das gilt nicht nur für den Arbeitsplatz im Büro oder Homeoffice, sondern auch auf Geschäftsreisen. Der Fokus auf das Wohlergehen der Mitarbeiter schafft die Grundlage für sicheres und erfolgreiches Reisen. Zudem wird das Risiko von Klagen wegen Fahrlässigkeit minimiert, denn wenn ein Unternehmen Mitarbeiter auf Geschäftsreisen schickt, ist es im Rahmen seiner Fürsorgepflicht für deren Sicherheit und Gesundheit verantwortlich.

Experten aus der Reisebranche prognostizieren in einer kürzlich von TNMT veröffentlichten Studie über die Zukunft von Geschäftsreisen, dass die Bedeutung der Fürsorgepflicht für Geschäftsreisende nach der Pandemie weiter zunehmen und Travel Risk Management ein wesentlicher Bestandteil für zukünftige Geschäftsreisen aller Mitarbeiter sein wird. Auch die Reisebürokette Lufthansa City Center hat kürzlich ihre Prognosen über die Zukunft der Geschäftsreisen veröffentlicht, in der sie aufführen, dass Unternehmen mehr in den Bereich Travel Risk Management investieren werden. Und da aller guten Dinge drei sind, möchte ich noch erwähnen, dass der Verband Deutsches Reisemanagement e.V. (VDR) in seiner Barometer-Umfrage innerhalb der deutschen Wirtschaft zu dem Ergebnis kommt, dass fast 80 Prozent erwarten, dass der Fokus auf Travel Risk Management eher zunehmen wird.

Die Fürsorgepflicht beginnt vor der Reise, setzt sich während der Reise fort und gilt auch nach der Rückkehr. Wenn Menschen für ein Unternehmen auf Geschäftsreise gehen, müssen entsprechende Maßnahmen und Reiserichtlinien für ihre Sicherheit vorhanden und bekannt sein.

Die zunehmende Bedeutung der Gesundheit von Reisenden spiegelt sich auch in der Arbeit der International Standards Organization (ISO) wider, die derzeit an einer neuen ISO 31030 (Risk Travel Management – Guidance for Organization) arbeitet. Mit der Norm ISO 31030 erhalten Unternehmen einen Leitfaden, um die interne Sicherstellung der Fürsorgepflicht rund um Geschäftsreisen zu erhöhen und die Sicherheit ihrer Reisenden zu gewährleisten.

Wie können Travel-Risk-Management-Unternehmen unterstützen?

Generell unterstützen Anbieter von Travel Risk Management in der Beratung, aber insbesondere auch in der aktiven Umsetzung und Betreuung mit dem Ziel, Geschäftsreiserisiken zu minimieren und im Ernstfall schnell und professionell handeln zu können.

Die Leistungen der einzelnen Anbieter variieren, umfassen aber in der Regel die folgenden Aspekte:

  • Beratung und Erstellung von internen Reiserichtlinien und ganzheitlichen Empfehlungen für Sicherheit, Gesundheit, Geschäftstätigkeit und Haftungsfragen
  • Präventive und strategische Vorbereitung von Auslandsaufenthalten
  • Integration aller Reisedaten und GPS-Tracking
  • Überwachung und Analyse von Reiseländern auf Risiken und Sicherheitsvorfälle
  • Präventive und Echtzeit-Reisewarnungen inkl. entsprechendem Kommunikationsmanagement sowie Notfall-Apps
  • 24/7-Support insbesondere für medizinische und sicherheitstechnische Hilfe
  • Weltweites Krisenmanagement und globale Notfallmaßnahmen, wie z.B. Notfallevakuierungen und Rücktransporte
  • Aktuell auch Beratung und Empfehlungen zu Covid-19

All diese Maßnahmen sollten durch moderne Tools und Technologien unterstützt werden.

Mit anderen Worten: Travel Risk Management Anbieter können die Abdeckung der drei Hauptsäulen des Travel Risk Managements unterstützen: Vorbeugen, Überwachen und Reagieren.

Sieger erkennt man im Ziel!

Ein Kollege, den Tom DeMarco wohl als Adrenalin-Junkie klassifiziert hätte, sagte immer: „Sieger erkennt man am Start!“ Klang überzeugend und sollte wohl alle motivieren, mit Elan an jede neue Herausforderung heranzugehen.

Im ersten Moment dachte ich mir auch, das sei ein gutes Statement, aber bald kamen die Zweifel. Als Marathonläufer weiß ich, dass ein zu hohes Tempo am Start fatal ist. Ich starte immer mit regelmäßigem Blick auf die Pulsuhr, denn wenn alle lospreschen, verliert man das Gefühl für das wahre Tempo. Gute Marathonläuferlegen zwei gleich schnelle Hälften hin, idealerweise wird man sogar etwas schneller. Ich kann das aus eigener Erfahrung bestätigen, meine persönliche Marathon-Bestzeit habe ich erzielt, als ich in der zweiten Hälfte um nur 24 Sekunden langsamer war als in der ersten.

Projekte sind durchaus mit einem Marathon zu vergleichen, es kommt darauf an, mit einem optimalen Tempo zu starten, dieses durchzuhalten und idealerweise am Ende noch Reserven zu haben. Am Start kann man nicht erkennen, ob jemand dieses Kriterium erfüllt, man weiß es erst beim Zieleinlauf ganz genau, denn auch auf den letzten Kilometern kann noch was schiefgehen, oft genug habe ich Läufer mit Krämpfen wenige Kilometer vor dem Ziel gesehen, das ist die Höchststrafe.

Es kann auch noch ganz am Ende etwas passieren

Gut damit vergleichbar ist es, wenn ein Projekt beim Go-Live ins Straucheln kommt. Wenn es schon während der Projektlaufzeit geholpert hat, kann man ja Wetten abschließen, dass das Ende jedenfalls nicht besser sein wird. Es kommt aber auch bei gut laufenden Projekten vor, dass es am Ende so richtig holpert. Ich habe aus meiner Erfahrung einige typische Probleme in der Schlussphase von Projekten zusammengefasst, hier der Beitrag „Wie man beim Go-Live nochmals in Straucheln kommen kann“.

Es ist gut, diese potenziellen Stolperfallen schon am Start im Auge zu haben und während des Projektes nicht aus dem Auge zu verlieren. Man kann allerdings auch fragen: Was ist ein erfolgreiches Projekt? Der Schiefe Turm von Pisa, die Entdeckungsfahrt von Christoph Kolumbus, Apollo 13 und in der letzten Zeit auch die Elbphilharmonie sind Projekte, die ganz anders geendet haben, als im Projektauftrag stand, trotzdem kann man nicht sagen, dass sie gescheitert sind. Mit dieser Frage habe ich mich ganz allgemein in einem Vortrag beschäftigt, diesen gibt es als Video. Das Thema dieser Mail adressiere ich ganz am Anfang es Vortrages, aber natürlich freue ich mich, wenn auch der Rest interessiert.

Speziell mit der Elbphilharmonie habe ich mich etwas ausführlicher beschäftigt und die Geschichte sowie die Ursachen der Probleme und schließlich auch den Weg zum guten Ende beschrieben.

Man kann es gleich zu Beginn verbocken, durch einen Vertrag

Wenn am Ende manches nicht klappt, kann das auch einfach Pech sein. Es gibt äußere Umstände, die auch mit der besten Planung und dem kompetentesten Projektmanagement nicht vorhergesehen und verhindert werden können. Aber ein oft eindeutig selbst verschuldeter Faktor, der ein Projekt ins Straucheln bringt, sind ungeeignete Verträge. Hier glauben viele Auftraggeber und ihre Anwälte, dass erfolgreiche Vertragsverhandlungen dadurch definiert sind, dass man möglichst viel durchgesetzt hat. Dass man also dem Auftragnehmer umfassende Pflichten auferlegt und ihm möglichst viele Risiken überbunden hat. Man glaubt also, den Sieger am Start schon erkennen zu können.

Aber: Abgerechnet wird am Schluss. Scheinbar erfolgreiche Vertragsverhandlungen können die unmittelbare Ursache für Probleme sein. Dazu habe ich einen ausführlichen Blog-Artikel geschrieben.

Wer dazu mehr erfahren möchte, ist herzlich eingeladen, die Aufzeichnung meines Webinars vom 25. Juni 2024 anzusehen.

Bluetooth: Vom Konzept zur globalen Technologie

Einleitung

Bluetooth ist heute aus unserem Alltag nicht mehr wegzudenken. Die Technologie ermöglicht es uns, drahtlos Daten zwischen Geräten auszutauschen, sei es Musik von unserem Smartphone zu einem Lautsprecher zu streamen oder Dateien zwischen Computern zu übertragen. Doch wie kam es zu dieser bahnbrechenden Technologie? Die Geschichte von Bluetooth ist eine Reise durch technologische Innovation, Kooperation und die stetige Weiterentwicklung von Kommunikationstechnologien.

Die Anfänge

Die Ursprünge von Bluetooth reichen zurück in die späten 1980er Jahre, als Ingenieure begannen, nach einer Möglichkeit zu suchen, Kabelverbindungen zu ersetzen. Der Durchbruch kam jedoch erst 1994, als die schwedische Firma Ericsson begann, eine kostengünstige und energieeffiziente Methode für die drahtlose Kommunikation zwischen Mobiltelefonen und ihren Zubehörteilen zu entwickeln. Ziel war es, eine universelle Lösung zu finden, die über kurze Distanzen funktioniert und wenig Energie verbraucht.

Namensgebung

Der Name „Bluetooth“ stammt von dem dänischen König Harald Blauzahn (Harald Blåtand), der im 10. Jahrhundert lebte und bekannt dafür war, verschiedene dänische Stämme zu vereinen. Ähnlich wie König Harald beabsichtigte die neue Technologie, unterschiedliche Geräte zu vereinen und eine nahtlose Kommunikation zwischen ihnen zu ermöglichen. Der Name wurde von Jim Kardach von Intel vorgeschlagen, der sich für skandinavische Geschichte interessierte und einen treffenden Namen suchte.

Gründung der Bluetooth Special Interest Group (SIG)

1998 wurde die Bluetooth Special Interest Group (SIG) gegründet, eine Zusammenarbeit führender Technologieunternehmen wie Ericsson, IBM, Intel, Nokia und Toshiba. Die Gründung dieser Gruppe war ein entscheidender Schritt, um die Bluetooth-Technologie zu standardisieren und weltweit zu verbreiten. Die SIG übernahm die Aufgabe, technische Spezifikationen zu entwickeln und sicherzustellen, dass Geräte verschiedener Hersteller miteinander kompatibel sind.

Bluetooth 1.0 und 1.1

Die erste offizielle Version von Bluetooth, bekannt als Bluetooth 1.0, wurde 1999 veröffentlicht. Diese Version ermöglichte grundlegende drahtlose Verbindungen und legte den Grundstein für zukünftige Entwicklungen. Bluetooth 1.1, veröffentlicht im Jahr 2001, brachte Verbesserungen in Bezug auf die Stabilität und Geschwindigkeit der Verbindungen.

Fortschritte und Innovationen

Im Laufe der Jahre hat sich Bluetooth stetig weiterentwickelt. Bluetooth 2.0, eingeführt 2004, brachte den Enhanced Data Rate (EDR), der die Datenübertragungsgeschwindigkeit verdreifachte. Bluetooth 3.0, veröffentlicht 2009, integrierte die High Speed (HS) Technologie, die die Datenübertragungsgeschwindigkeit durch die Nutzung von WLAN-Technologien erheblich steigerte.

2010 kam Bluetooth 4.0 auf den Markt, das besonders für seine Energieeffizienz bekannt wurde. Diese Version ermöglichte die Entwicklung von sogenannten „Low Energy“ (LE) Geräten, die weniger Strom verbrauchen und somit ideal für tragbare Geräte wie Fitness-Tracker und Smartwatches sind.

Aktueller Stand und zukünftige Entwicklungen

Die neueste Version, Bluetooth 5.0, wurde 2016 veröffentlicht und brachte erhebliche Verbesserungen in Bezug auf Reichweite, Geschwindigkeit und Datenkapazität. Diese Version ist besonders wichtig für das Internet der Dinge (IoT), da sie eine robustere und effizientere Kommunikation zwischen einer Vielzahl von Geräten ermöglicht.

Heute wird Bluetooth in nahezu allen modernen elektronischen Geräten eingesetzt. Von Kopfhörern über Autos bis hin zu Haushaltsgeräten – die Technologie hat sich als unverzichtbar erwiesen. Die Bluetooth SIG arbeitet kontinuierlich an der Weiterentwicklung der Technologie, um den wachsenden Anforderungen der vernetzten Welt gerecht zu werden.

Fazit

Die Geschichte von Bluetooth ist ein eindrucksvolles Beispiel dafür, wie technologische Innovation und internationale Zusammenarbeit zu einer weltverändernden Technologie führen können. Vom bescheidenen Anfang bei Ericsson bis zur allgegenwärtigen Präsenz in modernen Geräten hat Bluetooth einen langen Weg zurückgelegt. Mit kontinuierlichen Verbesserungen und einer wachsenden Anzahl von Anwendungen wird Bluetooth auch in Zukunft eine zentrale Rolle in der Welt der drahtlosen Kommunikation spielen.

Der digitale Arbeitsplatz: the new normal

In einer sich stetig wandelnden Arbeitswelt hat der Begriff des „digitalen Arbeitsplatzes“ zunehmend an Bedeutung gewonnen. Vor allem die Pandemie hat eine beschleunigte Digitalisierung von Arbeitsprozessen eingeleitet. Doch was genau verbirgt sich hinter diesem Konzept, welche Herausforderungen bringt es mit sich und wie können Unternehmen es erfolgreich gestalten bzw. umsetzen?

Evolution des Arbeitsplatzes: „New Work“ in Aktion

Der digitale Arbeitsplatz repräsentiert eine neue Ära in der Art und Weise, wie wir arbeiten. Mit dem Aufkommen neuer Technologien und Arbeitsmethoden werden traditionelle Büroumgebungen vermehrt durch flexible, virtuelle Räume ersetzt. Ohne Bindung zu Standorten oder Devices können Kolleg*innen in Echtzeit miteinander arbeiten und auf Ressourcen zugreifen. Der Fokus liegt dabei auf „New Work“, einem Ansatz, der auf Selbstbestimmung, Unabhängigkeit und Kollaboration basiert. Homeoffice und Remote-Arbeit daher keine Ausnahmen mehr. Sie werden zunehmend zum Standard. Ein Beispiel: Kommunikations-Tools wie Microsoft Teams oder Slack, die es Abteilungen ermöglichen, über geografische Grenzen hinweg zusammenzuarbeiten.

Herausforderungen: IT-Sicherheit & Datenschutz

Mit der Verlagerung in die Cloud und einer größeren Abhängigkeit von digitalen Plattformen entstehen auch neue Herausforderungen. Die Sicherheit sensibler Daten und die Einhaltung der Datenschutz- und Datensicherheitsrichtlinien sind essenziell. Cyber Security wird zu einem zentralen Anliegen, da Unternehmen gegen immer ausgefeiltere Angriffe geschützt werden müssen. So könnte beispielsweise ein unzureichend gesicherter Zugang zum Unternehmensnetzwerk zu Datenlecks führen. Um solche Risiken zu minimieren, ist es unerlässlich, u. a. MFA, sichere Passwortrichtlinien und grundlegende Sicherheitssoftware für die unterschiedlichen Bereiche zu implementieren.

Empfehlungen für eine erfolgreiche Implementierung

Eine erfolgreiche Umsetzung des digitalen Arbeitsplatzes erfordert eine ganzheitliche Strategie. Unternehmen sollten auf einen Managed Workplace setzen. Sprich, Managed Service Provider verwalten effizient die notwendige IT-Infrastruktur, stellen den Mitarbeitenden die nötigen Ressourcen bereit und gewährleisten IT-Sicherheit sowie Support. Gleichzeitig ist es wichtig, in Schulungen und Sensibilisierungsmaßnahmen zu investieren, um das Bewusstsein für IT-Sicherheit und Datenschutz zu schärfen. Die Implementierung von robusten Richtlinien, aber auch der regelmäßige Austausch und klare Kommunikationskanäle tragen zusätzlich dazu bei, die Zusammenarbeit zu erleichtern und die Produktivität zu steigern.

Fazit

Der digitale Arbeitsplatz ist keine Zukunftsvision, sondern längst Realität. Unternehmen, die diese Transformation erfolgreich meistern, werden nicht nur von den Vorteilen einer flexibleren Arbeitsumgebung profitieren, sondern auch besser für die Herausforderungen der digitalen Ära gerüstet sein. Durch eine ganzheitliche Herangehensweise, die sowohl die technologischen als auch die menschlichen Aspekte berücksichtigt, können Organisationen den digitalen Wandel erfolgreich gestalten und sich für eine zukunftsorientierte Arbeitsweise positionieren.

Unser Tipp:

Digitaler Wandel? Moderne IT-Technologien? Cloud? IT-Sicherheit? Ganzheitlichkeit? Klingt nach DTS! Wir sind ein absoluter Enabler in diesen Bereichen. Und das Beste: Wir ermöglichen das alles für Sie maßgeschneidert als Managed Service, mit dem Sie zusätzlich auch noch Kosten und Personalaufwand sparen – It’s time for change!
 

Digital Workplace mit DTS

Cloud mit DTS

Technologies mit DTS

Der neue Microsoft Digital Defense Report

Die verbreitetsten Angriffsszenarien 2024

Aktuelle Bedrohungen, Cyberattacken und Trends – im jährlichen Microsoft Digital Defense Report 2024 schildert der Softwaregigant seine Sicht auf Themen, die die Welt der Cyber Security umhertreiben. Die zugrundeliegenden Daten entstammen dem letzten Fiskaljahr.

Der anschauliche Bericht behandelt nicht nur den Bereich Microsoft 365 und Azure, sondern auch private Microsoft Dienste wie Office, Xbox und natürlich PCs mit Windows. Aus den gewonnenen Erkenntnissen skizziert Microsoft eine Bedrohungslandkarte, die sich stetig weiterentwickelt: Wo eben noch Lücken geschlossen wurden, nutzen Angreifer schon neue Exploits.

Der Report hilft mittelständischen Unternehmen bei der Bewertung und Entwicklung eigener Initiativen und Mechanismen – manchmal sogar bei der Entdeckung blinder Flecken.

Die aus meiner Sicht wichtigsten Erkenntnisse und Empfehlungen im technischen Bereich habe ich nachfolgend für Sie zusammengefasst.

Identity and Social Engineering

Identitäten sind und bleiben das Lieblingsziel von Cyberkriminellen. Angreifer dringen nicht ein, sie loggen sich ein: 99% aller Identity Attacken sind Passwort-Attacken – viel zu häufig sind Kriminelle erfolgreich, weil z.B. keine Multifaktorauthentifizierung (MFA) aktiviert wurde.

Perfide: Selbst Organisationen, die die MFA aktiviert haben, sind verwundbar. Attacken, die auf Lücken in der MFA-Abfrage zielen, steigen rasant – seien es MFA-Bypass, Adversary in the Middle (AitM) oder Tokendiebstahl.

Häufig ist das Vehikel hierfür Phishing. Auch dieses entwickelt sich weiter. Neu ist Phishing per QR-Code, Voice Phising (Danke an AI) oder Phishing per Teams. Phishing wiederum führt zu Business Email Compromise Attacken (BEC), in denen im Namen der Opfer Betrugsemails mit Phishing-Links versandt werden. Ein Schneeballsystem, das Vertrauen ausnutzen soll. Übrigens: Betrug umfasst im Digital Defense Report ein eigenes Kapitel (Seite 31 ff), das sogar einen eigenen Blogbeitrag wert wäre – unbedingt mal reinlesen.

Was können Sie also tun, um sich zu schützen?

  1. Schließen Sie aus, dass man sich nur mit einem Usernamen und Passwort an Cloudressourcen oder Fernzugriff anmelden kann: Aktivieren Sie MFA.
  2. Nutzen Sie Anmeldemethoden, die immun gegen Phishing sind – z.B. Passkeys, Windows Hello for Business oder FIDO2 Security Sticks: Beginnen Sie mit privilegierten Accounts.
  3. Trennen Sie User- und Administrator-Accounts auf Clients, im Active Directory, in der Cloud – überall.
  4. Erlauben Sie den Zugriff nur von bekannten, verwalteten Geräten.

Ransomware

Auch Ransomware ist ein alter Bekannter. Zuerst die schlechte Nachricht: Auch die Zahl der Ransomware-Attacken nimmt stark zu. Ransomware heißt heute eigentlich immer Human Operated Ransomware, also kriminelle Banden. Die gute Nachricht: Angreifer werden immer weniger erfolgreich. 3x weniger Attacken schaffen es laut Microsoft bis zur Verschlüsselungsphase, wenn die Organisation gut geschützt ist und eine gute Erkennung auf allen Geräten hat. Bei 90% der erfolgreichen Verschlüsselungsattacken waren nicht verwaltete Geräte das Problem.

Angreifer nutzen alle denkbaren Möglichkeiten, um Ransomware zu platzieren: Phishing, Identity Compromise, ungepatchte Systeme, die im Internet zu erreichen sind, oder neue Schwachstellen mit einem CVSS Score über 8. Wachsender Beliebtheit erfreuen sich schädliche Browser Extensions (auch befeuert durch den Wunsch, ChatGPT zu nutzen) oder pure Dreistigkeit, die vor allem Benutzer überlistet schädliche Dinge zu tun. Sind Angreifer einmal im Netzwerk, versuchen Sie als erstes die Erkennung abzuschalten.

Wie schützen Sie Ihre Unternehmensdaten?

Die Empfehlungen lauten (ich möchte fast sagen nach wie vor):

  1. Benutzer auf Clients dürfen keine Administratoren sein.
  2. Verwalten Sie Ihre Geräte: Ein privates Notebook ist ein schlechtes Notebook. Automatisiertes Patching für Betriebssysteme, Applikationen und eine zeitgemäße Endpoint Protection Lösung sind ein Muss.
  3. Aktivieren Sie Tamper Protection für Ihre Sicherheitslösung: Verwalten Sie Ihre Policies zentral. Schützen Sie darüber hinaus die Kommunikation zwischen Clients und der Security Cloud. Sogenannte EDR Silencer legen Regeln in der Windows Firewall an, die diese Kommunikation unterbinden.
  4. Überwachen und härten Sie Ihr Active Directory: Es ist der schnellste Weg zu Ihren kritischen Assets.

Das Gute ist: Wenn Sie Microsoft 365 Business Premium oder Microsoft 365 E3 Kunde sind, haben Sie bereits viele der nötigen Werkzeuge in der Hand. Gerne prüfen wir Ihre Security-Umgebung mit unserem Security Assessment oder helfen bei der Anwendung.

Mein abschließender Appell: Kümmern Sie sich um das Offensichtliche. Beginnen Sie. Lassen Sie nicht das Perfekte zum Feind des Guten werden.

Superintelligenz: Die Auswirkungen auf Mensch und Technologie


Die rasante Entwicklung der künstlichen Intelligenz (KI) fasziniert und inspiriert mich gleichermaßen. Während ich an einem neuen Artikel arbeite, der die Entwicklung der KI im Zeitraum von 1990 bis 2190 beschreibt, habe ich im Rahmen meiner Recherchen verschiedene KI-Modelle befragt. Dabei war ich überrascht, wie ähnlich ihre Prognosen ab dem Jahr 2050 ausfielen.

Besonders interessant waren drei wiederkehrende Aussagen:

  1. Symbiose zwischen Mensch und KI: Ab der Mitte des 21. Jahrhunderts könnten bedeutende Fortschritte bei der Verbindung von Mensch und Technologie erreicht werden. Diese Symbiose könnte in Form von neuronalen Schnittstellen oder intelligenten Assistenzsystemen den Alltag bereichern und den menschlichen Geist erweitern.
  2. Bewusstsein von KI-Systemen: Einige Vorhersagen deuten darauf hin, dass KI-Systeme ab 2050 möglicherweise Eigenschaften entwickeln, die als ein rudimentäres „Bewusstsein“ interpretiert werden könnten. Dies regt dazu an, über die Definition von Bewusstsein und die künftige Rolle von KI in unserer Gesellschaft nachzudenken.
  3. Entstehung einer Superintelligenz: In ferner Zukunft könnte eine sogenannte „Superintelligenz“ entstehen – eine KI, die menschliche Intelligenz in vielen Bereichen übertrifft. Dies eröffnet faszinierende Perspektiven, wirft aber auch Fragen auf: Wie stellen wir sicher, dass eine solche Entwicklung im Einklang mit menschlichen Werten bleibt?

Diese Vorhersagen verdeutlichen das Potenzial der KI, unser Leben positiv zu beeinflussen. Gleichzeitig erinnern sie uns daran, wie wichtig es ist, vorausschauend zu handeln. Der technologische Fortschritt darf nicht unkontrolliert verlaufen – eine bewusste und verantwortungsvolle Gestaltung der Entwicklung ist entscheidend, um sicherzustellen, dass der Mensch die Kontrolle behält und sich nicht von den Systemen abhängig macht, die er selbst erschaffen hat.

Mein Ziel ist es, in meinem Artikel nicht nur die historischen Entwicklungen der KI darzustellen, sondern auch die Chancen und Herausforderungen dieser Technologie zu beleuchten. Durch transparente Forschung, klare ethische Leitlinien und internationale Zusammenarbeit können wir eine Zukunft gestalten, in der KI nicht Bedrohung, sondern Bereicherung ist.


Ein Blick in die Zukunft: Die Evolution der Künstlichen Intelligenz von 1990 bis 2190

Einleitung

Die Geschichte der künstlichen Intelligenz (KI) ist eine Geschichte des Fortschritts, der Träume und der Herausforderungen. Seit den Anfängen in den frühen 1990er-Jahren hat sich die KI in einem atemberaubenden Tempo weiterentwickelt. In diesem Blog werfen wir einen Rückblick auf die Meilensteine dieser Entwicklung bis weit in das 22. Jahrhundert.


1990-2020: Die Renaissance der KI

Die 1990er-Jahre markierten eine Zeit des wiedererwachten Interesses an KI, nachdem die sogenannten „KI-Winter“ der 1970er- und 1980er-Jahre Fortschritte gebremst hatten. Neue Ansätze wie neuronale Netze und Fortschritte in der symbolischen KI brachten frischen Wind in die Forschung. Programmiersprachen wie Prolog und Lisp ermöglichten es Maschinen, logische Prinzipien zu manipulieren und Entscheidungen zu treffen. Expertensysteme, die menschliches Fachwissen in bestimmten Bereichen nachbildeten, fanden Anwendung.

Meilensteine der 90er-Jahre:

  • Neuronale Netze gewannen dank Forschern wie Andrew Ng und der Einführung leistungsfähigerer GPUs an Bedeutung.
  • Kommerzielle Erfolge: Erste interaktive Robotertiere und der Staubsaugerroboter Roomba fanden ihren Weg in die Haushalte.
  • 1997: Der Supercomputer Deep Blue besiegte den Schachweltmeister Garry Kasparov.

Highlights bis 2020:

  • 2005: Das autonome Fahrzeug „Stanley“ gewann die DARPA Grand Challenge und zeigte das Potenzial selbstfahrender Autos.
  • 2012: Der Durchbruch im Deep Learning durch das „AlexNet“-Modell revolutionierte die Bildverarbeitung.
  • 2020: Systeme wie GPT-3 demonstrierten, dass KI realistische Texte verfassen und natürliche Sprache verstehen kann.

Reflexion: Chancen und Risiken

Schon in dieser Phase zeichnete sich ab, dass KI enorme Chancen bietet, aber auch Herausforderungen und Risiken birgt. Anwendungen im Gesundheitswesen, Verkehr und der Robotik brachten Effizienzgewinne, aber auch Bedenken: Werden Arbeitsplätze verschwinden? Wie verhindern wir Diskriminierung durch KI-Systeme? Und wie können wir die Sicherheit in einer zunehmend KI-gesteuerten Welt gewährleisten?


2020-2050: Der Aufstieg der Generalisierten KI (AGI)

Nach den Erfolgen der sogenannten „Narrow AI“ (spezialisierte KI) richtete sich der Fokus verstärkt auf die Entwicklung von allgemeiner künstlicher Intelligenz (AGI). Diese Systeme sollten Aufgaben meistern, die menschliche kognitive Fähigkeiten umfassen oder sogar übertreffen.

Schlüsselentwicklungen:

  • 2025: Der erste vollständig von KI erstellte Spielfilm fesselte das Publikum weltweit.
  • 2030: Prototypen intelligenter, autonomer Assistenten antizipierten Bedürfnisse ihrer Nutzer und handelten proaktiv.
  • 2042: Ein KI-gestützter „Kreativassistent“ gewann einen renommierten Pulitzer-Preis.
  • 2050: Selbstoptimierende AGI-Systeme fanden breite Anwendung in Industrie und Forschung.

Gleichzeitig nahmen ethische Debatten zu: Wie viel Autonomie sollten wir KI zugestehen? Wer trägt Verantwortung für ihre Handlungen? Und wie gestalten wir eine faire, inklusive Nutzung der Technologie?


2050-2100: Verschmelzung von Mensch und Maschine

In der zweiten Hälfte des 21. Jahrhunderts verschwammen die Grenzen zwischen Mensch und KI immer mehr. Der Begriff „Neural Augmentation“ wurde zum Symbol des Fortschritts.

Technologische Highlights:

  • 2045: Fortschritte in der Neurotechnologie führten zur Markteinführung der ersten „Brain-Computer-Interfaces“, die direkte Verbindungen zwischen Gehirn und KI ermöglichten.
  • 2065: Menschliche Erinnerungen konnten mithilfe neuronaler Implantate gespeichert und wieder abgerufen werden.
  • 2080: Symbiotische Netzwerke zwischen Mensch und KI führten zu einer beispiellosen Steigerung der kognitiven Fähigkeiten.
  • 2100: Durchbrüche im Quantencomputing ermöglichten es KI-Systemen, immense Rechenleistungen zu erbringen und komplexeste Aufgaben in Sekunden zu lösen.

2100-2150: Die Ära der Superintelligenz

Im 22. Jahrhundert begann die Ära der „Superintelligenz“. Diese KI-Systeme übertrafen menschliche Fähigkeiten in den Bereichen Kreativität, Logik und Empathie. Doch die Menschheit stand nun vor der Frage, wie diese Technologien kontrolliert und gelenkt werden können.

Wichtige Meilensteine:

  • 2115: Eine globale KI-Plattform wurde zur Vermittlerin internationaler Konflikte und verhinderte zahlreiche Krisen.
  • 2130: KI-basierte Gesellschaftsmodelle reduzierten soziale Ungleichheiten erheblich.
  • 2150: Fortschrittliche Systeme zur Entschlüsselung fremder Sprachen ermöglichten erste Kontaktversuche mit außerirdischen Intelligenzen.

2150-2190: Die kosmische Ära der KI

In der zweiten Hälfte des 22. Jahrhunderts wurde KI zum entscheidenden Partner bei der Erforschung des Universums. Raumfahrtmissionen und Terraforming-Projekte nutzten KI-basierte Systeme, um unbewohnbare Welten bewohnbar zu machen.

Visionäre Entwicklungen:

  • 2160: Der erste interstellare Kontakt mit einer fremden KI wurde hergestellt.
  • 2175: Menschliche Bewusstseine konnten temporär über KI-Netzwerke synchronisiert werden.
  • 2190: Erste dauerhaft bemannte Außenstationen in anderen Sonnensystemen wurden mithilfe autonomer KI-Terraforming-Systeme errichtet.

so sieht es aus…

Von den symbolischen Anfängen über den Deep-Learning-Boom bis hin zur Superintelligenz und der interstellaren Expansion – die Reise der KI ist eine der bedeutendsten Entwicklungen der Menschheit. Doch mit großen technologischen Sprüngen gehen auch immense Verantwortungen einher. Nur durch ethische Grundsätze, internationale Zusammenarbeit und verantwortungsvolle Entscheidungen kann diese Evolution weiterhin im Sinne des menschlichen Fortschritts gestaltet werden.

Es liegt an den zukünftigen Generationen, den Weg der KI zu sichern und neue Grenzen zu überschreiten – für eine Welt, in der Mensch und Maschine gemeinsam das Unbekannte ergründen.

Zwischen Bäumen & Bytes – Immanuel Janssen | DTS

Bei Immanuel Janssen trifft Natur auf Digitalisierung. Seit über 15 Jahren ist er ehrenamtlich als Leiter in der Jugendarbeit der Royal Rangers tätig. Die Royal Rangers sind ein internationaler Jugendverband und Teil des Bundesjugendwerkes des BFP. Allein in Deutschland zählen sie 26.266 Mitglieder in über 440 aktiven Stämmen. Im Gegensatz dazu steht sein „digitaler“ Job als Deputy Manager DC (Datacenter) IT Solutions – Team Operations bei DTS, wo es hauptsächlich um die sichere Verarbeitung von Daten geht.

 

Im Interview erzählt er mehr über die Pfadfinderarbeit und die Gemeinsamkeiten zu seinem Job in der IT.

Du bist schon lange Pfadfinder. Was macht dir daran am meisten Spaß?

Draußen Abenteuer zu erleben, ist das Beste. Ich liebe Wandern und Feuer machen. Das Ganze in einem Haik oder Camp mehrere Tage am Stück kombiniert, ist einfach der perfekte Ausgleich zum Büroalltag.

Welche Aufgaben hat man denn als Pfadfinder?

Die Tätigkeiten sind sehr vielfältig, wie z. B. Feuer machen, Bauten aus Holz fertigen und viel über die Natur lernen. Aktionen wie Müllsammeln, Spendenläufe etc. gehören selbstverständlich auch dazu.

Für Pfadfinder hat Verantwortungsbewusstsein einen großen Stellenwert. Gibt es weitere Aspekte, die sich auf deinen Beruf übertragen lassen?

Vor allem Teamwork. Ein Camp funktioniert z. B. nur, wenn jeder seine Aufgabe gewissenhaft erfüllt. Einer muss Feuer machen, der andere kocht, der andere hackt Holz und wieder zwei andere machen den Abwasch. Und das ist nur das Frühstück! Jeder trägt seinen Teil zu der Gesamtleistung bei und sorgt dafür, dass alle gemeinsam eine gute Zeit und ein erfolgreiches Camp haben. Wichtig ist, dass jeder Freude dabei hat und die Aufgaben übernimmt, die ihm/ihr liegen.

Bei DTS hast du ebenfalls eine Führungsposition inne. Hast du eine bestimmte Strategie, wie du deine beruflichen und ehrenamtlichen Kolleg*innen motivierst?

Indem ich vorangehe. Im Idealfall befähigt man die Kolleg*innen bzw. Kinder, ihr Potential voll auszuschöpfen. Dafür muss man den Weg und/oder das Ziel vorgeben, aber auch mitlaufen, sprich die Entwicklung von Stärken gezielt fördern. Man muss sich auch gezielt mit der Aufgabe der Person beschäftigen und am besten aus eigener Hand verstehen, wo individuelle Herausforderungen liegen.

Was macht ein Deputy Manager DC IT Solutions denn genau?

Die Kernaufgaben umfassen den Betrieb unseres Rechenzentrums sowie der operative Betrieb unserer Managed Services. Außerdem bin ich mit meinem Team dafür zuständig, dass 2nd- und 3rd-Level-Probleme der Kunden schnell und gut gelöst werden. Die Planung von neuen Services, der Bau neuer Serverräume, Personalplanung sowie Gespräche mit Kunden und noch vieles mehr gehören natürlich auch dazu. Die Liste ist schon sehr lang. (lacht)

Sowohl in der IT als auch in der Pfadfinderarbeit können unvorhergesehene Herausforderungen auftreten. Wie gehst du mit diesen um, beruflich wie ehrenamtlich?

In beiden Bereichen gilt für mich, schnell eine Entscheidung zu treffen. Selbst wenn man zwischen zwei Übeln wählen muss, ist es immer noch sehr viel besser, ein überlegtes Übel zu wählen, als Entscheidungen auf die lange Bank zu schieben. In der IT hat man faktisch nicht viel Zeit, um neue Technologien an den Markt zu bringen und muss bei Rückschlägen neuer Services schnell reagieren. Bei den Pfadfindern ist diese Fähigkeit zum Teil noch wichtiger, denn wenn ein Kind bei einer Segeltour ins Wasser fällt und Probleme hat, denkt man auch nicht lange nach wie man am besten helfen kann. Wenn der Rettungsring nicht zur Hand ist, wird improvisiert oder man springt abgesichert hinterher.

Zuletzt nochmal eine etwas spezifischere IT-Frage: Welche Trends siehst du für 2025 im Bereich Datacenter-Lösungen?

DTS geht dieses Jahr erste Schritte in Richtung eigener KI und AI im Unternehmen. Dies könnte sich definitiv zu zukunftsweisenden Projekten entwickeln.