Lesedauer ‚Der stille IT-Kontrollverlust im Mittelstand – warum IT zur tickenden Zeitbombe wird‘: 7 Minuten | Sven Wulf, KI-gestützt

 

IT ist eine geschäftskritische Komponente – und dennoch in vielen mittelständischen Unternehmen nur eingeschränkt steuerbar. Zwischen wachsender Komplexität, begrenzten Ressourcen und steigenden regulatorischen Anforderungen entsteht ein schleichender Kontrollverlust. Dieser Artikel zeigt, warum genau dieser IT-Kontrollverlust im Mittelstand zur ernsthaften Gefahr wird – und wie Sie mit Ihrem Unternehmen gegensteuern können.

Die Diagnose: Das lähmende Spannungsdreieck im Mittelstand

Viele mittelständische Unternehmen stecken heute in einem strukturellen Spannungsfeld zwischen Geschäftsführung, interner IT und externen Dienstleistern. Jede Seite handelt für sich nachvollziehbar – doch in Kombination entsteht ein gefährlicher Kontrollverlust.

Geschäftsführung ohne IT-Steuerungsfähigkeit

Für viele Entscheider ist IT nicht Kernkompetenz. Trotzdem ist sie heute Geschäftsgrundlage. Fehlt ein ‚IT-Kompass‘, übernehmen Buzzwords die Steuerung: KI, Cloud, NIS2, Zero Trust – viel Gerede, wenig echte Bewertung. So entstehen Fehlentscheidungen, Fehlinvestitionen und falsche Prioritäten.

Interne IT am Limit

Kleine IT-Teams kämpfen im Tagesgeschäft gegen wachsende technische Komplexität. Das führt dazu, dass wichtige Basics oft nicht zuverlässig funktionieren: Patch-Disziplin, Backup-Tests, Berechtigungskonzepte, Notfallpläne, Monitoring. Dazu kommt: Die IT hat kaum Zeit für Weiterbildung. Fachkräfte können sich nicht regelmäßig auf den neuesten Stand bringen, neue Technologien testen oder moderne Sicherheitspraktiken lernen.

Die Folge: Die IT driftet schrittweise hinter den aktuellen Anforderungen hinterher, Innovationen werden blockiert, Risiken steigen still und unsichtbar.

Dienstleister als trügerische Sicherheitsleine

Systemhäuser oder MSPs sollen Stabilität bringen – tun es aber oft nicht. Veraltete Modelle, unklare Leistungen, oberflächliche SLAs und Projekte ‚am Bedarf vorbei‘ sind häufige Realitäten. Jeder verlässt sich auf den anderen, niemand überprüft die Annahmen.

Die Folge: Verantwortung ist diffus – bis der erste Vorfall das ganze System erschüttert. Ein kurzes Video zum Thema ‚Spannungsdreieck‘ finden Sie hier auf unserem YouTube-Kanal.

Warum dieses Problem jetzt brandgefährlich wird

Dieses Spannungsdreieck gab es immer. Neu ist: Die äußeren Risiken wachsen explosiv.

Cyberangriffe treffen jetzt den Mittelstand

Angriffe sind nicht mehr Ausnahme, sondern Normalfall. Dazu kommt: Die Professionalität der Angreifer steigt – die Abwehr vieler Firmen bleibt strukturell zu schwach.

NIS2 macht IT-Sicherheit zur Management-Pflicht

Geschäftsführungen müssen steuern, kontrollieren und Verantwortung übernehmen – auch ohne technisches Detailwissen. Fehlt diese Steuerung, drohen Haftung, Sanktionen und reale Betriebsrisiken.

Digitale Erwartungen überholen die IT-Basis

KI, Automatisierung, Cloud, Remote Work – alles sinnvoll. Doch Innovation kollidiert vielerorts mit einer Infrastruktur, die dafür nicht stabil genug ist. Wenn das Fundament wackelt, wird jedes neue digitale Projekt teuer oder unsicher.

Zusammenfassend kann man sagen: Die Anforderungen steigen schneller, als typische IT-Strukturen mithalten können.

Der Ausweg: Verantwortung klären, Grundlagen stärken, Steuerung ermöglichen

Die Lösung ist klar – und sie beginnt nicht bei Werkzeugen, sondern bei Governance und Betriebsreife.

IT Governance auf Vorstandsebene

Führung muss IT nicht selbst verstehen – aber steuern können. Dafür braucht es:

  • Transparenz über Risiken, Reifegrad und Kosten
  • Klare Entscheidungsgrundlagen ohne Buzzwords
  • Regelmäßige IT-Reviews
  • Ein verständliches, objektives IT-Cockpit

Genau dafür entwickeln wir aktuell eine Lösung: Alle Tickets, Änderungen und Projekte laufen bei uns als eigener Mandant in ServiceNow. Damit entsteht eine durchgängige Sicht auf:

  • Bearbeitungszeiten
  • Prioritäten und Abhängigkeiten
  • Risiken und Eskalationen
  • Ressourcen- und Projektstatus
  • Sicherheits- und Compliance-relevante Vorgänge

Durch ein quartalsweises Steering Meeting (Jour fixe) mit Geschäftsführung und interner IT erhalten Entscheider einen klaren Blick auf den Zustand des IT-Betriebs – faktenbasiert, strukturiert, risikoorientiert. Das schafft genau das, was im Mittelstand oft fehlt: Transparenz, Vergleichbarkeit und Steuerbarkeit.

Warum ServiceNow hier besonders geeignet ist

Die Lösung erzwingt saubere Prozesse statt Bauchgefühl.

Sie verbindet operative Tickets und strategische Projekte in einem System.

Engpässe, Reifegradlücken und Risiken werden sichtbar gemacht – bevor sie zum Problem werden.

Ohne Führung funktioniert nichts – selbst mit guter IT

Dieses Modell schafft die Grundlage dafür, dass Führung tatsächlich führen kann.

Interne IT entlasten statt überfordern

Interne IT kennt Prozesse und Menschen – das ist wertvoll. Allerdings benötigt sie:

  • Luft für Modernisierung statt Dauerstress
  • Zugriff auf Spezialwissen (Security, Cloud, Notfallmanagement)
  • Robuste Standards und Prozesse
  • Zeit für Weiterbildung, um mit Technologien, Security-Standards und Best Practices Schritt zu halten

Co-Managed-Modelle funktionieren hier oft am besten: intern bleibt die Hoheit, extern kommt Tiefe und Breite.

Dienstleister messbar machen

Ein Dienstleister ist kein Sicherheitsgefühl – er ist Teil der Wertschöpfungskette. Deshalb braucht es:

  • Klare Leistungsbeschreibungen
  • SLAs mit Substanz
  • Regelmäßige Reifegrad-Checks und Notfalltests
  • Saubere Verantwortlichkeiten (RACI)

Ziel ist nicht Kontrolle, sondern Belastbarkeit, wenn es drauf ankommt.

Fazit: Ein Schlussgedanke

Der Druck auf die IT im Mittelstand wächst schneller als klassische Strukturen sich anpassen können. Das bedeutet jedoch nicht, dass Unternehmen ’schlecht aufgestellt‘ sind – sondern, dass sich die Spielregeln verändert haben. Wer jetzt handelt, gewinnt:

  1. Stabile Grundlagen
  2. Echte Entscheidungsfähigkeit
  3. Weniger Risiko
  4. Eine IT, die Wachstum ermöglicht statt bremst

Der stille Kontrollverlust muss nicht zur Zeitbombe werden – wenn man ihn jetzt aktiv entschärft.

Sie haben Fragen zum Thema oder ein anderes Anliegen? Sprechen Sie mit uns, wir beraten Sie gerne!

 

Weiterführende Informationen: Unsere Infrastruktur-Managed Services | NIS2 jetzt umsetzen! | Digitalisierung ganz easy mit ezSolutions

Lesedauer ‚Warum Hardware plötzlich deutlich teurer wird (und was das für unsere Kund:innen bedeutet)‘: 5 Minuten | Sven Wulf, KI-gestützt

 

In den letzten Monaten haben wir deutlich steigende Preise für Server-Systeme beobachtet: Bei einer, in der Jahresmitte gestellten, Anfrage sind die Kosten inzwischen um ca. 40% gestiegen. Diese Verteuerung ist keine saisonale Jahresend-Preiserhöhung, sondern das Ergebnis mehrerer struktureller Faktoren: Der massiven Nachfrage nach KI-optimierter Rechenleistung, Engpässen bei der Verfügbarkeit von Speicherchips, geopolitischen Risiken in der Halbleiter-Kette sowie höheren Energie- und Logistikkosten.

Im Folgenden gehen wir genauer auf die Gründe der Preissteigerungen ein, erörtern, welche Faktoren aktuell den größten Einfluss haben und wie wir unsere Kund:innen jetzt bestmöglich unterstützen.

Woher kommen die Preissteigerungen? Die fünf Hauptgründe

Massiver KI-Boom – Nachfrage nach GPUs, HBM und Servern explodiert

Große KI-Projekte und Hyperscaler investieren massiv in spezialisierte Server Hardware (GPUs, HBM, KI-optimierte Server). Analysten sehen 2025 ein starkes Wachstum bei Investitionen in KI-optimierte Server – das treibt Nachfrage und Preise.1

Speicher(DRAM/HBM)-Knappheit und Preisdruck

Hersteller verlagern Kapazitäten in hochpreisige KI-Spezialprodukte (z.B. HBM), wodurch ’normaler‘ Server-Speicher knapp und teurer wird. Beobachter berichten, dass sich Preise für bestimmte Server Memory-Bausteine stark verteuern und bis 2026 weiter anziehen könnten.2

Hyperscaler + KI-Unternehmen kaufen große Mengen vor (Stockpiling)

Cloud- und KI-Firmen priorisieren Lieferketten und kaufen große Volumina vor – das reduziert die Verfügbarkeit für andere Käufer und erlaubt Herstellern, Preise anzuheben. Firmen wie Dell berichten von sehr starker Nachfrage nach KI-Servern, was die Marktmacht der Anbieter erhöht.2

Geopolitische Risiken (China – Taiwan) und Lieferketten-Unsicherheit

Taiwan ist zentral für die weltweite Chipfertigung; politische Spannungen und Export- / Sanktionsthemen erhöhen das Risiko für Produktionsunterbrechungen. Hersteller und Händler bauen Risikozuschläge in Preise ein oder verlegen Beschaffungen – das treibt Kosten.3

Weitere Kostenfaktoren: Energie, Logistik, Inflation und längere Vorlaufzeiten

Der Ausbau von Rechenzentren erhöht die Nachfrage nach Strom und Gebäudetechnik. Die Folge: Logistikkosten und allgemeine Input-Preise steigen – das schlägt sich in den Gesamtkosten für Systeme nieder.4

Ist doch nur eine ‚Jahresend-Blase‘!? Nein!

Wichtig zu betonen: Die aktuellen Preissteigerungen erklären sich nicht damit, dass jetzt Weihnachtsgeschäft ist. Es handelt sich um längerfristige, nachfrage- und angebotsgetriebene Veränderungen (KI-Buildout, Speicher-Supercycle, geopolitische Risiken usw.), die strukturell die Preise heben. Deshalb können wir nicht davon ausgehen, dass die Preise zum Jahresanfang wieder sinken.5

Wie entsteht der Mehrpreis von 40%?

Konkret können mehrere parallele Effekte zusammenkommen:

  • Erhöhte Komponentenpreise (Speicher, GPUs),
  • Lieferanten, die Premium-Zuschläge für kurzfristige Lieferung verlangen,
  • Hersteller, die Volumenbestellungen an Hyperscaler priorisieren, wodurch Restkontingente teurer werden.

Kombiniert erklären diese Faktoren eine rasch spürbare Preiserhöhung wie die beschriebenen 40% (Beispiele und Marktbeobachtungen zu Speicher- und Server-Preisentwicklungen sowie zu Hersteller-Lieferpriorisierungen wurden in Fachartikeln und Analystenberichten dokumentiert).2 (Reuters)

Was wir für Sie tun – konkrete Handlungsempfehlungen

Kurzfristig: Angebot sichern + Lieferfenster verhandeln

Wo möglich: Frühere Bestellfreigabe, Teilzahlungen oder Rahmenverträge nutzen, um aktuelle Konditionen zu sichern.

Wir prüfen, ob Hersteller Optionen für ‚priority allocation‘ anbieten (gegen Aufpreis) – das erhöht die Lieferwahrscheinlichkeit.

Alternativen prüfen: Hybride Modelle + Cloud Bursting

Wenn physische Server zu teuer oder die Lieferverzüge zu groß sind: Kombination aus On-Premise und Cloud Bursting für Spitzenlasten prüfen – oft ist dieses Vorgehen wirtschaftlicher.

Komponenten-Flexibilität erhöhen

Bei nicht-kritischen Workloads alternative CPU/GPU-Modelle oder unterschiedliches Speicher-Sizing evaluieren – häufig gibt es kostengünstigere Konfigurationen mit ähnlicher Leistung.

Lifecycle verlängern + Support erweitern

Verlängerte Wartungs- oder Refurbished-Optionen können kurzfristig Kosten senken und Zeit überbrücken.

Langfristig: Capacity-Plan mit Puffer + Alternativ-Sourcing

Strategische Lagerhaltung kleinerer Pufferbestände, Diversifikation der Lieferanten (z. B. alternative Lieferländer) und vertragliche Absicherungen gegen Preissprünge.

Wie wir konkret vorgehen: Unser Angebot an Sie

  • Wir analysieren Ihre Performance-Anforderungen und schlagen 2-3 kosteneffiziente Konfigurationen vor (mit Full Cost Breakdown).
  • Wir prüfen aktuelle Hersteller-Kontingente und Lieferzeiten und verhandeln, wo möglich, Fixpreise oder kürzere Lieferfenster.
  • Falls gewünscht setzen wir kurzfristige Cloud Fallback-Pläne auf, bis On-Premise-Lösungen wirtschaftlich sind.

Fazit: Offene, transparente Kommunikation bleibt jetzt entscheidend

Die aktuelle Preisdynamik ist real und wird von strukturellen Marktveränderungen getragen – vor allem durch den KI-getriebenen Nachfrageschub und Engpässe bei Speicher und Chips sowie geopolitische Risiken.

Wir verstehen, dass dies Verunsicherung bei Ihren Projekten schafft. Unser erklärtes Ziel ist es, Sie kompetent zu beraten, Kosten transparent aufzuschlüsseln und praktikable Alternativen zu zeigendamit Ihre IT-Projekte planbar und wirtschaftlich bleiben.

Deshalb: Sprechen Sie mit uns, wir beraten Sie gerne!

Quellenangaben: 1 Gartner | 2 Reuters | 3 roc-taiwan.org | 4 Bloomberg | 5 Deloitte

 

 

Weiterführende Informationen: Unsere Cloud- und Infrastrukturlösungen | Cloud und Datacenter | Infrastruktur-Hardware

Lesedauer ‚Zero-Touch Deployment – Ein Leitfaden für den Mittelstand‘: 9 Minuten

 

Mit Zero-Touch Deployment richten Sie neue Endgeräte in Ihrem Unternehmen automatisch ein – Arbeiten durch IT-Mitarbeiter entfallen. Durch den Gebrauch cloud-basierter Werkzeuge und Automatisierung spart eine IT-Abteilung also nicht nur wertvolle Zeit, sondern sorgt gleichzeitig für eine störungsfreie, standardisierte Bereitstellung. In diesem Artikel erfahren Sie, wie das Konzept funktioniert und wie es auch Ihre Abläufe optimieren kann. Dabei gehen wir explizit auf Betriebe ein, die in der Microsoft-Welt zu Hause sind.

Warum Zero-Touch Deployment?

Die Anforderungen an KMU, IT-Ressourcen effizient, zuverlässig und wirtschaftlich bereitzustellen, wachsen kontinuierlich. Laut einer Studie des Capgemini Research Institute aus dem Jahr 2024 wird bis 2026 ein Großteil der Software-Entwickler auf künstliche Intelligenz setzen, um wiederkehrende Aufgaben zu automatisieren und die Produktivität zu steigern (Quelle).

Gerade für den Mittelstand, der oft mit knappen Ressourcen auskommen muss, birgt diese Entwicklung großes Potenzial. Zero-Touch Deployment ist dabei nicht nur ein Modebegriff, sondern ein Ansatz, der IT-Prozesse grundlegend verändert. Mit diesem Konzept lassen sich IT-Abläufe gezielt optimieren, was Unternehmen nicht nur leistungsfähiger macht, sondern ihnen auch einen klaren Marktvorsprung verschafft.

Kurz gesagt: Die prozessgesteuerte Auslieferung von IT-Komponenten minimiert Fehlerquellen und steigert die Produktivität.

Zero-Touch Deployment: Ein Überblick

Das Konzept beschreibt die vollautomatische Auslieferung von IT-Ressourcen, ohne dass manuelle Intervention erforderlich ist. Dies kann sowohl Gerätekomponenten und Software als auch Netzwerkkonfigurationen beinhalten, die durch vorab definierte Richtlinien und Automatisierungsskripte automatisiert bereitgestellt werden. Ziel ist, Bedienfehler zu eliminieren und Abläufe signifikant zu beschleunigen.

Ein führendes Beispiel bietet der Anbieter Microsoft mit seiner Endpoint Manager-Lösung, die Werkzeuge wie Windows Autopilot umfasst. Damit können Unternehmen neue Geräte direkt ab Werk für ihre Bedürfnisse voreinstellen lassen, sodass sie bei der ersten Nutzung bereits komplett betriebsfähig sind. Besonders wichtig ist dieser Ansatz in Umgebungen, in denen Skalierbarkeit und schnelle Implementierung ausschlaggebend sind.

Vorteile von Zero-Touch Deployment im Mittelstand

Mittelständische Unternehmen stehen vor besonderen Anforderungen: Die IT muss effizient und anpassungsfähig sein, ohne dass sie dabei die ohnehin begrenzten Mitarbeiterkapazitäten überlastet. Zero-Touch Deployment bietet hier gleich mehrere Vorteile:

  • Zeitersparnis: Prozesse, die bisher lange Zeiträume beansprucht haben, lassen sich innerhalb von Minuten durchführen.
  • Kosteneffizienz: Automatisierung reduziert den Bedarf an händischer Steuerung und minimiert das Risiko kostspieliger Fehler.
  • Erweiterbarkeit: Neue Niederlassungen oder Endsysteme können reibungslos und ohne zusätzlichen Aufwand integriert werden.

Insbesondere im Mittelstand trägt Zero-Touch Deployment zur Unterstützung des Technikpersonals und damit zur Steigerung der Marktposition bei – Prozesse werden standardisiert und weniger manuelle Tasks sind erforderlich. Das Technik-Team kann sich so auf wichtigere Aufgaben fokussieren, während gleichzeitig die Effizienz und Flexibilität des Unternehmens zunimmt.

In drei Schritten zum Erfolg

Positive Neuigkeiten für alle Microsoft-Nutzer: Zero-Touch Deployment ist besonders wirksam und einfach integrierbar in Organisationen, die Microsoft-Lösungen nutzen, da der Konzern eine Vielzahl an cloud-basierten Management-Lösungen und Prozessautomatisierungen im Angebot hat, die diesen Prozess begünstigen.

Im Grundsatz basiert das Konzept auf einer Kombination aus cloud-basierten Management Tools, Policies und Skripten zur Prozesssteuerung::

  1. Initialisierung: Im ersten Schritt wird neue Hardware erfasst und mit vordefinierten Richtlinien versehen. Dies geschieht oft über eine zentrale Management-Plattform. Bei Microsoft selbst läuft die Aaufnahme neuer Geräte in Microsoft Entra, wo die Endpunkte mit vordefinierten Richtlinien versehen werden. Diese Richtlinien können durch Autopilot gesteuert werden, ein Dienst, der das Einrichten von Windows 10- und Windows 11-Geräten vereinfacht, ohne dass physische Eingriffe erforderlich sind. Neue Geräte lassen sich so automatisch in die Unternehmensumgebung integrieren.
  2. Konfiguration: Im zweiten Schritt werden Programme, Verbindungsparameter und Schutzmechanismen automatisch implementiert. Im Microsoft-Universum übernimmt der Microsoft Endpoint Manager die Verwaltung der Software und Sicherheitsrichtlinien. Systemverantwortliche können darüber sicherstellen, dass Geräte sofort mit den neuesten Anwendungen, Updates und Sicherheitsrichtlinien ausgestattet sind, sobald sie mit dem Netzwerk verbunden sind. Auch die Netzwerkeinstellungen können über den Microsoft Endpoint Manager zentral verwaltet werden.
  3. Einsatzfreigabe: Schritt 3, Click-and-go – Endgeräte sind sofort einsatzbereit, ohne dass IT-Mitarbeiter irgendwelche händischen Konfigurationen vornehmen müssen.

Durch diese Gliederung wird sichergestellt, dass der gesamte Deployment-Prozess standardisiert und fehlerfrei abläuft. Insbesondere durch den Gebrauch von Microsofts Automatisierungs-Tools und Cloud-Verwaltungsplattformen wird das Konzept so zu einer leistungsstarken und erweiterbaren Methode für die Administration von Endpunkten und Anwendungen. Aber selbstverständlich profitieren auch Nicht-Microsoft-Nutzer von diesem Konzept. Wie, das zeigen wir im nächsten Abschnitt.

Game Changer für KMU

Zero-Touch Deployment bietet eine Vielzahl von Vorteilen, die gerade für KMU von entscheidender Relevanz sind:

  • Konsistenz: Einheitliche Abläufe sorgen dafür, dass alle Geräte gleich eingerichtet werden.
  • Anpassungsfähigkeit: Änderungen können zentral vorgenommen und unverzüglich auf alle Endpunkte ausgerollt werden.
  • Schutz: Selbstständig durchgeführte Aktualisierungen reduzieren das Risiko von Sicherheitslücken.
  • Zufriedenheit der Mitarbeiter: Technikabteilungen werden von wiederkehrenden Tätigkeiten befreit und können sich auf übergeordnete Tätigkeiten fokussieren.

Unternehmen aus dem Mittelstand, die auf Zero-Touch Deployment setzen, profitieren nicht nur von einer effizienteren IT-Infrastruktur, sondern auch von einer gesteigerten Gesamtleistung des Betriebs.

Erfolgsbeispiele aus der Praxis

Zwei Praxisbeispiele zu Zero-Touch Deployment: Ein mittelständisches Unternehmen mit 250 Beschäftigten stand vor der Herausforderung, 150 neue Arbeitsplatzsysteme bereitzustellen, ohne den laufenden Betrieb zu stören. Durch die Implementierung eines Zero-Touch-Deployment-Ansatzes konnten die Systeme innerhalb eines Wochenendes ausgeliefert werden. Die IT-Abteilung berichtete von einer Zeiteinsparung von 80% im Unterschied zu klassischen Verfahren.

Ein weiteres Szenario ist ein Schweizer KMU aus der Finanzindustrie, das dank Zero-Touch Deployment die Schutzniveaus seiner mobilen Geräte erhöhen konnte. Durch die automatisierte Implementierung von Sicherheitsrichtlinien wurden die Compliance-Anforderungen nicht nur eingehalten, sondern sogar überboten.

Zero-Touch Deployment – so gelingt der Einstieg

Die Einführung von Zero-Touch Deployment erfordert strukturierte Vorbereitung und gezielte Vorgehensweise. Mittelständische Unternehmen sollten dabei grob folgende Etappen beachten:

  1. Bedarfsanalyse: Identifizieren Sie Prozesse, die von automatisierten Verfahren begünstigt werden.
  2. Auswahl der Werkzeuge: Investieren Sie in eine geeignete Lösung, die Ihre Anforderungen erfüllt.
  3. Schulung: Stellen Sie sicher, dass Ihr IT-Team die neuen Technologien effizient anwenden kann.
  4. Testphase: Erproben Sie den Ansatz in einem kleinen Rahmen, bevor Sie ihn breit einsetzen.
  5. Skalierung: Implementieren Sie Zero-Touch Deployment unternehmensweit ein und optimieren Sie laufend.

Mit einem strukturierten Plan und der passenden Begleitung kann der Einstieg in diese automatisierte Bereitstellung problemlos verlaufen und langfristige Vorteile sichern.

Fragen zum Thema?

Für weitere Informationen oder eine persönliche Betreuung zum Thema Zero-Touch Deployment stehen wir Ihnen gerne zur Seite. Kontaktieren Sie uns, wir beraten Sie gerne!

 

 

Weiterführende Informationen: IT-Infrastruktur und Hardware | KI bei Schneider + Wulf

Lesedauer ‚NIS2 in Deutschland: Cybersecurity wird jetzt Chefsache‘: 5 Minuten | Julia Joist

 

Deutschland hat am 30. Juli 2025 einen wichtigen Schritt in Richtung digitale Sicherheit gemacht: Das Bundeskabinett hat den nationalen Gesetzentwurf zur Umsetzung der europäischen NIS-2-Richtlinie beschlossen. Für Unternehmen und öffentliche Einrichtungen bedeutet das: Mehr Verantwortung, mehr Pflichten – aber auch mehr Chancen auf echte digitale Resilienz.

Was steckt hinter NIS2?

Die NIS2-Richtlinie (Network and Information Security) der EU soll das Sicherheitsniveau von Netzwerk- und Informationssystemen in ganz Europa deutlich anheben. Unternehmen müssen künftig nachweisen, dass sie ihre digitalen Infrastrukturen nicht nur betreiben, sondern auch wirksam schützen.

In Deutschland sind davon rund 29.000 Einrichtungen betroffen – und diesmal geht es nicht nur um die großen Player der kritischen Infrastrukturen. Auch mittelständische Unternehmen, kommunale Betriebe, Zulieferer, Dienstleister, das Gesundheitswesen, die Abfallwirtschaft und Teile der Verwaltung kommen neu in den Fokus.

Mehr Verantwortung, mehr Konsequenzen

Mit NIS2 geht es nicht mehr um freiwillige Empfehlungen. Die Anforderungen sind klar – und Verstöße können teuer werden. Unternehmen müssen künftig unter anderem:

  • Risikomanagement und Incident Response aufbauen
  • Meldeprozesse und Notfallpläne etablieren
  • Backups und Wiederherstellungsstrategien prüfen
  • Mitarbeiter sensibilisieren und schulen
  • Lieferketten auf Sicherheitslücken überprüfen

Kurz gesagt: Cybersecurity wird zur Chefsache. Geschäftsführungen und Vorstände können sich nicht mehr hinter der IT-Abteilung verstecken.

Herausforderungen für den Mittelstand

Für viele kleine und mittlere Unternehmen (KMU) ist das ein echter Kraftakt. Fachpersonal, Know-how und Budgets sind oft knapp. Gleichzeitig muss auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) seine Aufsicht massiv ausbauen, um die neuen Pflichten überhaupt kontrollieren zu können.

Die Balance zwischen regulatorischer Schärfe und wirtschaftlicher Realität wird entscheidend sein.

Warum sich Handeln jetzt lohnt

Wer jetzt aktiv wird, gewinnt:

  • Mehr Sicherheit für die eigenen Systeme
  • Mehr Vertrauen bei Kund:innen und Partnern
  • Wettbewerbsvorteile gegenüber zögerlichen Mitbewerbern

Die Devise lautet deshalb ‚Nicht warten, sondern handeln‚:

  • Governance und Notfallmanagement auf C-Level verankern
  • Prozesse und Strukturen prüfen
  • Lieferketten absichern
  • Schlüsselpersonal schulen

Betrachtet man NIS2 nur als Bürokratiemonster, verpasst man diese Chancen.

Fazit: NIS2 ist mehr als ein Gesetz, es ist ein Signal

NIS2 ist kein weiteres IT-Gesetz, das man irgendwie abhakt. Es ist ein Signal an die gesamte Wirtschaft, dass Cyber-Resilienz zur Grundvoraussetzung unternehmerischer Verantwortung wird. Wer sich frühzeitig vorbereitet, startet nicht nur sicherer in die digitale Zukunft – sondern auch mit einem echten Vertrauensvorsprung.

Sie haben Interesse am Thema oder möchten sich anderweitig informieren? Kontaktieren Sie uns, wir beraten Sie gerne!

 

 

Weiterführende Informationen: Managed Service NIS2 | Direkt zum Thema auf der Website des BSI | Managed Services für Ihre IT-Infrastruktur

Künstliche Intelligenz (KI) hat die letzten Jahre verschiedene Branchen, einschließlich der Bereiche IT-Operations und -Management, stark beeinflusst. Von der Automatisierung von Routineaufgaben bis hin zur Verbesserung von Antwortzeiten im Ernstfall (Incidence-Response) revolutionieren KI-gestützte Tools die Art und Weise, wie IT-Profis ihre Systeme, Netzwerke und Dienste managen.

1. Vorhersagende Wartung mit KI-gestützten Tools

Vorhersagende Wartung ist ein wichtiger Aspekt der IT-Operativen, die es Unternehmen ermöglicht, Downtimes sowie das Risiko von Geräteschäden zu reduzieren. Mit KI-gestützten Vorhersage-Wartungstools können IT-Profis große Mengen an Daten aus Sensoren, Maschinen und anderen Quellen analysieren, um mögliche Ausfälle vorherzusehen und Wartungen vorausschauend zu planen.

So könnte Ihr Unternehmen ein KI-gestütztes Tool nutzen, um die Temperatur, Vibration und Druck Ihrer Geräte und Maschinen zu überwachen. Durch die Analyse dieser Daten kann das Tool Muster und Anomalien erkennen, die einen möglichen Ausfall andeuten. Das ermöglicht Ihrem Team, Wartungen vorzunehmen, bevor ein Ausfall eintritt. Dieser Ansatz hat gezeigt, dass Ausfälle dadurch bis zu 90% und der Produktivitätsverlust um bis zu 50% gesenkt werden kann.

2. Automatisierte Incidentantwort mit KI-gestützten Threat-Detection-Tools

KI-gestützte Threat-Detection-Tools sind für die Cyber-Security von entscheidender Bedeutung, da sie potenzielle Bedrohungen vorher erkennen können. Mit Machine-Learning-Algorithmen analysieren auch diese Systeme große Mengen an Daten aus verschiedenen Quellen, einschließlich Sicherheitslogs, Netzwerkverkehr und Ihren Geräten.

Wenn Ihr Unternehmen ein KI-gestütztes Tool nutzt, um Sicherheitslogs zu analysieren, kann ein verdächtige Login-Versuch von einem neuen IP-Adresse direkt erkannt werden. Das Tool könnte dann eine Benachrichtigung auslösen, die Ihre IT über den Vorfall informiert sowie weitere Ermittlungen durchführt, um den Ursprung der Bedrohung zu bestimmen und Ihr Unternehmen erfolgreich zu schützen.

3. Verbesserte Netzwerkoptimierung mit KI-gestützten Tools

Auch bei der Netzwerkoptimierung können Ihnen KI-gestützte Tools helfen. Zum Beispiel, indem sie Potenzial zur Reduzierung der Latenz aufdecken oder die allgemeine Benutzererfahrung verbessern. Diese Tools verwenden Machine-Learning-Algorithmen, um Network-Verkehrsmuster zu analysieren, Schwachstellen zu identifizieren und Optimierungsempfehlungen abzugeben.

In Ihrem Unternehmen könnte so ein KI-gestütztes Tool die Netzwerk-Verkehrsmuster zu Hauptarbeitsstunden analysieren und darauf basierend Empfehlungen vorschlage: Zum Beispiel, indem in mehr Bandbreite oder ein anderes spezifisches Netzwerk-Upgrade investiert wird.

Fazit

Künstliche Intelligenz revolutioniert gerade die Bereiche IT-Operations und -Management auf verschiedene Weise: Von der Automatisierung von Routineaufgaben bis hin zur Verbesserung von Antwortzeiten bei tatsächlichen Vorfällen (Incident-Management). Durch die Einführung von KI-gestützten Programmen kann Ihr Unternehmen seine allgemeine Effizienz verbessern, Downtime reduzieren und das Risiko von Cyber-Angriffen minimieren.

Als IT-Beratungsunternehmen sind wir bestrebt, unseren Kunden dabei zu helfen, diese neuen Trends und Technologien erfolgreich einzusetzen. Ob Sie diese KI-gestützten Tools für die vorhersagende Wartung oder verbesserte Cyber-Security implementieren möchten, steht Ihnen unser Team gerne zur Verfügung.


Ihr Ansprechpartner

Sebastian Gottschalk


Lesedauer ‚Welche Folgen ein IT-Ausfall in Ihrem Unternehmen hat‘ 7 MinutenAutor: David Roland Korb

Im Zuge der Implementierung neuer Software spüren Unternehmen – sofern das Projekt erfolgreich durchgeführt wurde – zumeist direkt einen sog. ‚Return On Investment‘. Steigt beispielweise die Produktivität pro Mitarbeitendem, ist klar zu erkennen, wann sich das eingesetzte Budget amortisiert hat bzw. ab welchem Zeitpunkt der Betrieb zusätzlichen Umsatz und Gewinn erzielt.

Im Vergleich dazu sind Investitionen in die Sicherheit der IT auf den ersten Blick wenig lukrativ, da dem Investment kein direkter monetärer Mehrwert gegenübersteht. Die Betonung liegt hier allerdings klar auf dem ‚ersten Blick‘.

Erfahren Sie im folgenden Beitrag, welche Kosten entstehen, wenn solche Investitionen nicht getätigt werden und warum sie deshalb einen hohen Stellenwert in Ihrer Budgetplanung haben sollten.

Welche Kosten bei einer Stunde IT-Ausfall entstehen

Im Gegensatz zu Projekten zur Umsatz- und Gewinnsteigerung kann man bei Investitionen in IT-Sicherheit keine direkten Kosten-Nutzen-Rechnungen aufstellen. Allerdings bietet eine tiefergehende Betrachtung interessante Erkenntnisse.

Hierzu ein Beispiel aus der Praxis: Wir betrachten ein klassisches Unternehmen aus dem produzierenden Gewerbe, mit einer Mitarbeiterzahl von 50 Angestellten.

Lassen Sie uns nun ermitteln, welche (hypothetischen) Ausfallkosten pro Stunde in diesem Betrieb entstehen, wenn die IT nicht mehr verfügbar ist und deshalb Computer und computergestützte Maschinen stillstehen. Hierzu überlegen wir zunächst, welcher Verlust bei einem Jahr Stillstand in der IT entstünde:

Personalkosten von 50.000,- € x 50 Mitarbeitende = 2,5 Millionen € p.a.

Mietkosten der Produktionsstätte von 15.000,- € monatlich = 180.000,- € p.a.

Betriebskosten (Versicherungen, Wartungskosten, Energie, Wärme, Marketing etc.), ca. 20% der Personal- und Mietkosten p.a. = 536.000,- € p.a.

Investitionen in Technologie, Digitalisierung und Ausrüstung, ca. 200.000,- € p.a.

Schulungen und Weiterbildung der Mitarbeitenden, ca. 50.000,- € p.a.

Entgangener Gewinn bei 4 Millionen € Jahresumsatz und 10 Prozent Gewinn = 400.000,- € p.a.

 

Ergibt eine Gesamtsumme von ca. 3,8 Millionen € theoretischem Schaden bei einem Jahr Stillstand. Legt man diese Summe auf ca. 250 Arbeitstage pro Jahr und 8 Stunden Arbeitszeit pro Tag um, ergibt das bei 2.000 Betriebsstunden einen Schaden von ca. 1.900,- € … pro Stunde!

Dabei sind folgende Kosten noch gar nicht berücksichtigt worden – obwohl diese mit hoher Wahrscheinlichkeit eintreten und erheblich ins Gewicht fallen können:

Lösegeldforderungen

Viele Angreifer verschlüsseln Daten oder drohen mit deren Veröffentlichung, wenn kein Lösegeld gezahlt wird (in der Regel 3 Prozent vom Jahresumsatz).

Kosten zur Behebung des IT-Ausfalls

Im Falle z.B. eines Ransomware-Angriffes entstehen schnell Kosten von ca. 200,- € pro Stunde, pro involviertem Spezialisten.

Vertragsstrafen

Aufgrund der Nichterfüllung von Verträgen können Vertragspartner Sanktionen geltend machen.

Bußgelder

Häufig sind bei einem Cyber-Angriff auch personenbezogene Daten betroffen. Im Falle mangelnder DSGVO-Konformität dieser Daten greifen so entsprechende Sanktionsmaßnahmen (bis zu 4% vom Vorjahresumsatz).

Rechtsberatungskosten

Mit den beiden zuvor genannten Punkten gehen in den meisten Fällen zusätzliche Rechtsberatungskosten einher.

Reputationsschaden und Marketingkosten durch IT-Ausfall

Die Auswirkungen im Falle eines Reputationsschadens lassen sich schwer beziffern. Überlegen Sie einfach einmal ganz konkret, was es für Ihr Unternehmen bedeuten würde, wenn nur einer Ihrer Großkunden die Zusammenarbeit aufgrund von Vertrauensverlust bzgl. der IT-Sicherheit in Ihrem Unternehmen beendet. Zu guter Letzt ist ein geschädigtes Image nur unter hohem Aufwand durch Marketingmaßnahmen wiederherstellbar.

 

Noch einmal: Wir sprechen von 1.900,- € pro Stunde Schaden, wenn die IT nicht verfügbar ist. Und das ohne die zuletzt genannten Punkte, die schnell zusätzlich Kosten im fünfstelligen Bereich erzeugen.

Die Praxis zeigt: Bei einem Ransomware-Vorfall dauert die Wiederherstellung des Normalbetriebes durchschnittlich 22 Tage. Das bedeutet im Beispiel oben einen Schaden von ca. 340.000,- € (ohne den Faktor X)!

Kommen wir auf den Sachverhalt vom Artikelbeginn zurück: Sind Investitionen in die Informationssicherheit tatsächlich unrentabel? Im Ergebnis muss festgehalten werden, dass diese Annahme schlichtweg falsch – und sehr gefährlich – ist. Vielmehr gibt es zahlreiche Maßnahmen zur Erhöhung der IT-Sicherheit, bei deren Kosten man eigentlich schmunzeln müsste, berücksichtigt man die Risikoreduzierung, welche mit deren Umsetzung einhergeht:

Die Erstellung eines Notfallplanes zu einem bestimmen Szenario, der dazu führt, dass der Vorfall aufgrund der strukturierten Beschreibung sehr kurzfristig beseitigt werden kann.

Schulungen, die sensibilisierte Mitarbeitende in die Lage versetzen, gefährliche E-Mails besser zu erkennen und dadurch das Risiko einer Infektion mit Ransomware massiv reduzieren.

Angemessene Backup-Strategie, insbesondere schreibgeschützte Datensicherungen und Versionen, die nicht aus dem Netzwerk erreichbar sind.

Passende SLA-Verträge, die gewährleisten, dass bei einem Systemausfall innerhalb kürzester Zeit Ersatzsysteme bereitgestellt werden.

Sichere Konfiguration der Browser

Entziehung der lokalen Admin-Rechte bei allen normalen Benutzern

Fazit – Beugen Sie einem IT-Ausfall vor, es zahlt sich aus

Die Liste lässt sich nahezu beliebig erweitern. Um zu verstehen, welche konkreten Maßnahmen zielführend und umsetzbar sind, empfiehlt es sich, interne Audits zur Bestandsaufnahme durchzuführen. Zudem sollten Sie – so die Empfehlung von Claudia Plattner, Präsidentin des BSI – bei der Festlegung ihres IT-Budgets ca. 20% fest für Maßnahmen zur Erhöhung der Cybersicherheit einplanen.

Sie haben Fragen zum Thema IT-Sicherheit? Sie benötigen Hilfe beim weiteren Vorgehen, der konkreten Definition von Maßnahmen oder der Kostenkalkulation? Wir sind als zuverlässiger Partner an Ihrer Seite und begleiten Sie auf Ihrem Weg zu höchster IT-Sicherheit. Kontaktieren Sie uns!

 

  David Roland Korb | Informationssicherheits-Berater

 

 

Weiterführende Infos: Sicherheitsanalysen aus Angreifersicht mit CRISEC| Was einen guten Notfallplan ausmacht | Infrastrukturanalysen

Foto © Adobe Stock

 

Lesedauer ‚Erhöhen Sie Ihre Cybersicherheit mit Awareness-Schulungen‘ 5 MinutenAutor: David Roland Korb

Cyberbedrohungen sind allgegenwärtig und entwickeln sich ständig weiter. Dies stellt mittelständische Unternehmen in der heutigen digitalen Welt vor große Herausforderungen, denn: Angreifer werden immer raffinierter – und zielen zunehmend auf die menschliche Komponente der üblichen Cybersicherheitsstrategien. Im nachfolgenden Blogartikel erfahren Sie, warum Awareness-Schulungen entscheidender Baustein einer funktionierenden Informationsicherheitsstrategie sind.

Warum Awareness-Schulungen jetzt so wichtig sind

Studien und Praxisberichte sagen unisono aus, dass aktuell jeder zweite erfolgreiche Cyberangriff auf menschliches Versagen oder mangelhaftes Sicherheitsbewusstsein zurückzuführen ist. Ohne vorhandenes, notwendiges Wissen oder entsprechendes Fingerspitzengefühl schaffen Arbeitende unbeabsichtigt Schwachstellen, welche von Angreifern ausgenutzt werden. Im unternehmerischen Kontext gibt es viele Beispiele für die ‚Schwachstelle Mensch‘, u.a.:

  • Verwendung schwacher Passworte (123456, abcdef usw.)
  • Mangelnde Kenntnis bzgl. Phishing-Mails und Klick auf sog. ‚malicious links‘ (Links zu gefälschten Websites, Eingabemasken o.ä.)
  • Im selben Szenario das Öffnen fragwürdiger Mail-Anhänge
  • Nutzung gefundener USB-Sticks aus Neugier bzgl. der Inhalte
  • Treffen falscher Entscheidungen unter Stress

Awareness-Schulungen zu den verschiedenen Aspekten der Informationssicherheit vermitteln notwendiges Wissen und ermöglichen Mitarbeitenden intuitiv richtiges Handeln auch in hektischen Situationen.

Steigender Bedarf an effektiver Schulung

Stellen Sie sich vor, Ihr Unternehmen wäre Ziel eines ausgeklügelten Cyberangriffes nach o.g. oder ähnlichem Schema: Ein Team-Mitglied klickt versehentlich auf einen schädlichen Link, der in einer harmlos wirkenden E-Mail getarnt ist. Innerhalb von Sekunden haben Angreifer Zugriff auf sensible Daten, was zu erheblichen finanziellen Einbußen und zu unwiederbringlichem Vertrauensverlust führt.

Solch ein Szenario ist leider keine Seltenheit mehr. Es zeigt, wie wichtig es ist, Mitarbeitende auf solche Situationen vorzubereiten, mental und mit Fachkenntnis ausgestattet. Leider stoßen traditionelle Schulungsmethoden wie Frontalunterricht schnell an ihre Grenzen. Um ein nachhaltiges Bewusstsein zu schaffen und das Verhalten langfristig dauerhaft zu ändern, bedarf es einer praxistauglichen und kontinuierlichen Methode.

Die Lösung: Awareness-Schulungen zur Informationssicherheit

Wir bieten spezielle Awareness-Schulungen zur Steigerung unternehmerischer Informationssicherheit an. Uns Konzept baut speziell darauf auf, das Bewusstsein und die Handlungsfähigkeit Ihrer Mitarbeitenden zu stärken. Durch interaktive Module zu einzelnen Themen werden die verschiedenen Aspekte der Informationssicherheit abgedeckt und in regelmäßigen Abständen mit aktuellem Know-how aufgefrischt.

  • Gemeinsam besprechen wir die Module und stellen diese – passend zu den speziellen Bedürfnissen und dem Risikoprofil Ihres Unternehmens – individuell zusammen.
  • Detaillierte Quartalsberichte inklusive Analyse zum Fortschritt der jeweiligen Schulungen gewährleisten eine zielgerichtete Identifizierung vorhandener Schwachstellen.
  • Bei Bedarf passen wir die Module und/oder Inhalte Anhand dieser Informationen an und optimieren so die Awareness-Schulungen für Ihr Unternehmen kontinuierlich.
  • Als Zusatzeffekt steigt die Mitarbeiterzufriedenheit an. Dies zum einen durch die leichte Verständlichkeit der Lerneinheiten; zum anderen ist das Gelernte aufgrund seiner hohen Praxistauglichkeit im privaten Umfeld ebenso nutzbringend einsetzbar wie im Büro.

Mit Awareness-Schulungen bauen Sie zusammen mit Ihren Mitarbeitenden eine starke menschliche Firewall auf, welche das Risiko eines erfolgreichen Cyberangriffs erheblich reduziert. Investieren Sie in dieses Thema und sparen Sie so langfristig Geld und Nerven!

Ihr Partner für Awareness-Schulungen

Wir von Schneider + Wulf sind mit unserem Bereich beSecure Ihr zuverlässiger Partner für umfassende Cybersicherheitslösungen. Unsere Expertise und Erfahrung im Bereich Informationssicherheit garantiert Ihnen maßgeschneiderte Schulungen, die präzise auf die Bedürfnisse und Anforderungen Ihres Unternehmens abgestimmt sind. Vertrauen Sie auf unsere Kompetenz und sichern Sie sich gegen die immer raffinierteren Bedrohungen im Cyberraum ab.

Kontaktieren Sie uns noch heute zu diesem oder anderen Cybersicherheits-Themen, wir beraten Sie gerne und begleiten Ihr Unternehmen auf dem Weg zu höchster Informationssicherheit.

  David Roland Korb | Informationssicherheits-Berater

 

 

Weiterführende Infos: Sicherheitsanalysen aus Angreifersicht mit CRISEC| Sicher in der Wolke mit Azure Security | Infrastrukturanalysen | Informationen des BSI zum Thema Phishing

Foto © Adobe Stock

 

Lesedauer ‚Das CrowdStrike Update – Auswirkungen und langfristige Konsequenzen‘ 3 Minuten

Am frühen Morgen des 19. Juli widerfuhr dem renommierten amerikanischen Cybersicherheitsunternehmen CrowdStrike eine schwerwiegende Update-Panne. Diese unvorhergesehene Störung hatte weltweit gravierende technische und wirtschaftliche Auswirkungen. Sie warf wichtige Fragen zur Sicherheit und Stabilität kritischer IT-Infrastrukturen auf. Im folgenden erfahren Sie weitere Details zur Panne und welche Konsequenzen Sie aus diesem Vorfall ziehen sollten.

Die durch das CrowdStrike Update entstandenen Probleme

CrowdStrike veröffentlichte ein fehlerhaftes Update seiner Falcon Sensor-Software; dies führte zu massiven Problemen. Falcon Sensor wird von vielen großen Unternehmen und Organisationen weltweit genutzt und ist für die Analyse sowie den Schutz von Endgeräten und Servern verantwortlich.

Technische Details

Ablauf der Panne: Das fehlerhafte CrowdStrike Update wurde am 19. Juli 2024 um 04:09 UTC veröffentlicht. Um 05:27 UTC wurde das Update zurückgezogen. Systeme, die in diesem Zeitraum online waren, erhielten das fehlerhafte Update.

Blue Screen of Death (BSOD): Betroffene Systemen führten wiederholt Neustarts aus und/oder zeigten den gefürchteten ‚Blue Screen of Death‘ (BSOD) an. Ursache war ein Nullzeiger-Fehler, bei dem auf eine ungültige Speicheradresse zugegriffen wurde, ohne vorher deren Gültigkeit zu überprüfen.

Betroffene Geräte: Schätzungsweise 8,5 Millionen Windows-Geräte waren betroffen, darunter Server, Arbeitsstationen und Netzwerkgeräte.

Betroffene Endgeräte und Branchen

Flughäfen und Fluggesellschaften

Weltweit würden über 2.000 Flüge gestrichen; darunter viele in den USA, Europa und Asien. Flughäfen wie Schiphol in den Niederlanden und Zürich in der Schweiz meldeten schwere Störungen, der Flugverkehr kam vollständig zum Erliegen.

Banken und Finanzdienstleister

Online-Banking-Systeme waren gestört, was zu Problemen bei Konto-Zugriffen und Transaktionen führte.

Gesundheitswesen

In Krankenhäusern konnten geplante Operationen und Notfall-OPs nicht stattfinden, weil die entsprechenden medizinischen Systeme nicht verfügbar waren.

Medienunternehmen

Sender wie der britische Nachrichtenkanal Sky News konnten vorübergehend keine Live-Nachrichten senden.

Supermärkte

Kassensysteme in Supermärkten weltweit fielen aus, was zu langen Warteschlangen und hohen Einnahmeausfällen führte.

Fallbeispiele zum CrowdStrike Update

JPMorgan Chase: Das US-amerikanische Finanzunternehmen verzeichnete einen Ausfall seiner zentralen Serversysteme über mehrere Stunden. Dies führte zu erheblichen Datenverlusten und Verzögerungen bei Transaktionen.

Volkswagen: Hier kam es zu Produktionsunterbrechungen, da die Netzwerkgeräte aufgrund des Updates nicht ordnungsgemäß funktionierten. Der Betrieb der Fertigungsstraßen wurde direkt beeinträchtigt.

Huawei: Das asiatische Telekommunikationsunternehmen berichtete von weitreichenden Netzwerkproblemen, da Router und Firewalls, die auf CrowdStrike-Software angewiesen waren, ausfielen.

Swissport und Eurowings: Am Flughafen Zürich führte die Panne zu erheblichen Verzögerungen und Flugausfällen. Eurowings musste zahlreiche Flüge innerhalb Deutschlands streichen und verwies Passagiere auf alternative Transportmittel.

Das CrowdStrike Update – Auswirkungen auf die Weltwirtschaft

Die Panne hatte weitreichende wirtschaftliche Folgen:

Produktivitätsverlust: Unternehmen weltweit berichteten von Ausfallzeiten und produktivitätsbedingten Verlusten, da ihre Systeme aufgrund des fehlerhaften Updates nicht ordnungsgemäß funktionierten.

Erhöhte Sicherheitsrisiken: Die vorübergehende Abschaltung von Sicherheitsdiensten erhöhte das Risiko von Cyberangriffen, was zu potenziellen Schäden und zusätzlichen Kosten führte.

Marktreaktionen: Der Aktienkurs von CrowdStrike erlitt einen deutlichen Einbruch; in Folge hatte dies negative Auswirkungen auf die allgemeine Marktstimmung im Technologiesektor.

Langfristige Konsequenzen

Der Vorfall vom 19. Juli hat weitreichende Konsequenzen für Staaten, Regierungen, Wirtschaftsunternehmen und Privatpersonen.

Verstärkte Regulierung

Regierungen und Aufsichtsbehörden denken über strengere Vorschriften und Audits für Cybersicherheitsunternehmen nach.

Höherer Investitionsbedarf in Sicherheitsmaßnahmen

Unternehmen müssen sich die Frage stellen, ob ihre bisher getätigten Investitionen in redundante Sicherheitslösungen und Backup-Systeme ausreichen, um mögliche zukünftige Ausfälle abzufedern.

Änderungen in der Update-Politik

Unternehmen sollten ihre Update-Strategie überdenken, um gründlichere Tests und längere Vorlaufzeiten zu gewährleisten. Dies ist vor allem im Kontext externer Dienstleister relevant.

Fazit

Der Vorfall im Zuge des CrowdStrike Update zeigt deutlich, wie wichtig robuste Sicherheitsmaßnahmen und umfassende Notfallpläne sind. Unternehmen sollten folgende Maßnahmen ergreifen:

Regelmäßige Sicherheitsüberprüfungen und Audits: Stellen Sie sicher, dass alle Systeme regelmäßig auf ihre Sicherheit hin überprüft werden.

Investition in Backup- und Redundanzsysteme: Nutzen Sie redundante Sicherheitslösungen, um im Falle eines Ausfalls schnell reagieren zu können.

Gründliche Update-Tests: Führen Sie umfassende Tests aller Updates in einer isolierten Umgebung durch, bevor sie in die Produktionsumgebung übernommen werden.

Notfallpläne und Krisenmanagement: Entwickeln und implementieren Sie Notfallpläne, um im Falle eines Ausfalls schnell und effektiv reagieren zu können.

Durch diese Maßnahmen können Unternehmen ihre Widerstandsfähigkeit gegen Sicherheitsvorfälle stärken und das Risiko betrieblicher und wirtschaftlicher Schäden minimieren​.

Sie haben Fragen zum Thema ‚Sicherheits-Updates‘? Kontaktieren Sie uns, wir informieren Sie gerne!

 

 

Weiterführende Infos: Sicherheitsanalysen aus Angreifersicht mit CRISEC| Sicher in der Wolke mit Azure Security | Infrastrukturanalysen mit ITQ

 

Foto © Adobe Stock

 

Lesedauer ‚Ransomware: Warum smarte Backup-Strategien unverzichtbar sind‘ 5 MinutenAutor: Jan Erik Müller

Im digitalen Zeitalter sind Cyberangriffe allgegenwärtig, und Ransomware gehört zu den gefährlichsten Bedrohungen. Ein cleveres Backup-Konzept ist entscheidend, um die Daten eines Unternehmens zu schützen und somit dessen Zukunftssicherheit zu gewährleisten. Im folgenden Artikel erfahren Sie alles Wissenswerte rund um Backup-Strategien und wie Sie diese praxistauglich umsetzen. Er nutzt Erkenntnisse aus dem Veeam 2023 Ransomware Trends Report.

Warum Backup-Strategien? Die Bedrohung durch Ransomware

Laut o.g. Veeam-Bericht zielen 93% der Cyberangriffe auf Backup-Speicher ab, um Lösegeldzahlungen zu erzwingen. Das zeigt, wie wichtig es ist, Backups vor solchen Angriffen zu schützen und sicherzustellen, dass sie im Notfall wiederhergestellt werden können. Der Report hebt außerdem hervor, dass Cyberkriminelle zunehmend ausgefeilte Techniken verwenden, um Backups zu kompromittieren. Angreifer wissen, dass Unternehmen sich auf Backups verlassen, um nach einem Ransomware-Angriff wiederherzustellen. Indem sie diese Backups ins Visier nehmen, erhöhen sie den Druck auf die Opfer, das Lösegeld zu zahlen. Daher ist es wichtiger denn je, dass Unternehmen ihre Backup-Strategien ständig überprüfen und aktualisieren.

Smarte Backup-Strategien: Die digitale Lebensversicherung

Ein ausgeklügeltes Sicherungskonzept macht im Falle eines Angriffs den entscheidenden Unterschied aus. Nachfolgend aufgelistet finden Sie die wichtigsten Schlüsselaspekte für erfolgreiche Backup-Strategien:

1. Regelmäßige Backups

Automatisierte, tägliche oder wöchentliche Sicherungen stellen sicher, dass alle relevanten Daten immer auf dem neuesten Stand sind. Dies garantiert im Falle eines Angriffs die schnellstmögliche Rücksicherung der Daten bei minimalem Datenverlust. Laut dem Veeam-Bericht führen Unternehmen, die regelmäßig Backups erstellen, eine Wiederherstellung deutlich schneller durch und reduzieren so Ausfallzeiten und finanzielle Verluste.

Details zu regelmäßigen Backups:

    • Automatisierung: Nutzen Sie Backup Software, die automatische und regelmäßige Backups durchführt. Dies reduziert das Risiko menschlicher Fehler und stellt sicher, dass keine wichtigen Daten ungesichert bleiben.
    • Versionierung: Halten Sie mehrere Versionen von Backups vor und stellen Sie im Falle eines Angriffs den Zugriff auf eine saubere Version sicher.

2. Redundanz ist Trumpf

Speichern Sie Backups an verschiedenen Orten, beispielsweise in der Cloud und lokal, um das Risiko eines Totalverlusts zu minimieren. Eine solche ‚geografische Verteilung‘ bietet zusätzlichen Schutz und stellt sicher, dass Daten selbst bei einem unternehmensweiten Vorfall sicher bleiben und schnell zur Verfügung stehen. Der Report betont die Bedeutung dieser Offsite Backups, da lokale Kopien bei einem umfassenden Angriff zwangsläufig ebenfalls betroffen und für die Durchführung eines Backup mit hoher Wahrscheinlichkeit unbrauchbar sind.

Details zum Thema Redundanz:

    • Geografische Verteilung: Gute Backup-Strategien halten Kopien der Backups an verschiedenen physischen Standorten vor und minimieren so Risiken bzgl. Datenverlust durch unternehmensweite Angriffe oder Naturkatastrophen deutlich.
    • Cloud Backups: Nutzen Sie Cloud-Dienste. Diese bieten hohe Sicherheitsstandards und Redundanzen und schaffen dadurch eine zusätzliche Schutzschicht.

3. Immutability und Air Gapping

Diese Technologien verhindern, dass Backup-Daten gelöscht oder verändert werden können, und bieten somit zusätzlichen Schutz. Immutable Backups sind unveränderbar, während Air Gapped Backups physisch vom Netzwerk getrennt sind und somit schwerer von Cyberangriffen erreicht werden können. Der Veeam-Bericht zeigt, dass Unternehmen, die auf diese Technologien setzen, deutlich weniger Datenverluste erleiden.

Details zu Immutability und Air Gapping:

    • Immutability: Baut auf unveränderbare Speichertechnologien, die verhindern, dass gespeicherte Daten nachträglich verändert oder gelöscht werden.
    • Air Gapping: Implementiere Backup-Systeme, die physisch vom Hauptnetzwerk getrennt sind, um sie vor Online-Angriffen zu schützen.

4. Automatisierung

Durch die Minimierung menschlicher Fehler garantieren automatisierte Lösungen die regelmäßige und fehlerfreie Erzeugung von Backups. Das Ergebnis: Weniger Verwaltungsaufwand und höhere Zuverlässigkeit! Der Report zeigt, dass Unternehmen mit automatisierten Backup-Lösungen weniger anfällig für Datenverluste sind und eine schnellere Wiederherstellung erreichen.

Details zur Automatisierung:

    • Automatisierte Überwachung: Verwenden Sie Systeme, die den Backup-Status und -Erfolg automatisch überwachen und bei Fehlern sofort Alarm schlagen.
    • Skriptgesteuerte Backups: Nutzen Sie Skripte und Automatisierungswerkzeuge, um Backup-Prozesse zu standardisieren und deren korrekte Ausführung sicherzustellen.

5. Testen, testen, testen

Regelmäßige Tests der Backups stellen sicher, dass im Ernstfall alles reibungslos funktioniert. Dies beinhaltet die Überprüfung der Integrität der Daten sowie die Geschwindigkeit, mit der Daten wiederhergestellt werden können. Nur so sind Sie sicher, dass die implementierten Backupstrategien auch in der Praxis funktionieren. Die Experten von Veeam verdeutlichen, dass Unternehmen, die ihre Sicherungen regelmäßig testen, signifikant besser auf Ransomware-Angriffe vorbereitet sind.

Details:

    • Wiederherstellungstests: Simuliere regelmäßig Datenwiederherstellungen, um sicherzustellen, dass Backups intakt und vollständig sind.
    • Szenario-Tests: Teste verschiedene Angriffsszenarien und stelle sicher, dass deine Backup-Strategie für alle Eventualitäten gerüstet ist.

6. Sicherheitsschulungen für Mitarbeiter

Oft sind Mitarbeitende das schwächste Glied in der Sicherheitskette. Regelmäßige Schulungen und Sensibilisierungsprogramme helfen dabei, Phishing-Angriffe zu erkennen und zu vermeiden. Im Report ist erkennbar, dass gut geschulte Mitarbeitende die Risiken erfolgreicher Angriffe erheblich reduzieren.

Details zu Sicherheitsschulungen:

    • Phishing-Simulationen: Führen Sie regelmäßig Phishing-Simulationen durch, um das Bewusstsein und die Reaktionsfähigkeit Ihres Teams zu testen und zu verbessern.
    • Schulungsprogramme: Bieten Sie kontinuierliche Schulungen an, um Mitarbeitende über aktuelle Bedrohungsszenarien und Sicherheitspraktiken zu informieren.

7. Schnelle Wiederherstellung und Disaster Recovery

Effektive Backup-Strategien ermöglichen eine schnelle Datenwiederherstellung. Regelmäßig getestete und aktualisierte Disaster Recovery-Pläne sorgen dafür, dass Unternehmen nach einem Angriff schnell wieder funktionsfähig sind. Der Veeam-Bericht zeigt, dass Unternehmen mit robusten Disaster Recovery-Plänen wesentlich resilienter gegenüber Cyberangriffen sind.

Details zu Disaster Recovery:

    • Recovery-Zeitziele (RTO): Definieren Sie klare Wiederherstellungsziele und stellen Sie so sicher, dass Ihr Unternehmen die Betriebszeit maxi- und Ausfallzeiten minimiert.
    • Disaster Recovery-Pläne: Entwickeln Sie detaillierte Pläne, die alle Aspekte der Wiederherstellung abdecken. Dazu gehören Verantwortlichkeiten, Kommunikationsstrategien und technische Schritte.

8. Verknüpfung mit weiteren Cybersecurity-Werkzeugen

Um umfassenden Schutz zu bieten, sollten Backup-Strategien mit anderen Sicherheitsmaßnahmen wie Firewalls, Antivirus-Software und Intrusion Detection-Systemen verknüpft werden. Eine holistische Sicherheitsstrategie erhöht die Widerstandsfähigkeit Ihres Unternehmens gegen Ransomware-Angriffe. Laut Veeam profitieren Unternehmen, die integrierte Sicherheitslösungen verwenden, von einer deutlich höheren Effizienz bei der Abwehr und Bewältigung von Angriffen.

Details zum Thema Verknüpfung:

    • SIEM-Integration: Verzahnen Sie Ihre Backupstrategien mit Security Information and Event Management (SIEM)-Systemen und gewährleisten Sie so eine umfassende Überwachung und schnelle Reaktion auf Sicherheitsvorfälle.
    • Koordinierte Abwehr: Stellen Sie die nahtlose Zusammenarbeit sämtlicher Sicherheitslösungen in Ihrem Unternehmen sicher und garantieren Sie so eine koordinierte und effektive Abwehr gegen Bedrohungen.

Fazit: Backup-Strategien – Ein Muss für Ihre IT-Infrastruktur

Ein intelligentes Backup-Konzept ist Ihre beste Verteidigung gegen die zerstörerischen Auswirkungen von Ransomware. Indem es Daten schützt, garantiert es auch die Zukunftssicherheit Ihres gesamten Unternehmens. Die Erkenntnisse aus dem Veeam 2023 Ransomware Trends Report unterstreichen die Dringlichkeit und Wichtigkeit dieser Maßnahmen. Investieren Sie deshalb in smarte Backup-Lösungen und bleiben Sie Cyberkriminellen immer einen Schritt voraus. Durch die Kombination aus aktuellen Technologien und bewährten Verfahren sowie die Verzahnung sämtlicher Sicherheitskomponenten Ihrer IT-Infrastruktur stellen Sie sicher, dass Ihre Daten immer geschützt sind.

Haben Sie grundlegendes Interesse am Thema oder denken Sie über eine Analyse Ihrer vorhandenen Backup-Strategien nach? Kontaktieren Sie uns! Wir stehen Ihnen mit unserem Knowhow aus über 30 Jahren praktischer Erfahrung und höchster Fachkompetenz zur Seite.

 

 

Weiterführende Infos: Sicherheitsanalysen aus Angreifersicht mit CRISEC| Sicher in der Wolke mit Azure Security | Schulungen zur Mitarbeitersensibilisierung

 

Foto © Adobe Stock

 

Lesedauer ‚Ist die Zukunft passwortlos? Über die Bedeutung von Passkeys‘ 5 Minuten

Tauchen Sie ein in die Ära der modernen Authentifizierung – mit Passkeys. Erfahren Sie, wie Passkeys die Online-Welt verändern und entdecken Sie die technischen Hintergründe dieser fortschrittlichen Sicherheitsmethode. Tschüss Passwörter, adieu Phishing. Hallo neuer und innovativer Login via Passkey! Simpel, schnell und sicher.

Im Jahr 2012 wurde die fido-Alliance gegründet. Ihr Ziel: Einen lizenzfreien modernen Standard für die Identitätsüberprüfung im World Wide Web entwickeln (fido = fast identity online). Der amerikanischen Organisation gehören etliche ‚Big Player‘ der Tech-Industrie an, darunter Google, Microsoft, Apple, Samsung, Alibaba und Amazon. Die Einrichtung hat eine innovative Technologie erschaffen, die wir nachfolgend genauer unter die Lupe nehmen möchten: Die Identitätsüberprüfung via Passkeys. Die Absicht der FIDO: Rasche Online-Identifizierung. Passwörter sollen abgeschafft und Logins im Prinzip bequemer und sicherer gemacht werden.

Warum Passkeys?

In einer aktuellen Studie von 1Password gab jeder (!) Befragte an, bereits einmal direkt sowie indirekt mit Phishing in Berührung gekommen zu sein. Da verwundert es nicht, dass der Hauptanteil der Befragten eine geschützte Login-Methode für deren Online Accounts für sehr wichtig hält. Die Zwei-Faktor-Authentifizierung (2FA) erscheint hier zwar der Systematik nach als eine gute Option, hat aber einen großen Nachteil: Man kann sich unglaublich leicht selbst aus eigenen Konten aussperren. Zudem ist der 2FA-Login weder einfach noch besonders benutzerfreundlich. Und: Selbstverständlich werden auch Hacker immer klüger. Cyber-Kriminelle haben bereits Maßnahmen entwickelt, um SMS abzufangen und so an den zweiten Faktor für eine Authentifizierung zu gelangen.

Wirklich sicher wäre ein Login demnach nur, wenn es überhaupt keine Zugangsdaten gäbe, die man ausspionieren kann. Genau hier kommen Passkeys ins Spiel.

Passkeys – zu schön, um wahr zu sein?

Passkeys, auch als Sicherheits- oder Authentifizierungsschlüssel bezeichnet, werden zunehmend zu einem wesentlichen Bestandteil moderner Sicherheitsinfrastrukturen. Im Gegensatz zu herkömmlichen Passwörtern eröffnen sie – durch die Integration einer physischen Komponente in die Identitätsprüfung – eine zusätzliche Sicherheitsebene. Die Idee hinter Passkeys ist, dass Benutzer Zugriff auf alle eigenen Online-Konten haben, ohne sich jedes Mal auf herkömmlichem Weg einzuloggen. ‚Klassische Zugangsdaten‘ wie Benutzernamen und Kennwort existieren nicht mehr und können deshalb auch nicht mehr ausspioniert werden. Somit werden Zugänge phishing-sicher.

Aber wie funktioniert das? Bei der Generierung eines Accounts über einen Online-Dienst, welcher Passkeys fördert, werden zwei Schlüssel erstellt, welche miteinander mathematisch verknüpft sind:

  1. Ein öffentlicher Schlüssel – dieser wird mit dem Service, beispielsweise einer Webseite oder einer App geteilt und dient dazu, Informationen zu codieren, die nur der private Schlüssel decodieren kann.
  2. Einen privaten, asymmetrischen Krypto-Schlüssel – dies ist eine äußerst lange, völlig zufällig generierte Zeichenreihe. Dieser private Schlüssel bleibt ausschließlich auf dem Gerät des Anwenders gespeichert. Auf sämtlichen verknüpften Gerätschaften, beispielsweise dem Laptop oder Smartphone, ist somit via Passkey-Login kein Benutzername und ebenfalls kein Passwort mehr nötig.

Um Passkeys benutzen zu können, sind zweierlei Dinge technisch erforderlich: Das Endgerät muss das ‚Client to Authenticator Protocol‘ (CTAP2) fördern, um geschützt mit dem Browser kommunizieren zu können. Der Online Service, bei dem man sich anmelden möchte, muss darüber hinaus die ‚WebAuthentication standard API‘ unterstützen (WebAuthn). Dies ist eine Verbindung, welche unabdingbar ist, um sich mit dem Schlüsselprinzip, dessen sich Passkeys bedienen, authentifizieren zu können.

Da Passkeys also auf den jeweiligen Geräten gespeichert werden, drängt sich selbstverständlich sofort eine wesentliche Frage auf: Auf welche Weise lassen sich die Endgeräte vor unbekannten Zugriffen schützen? Stehen in diesem Fall Hackern nicht Tür und Tor offen, sobald er ein solches Endgerät in die Finger bekommt? Glücklicherweise gibt es hierzu bereits Lösungen: Moderne Geräte – egal, ob Laptop, Smartphone oder sogar Smart-TV – bieten Geräte- und App-Entsperrung über biometrische Scans an. Die bekanntesten sind der Fingerabdruckscan und die Face ID. Durch die Mischung aus Passkey und biometrischen Daten entsteht so eine sehr sichere Form der Authentifizierung.

Fazit: Passkeys funktionieren!

Die Verwendung von Passkeys bietet eine ganze Reihe von Vorteilen für Benutzer und Unternehmen. Hierzu zählen eine erhöhte Sicherheit durch die physische Authentifizierungskomponente, eine verbesserte Benutzererfahrung durch nahtlose Anmeldung und eine Reduzierung des Risikos von Phishing-Attacken und Passwortdiebstahl. Manche Technologieriesen haben aus diesem Grund auch bereits Passkeys implementiert – zuletzt mit viel Aufsehen der Online-Marktplatz Amazon. Und das ist vermutlich erst der Anfang – Experten gehen davon aus, dass Passkeys sich immer mehr am Markt verbreiten und als Norm etablieren. Was denken Sie: Ist die nahe Zukunft der Authentifizierung passwortlos und physisch?

Bei allen Fragen rund um die Themen 2FA und Passkeys sprechen Sie uns gerne an. Wir beraten und betreuen Sie auf Ihrem Weg hin zu einem geschützten Unternehmen.

 

 

Foto © Adobe Stock