Lesedauer ‚Managed IT Service: Dienstleistung aus einer Hand‘: 8 Minuten

Eine zeitgemäße IT-Infrastruktur ist hyperskaliert, hyperdynamisch und … hyperkomplex. Kein Geheimnis also, dass Unternehmen im Bereich IT zunehmend auf Managed Service-Konzepte bauen, um die interne IT-Abteilung zu entlasten, technische Prozesse zu optimieren, freie Ressourcen zu schaffen sowie IT-Ausgaben zu mindern. Aber was sind Managed IT Services eigentlich und welche Faktoren sprechen für die Buchung solcher Services? Antworten erhalten Sie im folgenden Blogbeitrag.

Ob mittelständisches Unternehmen oder Großkonzern: Eine stabile IT-Infrastruktur ist der Grundstein eines jeden Unternehmens. Allerdings leiten die zunehmende digitale Vernetzung, die Einbeziehung einer großen Anzahl digitaler Technologien (mit immer kürzeren Produktlebenszyklen) sowie die hohen Gesetzesauflagen dazu, dass IT-Strukturen in Betrieben immer umfangreicher werden.

Auf der anderen Seite fehlt es heutzutage in Unternehmen nicht selten an Zeit, Kapital, Fachkräften und passendem Know-how. Deshalb werden immer mehr Teilbereiche der IT-Infrastruktur über Managed IT Services von einem externen IT-Dienstleister betreut.

Einer Datenerhebung des IT-Sicherheitsdienstleisters Eset entsprechend arbeiteten im Jahre 2021 bereits 62 Prozent der befragten Betriebe in der DACH-Region (Deutschland, Österreich, Schweiz) mit einem Managed Service Provider zusammen oder hatten vor, dies im Laufe des Jahres anzugehen.

Managed Service – IT-Administration mit Köpfchen

Zunächst einmal die Definition: Managed IT Services sind wiederkehrende IT-Dienstleistungen, welche im Arbeitsauftrag eines Unternehmens von außenstehenden IT-Dienstleistern (sog. Managed Service Provider oder kurz MSP) geleistet werden. Dazu zählen unter anderem die Zurverfügungstellung, Beaufsichtigung und Administration von Anwendungen, Netzleistungen, Speicherplatz, IT-Sicherheit, die Weiterentwicklung von Geschäftsabläufen sowie technischer IT Support für ArbeitnehmerInnen.

Kategorie und Umfang der entsprechenden IT-Dienstleistungen werden im Voraus im Detail festgelegt und zwischen den beiden Parteien durch sog. Managed Service Agreements (MSA) oder Service Level Agreements (SLA) vertraglich festgelegt.

Managed IT Services werden üblicherweise im monatlichen Turnus erbracht, weshalb die Rechnungstellung in der Regel ebenfalls monatlich und nach definierten Tarifmodellen erfolgt. So ist die Abrechnung 100% transparent und die Erbringung der IT-Dienstleistungen eindeutig messbar.

Welche IT-Dienstleistungen decken Managed IT Services ab?

Managed Service-Modelle bieten drei verschiedene Formen der Leistungserbringung:

  1. IT-Dienstleistung vor Ort – Bei dieser Art der Leistungserbringung laufen die IT-Systeme am Standort des Klienten. Die Verwaltung sowie die Beaufsichtigung finden über ein System für das Remote Monitoring + Management (RMM) statt.
  2. IT-Dienstleistungen via Fernzugriff – Die IT-Dienste werden auf der Infrastruktur des IT-Dienstleisters betrieben und über das Netz bereitgestellt. Einige Managed Service Provider unterhalten hierfür ein persönliches Rechenzentrum, andere wiederum arbeiten mit Colocation-Anbietern zusammen.
  3. IT-Dienstleistungen über die Cloud – Das dritte Modell besteht darin, Managed IT Services auf einer sog. Public Cloud-Plattform bereitzustellen.

Umfassten Managed IT Services zu Beginn vor allem die Beaufsichtigung der Server- sowie Netzwerkinfrastrukturen, decken sie mittlerweile einen enormen Teilbereich der IT ab:

Storage-Services – umfassen die Bereitstellung, Konfiguration und Wartung von Speicherplätzen

Cloud Computing – beinhalten IT-Dienstleistungen rund um Cloud Computing und die Verlagerung der IT in die Cloud

Backup- und Recovery Services – umfassen die Erstellung von Backups und eine Datenwiederherstellung im Katastrophenfall

IT-Sicherheit – beinhalten IT-Dienstleistungen rund um die IT-Sicherheit; zum Beispiel die Bereitstellung, Konfiguration sowie das Aktualisieren von Antivirenprogrammen, Antispam-Lösungen oder aber Firewall-Lösungen, um die Netzwerk-Absicherung und Desktop-Sicherheit zu garantieren

Remote Monitoring – umfasst die kontinuierliche Fernüberwachung und Fernsteuerung der Server, IT-Systeme sowie IT-Lösungen

Update- und Patch Management – umfasst das Aktualisieren sowie Patchen der eingesetzten IT-Systeme sowie IT-Lösungen

Application Services – umfassen die Bereitstellung, Anpassung und Wartung von wichtigen Server-Applikationen

Helpdesk Services – beinhalten alle Support-Dienste

Managed Services und IT Outsourcing – zwei Paar Schuhe

Während IT Outsourcing die Ausgliederung kompletter IT-Aufgaben sowie IT-Segmente an einen IT-Dienstleister bedeutet, werden beim Managed IT Service-Modell häufig nur bestimmte Teilbereiche der IT-Infrastruktur ausgelagert.

Des Weiteren geht IT Outsourcing in der Regel generell mit einem Arbeitsplatzabbau einher. Managed IT Services haben hingegen die Absicht, die IT-Teams zu entlasten, damit sie sich besser auf deren Kernaufgaben konzentrieren können.

Ein anderer essentieller Unterschied zwischen Managed IT Services und IT Outsourcing besteht darin, dass letzteres de facto einem Kontrollverlust über die unternehmerische IT gleichkommt. Im Gegensatz dazu verbleiben die Assets bei Managed Services im Unternehmen.

Welche Vorteile Managed IT Services haben

Managed Services erzeugen vielfältigen strategischen Nutzen. Dazu zählt unter anderem:

Wachstum – Unternehmen im ganzen verfügen über gesteigerte Kapazitäten zur Realisierung einer langfristigen strategischen Ausrichtung.

Kostenkontrolle – Mit Managed Services haben Betriebe ihre IT-Aufwendungen besser im Griff. Kosten sind vertragliche definiert und zusätzlich helfen die Rahmenbedingungen des Konzepts, künftige Anpassungen präzise zu kalkulieren. Unerwartete Ausgaben oder Budget-Engpässe im Bereich IT werden so vermieden.

Effizienz – Besonders für kleinere Unternehmen ist es eine Herausforderung, genügend Fachkräfte für die interne IT-Abteilung zu stellen. Dank Managed IT Services profitieren die Betriebe vom Know-how eines beachtlichen Expertenteams, das ihnen nicht bloß die nötige IT-Beratung bietet, sondern auch herausfordernde Angelegenheiten übernimmt.

Gesteigerte Sicherheit – Durch die stetig steigende Anzahl an Angriffen aus dem Internet erhöht sich der Stressfaktor für Unternehmen, sich in Bezug auf Daten-Compliance abzusichern. Die Sicherheitslösungen von Managed Services gestatten es, auf diese Bedrohung angemessen zu reagieren. Zudem verfügen Managed Service Provider meist über mehr Sicherheitsexpertise und leistungsfähigere Software, als ‚vor Ort‘ in kleinen und mittelständischen Betrieben vorhanden sind.

Digitalisierung – Die digitale Transformation ändert die Arbeitswelt drastisch. Kaum ein Unternehmensbereich ist davon stärker betroffen als die IT. Durch Managed IT Services können Betriebe in Kürze technische Innovationen der Industrie 4.0 (leistungsfähige Cloud-Lösungen o.ä.) realisieren. Dadurch werden Unternehmen agiler und skalierbar.

Hochverfügbarkeit – Da Managed Service Provider typischerweise mit mehrfach redundanten Systemen arbeiten, gewährleisten sie eine hohe Ausfallsicherheit der IT (je nach Leistungsumfang wird eine Verfügbarkeit von bis zu 99,95 Prozent garantiert).

Der Einkauf von Managed IT Services lohnt sich

Managed IT Services sind im Kommen. Dies liegt hauptsächlich daran, dass sie die wachsende Komplexität von IT-Infrastrukturen mindern, für mehr Transparenz sorgen und freie IT-Ressourcen schaffen. Aufgrund dessen sind sich IT-Experten einig: Managed Service-Konzepte sind für jedes Unternehmen eine gute Entscheidung, wenn es um die IT geht.

Möchten Sie mehr über das Thema erfahren? Sind Sie an der Implementierung von Managed Services in Ihrem Unternehmen interessiert? Dann sind unsere Managed Service-Konzepte möglicherweise die passende Lösung für Sie. Unter der kostenfreien Rufnummer 0800 4883 338 beraten wir Sie gerne. Zudem erfahren Sie hier auf unserer Website mehr zu Managed Services von Schneider + Wulf.

Foto © George Morina @ Pexels

Lesedauer ‚Netzwerksegmentierung – ein Werkzeug der Netzwerksicherheit‘: 7 Minuten

Die Anzahl erfolgreicher Netzwerkangriffe wächst stetig und gilt für zunehmend mehr Betriebe. Ein ordentlich segmentiertes Unternehmensnetzwerk kann helfen, sensible Unternehmensbereiche extra abzusichern, die Reichweite von Netzwerkangriffen bedeutend einzuschränken sowie ihre möglichen Folgeschäden einzugrenzen. Aber wie gelingt genau genommen eine Netzwerksegmentierung? Für was wird sie genutzt und warum ist es empfehlenswert, sie zu implementieren? Die Antworten erhalten Sie in unserem folgenden Blogbeitrag.

Unternehmensnetzwerke werden mit wachsendem Ausmaß der Digitalisierung, steigendem Gebrauch moderner Cloud-Anwendungen sowie der Implementierung mobiler und internetfähiger Endgeräte immer komplexer. Die Auswirkung: Netzwerkadministratoren haben zunehmend damit zu ringen, die Sicherheit, Leistung, Ausfallsicherheit und Verfügbarkeit von Unternehmensnetzwerken aufrechtzuerhalten. Nebenbei kommt hinzu, dass sich Bedrohungsakteure diesen Sachverhalt gezielt zu Nutze machen mit dem Ziel, Betriebe zu attackieren, IT-Systeme zu kompromittieren, nützliche Geschäftsdaten zu erbeuten sowie Lösegeld zu erwirtschaften.

Wird ein Unternehmensnetzwerk attackiert, kann dies maximale Auswirkungen auf die betroffene Firma haben. Der jüngste Data Breach Report von IBM und dem Ponemon Institut beziffert die allgemeinen Ausgaben eines Datenlecks mit rund 4,25 Mio. US-Dollar – im Vergleich zum Vorjahr eine Erhöhung um 10 %. Hinzu kommt, dass der Radius und die Stärke von Netzwerkangriffen zunehmen. Genau das zeigen zum Beispiel die Internet Security Reports von WatchGuard Technologies. Daraus geht hervor, dass Netzwerkangriffe eine wachsende Gefahr für Betriebe darstellen.

Vor diesem Hintergrund gehört das Sicherstellen optimaler Netzwerksicherheit zu den Pflichtaufgaben eines jeden Betriebs. Ein probates Mittel dafür ist eine Netzwerksegmentierung.

Was versteht man unter Netzwerksegmentierung und warum ist sie wichtig?

Bei der Netzwerksegmentierung geht es um ein Netzwerksicherheitsverfahren, bei welchem ein physisches Unternehmensnetzwerk virtuell oder mit Hilfe von Hardware (Brücken, Switches, Router) in mehrere isolierte Segmente oder Subnetze unterteilt wird. In diesen individuellen Netzwerksegmenten kommen dabei unterschiedliche IT-Sicherheitsanforderungen, IT-Sicherheitsrichtlinien und IT-Sicherheitstools zum Tragen. So können Unternehmen verhindern, dass unbefugte Nutzer – neugierige Insider oder böswillige Internetkriminelle – Zugang zu kostbaren Unternehmensassets bekommen, etwa persönlichen Kundendaten, Finanzunterlagen des Betriebs und streng vertraulichem, geistigem Besitz.

Zudem kann die laterale Ausbreitung von Schadprogrammen nach einem erfolgreichen Netzwerkangriff von einem auf ein anderes Unternehmenssegment unterbunden werden. Das unterstützt Firmen bei der Vermeidung schwererer Schäden.

Verschiedene Arten der Netzwerksegmentierung

Die Netzwerksegmentierung ist grundsätzlich kein neuartiges Konzept der IT: Schon immer gab es bei der Konzeption von Netzwerkarchitekturen die Vorgabe, unterschiedliche Segmente materiell und/oder virtuell voneinander zu separieren. Hierbei kommen unterschiedliche Maßnahmen zum Einsatz. Zu den erfolgreichsten Ansätzen der Netzwerksegmentierung zählen insbesondere die physische Netzwerksegmentierung durch Subnetze und die logische Aufsplittung durch VLANs. Ferner bestehen noch eine Reihe weiterer Formen der Netzwerksegmentierung, die wir Ihnen in der folgenden Übersicht zusammengestellt haben.

Physische Netzwerksegmentierung durch Subnetze – Bei der physischen Segmentierung geht es darum, ein größeres Unternehmensnetzwerk in diverse Subnetze aufzuteilen, die mit einem Netzwerkgerät (z.B. Router) miteinander gekoppelt werden und auf IP-Adressebene agieren.

Logische Segmentierung durch VLANs – Bei der logischen Netzwerksegmentierung wird das Unternehmensnetzwerk auf der Switch-Ebene durch VLANs in mehrere logische Netzwerke mit unterschiedlichen Subnetzen geteilt.

Netzwerksegmentierung mit Hardware Firewalls – Bei der Netzwerksegmentierung können außer Switches zudem physische Firewalls zum Einsatz kommen. Jene werden hierfür im Unternehmensnetzwerk installiert, um interne Netzwerksegmente zu bauen, die meist funktionsgemäßen Netzwerksegmenten entsprechen und dazu dienen, die Angriffsoberfläche zu limitieren. So soll erreicht werden, dass sich Bedrohungen und Internetangriffe auf ein Netzwerksegment beschränken.

Netzwerksegmentierung mit Software-Defined-Network – Die Virtualisierungstechnologie Software-Defined-Network, knapp SDN, wird oft genutzt, um mehr Automatisierung und Orchestrierung im Unternehmensnetzwerk zu gewähren. Die Flexibilität von Software-Defined-Network ermöglicht eine zusätzliche sowie granulare Segmentbildung, wobei das Unternehmensnetzwerk in abertausende von Mikrosegmenten geteilt werden können. Gerade Betriebe mit begrenzten Ressourcen erhalten so die Möglichkeit, umfangreiche Segmentierungen (selbst Mikrosegmentierungen, siehe folgend) erfolgreich umzusetzen.

Mikrosegmentierung – Bei einer Mikrosegmentierung wird ein Unternehmensnetzwerk sehr feingliedrig, bis auf Anwendungsschicht sowie Benutzerebene, heruntergebrochen. Ein Zugriff auf die jeweiligen Netzwerksegmente wird dabei nur einer deutlich festgesetzten und eingegrenzten Gruppierung von Benutzern gestattet. Die Basis für die Mikrosegmentierung bilden Identität-Management-Systeme. Sie ermöglichen es, Nutzer bequem zu autorisierten Gruppierungen zusammenzuschließen sowie jenen danach (über sämtliche am Unternehmensnetzwerk angeschlossenen Technologien hinweg) Zugang auf bestimmte Geschäftsanwendungen und Services zu gestatten.

Welche Unternehmen benötigen eine Netzwerksegmentierung?

In den letzten Jahren hat die Netzwerksegmentierung enorm an Bedeutung gewonnen – besonders vor dem Grund zunehmender IT-Sicherheitsbedrohungen.

Grundsätzlich gilt: Jedes einzelne Unternehmen, das erhöhte Anforderungen an die IT-Sicherheit und Compliance hat, sollte sein Unternehmensnetzwerk segmentieren. Nichtsdestotrotz gibt es gewisse Unternehmen und Branchen, in welchen die Netzwerksegmentierung besonders essenziell ist. Hierzu gehören:

Anbieter im Gesundheitswesen – Unternehmen im Gesundheitswesen müssen auf den Schutz sensibler Patientendaten achten. Deshalb sollten sie hochsichere Segmente des Unternehmensnetzwerks durch eine geeignete Netzwerksegmentierung zusätzlich schützen.

Einzelhändler – Die PCI-Netzwerksegmentierung ist für Händler wichtig und umfasst eine strenge Kontrolle des Zugriffs auf Elemente des Netzwerks, in denen Karteninhaberdaten verwendet werden.

Darüber hinaus können Unternehmen die Netzwerksegmentierung nutzen, um Besuchern und Vertragspartnern einen Wi-Fi-Service zu offerieren. Wer sich mit Gastzugangsdaten einloggt, kommt in ein Mikrosegment, welches nur einen Zutritt auf das Internet erlaubt.

Schieben Sie Internetkriminellen einen mehrere Riegel vor!

In Zeiten von Cloud-Computing, Bring your own Device (BYOD) und dem Internet der Dinge (IoT) ist es zunehmend schwieriger, das Unternehmensnetzwerk zuverlässig vor Internetangriffen und -bedrohungen abzusichern. Die Netzwerksegmentierung ist eine leistungsstarke IT-Sicherheitsmaßnahme, welche Betrieben hilft, die IT-Infrastruktur von innen heraus sicherer zu machen.

Die Vorzüge der Netzwerksegmentierung liegen klar auf der Hand. Sie hilft dabei,

  • das Unternehmensnetzwerk vor Netzwerkangriffen zu schützen.
  • Schäden im Falle eines IT-Sicherheitsvorfalls durch weniger große Angriffsflächen zu kontrollieren und zu begrenzen.
  • große sowie komplexe Unternehmensnetzwerke administrierbar zu machen.
  • den Sicherheitsstatus eines Unternehmensnetzwerkes zu erhöhen.
  • die Observation des Netzwerkdatenverkehrs zu optimieren.
  • die Netzwerk-Leistung zu steigern.
  • technische Komplikationen zu orten.

Fazit: Keine Kompromisse bei der Netzwerksicherheit

Die Komplexität von Unternehmensnetzwerken steigt stetig. Zeitgleich werden IT-Sicherheitsanforderungen mit jedem neuen Anwender und jedem neuen Endgerät größer. Die Netzwerksegmentierung ist eine optimierte IT-Sicherheitsmaßnahme gegen Netzwerkangriffe, Ransomware-Infektionen sowie andere externe und interne Bedrohungen. Aber Vorsicht: Eine Netzwerksegmentierung ist kein Allheilmittel und sollte immer mit regelmäßigen Systemupdates, starken Zugangsdaten und Sicherheitslösungen zur Erkennung von Viren, Spam-E-Mails sowie Internetangriffen kombiniert werden.

Wollen auch Sie Ihr Unternehmen mit einer durchdachten Netzwerksegmentierung schützen? Oder sind Sie auf der Suche nach einer führenden Lösung in Sachen Netzwerksegmentierung? Kontaktieren Sie uns gerne unter der kostenfreien Rufnummer 0800 4883 338, wir beraten Sie gerne!

Foto © Laura Tancredi @ Pexels

Lesedauer ‚Der Klassiker, wenn es um Text geht – Microsoft Word im Detail‘: 5 Minuten

Wenn es um die Bearbeitung von Texten auf dem PC geht, kommt man um Microsoft Word nicht herum. Mit einem Marktanteil von 85 Prozent ist Word das meistgenutzte Textverarbeitungswerkzeug in deutschen Unternehmen. Die Computersoftware war, als sie zu Beginn der 90er Jahre auf den Markt kam, bahnbrechend und wurde seitdem kontinuierlich fortentwickelt und an die Bedürfnisse der Nutzer angepasst. Ungeachtet diverser Alternativlösungen kann bis dato kein Mitbewerber-Produkt Word den Rang ablaufen. Aber was ist der Schlüssel zum Erfolg von Microsoft Word?

Word aus dem Hause Microsoft ist ein Textverarbeitungsprogramm mit Elementen des Microsoft-Office-Pakets. Word ist sowohl für Windows als auch für macOS verfügbar. Darüber hinaus gibt es auch mobile Apps für Android, iOS und Windows Phone. Fast immer wenn es um digitale Textverarbeitung geht, ist Word eine geeignete Wahl. Die Einsatzgebiete sind groß und langen vom privaten bis in den geschäftlichen Sektor: Von der Erstellung von Zeitschriften über Prospekte, Einladungen bis hin zu Imagebroschüren.

Um all diesen Publikationen ein individuelles Aussehen verleihen zu können, verfügt Word über eine Vielzahl an Formatierungs- und Designoptionen. Zudem besteht die Möglichkeit einer logischen Strukturierung über Inhaltsverzeichnisse.

So entstand das Textverarbeitungsprogramm Word

Der Ausdruck WYSIWYG hat durch Word globale Berühmtheit erlangt. WYSIWYG ist die Abkürzung für ‚What You See Is What You Get‘. Im Klartext: Das, was man während der Bearbeitung eines Dokuments in Word sieht ist exakt das, was man am Ende als Resultat erhält, wenn man es ausdruckt oder als PDF abspeichert. Heutzutage mag so etwas selbstverständlich sein – als Word entwickelt wurde, war es das nicht. Diese Form der ‚Echtzeitdarstellung‘ war zum Markstart von Microsoft Word 1989 vollkommen bahnbrechend (und brachte etliche Computer an ihre Leistungsgrenze). Unterschiedliche Formatierungen testen? Ging damals nur durch Drucken und Nebeneinanderlegen der verschiedenen Druckergebnisse.

Das Ergebnis schon im Verlauf des Bearbeitungsprozesses erblicken zu können, war zu Beginn der 90er absolut neuartig und hob die Software in Sachen ‚Usability‘ – also in den Bereichen Nutzerfreundlichkeit und Handhabbarkeit – auf ein völlig neues Niveau.

Übrigens: Angesichts der einzigartigen Erfolgsgeschichte von Word hat Microsoft den Quellcode zu Microsoft Word for Windows 1.1a 2014 dem Computer History Museum gestiftet. Er steht dort für wissenschaftliche Zwecke zum Download bereit.

Wie arbeitet man mit Microsoft Word?

Mit Word lassen sich Texte formatieren und mit individuellen Designs versehen. Zudem verfügt die Anwendung über eine umfassende Rechtschreib- und Grammatikprüfung mit der Möglichkeit, diese in ihrer Funktion vollständig oder teilweise zu automatisieren. Word beachtet hier nicht bloß die Orthografie, sondern genauso Satzstruktur, Groß- sowie Kleinschreibung sowie Zeichensetzung.

Eine große Arbeitserleichterung bei der Arbeit an Texten, insbesondere in der Gruppe: Die ‚„Änderungen nachverfolgen‘-Funktion. Einmal über ‚Überprüfen‘ > ‚Änderungen nachverfolgen‘ aktiviert, protokolliert Word sämtliche Anpassungen, welche an einem Text vorgenommen werden. Gepaart mit einer Kommentar-Funktion (‚Überprüfen‘ > ‚Neuer Kommentar‘) ist Word das perfekte Handwerkszeug zur kooperativen Dokumentenarbeit.

Die sog. ‚Modernen Kommentare‚ machen dieses Feature sogar noch leistungsfähiger: Kommentare werden nach Versender untergliedert und lassen sich in Threads zusammenschließen. Arbeitet man an einem in der Cloud gespeicherten Dokument, können Personen per @mention direkt in einem Kommentar genannt werden und man kann Teammitgliedern aus dem Word-Dokument heraus Arbeiten zuordnen.

Holen Sie mehr raus aus Microsoft Word

Nachfolgend ein paar Tipps, welche Ihnen in Ihrer täglichen Arbeit mit Word eine Menge Zeit sparen können:

1. Vorlagen nutzen: Microsoft stellt unzählige Layouts für Word kostenlos zur Verfügung (https://templates.office.com/?omkt=de-DE): Aus über 40 Kategorien kann man unter dutzenden von Designvorlagen für Kalender, Poster, Flyer, Unternehmenpläne, Broschüren, Einladungen und etlichen weiteren wählen.

2. Zeit sparen durch Tastenkürzel: STRG + C, STRG + V und STRG + S kennt mit Sicherheit jeder. Aber wussten Sie, dass Sie mit Markern eines gewählten Absatzes und STRG + L den Text linkszentriert setzen, während der Inhalt durch STRG + R rechtsbündig erscheint? Einen Textabstand von 1,5 schaffen funktioniert ebenfalls ganz flink und mühelos über STRG + 5. Shortcuts sparen – sinnvoll eingesetzt – sehr viel Zeit. Eine Übersicht sämtlicher zur Bereitschaft stehenden Tastenkombinationen in Word finden Sie hier.

3. Formatvorlagen individualisieren: Insbesondere im Unternehmensumfeld, wo ein gewisses Corporate Design berücksichtigt werden sollte, bieten sich Formatvorlagen an, um Dokumenten einen homogenen Anstrich zu verleihen. Einmalig in der Formatvorlage bestimmt, ist beispielsweise die Hauptüberschrift ganz automatisch in der Schriftart Verdana mit 24 Pt linksbündig und der Fließtext mit 12 Pt im Blocksatz angelegt. Richtig eingesetzt gewährleisten Formatvorlagen ein einheitliches Äußeres und sauber strukturierte Dokumente.

4. Blindtext einfügen: Wer viel mit Word arbeitet weiß, wie sinnvoll sog. Blindtext (Text ohne Sinngehalt mit dem Zweck, Textmenge grafisch zu simulieren) bei der Erstellung eines Layouts ist. ‚=rand(2,3)‘ am Beginn einer neuen Textzeile eingetippt und ‚Enter‘ gedrückt, erzeugt Blindtext in Word schnell und problemlos. Die erste Zahl steht dabei für die Anzahl der Absätze, der zweite Wert gibt die Anzahl der Sätze pro Absatz an.

5. Cursor-Position merken: Eine Funktion, welche besonders im Job an mehrseitigen Dokumenten enorm hilfreich ist, ist die Merkfunktion für die Position des Cursor. Word speichert die letzten vier Cursor-Standorte automatisch mit. Aufrufen kann man diese durch Drücken von Shift + F5.

6. Speichern, speichern und nochmal speichern: Wer häufig mit Word arbeitet, hat das vielleicht schon einmal erlebt: Zig Seiten Text sind fertig geschrieben, doch ausgerechnet an diesem Punkt hängt sich der Rechner auf oder der Akku vom Laptop ist leer. Dokument abgespeichert? Fehlanzeige. Deshalb generell der Tipp: In regelmäßigen Abständen speichern (trotz der Funktion ‚Automatisches Speichern‘)! Und da viele über einen Zeitraum gestreut etliche Word-Dokumente öffnen, zum Schluss noch ein Hinweis, wie man alle geöffneten Word-Dokumente zum Feierabend hin auf einmal speichert. Bis zur Version 2003: Shift-Taste gedrückt halten und Klick auf ‚Datei‘. Dann finden Sie in der Liste die Befehle ‚Alle speichern‘ und ‚Alles schließen‘. Ab Version 2007 muss dieses Feature einmalig eingerichtet werden, ist dann aber per Icons in der Schnellzugriffsleiste verfügbar:

  • Klicken Sie auf den Pfeil der Drop-Down-Liste rechts neben der Schnellzugriffsleiste
  • Wählen Sie den Eintrag ‚Weitere Befehle‘
  • Im Fenster wählen Sie in der Drop-Down-Liste ‚Befehle auswählen‘ den Eintrag ‚Alle Befehle‘
  • Scrollen Sie nach unten wählen Sie den Befehl ‚Alle speichern‘ bzw. ‚Alles schließen‘
  • Fügen Sie die Befehle mit der Schaltfläche ‚Hinzufügen‘ der Schnellzugriffsleiste hinzu
  • Bestätigen Sie die Änderungen im Fenster mit ‚OK‘

Zum Abschluss sei angemerkt, dass Microsoft Word natürlich nicht das einzige Textverarbeitungsprogramm ist, das es gibt: Alternativen sind beispielsweise Pages von Apple sowie Textmaker von der Softmaker-Office-Suite (die einzige in Deutschland entwickelte Software dieser Kategorie). Weitere Word-Alternativen sind das kostenfreie Computerprogramm OpenOffice Writer von Apache sowie der quelloffene LibreOffice Writer und LaTeX. Im Gegensatz zu Word verfügt Letzteres jedoch nicht über ein WYSIWYG-Prinzip verfügt und ist deshalb deutlich komplizierter in der Anwendung.

Möchten Sie mit Microsoft Word produktiver werden? Kommen Sie gerne unter der kostenfreien Rufnummer 0800 4883 338 auf uns zu, wir beraten Sie gerne (und verraten Ihnen noch weitere nützliche Handhabungstipps)!

Foto © Pixabay @ Pexels

Lesedauer ‚HCI – Wissenswertes zum Thema Hyperkonvergente Infrastrukturen‘: 5 Minuten

Das Rechenzentrum bildet das Herzstück vieler Unternehmen. Allerdings wird Ihr Betrieb mit zunehmender Digitalisierung von unternehmensinternen Vorgängen sowie dem Gebrauch einer Vielzahl unterschiedlichster Infrastrukturkomponenten diverser Hersteller ständig komplexer. Für viele stellt sich daher die Frage, wie man schnell und einfach für erweiterte Leistungsfähigkeit sorgen kann, ohne dabei IT-Kosten oder die besagte Komplexität weiter nach oben zu treiben. An dieser Stelle kommen hyperkonvergente Infrastrukturen ins Spiel. Um was es bei hyperkonvergenten Infrastrukturen geht, wo die Unterschiede zwischen hyperkonvergenten und konvergenten Infrastrukturlösungen liegen und welche Vorteile hyperkonvergente Infrastrukturen bieten, erfahren Sie in diesem Artikel.

Im Zeitalter von Industrie 4.0, Big Data, dem Internet der Dinge & Co. hängt der ökonomische Erfolg von Unternehmen in erster Linie von der Kompetenz ab, neue Anwendungen, Dienstleistungen und Waren in ständig knapperen Zeiträumen verlässlich sowie flexibel bereitzustellen. Allerdings setzt das eine IT-Systemlandschaft voraus, welche den ansteigenden Anforderungen unseres digitalen Zeitalters standhält und sich durch hohe Skalierbarkeit, Flexibilität sowie Ausfallsicherheit auszeichnet.

Da die konventionelle sowie mehrstufige Rechenzentrumsarchitektur mit ihrer vielschichtigen, heterogenen und steifen Systemlandschaft den modernen Ansprüchen immer weniger gerecht wird, gewinnen hyperkonvergente Infrastrukturen, kurz HCI (Hyper-Converged Infrastructure), immer mehr an Bedeutung – wie die Erkenntnisse einer aktuellen Analyse von techconsult zeigen.

Dieser Analyse zufolge denken bereits bereits zwei Drittel der Unternehmen in Deutschland über denUmstieg auf hyperkonvergente Infrastrukturlösungen nach – oder befinden sich bereits in der Planung.

Das ist auch nicht überraschend, denn einem Whitepaper der International Data Corporation, kurz IDC, entsprechend verzeichnen Unternehmen, welche auf eine solche hyperkonvergente Infrastrukturlösung wechseln, etliche Verbesserungen: Bis zu 50 % niedrigere Unterhaltskosten über fünf Jahre, 91 % geringere spontane Ausfallzeit, 50 % schnellere Entwicklungslebenszyklen für neue Features, 71 % bessere IT-Infrastruktur-Teams sowie 93 % weniger Personalzeit für die Bereitstellung neuer Server.

Was sind hyperkonvergente Infrastrukturen?

Bei hyperkonvergenten Infrastrukturen dreht es sich um den Architekturansatz, bei dem verschiedene Infrastrukturkomponenten des Rechenzentrums wie Server, Datenspeicher, Netzwerk, Virtualisierungsplattform und Managementsoftware in einem dezidierten System gebündelt werden. Dabei setzen hyperkonvergente Infrastrukturen entschlossen auf die Virtualisierung und eine software-zentrierte Gestaltung. Dies bedeutet, dass sämtliche Infrastrukturkomponenten sowie eingebettete Technologien von der Hardware entkoppelt und als flexible Komponenten auf die Schicht des ‚Hypervisors‘ übertragen werden. Die Hypervisor-Software bildet die gesamte IT-Infrastruktur in einer virtuellen Umgebung ab und verteilt die Rechen- sowie Speicherressourcen gleichmäßig auf die unterschiedlichen Infrastrukturkomponenten.

Hyperkonvergente Systeme funktionieren somit grundsätzlich wie Cloud-Dienste: Auf der abstrahierten Ebene werden Services bereitgestellt, welche auf virtuellen Servern funktionieren, wobei die Hardware-Lösung im Hintergrund für den Nutzer weder sichtbar noch von Bedeutung ist.

Inwiefern unterscheidet sich eine hyperkonvergente von einer konvergenten Infrastruktur?

Obgleich konvergente wie auch hyperkonvergente Infrastrukturlösungen die Komplexität heterogener Rechenzentren lösen, gibt es ebenso erhebliche Unterschiede hinsichtlich des Umgangs mit Ressourcen. Bei einer konvergenten Infrastruktur werden die jeweiligen Infrastrukturkomponenten aufeinander abgestimmt und in der sogenannten Appliance orchestriert. Dabei bleiben selbige grundsätzlich autonom, sodass diese abgekoppelt benutzt oder skaliert werden können – doch ebenso administriert sowie gewartet werden müssen. In einer hyperkonvergenten Infrastrukturlösung dagegen steht, wie bereits erörtert, die Software im Mittelpunkt und gestattet die Verwaltung, Steuerung sowie Beaufsichtigung sämtlicher Komponenten und zugehörigen Technologien von einem inneren System aus.

Über eine engere Einbeziehung der jeweiligen Softwarekomponenten schreiten hyperkonvergente Systeme über die reine Rechenkapazität, den Speicher, das Netzwerk sowie die Virtualisierung hinaus. Auf diese Weise beinhalten hyperkonvergente Systeme meist auch Technologien etwa Daten-Deduplizierung, Datenkomprimierung für einen Transport über das Computernetz oder aber WAN-Optimierung. Außerdem enthalten hyperkonvergente Infrastrukturlösungen Gateways für die Cloud-Anbindung oder lassen sich in ein Desaster-Recovery-Konzept einbinden, das mehrere Rechenzentren enthält. Die Verwaltung sowie Bedienung der ganzen IT erfolgt bei HCI über eine relevante Software-Plattform, häufig in Form eines Web-Frontends.

Mehr Performance und Flexibilität mit hyperkonvergenten Infrastrukturen

Hyperkonvergente Infrastrukturen haben sich in den vergangenen Jahren zu einer wahrhaft innovativen Option zur herkömmlichen Rechenzentrumsinfrastruktur entwickelt. Die Vorzüge von hyperkonvergenten Systemen sprechen für sich – hyperkonvergente Infrastrukturen sind beispielsweise

  • skalierbar, flexibel und variabel, weil innovative IT-Services und Server bei Bedarf rasch zur Verfügung gestellt sowie eingebunden werden können.
  • effizient und entlastend, weil sie die Komplexität mindern und einen deutlich kleineren administrativen Aufwand herbeiführen. Außerdem lassen sich Standard-Anwendungen automatisieren.
  • leistungsstark, weil sämtliche Systemkomponenten enger untereinander verzahnt sind, zudem werden erforderliche Ressourcen optimal verteilt.
  • kosteneffizient, weil Betriebe nur für Ressourcen zahlen, die sie de facto benötigen.
  • hochverfügbar und sicher, da zum einen Backup-Vorgänge und Wiederherstellungsfunktionen bereits vorinstalliert sowie automatisiert und zum anderen sämtliche Komponenten digital verfügbar sind. Sodass können Anwendungen und Services ohne Datenverlust oder Systemausfälle gewechselt werden.

Der Umstieg auf HCI lohnt sich

Für agile Unternehmen sind Flexibilität sowie Skalierbarkeit relevante Aspekte für die Wettbewerbsfähigkeit – und somit letztlich für den Geschäftserfolg. Hyperkonvergente Infrastrukturen formen hierzu als schlanke ‚All-in-One-Lösung‘ eine solide Grundlage. Dank der guten Skalierbarkeit gepaart mit der vereinfachten Verfügbarmachung von IT-Ressourcen und einem einfachen Monitoring und Organisieren sind hyperkonvergente Infrastrukturen für sämtliche Betriebe, welche das Rechenzentrum zukunftssicher sowie flexibel positionieren möchten, sinnvoll.

Wollen auch Sie Ihre Rechenzentren mit der hyperkonvergenten Infrastrukturlösung bündeln und so langfristig IT-Kosten senken? Haben Sie weiterführende Fragen zum Thema? Kontaktieren Sie uns unter 0800 4883 338 (kostenfrei innerdeutsch)!

Foto © Digital Buggu @ Pexels

Lesedauer ‚5G – State of the Art im Mobilfunk‘: 4 Minuten

Portable Endgeräte ohne mobilen Breitbandzugang? Heutzutage unvorstellbar! Um mobiles Datenvolumen auf Handys, Tablets, Laptops & Co. einsetzen zu können, kommen mittlerweile unterschiedliche Mobilfunktechniken und Mobilfunkstandards zum Einsatz: GPRS, EDGE, UMTS, LTE und 5G. Was die einzelnen Mobilfunknetz-Akronyme bedeuten, wo genau die Unterschiede liegen und welcher Mobilfunkstandard der beste zu sein scheint, lesen Sie im nachfolgenden Beitrag.

Die Internetnutzung von unterwegs ist aus dem Geschäftsleben nicht mehr wegzudenken. Egal ob Kundenanfragen bearbeiten, Dokumente revidieren oder Termine planen: Dank der zunehmenden Verbreitung zeit- und ortsunabhängigen Arbeitens, dem verstärkten Gebrauch dynamischer Endgeräte und der Palette innovativer Office- sowie Produktivitäts-Apps, ist es heutzutage in etlichen Unternehmen gängig, mit mobilem Internet zu agieren.

Die Folge: Der ‚mobile Traffic‘ ist in den letzten zehn Jahren um beinahe das 300-fache gewachsen.

Aktuellen Medienberichten zufolge (u.a. das Handelsblatt sowie das SPIEGEL Netzwerk wurden 2021 allein in Deutschland 1,4 Milliarden Gigabyte Daten über das Vodafone-Netz, rund 1,8 Milliarden Gigabyte über die Telekom-Netze und mehr als zwei Milliarden Gigabyte über Telefónicas O2-Netz befördert.

Doch: Mobiles Internet ist nicht gleich mobiles Internet. Abhängig von Dienstleister, Gegend und Tarif werden die portablen Daten über verschiedene Mobilfunknetze übermittelt, die wiederum auf individuellen Mobilfunktechniken sowie Mobilfunkstandards beruhen – und sich dementsprechend durch unterschiedliche Geschwindigkeiten differenzieren.

5G in Kürze

5G ist der aktuell jüngste Standard für Mobilfunknetze und wird auch als 5. Generation der Mobilfunktechnik bezeichnet. Wie dessen Vorgänger Global System for Mobile Communications (GSM), General Packet Radio Service (GPRS), Enhanced Data Rates for GSM Evolution (EDGE), Universal Mobile Telecommunications System (UMTS) und Long Term Evolution bzw. Long Term Evolution Advanced (LTE/LTE+) auch, wurde 5G durch die Standardisierungsorganisation 3rd Generation Partnership (3GPP) fortentwickelt und standardisiert.

Das Ziel von 5G ist es, neue Maßstäbe bezüglich Datengeschwindigkeit, Latenzperiode, Endgerätedichte, Verfügbarkeit, Energieeffizienz, Beständigkeit und Datensicherheit zu setzen. Damit geht der neue Mobilfunkstandard erheblich über digitale Telefonie und schnelles mobiles Internet hinaus. Zum einen gilt er als Antwort auf den weltweit steigenden Traffic, welcher etwa durch das Internet der Dinge, Streamingdienste und ‚Big Data‘ erzeugt wird. Zum anderen stellt er die Weichen in Richtung mobile Gigabyte-Welt.

5G kann mehr als 4G, LTE und Co.

5G bietet im Vergleich zu den Vorgängerstandards LTE (4G) und UMTS (3G) hohe Datenraten von zehn Gbit pro Sekunde sowie Latenzzeiten von unter einer Millisekunde. Dadurch wird erstmalig Echtzeitkommunikation zwischen Personen, Endgeräten, Maschinen und Dingen machbar. Mit dem Ziel, Reichweite zu erhöhen, nutzt 5G ein breites Spektrum an neuen technischen Methoden, wie zum Beispiel:

Orthogonal Frequency Division Multiplexing (OFDM) – Bei OFDM handelt es sich um eine Modulationstechnik, die sehr flexibel funktioniert und die Kombination verschiedener variabler Trägerfrequenzen mit unterschiedlichen Bandbreiten und Intervallen ermöglicht.

Massive Multiple Input Multiple Output, (MIMO) – MIMO erlaubt durch die geschickte Ausnutzung vieler Sende- sowie Empfangsantennen den Datenaustausch über parallele Verbindungen und sorgt darüber hinaus für einen erhöhten Datendurchsatz.

Beamforming – Mit Beamforming wird die Übertragungsleistung in bestimmte Raumrichtungen gebündelt und verbessert. Folglich lassen sich Signale ganz gezielt in Richtung eines mobilen Endgeräts strahlen.

Small Cells – Small Cells komprimieren vorhandene Antennenstandorte bei äußerst hoher Nachfrage, um ihre Netzwerkkapazität zu erhöhen sowie Netzüberlastungen bei Großveranstaltungen oder in Bahnhöfen, Airports sowie Innenstädten solide zu umgehen.
Network Slicing – Beim Network Slicing wird das Mobilfunknetz bedarfsabhängig in anwendungsspezifische Arten eingeteilt, mit dem Ziel, verschiedene virtuelle Teilnetze parallel zu betreiben. Die Unterteilung gestattet es, unterschiedlichsten Nutzungen genau die passenden Ressourcen bereitzustellen.

Die Vorteile von 5G gegenüber LTE liegen klar auf der Hand.

Für Firmen:

  • Datenraten von bis zu 10 Gbit pro Sekunde
  • Latenzzeiten unter 5 Millisekunden
  • Beständigkeit bis zu 99,999 %
  • Verbesserte M2M (‚Maschine-zu-Maschine#Kommunikation‘) in Echtzeit, z.B. zur Vertigungsautomatisierung
  • Optimierte Verknüpfung und Steuerung von Produktion, Lager und Logistik
  • Garantierte Netzverfügbarkeit über sog. private Campusnetze (z.B. besondere 5G-Subnetze für örtliche Firmengelände)

Für Verbraucher:

  • Schnelleres mobiles Hochgeschwindigkeitsnetz für Kommunikation und multimediale Anwendungen wie zum Beispiel mobiles Gaming, Streaming, 4K-Video
  • Optimierte Netzabdeckung und Netzstabilität
  • Innovative Nutzungsszenarien im Alltag (z.B. Augmented Reality in Echtzeit)
  • Geringere Strahlungsdisposition durch die Verteilung auf viele kleinere Funkzellen
  • Künftig noch bessere Mobilfunktelefonie durch Vo5G (Voice over 5G)

Mobilfunk – eine Ahnengalerie

Rückblickend wird etwa alle zehn Jahre eine neue, maßgebliche Mobilfunkgeneration entwickelt und eingeführt. Anfang der 1990er Jahre wurde mit dem GSM-Standard das allererste digitale Mobilfunknetz ins Leben gerufen. Außer der Telefonie war mit diesem Mobilfunkstandard nun auch mobile Datenübertragung realisierbar. Allerdings dauerte das sehr lange, weshalb GSM zunächst mit dem Mobilfunkstandard GPRS und später mit Edge ergänzt wurde. 2000 wurde mit UMTS die dritte Mobilfunkgeneration etabliert. Mit UMTS war es zum ersten Mal möglich, ‚mobil online‘ zu sein. Mit der Einführung der 4. Mobilfunkgeneration (LTE Advanced) wurden die Innovationen des 3G-Netzes nochmals optimiert und es war möglich, noch größere Informationensmengen zu übertragen.

Der Mobilfunkstandard für die Digitalisierung

Die 5. Mobilfunkgeneration wird allgemein nicht nur als Evolution der bisherigen Mobilfunkstandards betrachtet, sondern stellt vielmehr eine Revolution des Mobilfunksektors dar: Aufgrund riesiger Datenraten, kurzer Latenzzeiten sowie größerem Frequenzspektrum zählt er als elementarer Baustein für die künftige Digitalisierung. Aber nur, weil 5G gerade der aktuelle Mobilfunkstandard ist heißt das keinesfalls, dass nicht schon jetzt an künftigen Technologien gearbeitet wird.

Haben Sie Fragen zum Thema? Kontaktieren Sie uns unter 0800 4883 338!

Foto © Z z @ Pexels

Lesedauer ‚Geotargeting und Geoblocking … schon einmal davon gehört?‘: 3 Minuten

Kennen Sie die Begriffe ‚Geotargeting‘ bzw. ‚Geoblocking‘? Kann man die Technik als Unternehmen sinnvoll nutzen? In diesem Beitrag rund um das Thema liefern wir Antworten auf diese Fragen – und viele wertvolle Empfehlungen aus der Praxis.

Geotargeting und Geoblocking – was sich dahinter verbirgt

Jeder hinterlässt beim Surfen im World Wide Web Spuren. Mit Hilfe der IP-Adresse kann (zunächst einmal) eindeutig nachverfolgt werden, von wo aus auf der Welt z.B. eine Website aufgerufen wird. Die IP-Adresse ist im Grunde eine Kombination aus Fingerabdruck und Postleitzahl. Auf Grundlage dieser Technik werden Internetseiten automatisch in der korrekten Sprache angezeigt oder man wird beim Zugriff aus Deutschland unaufgefordert auf eine .de-Domain geleitet. Dieser Vorgang nennt sich ‚Geotargeting‘.

Umgekehrt kann diese Information über die Herkunft eines Websitebesuchers aber ebenso genutzt werden, um ihn oder sie (je nach zuvor definiertem Herkunftsgebiet oder Land) von bestimmten Angeboten auszuschließen – dies nennt man ‚Geoblocking‘. Konkret bedeutet das: Will man aus einem entsprechenden Land heraus eine Website aufrufen, kann einem der Zugang wegen der geographischen Herkunft (festgestellt anhand des IP-Adressbereichs) verweigert werden.

Die Technik kommt in der Praxis hauptsächlich zum Einsatz, um lizenzrechtliche Probleme auf Grundlage des Urheberschutzes zu vermeiden. So kann es passieren, dass ein bestimmter Clip auf YouTube beim Zugriff aus Deutschland nicht angezeigt wird – mit dem Hinweis ‚Dieser Inhalt ist in Ihrem Land nicht verfügbar‘. Ebenso kann man während des Auslandsurlaubes womöglich nicht auf ein Video in der Tagesschau-Mediathek zurückgreifen – denn die Beiträge der öffentlich-rechtlichen Sender sollen auch nur für Benutzer in Deutschland abrufbar sein.

Wie ist das mit der rechtlichen Lage?

Es kann vorkommen, dass man bei der Internet-Suche nach einer Waschmaschine einen erhöhten Preis aufgelistet bekommt, wenn man aus Deutschland auf den Onlineshop zugreift, als wenn man dieselbe Website zum Beispiel aus Malta aufruft. Das war der EU ein Dorn im Auge, da es sich um so etwas wie Ungerechtigkeit handelt. Aus diesem Grund wurde vor einigen Jahren eine so bezeichnete ‚Geoblocking-Verordnung‘ in allen EU-Mitgliedstaaten ins Leben gerufen – eine Regelung, welche die Benachteiligung von Käufern aus der EU angesichts ihrer Staatsbürgerschaft oder des Wohnsitzes verhindern soll (Link zur Verordnung (EU) 2018/302 des Europäischen Parlaments und des Rates vom 28. Februar 2018 über Maßnahmen gegen ungerechtfertigtes Geoblocking).

Die Datenschutzgrundverordnung (DSGVO) der EU hat diese Regulierungen nochmals konkretisiert. Sie beschreibt: Innerhalb aller Mitgliedsstaaten der Europäischen Union ist Geoblocking unzulässig. Die Begründung: Geoblocking hindert die EU-Bewohner daran, Produkte außerhalb des eigenen Landes zu fairen Konditionen zu kaufen. Es gibt jedoch Ausnahmen, wie bereits erwähnte Film- oder Fernsehangebote.

‚Dieser Service ist in Ihrem Land nicht verfügbar‘ – oder doch?!

Gibt man den Begriff Geoblocking in einer Suchseite ein, trifft man vornehmlich auf Erklärungen sowie Werkzeuge, wie man Geoblocking gezielt umgehen kann. Geschrieben für Menschen, die ungehindert von überall aus der Welt auf sämtliche Angebote im Internet zurückgreifen wollen, ohne staatlichen bzw. lizenzrechtlichen Regeln unterworfen zu sein. Technisch möglich ist das über einen sog. Proxy-Server, welcher im nicht von der Sperrung betroffenen Staat steht, oder einen VPN-Tunnel (Virtual Private Network), der die eigene IP-Adresse verdeckt und so vorgibt, an einem anderen Standort zu sein, als man in Wirklichkeit ist.

Derartige Verschleierungstaktiken sind ganz bestimmt nicht im Interesse der Websitebetreiber, aber auch nicht gesetzwidrig. Während es zum Geoblocking in der EU bereits Regulierungen gibt, fehlen selbige bisher, was die technischen Optionen zur Vermeidung von Geoblocking betrifft. Sofern es kein anderweitig lautendes Urteil gibt, gilt: Geoblocking durch Einsatz eines Proxy-Servers oder auch VPN zu umgehen, ist legal. Daher gehen ein paar Websitebetreiber mittlerweile dazu über, eine Vermeidung von Geoblocking in ihren allgemeinen Geschäftsbedingungen zu untersagen.

Sollte man Geoblocking im Unternehmen nutzen?

Neben den unzählbaren Anleitungen zur Vermeidung von Geoblocking stößt man bei diesem Thema gelegentlich auf Schlagzeilen wie: ‚Russische Hacker mit Geoblocking stoppen!‘. Klingt nach einer guten Idee, oder? Problemlos Zugriffe aus sämtlichen Ländern, in welchen keine Beschäftigten stationiert sind, sperren und so die persönliche IT-Infrastruktur schützen. Das private Unternehmensnetzwerk durch Zugriffe von fremden IP-Adressen zu sperren, ist eine gängige und unkomplizierte Maßnahme – sie kann und darf dennoch nur ein kleiner Baustein im Rahmen eines umfassenden IT-Sicherheitsplanes sein. Denn: Wie schon erwähnt, kann man Geoblocking mühelos umgehen. Hacker, woher auch immer jene stammen mögen, verwenden für die Angriffe in den wenigsten Situationen ihre echte IP, sondern verhüllen ihre Herkunft in der Regel; unter anderem, indem sie von kompromittierten Webservern aus attackieren.

Geoblocking ist zwar sinnvoll, allein aber auf keinen Fall ein effizientes Instrument zum Schutz Ihrer IT.

Um die unternehmerische IT abzusichern, ist vielmehr eine ausführliche Prüfung des Netzwerkzugriffs über die Firewall nötig. So sollte beispielsweise zum Schutz vor sog. DDos-Angriffen in der Firewall konfiguriert sein, dass die Menge der Verbindungen pro IP-Adresse beschränkt ist. Außerdem sollte die Firewall turnusmäßig gewartet werden. Firmware-Updates und eine Aktualisierung der geogeblockten IP-Adressen sollte regelmäßig durchgeführt werden, um einen sicheren Schutz dauerhaft zu gewährleisten.

Nehmen Sie unter 0800 4883 338 kostenfrei Kontakt mit uns auf, falls Sie Fragen zum Thema haben oder wenn Sie sich nicht sicher sind, ob ‚Geoblocking‘ in Ihrem Unternehmen überhaupt schon konfiguriert ist. Wir beraten Sie gerne!

Foto © Elina Sazonova @ Pexels

Lesedauer: 2 Minuten

Ab dem 01. Oktober 2022 werden folgende Protokolle deaktiviert: Outlook, EWS, RPS, POP, IMAP und EAS in Exchange Online.

Wen oder was betrifft das? Alle Programme, Apps oder Dienste, die E-Mails generieren und diese per simpler Standardauthentifizierung (Benutzername und Passwort) verschicken.

Die Standardauthentifizierung wird durch die sogenannte ‚Modern Authentication‘-Methode (basierend auf OAuth 2.0) ersetzt.

Was ist für Sie zu tun? Identifizieren Sie die betroffenen Anwendungen in Ihrem Unternehmen und kontaktieren Sie die jeweiligen Hersteller bezüglich eines adäquaten Updates. Alternativ bzw. wenn besagte Anwendungen nicht weiter unterstützt werden, sollten Sie rechtzeitig auf Anwendungen wechseln, welche ‚Modern Authentication‘ unterstützen.

Als Kunde von Schneider + Wulf informieren wir Sie proaktiv (im Rahmen von Projekten oder Statusbesprechungen) in Bezug auf die Abschaltung veralteter Authentifizierungsmethoden. Handlungsbedarf besteht in diesem Zusammenhang ganz konkret in Bezug auf veraltete SuperOffice-Installationen unter Einsatz der Schnittstellen ‚Exchange-Sync‘ oder ‚Superoffice Ticketsystem‘.

Sie haben Fragen oder möchten wissen, ob Ihr Unternehmen von dieser Abschaltung betroffen ist? Kontaktieren Sie uns unter 0800 4883 338 kostenfrei oder per Mail an info@schneider-wulf.de. Eine weiterführende Erklärung seitens Microsoft zu dieser Angelegenheit finden Sie hier.

Foto © Steve JohnsonPexels

Lesedauer: 6 Minuten

Dropbox, Google Drive, iCloud … Cloud-Dienste gibt es mittlerweile viele. Die Lösung aus dem Hause Microsoft auf dem Cloud-Storage-Markt nennt sich OneDrive. Was kann OneDrive? Beeindruckt die Cloud-Lösung in Sachen Datenschutz? Bewährt sich der Service tendenziell für private oder für geschäftliche Anlässe? Wir haben OneDrive genau unter die Lupe genommen.

Mit Unterstützung des von Microsoft bereitgestellten Cloud-Dienstes OneDrive kann man beliebige Daten in der Cloud speichern, damit diese ortsunabhängig auf Abruf verfügbar sind – per Browser, Client-Anwendung oder OneDrive-App (erhältlich für WindowsPhone, iOS und Android).

Cloud-Storage dient aber nicht nur dem reinen Datenzugriff von überall. Vor allem im Falle eines Endgeräteverlusts oder -defekts ist es enorm wertvoll, wenn wichtige Daten an einem anderen Ort, beispielsweise eben in OneDrive, gespeichert sind. Eine Funktion, welche privat, vor allem aber geschäftlich extrem nützlich ist (Vorsicht: Ein Backup wird damit dennoch nicht ersetzt!).

Damit sämtliche Daten immer und überall synchron sind, kann man ganz einfach einen als ‚OneDrive-Ordner‘ bezeichneten Ordner auf dem Computer anlegen. Alle Dateien, die in diesen Ordner bewegt werden, landen dann automatisch in der OneDrive-Cloud. In dem Moment, wo Daten auf irgendeinem Endgerät hinzugefügt, verändert oder beseitigt werden, erfolgt eine automatische Synchronisierung auf allen anderen Geräten bzw. Speicherorten. Einzige Anforderung dafür: Eine Verbindung mit dem Internet.

Für den Dateiaustausch mit Anderen lassen sich Dokumente oder Fotos aus OneDrive problemlos teilen – sei es das Geburtstagsfoto des Enkels für die Oma oder der Geschäftsbericht, den man dem Chef zur Durchsicht zukommen lassen möchte. Statt eine Datei via E-Mail zu verschicken oder sie auf einen USB-Stick zu ziehen (und so für eine Kopie der Datei zu sorgen), verschickt man einen personalisierten Direktlink zur Datei in OneDrive.

Tipp: Wenn Sie Windows 10 als Betriebssystem nutzen, ist OneDrive bereits auf Ihrem PC installiert. Bei einer anderen Windows-Version müssen Sie erst die OneDrive-App installieren.

OneDrive for Business – die Microsoft-Cloud für Unternehmen

Wie erwähnt lässt sich die OneDrive Standard-Lösung auch geschäftlich nutzen – mit ‚OneDrive for Business‘ bietet Microsoft jedoch ein Produkt an, welches dediziert für den Einsatz in Unternehmen konzipiert und somit optimal auf die Zusammenarbeit in Teams individualisiert wurde. Hier beruht die Cloud-Option im Schwerpunkt auf der Technologie von Microsoft SharePoint und kann deshalb weit mehr als ein ’normaler‘ Cloud-Speicherdienst: Per OneDrive for Business können mehrere Personen zeitgleich gemeinsam an einem Dokument arbeiten. ‚Co-Authoring‘ nennt man diese leistungsfähige Arbeitsweise, die effizientes Teamwork möglich macht.

OneDrive ist ein echter Teamplayer und arbeitet Hand in Hand mit anderen Microsoft-Applikationen – insbesondere mit Microsoft 365. Beispielsweise kann eine PowerPoint-Präsentation, die Person A in OneDrive abgelegt hat, von Nutzer B via Browser angesehen und überarbeitet werden, ohne dass Nutzer B PowerPoint auf seinem Endgerät installiert haben muss. Und Person C kann von einem anderen Teil der Welt hierbei zusehen und die Veränderungen beurteilen. Diese Möglichkeiten erleichtern die kollaborative Arbeit enorm, vor allem in den Teams, die mit Betriebssystemen von Microsoft und Apple arbeiten. Dank der automatischen Daten-Synchronisation von OneDrive können zudem alle Mitarbeiter immerzu die aktuelle Version abrufen – ganz ohne ‚Handarbeit‘.

In diesem Zusammenhang steht ein weiterer Vorteil von OneDrive for Business: Die Dokumentenversionierung. So können Benutzer ältere Versionen der in OneDrive gespeicherten Dokumente rekonstruieren (üblicherweise werden die letzten 500 (!) Versionen eines Dokuments gespeichert).

Erfüllt OneDrive auch strenge Sicherheitsstandards?

Eines ist klar: Für eine Lösung wie OneDrive, in der sensible Daten gespeichert sind, spielt das Thema Datenschutz eine zentrale Rolle. Zudem muss nachvollziehbar sein, wer (zumindest theoretisch) Einblick in die dort abgelegten Daten hat.

Wie ist hier der Status Quo? Nun, OneDrive verfügt über eine Standard-SSL-Verschlüsselung bei der Übertragung von Dokumenten – einmal auf dem Server gespeichert, kommt eine 256bit-AES Verschlüsselung zum Einsatz, um die Daten zu schützen. Wer seine Daten innerhalb von OneDrive extra verschlüsseln will, dem können Tools wie Boxcryptor oder Microsoft BitLocker als Erweiterung für den geschützten Einsatz von OneDrive im Unternehmen behilflich sein. OneDrive for Business offeriert ebenso eine Zwei-Faktor-Authentifizierung, die dafür sorgt, dass bloß autorisierte Nutzer Zugriff auf die Dateien erlangen können (eine weitere simple, aber effektive Maßnahme zur Absicherung vor Hackern: Nutzen Sie gut funktionierende Passwörter und ändern Sie diese periodisch).

Wo werden die Daten gelagert?

Dies ist eine zentrale Frage. Denn wenn die Datenspeicherung in OneDrive auf amerikanischen Servern stattfindet, ist das – besonders im Hinblick auf die strikten Anforderungen der Europäischen Datenschutzgrundverordnung (DSGVO) – als bedenklich zu betrachten. Tatsächlich wäre der Einsatz für europäische Firmen damit gar nicht möglich, ohne geltende Datenschutzverordnungen zu verletzen. Microsoft weiß natürlich um diesen Zustand. Daher werden die Daten sämtlicher Unternehmen, welche OneDrive for Business verwenden, und den Firmensitz innerhalb Europas haben, auf Servern in Rechenzentren in der Europäischen Union gespeichert. Wer genaue Auskünfte sucht, an welchem Ort Microsoft die Daten speichert, wird auf dieser Seite fündig. Dort sind alle Standorte der von Microsoft verwendeten Rechenzentren pro genutztem Microsoft-Dienst nachvollziehbar aufgeführt.

Cloud-Speicherdienste im Allgemeinen werden oft wegen angeblicher Datenschutzbedenken angeprangert. Mangelnde Undurchsichtigkeit oder eine nicht saubere Ausführung des Themas IT-Sicherheit kann man Microsoft bei ihrem Dienst OneDrive for Business allerdings nicht vorwerfen – selbst wenn das Unternehmen seinen Firmensitz in den USA hat. Nichtsdestotrotz sei an selbiger Stelle erwähnt, dass Microsoft sich durch Bestätigung der OneDrive-Nutzungsbedingungen das Recht einholt, die Daten der Kunden automatisiert zu durchforsten. Diese Handlung eignet sich dazu, Dateien zu finden, welche unangemessene Inhalte zeigen. Sieht der Microsoft-Crawler Daten, die gegen die Richtlinien verstoßen, droht eine Kontosperrung.

Legt man in der persönlichen OneDrive-Cloud als frisch gebackene Eltern beispielsweise das allererste Foto des neugeborenen Babys ab, auf welchem das Kind möglicherweise unbekleidet ist, könnte das unter Umständen tatsächlich zu einer Kontosperrung führen – über einen automatischen Datenscan per PhotoDNA-Technik könnte das jeweilige Foto entdeckt und als unangemessen eingestuft werden. Die Diskussion darüber, inwiefern jene verdachtsunabhängigen Scans sinnvoll und laut Gesetz überhaupt zulässig sind, wird bereits seit längerer Zeit geführt – bis jetzt mit variierenden Ergebnissen. Doch Fakt ist: Wer OneDrive nutzt, der stimmt dem Einsatz dieser Technik und dem automatischen Scan seiner Daten zu. Das muss man wissen, wenn man das Programm nutzt oder plant, es einzusetzen.

Wenn Sie Interesse haben, OneDrive in Ihrem Betrieb zu nutzen, sprechen Sie uns unter der kostenfreien Rufnummer 0800 4883 338 gerne an. Wir können Sie im Umgang mit OneDrive schulen, helfen bei der Konfiguration des Zugriffsmanagements und sorgen dafür, dass Sie OneDrive for Business zuverlässig einsetzen. Außerdem unterstützen wir auf Wunsch beim Datenumzug und dem Anlegen einer Ablagestruktur – um was es auch geht: Wir sind Ihr Experte rund um Microsoft OneDrive!

Foto © Ruvim @ Pexels

Lesedauer: 1 Minute

Schon in diesem, gestern veröffentlichten Artikel ging es um Ransomware. In Folge möchten wir das Thema aus anderer Sicht beleuchten und Ihnen ganz konkret zeigen, welche Hilfe in diesem (und anderem) Zusammenhang sinnvolles Microsoft 365 Security Management bietet.

Fakt ist: Alle 11 Sekunden wird ein Angriffsversuch mit Ransomware auf Unternehmen durchgeführt. Zieht man nun in Betracht, wie weitverbreitet Produkte und Lösungen von Microsoft sind wird schnell klar, dass gerade darauf basierende Infrastrukturen beliebte Angriffsziele sind.

Der weltweit entstandene finanzielle Schaden durch Ransomware im Jahr 2021 wird auf rund 20 Milliarden Dollar geschätzt – Analysen zufolge fällt das Gros davon unter Angriffe im Zusammenhang mit geschäftlicher Mail-Kommunikation. Und auch hier gilt: Durch die hohe Verbreitung von Microsoft Office sind Ransomware-Attacken (fast) an der Tagesordnung. Mit gravierenden finanziellen Folgen und möglichem Imageschaden.

Prävention, aber wie?

Auf Microsoft 365 abgestimmte Sicherheitslösungen bieten mehrere Hersteller. Primär sollten diese die integrierten Sicherheitsinstrumente unterstützen und so das Sicherheitsniveau soweit erhöhen, dass Angriffe weitgehend ausgeschlossen werden können. Wichtige Faktoren für die Leistungsfähigkeit solcher Produkte sind:

Spam-Erkennungsrate – Qualitativ hochwertige Security-Produkte weisen eine Rate nahezu 100% auf.

‚Zero Day Attacks‘ – Neuartige Viren werden von Standardsystemen oft nicht erkannt und entsprechend auch nicht gefiltert. Aufgrund spezieller Technik können gute Sicherheitslösungen neuartige Bedrohungen bereits vor Bekanntwerden stoppen.

Schutz vor verschlüsselten Angriffen – Microsoft Office bietet hier standardmäßig keinerlei Schutz.

Gateaway für Mail-Encryption – Ebenfalls im Standard der Microsoft Mail-Office Protection nicht vorhanden. Geeignete Security Tools sollten in Sachen Mail-Archivierung und -Verschlüsselung fit sowie DSGVO-/GOBD-konform sein.

Reporting – Detaillierte Reports sind im Microsoft-Standard nicht vorgesehen.

Neben diesen Punkten sollten Sie über eine Lösung zur Datensicherung und -wiederherstellung (im Bedarfsfall) nachdenken. Denn leider ist es auch hier so, dass Microsoft keine Optionen ‚out of the box‘ bietet.

Im Rahmen unserer Microsoft-Projekte berücksichtigen wir dieses Thema vom Start weg. Falls Sie losgelöst davon Fragen zum Thema ‚Microsoft 365 Security Management‘ haben, stehen wir Ihnen unter der kostenfreien Rufnummer 0800 4883 338 zur Verfügung. Oder vereinbaren Sie einen Online-Gesprächstermin.

Foto © Life Of Pix von Pexels

Lesedauer: ca. 8 Minuten

Zeitgenössische Gesellschaften mit hochentwickelter Dienstleistungs- und Industriewirtschaft zeichnen sich durch ein hohes Maß an Digitalisierung, Wendigkeit, Konkurrenzfähigkeit und intensiver Teilnahme an der Globalisierung aus. In Anbetracht dessen sind moderne Unternehmen immer stärker von einer hochleistungsfähigen, funktionstüchtigen und ausfallsicheren IT-Infrastruktur abhängig – das gilt insbesondere für systemrelevante Unternehmen der kritischen Infrastruktur.

Diese als KRITIS bezeichneten Infrastrukturen werden so zu einem der bedeutendsten wirtschaftlichen Stützpfeiler. Deshalb muss deren reibungsloser Betrieb zu jeder Zeit gewährleistet sein – fallen sie infolge von Internetangriffen, Havarien oder technischem Versagen aus, hat das gravierende Auswirkungen auf die Sicherheit und Versorgungslage des Landes.

Aus diesem Grund hat die Politik rechtliche Vorgaben und Regelungen festgelegt, um solchen gefährlichen Szenarien vorzubeugen. Welche dies sind, wann eine Infrastruktur als ‚kritisch‘ bezeichnet wird und welchen spezifischen Herausforderungen systemrelevante Unternehmen der kritischen Infrastruktur begegnen, lesen Sie in unserem folgenden Blogartikel.

Wie sich eine kritische Infrastruktur definiert

Laut der öffentlichen Begriffsklärung des Bundesamtes für Sicherheit und Informationstechnologie (BSI) wie auch des Bundesamtes für Bevölkerungsschutz sowie Katastrophenhilfe (BBK) handelt es sich bei kritischen Infrastrukturen um die ‚Organisationen oder Einrichtungen mit wichtiger Bedeutung für das staatliche Gemeinwesen, bei deren Ausfall oder Beeinträchtigung nachhaltig wirkende Versorgungsengpässe, erhebliche Störungen der öffentlichen Sicherheit oder andere dramatische Folgen eintreten würden.‘

Merkmale kritischer Infrastrukturen

Demzufolge sind private und staatliche Betriebe der kritischen Infrastruktur für die Instandhaltung wichtiger gesellschaftlicher Funktionen, der Gesundheitssituation, der Sicherheit und des ökonomischen oder sozialen Wohlseins der Bevölkerung elementar – und somit äußerst schützenswert.

Die Nationale Strategie zur Sicherheit kritischer Infrastrukturen, die am 17. Juni 2009 vom Bundesministerium des Innern sowie Heimat (BMI) verabschiedet wurde, definiert 9 Bereiche der kritischen Infrastrukturen:

1. Staat und Verwaltung
2. Stromerzeugung
3. Informationstechnik und Telekommunikation
4. Transport und Verkehr
5. Gesundheitszustand
6. Wasser
7. Ernährung
8. Finanz- und Versicherungswesen
9. Medien plus Kultur

Mit der Novellierung des BSIG im Jahr 2021 kam mit der Siedlungsabfallentsorgung ein zehnter Bereich hinzu (der jedoch auf Bundesebene noch nicht allgemeingültig ist).

Inwiefern ein Unternehmen als kritische Infrastruktur eingestuft wird, kann nur eine individuelle Prüfung mit Sicherheit beantworten. Es existieren jedoch bekannte Anhaltspunkte, anhand derer eine erste Einstufung möglich ist:

Schwellenwert – Das BSI hat in der KRITIS-Verordnung 2021 für jeden Bereich spezielle Schwellenwerte festgelegt. Diese bestimmen, ab wann ein Unternehmen der kritischen Infrastruktur zuzuschreiben ist. Eine übersichtliche Aufzählung finden Sie hier.

IT-Netzwerk – Die sog. IT-Independenz von Unternehmen ist ein weiterer aussagekräftiger Faktor. Hier geht es darum, ob ein Betrieb mit mehreren Standorten diese IT-seitig zentral oder dezentral verwaltet. Verständlicherweise unterstützt eine zentrale Verwaltung die Einstufung als kritische Infrastruktur.

Verschärfte Bedrohungslage erfordert verschärfte Maßnahmen

Grundsätzlich sind kritische Infrastrukturen vorteilhaft beschützt. Nichtsdestotrotz stellen sie aufgrund deren Bedeutsamkeit sowie Sensibilität für Wirtschaft und Gesellschaft und Staat ein lukratives Geschäft für Internetkriminelle, Terroristen und verfeindete Staaten dar.

Deshalb überrascht es absolut nicht, dass in der Presse immer wieder von IT-Ausfällen oder Störungen kritischer Infrastrukturen zu lesen ist. So sorgte zum Beispiel im Mai 2021 ein Ransomware-Zugriff auf eines der größten Kraftstoff-Leitungssysteme des Betriebs Colonial Pipeline in den USA temporär für Treibstoffengpässe an der gesamten Ostküste.

Dies ist kein Einzelfall: Gemäß dem Bundesamt für Sicherheit in der Informationstechnik haben die Attacken auf die Sektoren Informationstechnik sowie Telekommunikation, Finanz- und Versicherungswesen sowie Wasser und Energie in den vergangenen Jahren merklich zugenommen. Zeitgleich zeigen die Ergebnisse des aktuellen Lageberichts der IT-Sicherheit des Bundesamtes für Sicherheit in der EDV, dass in den erwähnten Branchen insgesamt 1.805 Sicherheitsmängel festgestellt wurden, die insbesondere auf Problematiken im Fachbereich Netztrennung, Notfallmanagement und physische Sicherheit zu begründen sind.

Nebst Internetangriffen gehen auch Naturgewalten, Havarien, menschliches Scheitern oder technische Fehler mit teilweise schwerwiegenden Folgen für die Sicherheit und das Wohlergehen der Menschen einher, wie der 31-stündige Stromausfall in Berlin-Köpenick Ende Februar 2019 mit Nachdruck verdeutlichte.

Gesetze zum Schutz kritischer Infrastrukturen

Mit dem Ziel, derartige Worst-Case-Szenarien zu verhindern, gilt es für Betriebe der kritischen Infrastruktur Gefahren und Bedrohungen frühzeitig zu ermitteln und abzuwehren. Die gesetzlichen Bedingungen sowie Regelungen sind dazu im IT-Sicherheitsgesetz 2.0, dem BSI-Gesetz (BSIG), sowie der BSI-KRITIS-Verordnung (BSI-KritisV) festgelegt. Demnach sind Betriebe der kritischen Infrastruktur dazu verordnet,

eine Kontaktstelle für die betriebene kritische Infrastruktur zu benennen.

die IT-Sicherheit auf den ‚Stand der Technik‘ umzusetzen und passende organisatorische und elektronische IT-Sicherheitsmaßnahmen zur Prävention, Ausmachung und Bewältigung von IT-Sicherheitsvorfällen oder IT-Störungen zu implementieren (vor allem ein ISO 27001-konformes Informationssicherheitsmanagementsystem) und auf diese Weise die Verfügbarkeit, Vertraulichkeit, Integrität und Authentizität ihrer IT-Systeme, IT-Komponenten und IT-Prozesse sicherzustellen.

IT-Sicherheitsvorfälle und erhebliche IT-Störungen, welche zu einem IT-Störfall führen, zu melden.

die getroffenen IT-Sicherheitsvorkehrungen gemäß § 8a Absatz 3 BSIG mittels eines Gutachtens gegenüber dem Bundesamt für Sicherheit in der Informationstechnik zu belegen.

Stabile Netzwerke – ein Muss

Das Bundesamt für Sicherheit in der Informationstechnik hat bereits im März 2020 die ‚Konkretisierung der Anforderungen an die nach § 8a Absatz 1 BSIG umzusetzenden Maßnahmen‚ veröffentlicht. Mit diesem Anforderungskatalog stellt das BSI allen Betrieben der kritischen Infrastruktur und ihren Gutachtern einen konkreten Bereich zur Wahl, Umsetzung und Prüfung aller IT-Sicherheitsmaßnahmen, welche im Rahmen der IT-Sicherheit umzusetzen sind. Hierbei deckt der Anforderungskatalog alle aufgeführten Bereiche ab:

Informationsmanagementsystem
Asset Management
Risikoanalysemethode
Continuity Management
Technische Informationssicherheit
Personelle sowie organisatorische Sicherheit
Bauliche / physische Absicherung
Vorfallserkennung und Bearbeitung
Begutachtung im laufenden Betrieb
Externe Informationsversorgung sowie Unterstützung
Lieferanten, Dienstleistungsunternehmen und Dritte
Meldewesen

Sind Sie ein Unternehmen der kritischen Infrastruktur und auf der Recherche nach effektiven und innovativen IT-Sicherheitslösungen? Ihr Ziel ist es, ihre IT-Infrastruktur intelligent vor potenziellen Bedrohungen zu beschützen? Sie haben weitere Fragen zu den Themen IT-Sicherheitsgesetz 2.0, BSI-KRITIS-Verordnung oder kritische Infrastrukturen? Sprechen Sie uns unter der 0800 4883 338 gerne an!

Foto © Elijah O’Donnell von Pexels