Lesedauer ‘Exploits – IT-Schwachstellen und unterschätztes Hacker-Werkzeug’: 5 Minuten

Meltdown. Spectre. Shitrix. Log4Shell. BlueKeep. PrintNightmare. Log4j. Die Liste neuartiger IT-Sicherheitslücken vergrößert sich täglich. Richtig ernst wird es, wenn diese Lücken für kriminelle Zwecke missbraucht werden. Ein hierfür häufig eingesetztes Werkzweug: Exploits. Als ‘Brecheisen’ oder ‘Dietrich’ helfen sie Angreifern dabei, in ein IT-System, Betriebssystem oder Netzwerk einzudringen. Was sich hinter dieser Angriffsmethode versteckt, welche Arten es gibt und wie Sie Ihr Unternehmen davor beschützen können, lesen Sie im folgenden Beitrag.

Die Bedrohungslage durch Internetangriffe hat sich weiter verschärft. Belastend kommt hinzu, dass jene Angriffsmethoden eine zunehmende Professionalisierung, technische Entwicklung und wirtschaftliche Entfaltung erleben – und aufgrund dessen deutlich an Schlagkraft gewinnen.

Aktuellsten Studienergebnissen von SoSafe zufolge war im vorangegangenen Jahr jedes dritte Unternehmen Ziel eines ‘erfolgreichen’ Internetangriffs. Zudem sind drei von vier dieser Unternehmen der Meinung, dass sich die Angriffslage durch Homeoffice und ‘remote’ Arbeitsmodelle zugespitzt hat.

Wenngleich mittlerweile minütlich neue Angriffsformen erschaffen werden, sind Internetkriminelle zur Ausbreitung von Malware, Ransomware und Co. auf Sicherheitslücken und Schwachstellen in Hardware-Produkten und Software-Lösungen angewiesen. Um diese zu finden, bauen sie auf besagte Exploits.

Was ist ein Exploit?

Unter dem Oberbegriff ‘Exploit‘ wird zum einen die rein theoretische Detailbeschreibung einer IT-Schwachstelle und zum anderen ein Programm mit ausführbaren Daten und Codezeilen verstanden, mit dem IT-Sicherheitslücken sowie IT-Schwachstellen aufgezeigt wie auch ausgenutzt werden können.

Im Allgemeinen stellen Exploit-basierte Angriffe ein potentes Mittel zum Einschleusen von Schadcode dar. So erhalten Internetkriminelle weiterführenden Zugriff und die Möglichkeit, an sensible Unternehmensdaten zu gelangen. Allerdings können Exploits auch im Kontext legitimer Sicherheitsüberprüfungen genutzt werden, um etwa eine Software oder Netzwerkkomponente auf Sicherheitslücken hin zu durchleuchten. Zu guter Letzt lässt sich durch Exploits die Wirksamkeit von Sicherheitsupdates oder Patches verifizieren.

Infektionsmethoden von Exploits

Mittlerweile gibt es unterschiedlichste Wege, auf welchen Exploits auf Hardware, Software oder auch Netzwerkkomponenten gelangen können. Zwei der gängigsten Methoden sind ‘Drive-by-Download’ und ‘Drive-by-Exploits’:

Drive-by-Download: Beim Drive-by-Download findet die Infizierung beim Surfen auf einer speziell dafür präparierten Internetseite statt – ohne dass die Opfer etwas davon merken. In vielen Fällen kommen dabei sogenannte Exploit Kits zum Einsatz. Diese enthalten eine Sammlung verschiedener Exploits für unterschiedliche Ziele, etwa für PDF Reader oder Webbrowser wie Firefox.

Drive-by-Exploits: Bei einem Drive-by-Exploit werden die Opfer gezielt infiziert. Hierzu werden die Exploits via Dokumenten in E-Mail-Anhängen, auf USB Sticks oder externen Festplatten verteilt.

Wie funktioniert ein Angriff mit Exploits?

Eine Attacke mit Exploits läuft meist in mehreren Schritten ab.

1. Sicherheitslücken finden: Im allerersten Schritt muss eine ausnutzbare IT-Schwachstelle gefunden werden. Dafür nutzen Bedrohungsakteure meist eine der zuvor genannten Methoden, um die Exploits auf die Zielsysteme zu bringen. Sobald diese installiert sind, suchen sie nach angreifbaren IT-Sicherheitslücken bzw. IT-Schwachstellen.

2. Schadcode ablegen und Programmfluss umleiten: Sobald die Exploits eine geeignete IT-Schwachstelle entdeckt haben, platzieren diese einen Schadcode, der den normalen Programmfluss auf den manipulierten Code lenkt.

3. Aktiv werden und Malware nachladen: Der aktive Schadcode ist dann in der Position, die Eigenschaften des gekaperten IT-Systems sowie die allgemein zugänglichen Betriebssystem-Funktionen aufzurufen. Auf diese Weise sammelt der Exploit beispielsweise Auskünfte über das System und kann weiteren Schadcode, etwa eine Ransomware, einen Banking-Trojaner oder auch anderweitige Malware aus dem Internet auf das IT-System laden.

Exploits: Angriffsklassen und Verfahren

Abhängig von der genutzten Angriffsart und – der konkreten Situation geschuldet – individuellen Aspekten lassen sich Exploits in verschiedene Klassen aufgliedern:

Zero-Day-Exploits: Zero-Day-Exploits sind wohl die bekannteste und gefürchtetste Form von Exploits. Hierbei handelt es sich um Sicherheitslücken, deren Existenz nur auf Angreiferseite bekannt ist. Das bedeutet, dass herstellerseitige Gegenmaßnahmen erst nach mindestens einem erfolgreichen Angriff eingeleitet werden können. Zudem muss ein Patch dann erst entwickelt werden, wodurch Angreifer Zeit haben, weitere IT-Systeme zu manipulieren und größeren Schaden anzurichten.

Remote ausgeführte Exploits: Remote Exploits zielen auf Schwachstellen der Netzwerksoftware und benutzen manipulierte Datenpakete für ihre Angriffe.

Denial-of-Service-Exploits: Auch bekannt als DoS-Exploits. Sie führen keinerlei eigenen Programmcode auf den angegriffenen Systemen aus, sondern verursachen eine Überlastung der Anwendung.

SQL-Injection-Exploits: Webanwendungen, die auf Grundlage von SQL-Datenbanken ihre Features ausführen, sind möglicherweise über SQL-Injection-Exploits verwundbar.

Command-Execution-Exploits: Anhand eines Command-Execution-Exploits wird Schadcode vom Angreifer gelenkt und mit umfänglichen Rechten auf dem kompromittierten System umgesetzt.

Wie man sich vor Angriffen mit Exploits schützt

IT-Sicherheitslücken sind eine der größten Herausforderungen für die Sicherung der Unternehmens-IT. Um Exploit-basierten Angriffen möglichst wenig Angriffsmöglichkeit zu geben, sollten IT-Verantwortliche dafür sorgen, dass sie die aktuellsten Software- und Sicherheits-Updates auf allen IT-Systemen installiert und in sämtlichen Anwendungen implementiert haben. Diese beseitigen IT-Sicherheitslücken und sorgen dafür, dass IT-Systeme vor bereits vertrauten Angriffsmustern abgesichert sind.

Exploits, die ihre Angriffe über das Web ausführen, lassen sich in den meisten Fällen durch den Gebrauch von innovativen Firewall-Lösungen der nächsten Generation oder auch Intrusion Detection sowie Intrusion Prevention-Lösungen unterdrücken.

Fazit: Schlagen Sie Internetkriminelle mit ihren eigenen Waffen!

Die wachsende Zahl kritischer IT-Sicherheitslücken und die damit verbundenen Exploit-Angriffe werden auch in Zukunft eine unvermeidbare Gefahr bleiben. Umso entscheidender ist es für Unternehmen, ihre IT-Infrastruktur durch eine mehrschichtige IT-Sicherheitsstrategie mit wirksamen Techniken zur Exploit-Abwehr sowie IT-Sicherheitsschulungen zum Thema abzusichern. Denn nur auf diese Weise lassen sich Risiken sowie Spätfolgen eines Exploit-Angriffs erheblich verringern.

Möchten auch Sie Ihre IT-Systeme und Geschäftsanwendungen mit leistungsstarken Lösungen zur Exploit-Abwehr schützen? Oder haben Sie noch weitere Fragen zum Thema? Kontaktieren Sie uns unter 0800 4883 338 kostenfrei, wir beraten Sie gerne!

Mehr zum Thema

Hier finden Sie weiterführende Informationen zu IT-Sicherheitskonzepten im Allgemeinen, zur Datensicherheit und zu Firewall-Lösungen. Zur Website von CRISEC, unserem Service für IT-Sicherheitsanalysen, geht es hier.

Foto © Fernando Mamberti @ Pexels

Lesedauer ‘SSL- und TLS-Zertifikate: Sicherer Datenverkehr dank Verschlüsselung’: 5 Minuten

Internetkriminalität ist DAS Thema. Ungesicherte Unternehmenswebsites sind in diesem Zusammenhang ein gefundenes Fressen. Gerade Firmenwebsites, auf denen personenbezogene Angaben gemacht werden, sollten demnach gesichert sein. Das Stichwort lautet: SSL-Zertifikat. Was ein SSL-Zertifikat ist, wozu es dient, welche Auswirkungen das Fehlen eines solchen Zertifikats hat und wie Sie zu einem Zertifikat für eine Unternehmenswebsite gelangen, verraten wir Ihnen im nachfolgenden Beitrag.

Die Tage, in denen Unternehmenswebsites als starres Informationsmedium über Zeiträume hinweg die Webseitenbesucher langweilten, sind endgültig vorbei. Heute sind diese Websites mehr als nur eine ‘digitale Visitenkarte’. Sie sind Marketinginstrument, Vertriebskanal, Service-Portal und Werkzeug zur Neukundengewinnung in einem – ein essenzieller Baustein für unternehmerischen Gewinn.

Allerdings zeichnen sich kompetente Unternehmenswebsites nicht nur durch zeitgemäßes Webdesign, hohe Benutzerfreundlichkeit und schnelle Ladezeiten aus, sondern auch durch ein fundiertes Sicherheitskonzept.

Deshalb ist der Einsatz von SSL- und TLS-Zertifikaten für Unternehmenswebsites ein zwingendes Soll. Nicht zuletzt, um eine stetig zunehmende Anzahl von Rechtsvorschriften sowie weitere verpflichtende Bedingungen zu befolgen, welche aus der europäischen Datenschutz-Grundverordnung (EU-DSGVO), dem Telemediengesetz (TMG), der ePrivacy-Richtlinie oder einem neuen Beschluss des Bundesgerichtshofs (BGH) zur aktiven Einwilligungsmöglichkeit der Cookie-Nutzung resultieren.

SSL- und TLS-Zertifikat kurz erklärt

Einfach gesprochen sind SSL- und TLS-Zertifikate kleine Datenpakete, welche die Identität einer Unternehmenswebsite sicherstellen und sämtliche Datenverbindungen zwischen dem Browser und der Domain auf dem Webserver verschlüsseln.

Die Kurzbezeichnung SSL steht für ‘Secure Socket Layer‘ und ist streng genommen ein altmodisches Protokoll, welches zur Verschlüsselung und Authentifizierung sensibler und vertraulicher Informationen zwischen einer Anwendung und einem Webserver verwendet wird. Mittlerweile funktionieren Zertifikate mit dem moderneren, sichereren Transport Layer Security-Protokoll (TLS). Im allgemeinen Sprachgebrauch wie auch in der Praxis wird allerdings weiterhin von SSL-Zertifikaten gesprochen, sofern es um eine Absicherung von Firmenwebsites sowie Webservern über diese Verschlüsslungstechnik geht.

Üblicherweise werden SSL- und TLS-Zertifikate verwendet, um Kontaktformulare, Login-Areale, Online-Bezahlungen und sonstige Datenübertragungen zu sichern.

Welche SSL- und TLS-Zertifikate gibt es?

Um ein SSL- oder TLS-Zertifikat zu erhalten, müssen sich Unternehmen an eine Zertifizierungsstelle wenden, welche durch das Public Key Infrastructure Consortium (PKI) – der Organisation zur Erhöhung der Datensicherheit im Internet – für den Vertrieb von SSL- und TLS-Zertifikaten berechtigt wurden.

Website-Betreiber können hierbei zwischen drei verschiedenen Versionen von SSL- und TLS-Zertifikaten wählen:

Domain Validation-Zertifikat – Dieses Zertifikat bildet die unterste Stufe der SSL- und TLS-Zertifikate. Das bedeutet, dass die Überprüfung der Websitebetreiber bei der Erstellung dieser Version nicht besonders ausführlich ist. Oftmals versendet die Zertifizierungsstelle lediglich eine Mail an die im ‘WHOIS-Eintrag’ angegebene Mail-Adresse und fordert die Antragsteller auf, (z.B.) einen DNS-Eintrag zu ändern oder eine besondere Datei auf seinen Server zu ladenund so den Besitz der Domain zu verifizieren. Da der Überprüfungsvorgang hier meist gänzlich automatisiert verläuft, werden Domain-Validation-Zertifikate unter Experten oftmals als nicht sicher eingestuft. Manche Browser markieren daher Domain-Validation-Zertifikate, um auf die vergleichsweise niedrigen Sicherheitsstandards hinzuweisen.

Organization Validation-Zertifikat – Diese Version ist vom Sicherheitsniveau eine Stufe höher angesiedelt und wird erst nach einer präzisen Unternehmensprüfung ausgestellt. Website-Besucher haben die Möglichkeit, die Vertrauenswürdigkeit der Internetseite genau zu kontrollieren.

Extended Validation-Zertifikat – Dieser Typ von SSL-und TLS-Zertifikat wird nach äußerst strikten Auswahlkriterien vergeben und stellt dementsprechend die höchste Sicherheitsstufe dar. Die Zertifizierungsstellen begutachten neben der Website das in Beziehung stehende Unternehmen und den Bewerber selbst.

Alle Varianten sind für eine einzelne Internetseite oder als Multidomain-Lösung (SAN-Zertifikate) verfügbar.

Kostenlose vs. kostenpflichtige Zertifikate

Geht es um die bloße Sicherung einer Unternehmenswebsite, erfüllt ein kostenfreies Zertifikat die Ansprüche ebenso gut wie ein kostenpflichtiges. Nichtsdestotrotz gibt es einige Details, in denen sich kostenlose und kostenpflichtige Zertifikate voneinander unterscheiden.

Validation Level – Die Verschlüsselungs-Levels sind für jedes SSL- und TLS-Zertifikat die selben, jedoch unterscheiden sie sich im erforderlichen Verifizierungsprozess. Grundlegend gilt: Zertifikate mit einer höheren Sicherheitsstufe sind generell kostenpflichtig.

Gültigkeit – Die meisten kostenpflichtigen SSL- und TLS-Zertifikate sind ein bis zwei Jahre gültig. Kostenlose Zertifikate laufen dagegen nach maximal 90 Tagen ab. Firmen, die auf gebührenfreie Zertifikate bauen, müssen diese also ständig neu beantragen bzw. austauschen.

Domain-Zugehörigkeit – Ein kostenloses SSL- oder TLS-Zertifikat lässt sich immer bloß für eine einzelne Domain erzeugen und an diese ist es dann auch gebunden. Kostenpflichtige Zertifikatlösungen sind domainübergreifend nutzbar.

Wie erkenne ich, ob eine Website über SSL erreichbar ist?

Entsprechend zertifizierte Unternehmenswebsites weisen am Anfang der Internetadresse ein ‘https’ statt ‘http’ aus. Das ‘s’ steht dabei für ‘secure’ und zeigt dem Website-Besucher, dass dem Hypertext-Transfer-Protocol eine erweiterte Verschlüsselungsschicht angehängt ist. Darüber hinaus kann eine sichere Verbindung durch ein ‘Geschlossenes Vorhängeschloss’-Symbol oder eine grüne Adressleiste angezeigt werden.

Google rät jedem Unternehmen bzw. Websitebetreiber, SSL- und TLS-Zertifikate zu verwenden. Bereits seit 2014 wird dies zusätzlich mit positivem Suchmaschinen-Ranking honoriert.

Ohne Websitesicherheit kein Kundenvertrauen

Die aktuelle Situation Internetkriminalität betreffend verschafft dem Thema ‘SSL- und TLS-Zertifikate’ neue Relevanz. Und immer noch sind zu viele Unternehmenswebsites – gerade die kleiner und mittelständischer Betriebe – gar nicht oder nur unzureichend zertifiziert.

Neben dieser existenzsicherenden Tatsache gibt es weitere gute Argumente für den Einsatz eines adäquaten Zertifikats:

  • Das Vertrauen von Kunden und Interessenten wird gefestigt
  • Ein Zertifikat hat positive Auswirkungen auf das Suchmaschinen-Ranking
  • Rechtsvorschriften und Leitlinien werden eingehalten bzw. erfüllt

Es sei aber nochmals ausdrücklich erwähnt: SSL- und TLS-Zertifikate erfüllen ihren Zweck nur dann, wenn sie von einer vertrauenswürdigen Zertifizierungsstelle stammen. Die Bundesdruckerei hat hierzu in einem Artikel die bedeutendsten Faktoren detailliert dargestellt.

Ihre Unternehmenswebsite hat bislang kein SSL- oder TLS-Zertifikat? Dann wird es allerhöchste Zeit! Eine Unternehmenswebsite ohne Zertifikat ist vergleichbar mit einem Unternehmen ohne Schloß an der Eingangstür … Haben Sie weitere Fragen zu Zertifikaten oder Verschlüsselung? Sind Sie auf der Suche nach einer geeigneten Zertifizierungsstelle? Kontaktieren Sie uns unter 0800 4883 338, wir beraten Sie gerne!

Quelle und weitere Details hier | Foto © Ekrulila @ Pexels

Lesedauer ‘Microsoft Power Platform: Treiber einer schnellen Digitalisierung’: 6 Minuten

Das Thema ‘Digitalisierung’ umtreibt die Geschäftswelt seit Jahren. Obwohl einerseits der Bedarf an neuen, leistungsstärkeren und datenbasierten Geschäftsanwendungen wächst, um Geschäftsprozesse zu optimieren sowie Mehrwerte zu schaffen, fehlen auf der anderen Seite immer mehr IT-Fachkräfte und Fachwissen, um diese zu entwickeln. Aus diesem Grund gewinnen Low-Code-Plattformen wie Microsoft Power Platform zunehmend an Popularität. Aber was genau ist Microsoft Power Platform, wie ist die sie strukturiert und welche Vorzüge bieten die integrierten Schlüsselanwendungen? Alles Wissenswerte erfahren Sie in Folge in diesem Blogbeitrag.

In der zunehmend technologiegesteuerten Geschäftswelt dreht sich alles um Wandlung, Neuerung, Geschwindigkeit und Daten. Deshalb ist es keinesfalls verwunderlich, dass die Herausforderungen und Erfordernisse an Unternehmen konstant steigen: Zum einen müssen sie durchweg schneller auf dynamische Markt- und Geschäftsentwicklungen eingehen. Zum anderen müssen sie in zunehmend knapperen Intervallen innovative Geschäftsanwendungen entwickeln sowie bereitstellen, welche effizientes Arbeiten und rasches Handeln ermöglichen.

Für längere Entwicklungszeiten und kostenintensive Individualentwicklungen ist da wenig Platz. Erschwerend kommt hinzu, dass vielerorts passendes Fachpersonal fehlt, um die vielen Geschäftsanwendungen zu erstellen und implementieren, die für die digitale Transformation gebraucht werden.

Laut dem Branchenverband Bitkom gibt es gegenwärtig 96.000 unbesetzte IT-Stellen. Software-EntwicklerInnen sind dabei mit Abstand am gefragtesten.

Deshalb setzen immer mehr Unternehmen Low-Code-Plattformen wie Microsofts Power Platform ein.

Was ist Microsoft Power Platform? Eine Definition

Microsoft Power Platform ist eine sog. Low-Code-Plattform (‘wenig Code’), die anstelle von gewöhnlichen, textbasierten Programmiertechniken visuelle Methoden in Gestalt von Point-and-Click oder Drag-and-Drop gebraucht mit dem Ziel,

  • die schnelle sowie ressourcenschonende Entwicklung von datenbasierten Geschäftsanwendungen zu gewährleisten,
  • wiederkehrende Vorgänge zu automatisieren,
  • aggregierte Geschäftsdaten zu visualisieren,
  • Firmenprozesse zu digitalisieren und optimieren.

Die Lösung von Microsoft vereint hierzu eine Vielzahl performanter Services aus dem Microsoft-Produktangebot. Zu den Schlüsselkomponenten zählen:

  • Microsoft Power BI
  • Microsoft Power Apps
  • Microsoft Power Automate
  • Microsoft Power Virtual Agents

Leistungsfähige Anwendungen, vereint in einer Plattform

Diese vier Komponenten haben jeweils eigene Schwerpunkte und können daher isoliert für sich oder eng verknüpft gemeinsam eingesetzt werden. Zur reibungslosen Funktion – einzeln oder im Team – stellt wiederum Microsoft 365 (mit diversen Werkzeugen wie Dynamics 365, Azure, Dataverse, AI Builder etc.) den passenden Rahmen.

Im Folgenden erfahren Sie mehr über die Schwerpunkte der eingesetzten Komponenten und Werkzeuge:

Microsoft Power BI – Dank Microsoft Power BI können sämtliche Geschäftsdaten, die in der Microsoft Power Platform gebündelt werden, in multimediale Dashboards und Berichte umgesetzt werden.

Microsoft Power Apps – Mit Microsoft Power Apps sind Ihre MitarbeiterInnen in der Lage, datenbasierte Geschäftsapps ebenso wie Geschäftsanwendungen schnell und unkompliziert zu entwickeln und einzuführen.

Microsoft Power Automate – Microsoft Power Automate begünstigt durch die Automatisierbarkeit wiederkehrender Arbeitsabläufe die Mitarbeitereffizienz.

Microsoft Power Virtual Agents – Mit Power Virtual Agents können MitarbeiterInnen eigenständig leistungsstarke Chatbots erarbeiten und optimieren.

Microsoft Dataverse – Microsoft Dataverse ist der gemeinsame Datendienst aller Anwendungen sowie Services, Microsoft 365, Dynamics 365 und Microsoft Azure. Darüber hinaus bietet er die zentrale Schnittstelle für die Anbindung aller anderen Daten. Mehrere große Software-Anbieter wie SAP und Adobe fördern Microsoft Dataverse standardmäßig und beteiligen sich an der ‘Open Data Initiative’.

AI Builder – Der AI Builder ist ein Werkzeug, welches es MitarbeiterInnen möglich macht, Funktionen aus dem Bereich ‘Künstliche Intelligenz’ in Geschäftsprozesse und Anwendungen einzubinden.

Konnektoren – Diese stellen die Auswahl von Schnittstellen zu diversen Systemen zur Verfügung. So können MitarbeiterInnen unterschiedlichste Datenquellen mit Microsoft Power Platform verknüpfen.

Erfolgreich gemeinsam arbeiten dank Microsoft Power Platform

Microsoft Power Platform wendet sich an alle MitarbeiterInnen, die (versteckte) Potenziale in der Optimierung von Arbeitsprozessen erkennen. Mit dem Low-Code-Ansatz können diese – größtenteils in Eigenregie – binnen kürzester Zeit Daten auswerten, Arbeitsabläufe optimieren und automatisieren, datenbasierte Lösungen entwickeln und einführen sowie Berichte oder Chatbots erzeugen. Zudem liefert die Plattform selbst professionellen Entwicklern eine hervorragende Basis, um kompliziertere Geschäftsanwendungen zu entwickeln und einzuführen.

Die wichtigsten Vorteile im Überblick

Die Vorzüge der Microsoft-Power-Platform-Nutzung liegen auf der Hand. Unter anderem

  • wird die IT-Abteilung unterstützt.
  • können die Kosten für die Produktion professioneller Applikationen oder die Automatisierung von Geschäftsprozessen stark reduziert werden.
  • müssen Anwendungsentwicklungen durchweg weniger ausgelagert oder durch Spezialisten ausgeführt werden.
  • erhalten MitarbeiterInnen verbesserten Zugang zu Geschäftsdaten und Informationen – dies hilft bei cleveren und schnelleren Entscheidungen.
  • ersetzen die neuen Workflows manuelle, zeitaufwendige Geschäftsprozesse und erhöhen somit die Effizienz.

Der Einsatz von Microsoft Power Platform lohnt sich

Low-Code-Plattformen wie Microsoft Power Platform erfreuen sich immer größerer Beliebtheit. Für Unternehmen stellen sie eine geeignete Möglichkeit dar, mit vertretbarem Zeit- und Kostenaufwand Geschäftsanwendungen intern zu erarbeiten. Darüber hinaus hilft sie MitarbeiterInnen, ihren Fokus auf Innovation, Wissen und Können zu setzen – Ergebnis ist eine erhöhte Leistungsfähigkeit und Effizienz des Einzelnen sowie des Unternehmens als Ganzes.

Möchten auch Sie Ihre MitarbeiterInnen mit dem Einsatz von Microsoft Power Platform befähigen, Geschäftsanwendungen zu entwickeln, Geschäftsprozesse zu verbessern sowie die Wertschöpfung im Betrieb voranzutreiben? Haben Sie weitere Fragen zu Microsoft Power Platform oder benötigen Sie in diesem Zusammenhang Unterstützung? Kontaktieren Sie uns kostenfrei unter 0800 4883 338, wir beraten Sie gerne.

Mehr zu Microsoft Azure erfahren Sie hier. Mehr zu Office 365 hier.

Foto © Mohan Nannapaneni @ Pexels

Lesedauer ‘Managed IT Service: Dienstleistung aus einer Hand’: 8 Minuten

Eine zeitgemäße IT-Infrastruktur ist hyperskaliert, hyperdynamisch und … hyperkomplex. Kein Geheimnis also, dass Unternehmen im Bereich IT zunehmend auf Managed Service-Konzepte bauen, um die interne IT-Abteilung zu entlasten, technische Prozesse zu optimieren, freie Ressourcen zu schaffen sowie IT-Ausgaben zu mindern. Aber was sind Managed IT Services eigentlich und welche Faktoren sprechen für die Buchung solcher Services? Antworten erhalten Sie im folgenden Blogbeitrag.

Ob mittelständisches Unternehmen oder Großkonzern: Eine stabile IT-Infrastruktur ist der Grundstein eines jeden Unternehmens. Allerdings leiten die zunehmende digitale Vernetzung, die Einbeziehung einer großen Anzahl digitaler Technologien (mit immer kürzeren Produktlebenszyklen) sowie die hohen Gesetzesauflagen dazu, dass IT-Strukturen in Betrieben immer umfangreicher werden.

Auf der anderen Seite fehlt es heutzutage in Unternehmen nicht selten an Zeit, Kapital, Fachkräften und passendem Know-how. Deshalb werden immer mehr Teilbereiche der IT-Infrastruktur über Managed IT Services von einem externen IT-Dienstleister betreut.

Einer Datenerhebung des IT-Sicherheitsdienstleisters Eset entsprechend arbeiteten im Jahre 2021 bereits 62 Prozent der befragten Betriebe in der DACH-Region (Deutschland, Österreich, Schweiz) mit einem Managed Service Provider zusammen oder hatten vor, dies im Laufe des Jahres anzugehen.

Managed Service – IT-Administration mit Köpfchen

Zunächst einmal die Definition: Managed IT Services sind wiederkehrende IT-Dienstleistungen, welche im Arbeitsauftrag eines Unternehmens von außenstehenden IT-Dienstleistern (sog. Managed Service Provider oder kurz MSP) geleistet werden. Dazu zählen unter anderem die Zurverfügungstellung, Beaufsichtigung und Administration von Anwendungen, Netzleistungen, Speicherplatz, IT-Sicherheit, die Weiterentwicklung von Geschäftsabläufen sowie technischer IT Support für ArbeitnehmerInnen.

Kategorie und Umfang der entsprechenden IT-Dienstleistungen werden im Voraus im Detail festgelegt und zwischen den beiden Parteien durch sog. Managed Service Agreements (MSA) oder Service Level Agreements (SLA) vertraglich festgelegt.

Managed IT Services werden üblicherweise im monatlichen Turnus erbracht, weshalb die Rechnungstellung in der Regel ebenfalls monatlich und nach definierten Tarifmodellen erfolgt. So ist die Abrechnung 100% transparent und die Erbringung der IT-Dienstleistungen eindeutig messbar.

Welche IT-Dienstleistungen decken Managed IT Services ab?

Managed Service-Modelle bieten drei verschiedene Formen der Leistungserbringung:

  1. IT-Dienstleistung vor Ort – Bei dieser Art der Leistungserbringung laufen die IT-Systeme am Standort des Klienten. Die Verwaltung sowie die Beaufsichtigung finden über ein System für das Remote Monitoring + Management (RMM) statt.
  2. IT-Dienstleistungen via Fernzugriff – Die IT-Dienste werden auf der Infrastruktur des IT-Dienstleisters betrieben und über das Netz bereitgestellt. Einige Managed Service Provider unterhalten hierfür ein persönliches Rechenzentrum, andere wiederum arbeiten mit Colocation-Anbietern zusammen.
  3. IT-Dienstleistungen über die Cloud – Das dritte Modell besteht darin, Managed IT Services auf einer sog. Public Cloud-Plattform bereitzustellen.

Umfassten Managed IT Services zu Beginn vor allem die Beaufsichtigung der Server- sowie Netzwerkinfrastrukturen, decken sie mittlerweile einen enormen Teilbereich der IT ab:

Storage-Services – umfassen die Bereitstellung, Konfiguration und Wartung von Speicherplätzen

Cloud Computing – beinhalten IT-Dienstleistungen rund um Cloud Computing und die Verlagerung der IT in die Cloud

Backup- und Recovery Services – umfassen die Erstellung von Backups und eine Datenwiederherstellung im Katastrophenfall

IT-Sicherheit – beinhalten IT-Dienstleistungen rund um die IT-Sicherheit; zum Beispiel die Bereitstellung, Konfiguration sowie das Aktualisieren von Antivirenprogrammen, Antispam-Lösungen oder aber Firewall-Lösungen, um die Netzwerk-Absicherung und Desktop-Sicherheit zu garantieren

Remote Monitoring – umfasst die kontinuierliche Fernüberwachung und Fernsteuerung der Server, IT-Systeme sowie IT-Lösungen

Update- und Patch Management – umfasst das Aktualisieren sowie Patchen der eingesetzten IT-Systeme sowie IT-Lösungen

Application Services – umfassen die Bereitstellung, Anpassung und Wartung von wichtigen Server-Applikationen

Helpdesk Services – beinhalten alle Support-Dienste

Managed Services und IT Outsourcing – zwei Paar Schuhe

Während IT Outsourcing die Ausgliederung kompletter IT-Aufgaben sowie IT-Segmente an einen IT-Dienstleister bedeutet, werden beim Managed IT Service-Modell häufig nur bestimmte Teilbereiche der IT-Infrastruktur ausgelagert.

Des Weiteren geht IT Outsourcing in der Regel generell mit einem Arbeitsplatzabbau einher. Managed IT Services haben hingegen die Absicht, die IT-Teams zu entlasten, damit sie sich besser auf deren Kernaufgaben konzentrieren können.

Ein anderer essentieller Unterschied zwischen Managed IT Services und IT Outsourcing besteht darin, dass letzteres de facto einem Kontrollverlust über die unternehmerische IT gleichkommt. Im Gegensatz dazu verbleiben die Assets bei Managed Services im Unternehmen.

Welche Vorteile Managed IT Services haben

Managed Services erzeugen vielfältigen strategischen Nutzen. Dazu zählt unter anderem:

Wachstum – Unternehmen im ganzen verfügen über gesteigerte Kapazitäten zur Realisierung einer langfristigen strategischen Ausrichtung.

Kostenkontrolle – Mit Managed Services haben Betriebe ihre IT-Aufwendungen besser im Griff. Kosten sind vertragliche definiert und zusätzlich helfen die Rahmenbedingungen des Konzepts, künftige Anpassungen präzise zu kalkulieren. Unerwartete Ausgaben oder Budget-Engpässe im Bereich IT werden so vermieden.

Effizienz – Besonders für kleinere Unternehmen ist es eine Herausforderung, genügend Fachkräfte für die interne IT-Abteilung zu stellen. Dank Managed IT Services profitieren die Betriebe vom Know-how eines beachtlichen Expertenteams, das ihnen nicht bloß die nötige IT-Beratung bietet, sondern auch herausfordernde Angelegenheiten übernimmt.

Gesteigerte Sicherheit – Durch die stetig steigende Anzahl an Angriffen aus dem Internet erhöht sich der Stressfaktor für Unternehmen, sich in Bezug auf Daten-Compliance abzusichern. Die Sicherheitslösungen von Managed Services gestatten es, auf diese Bedrohung angemessen zu reagieren. Zudem verfügen Managed Service Provider meist über mehr Sicherheitsexpertise und leistungsfähigere Software, als ‘vor Ort’ in kleinen und mittelständischen Betrieben vorhanden sind.

Digitalisierung – Die digitale Transformation ändert die Arbeitswelt drastisch. Kaum ein Unternehmensbereich ist davon stärker betroffen als die IT. Durch Managed IT Services können Betriebe in Kürze technische Innovationen der Industrie 4.0 (leistungsfähige Cloud-Lösungen o.ä.) realisieren. Dadurch werden Unternehmen agiler und skalierbar.

Hochverfügbarkeit – Da Managed Service Provider typischerweise mit mehrfach redundanten Systemen arbeiten, gewährleisten sie eine hohe Ausfallsicherheit der IT (je nach Leistungsumfang wird eine Verfügbarkeit von bis zu 99,95 Prozent garantiert).

Der Einkauf von Managed IT Services lohnt sich

Managed IT Services sind im Kommen. Dies liegt hauptsächlich daran, dass sie die wachsende Komplexität von IT-Infrastrukturen mindern, für mehr Transparenz sorgen und freie IT-Ressourcen schaffen. Aufgrund dessen sind sich IT-Experten einig: Managed Service-Konzepte sind für jedes Unternehmen eine gute Entscheidung, wenn es um die IT geht.

Möchten Sie mehr über das Thema erfahren? Sind Sie an der Implementierung von Managed Services in Ihrem Unternehmen interessiert? Dann sind unsere Managed Service-Konzepte möglicherweise die passende Lösung für Sie. Unter der kostenfreien Rufnummer 0800 4883 338 beraten wir Sie gerne. Zudem erfahren Sie hier auf unserer Website mehr zu Managed Services von Schneider + Wulf.

Foto © George Morina @ Pexels

Lesedauer ‘Netzwerksegmentierung – ein Werkzeug der Netzwerksicherheit’: 7 Minuten

Die Anzahl erfolgreicher Netzwerkangriffe wächst stetig und gilt für zunehmend mehr Betriebe. Ein ordentlich segmentiertes Unternehmensnetzwerk kann helfen, sensible Unternehmensbereiche extra abzusichern, die Reichweite von Netzwerkangriffen bedeutend einzuschränken sowie ihre möglichen Folgeschäden einzugrenzen. Aber wie gelingt genau genommen eine Netzwerksegmentierung? Für was wird sie genutzt und warum ist es empfehlenswert, sie zu implementieren? Die Antworten erhalten Sie in unserem folgenden Blogbeitrag.

Unternehmensnetzwerke werden mit wachsendem Ausmaß der Digitalisierung, steigendem Gebrauch moderner Cloud-Anwendungen sowie der Implementierung mobiler und internetfähiger Endgeräte immer komplexer. Die Auswirkung: Netzwerkadministratoren haben zunehmend damit zu ringen, die Sicherheit, Leistung, Ausfallsicherheit und Verfügbarkeit von Unternehmensnetzwerken aufrechtzuerhalten. Nebenbei kommt hinzu, dass sich Bedrohungsakteure diesen Sachverhalt gezielt zu Nutze machen mit dem Ziel, Betriebe zu attackieren, IT-Systeme zu kompromittieren, nützliche Geschäftsdaten zu erbeuten sowie Lösegeld zu erwirtschaften.

Wird ein Unternehmensnetzwerk attackiert, kann dies maximale Auswirkungen auf die betroffene Firma haben. Der jüngste Data Breach Report von IBM und dem Ponemon Institut beziffert die allgemeinen Ausgaben eines Datenlecks mit rund 4,25 Mio. US-Dollar – im Vergleich zum Vorjahr eine Erhöhung um 10 %. Hinzu kommt, dass der Radius und die Stärke von Netzwerkangriffen zunehmen. Genau das zeigen zum Beispiel die Internet Security Reports von WatchGuard Technologies. Daraus geht hervor, dass Netzwerkangriffe eine wachsende Gefahr für Betriebe darstellen.

Vor diesem Hintergrund gehört das Sicherstellen optimaler Netzwerksicherheit zu den Pflichtaufgaben eines jeden Betriebs. Ein probates Mittel dafür ist eine Netzwerksegmentierung.

Was versteht man unter Netzwerksegmentierung und warum ist sie wichtig?

Bei der Netzwerksegmentierung geht es um ein Netzwerksicherheitsverfahren, bei welchem ein physisches Unternehmensnetzwerk virtuell oder mit Hilfe von Hardware (Brücken, Switches, Router) in mehrere isolierte Segmente oder Subnetze unterteilt wird. In diesen individuellen Netzwerksegmenten kommen dabei unterschiedliche IT-Sicherheitsanforderungen, IT-Sicherheitsrichtlinien und IT-Sicherheitstools zum Tragen. So können Unternehmen verhindern, dass unbefugte Nutzer – neugierige Insider oder böswillige Internetkriminelle – Zugang zu kostbaren Unternehmensassets bekommen, etwa persönlichen Kundendaten, Finanzunterlagen des Betriebs und streng vertraulichem, geistigem Besitz.

Zudem kann die laterale Ausbreitung von Schadprogrammen nach einem erfolgreichen Netzwerkangriff von einem auf ein anderes Unternehmenssegment unterbunden werden. Das unterstützt Firmen bei der Vermeidung schwererer Schäden.

Verschiedene Arten der Netzwerksegmentierung

Die Netzwerksegmentierung ist grundsätzlich kein neuartiges Konzept der IT: Schon immer gab es bei der Konzeption von Netzwerkarchitekturen die Vorgabe, unterschiedliche Segmente materiell und/oder virtuell voneinander zu separieren. Hierbei kommen unterschiedliche Maßnahmen zum Einsatz. Zu den erfolgreichsten Ansätzen der Netzwerksegmentierung zählen insbesondere die physische Netzwerksegmentierung durch Subnetze und die logische Aufsplittung durch VLANs. Ferner bestehen noch eine Reihe weiterer Formen der Netzwerksegmentierung, die wir Ihnen in der folgenden Übersicht zusammengestellt haben.

Physische Netzwerksegmentierung durch Subnetze – Bei der physischen Segmentierung geht es darum, ein größeres Unternehmensnetzwerk in diverse Subnetze aufzuteilen, die mit einem Netzwerkgerät (z.B. Router) miteinander gekoppelt werden und auf IP-Adressebene agieren.

Logische Segmentierung durch VLANs – Bei der logischen Netzwerksegmentierung wird das Unternehmensnetzwerk auf der Switch-Ebene durch VLANs in mehrere logische Netzwerke mit unterschiedlichen Subnetzen geteilt.

Netzwerksegmentierung mit Hardware Firewalls – Bei der Netzwerksegmentierung können außer Switches zudem physische Firewalls zum Einsatz kommen. Jene werden hierfür im Unternehmensnetzwerk installiert, um interne Netzwerksegmente zu bauen, die meist funktionsgemäßen Netzwerksegmenten entsprechen und dazu dienen, die Angriffsoberfläche zu limitieren. So soll erreicht werden, dass sich Bedrohungen und Internetangriffe auf ein Netzwerksegment beschränken.

Netzwerksegmentierung mit Software-Defined-Network – Die Virtualisierungstechnologie Software-Defined-Network, knapp SDN, wird oft genutzt, um mehr Automatisierung und Orchestrierung im Unternehmensnetzwerk zu gewähren. Die Flexibilität von Software-Defined-Network ermöglicht eine zusätzliche sowie granulare Segmentbildung, wobei das Unternehmensnetzwerk in abertausende von Mikrosegmenten geteilt werden können. Gerade Betriebe mit begrenzten Ressourcen erhalten so die Möglichkeit, umfangreiche Segmentierungen (selbst Mikrosegmentierungen, siehe folgend) erfolgreich umzusetzen.

Mikrosegmentierung – Bei einer Mikrosegmentierung wird ein Unternehmensnetzwerk sehr feingliedrig, bis auf Anwendungsschicht sowie Benutzerebene, heruntergebrochen. Ein Zugriff auf die jeweiligen Netzwerksegmente wird dabei nur einer deutlich festgesetzten und eingegrenzten Gruppierung von Benutzern gestattet. Die Basis für die Mikrosegmentierung bilden Identität-Management-Systeme. Sie ermöglichen es, Nutzer bequem zu autorisierten Gruppierungen zusammenzuschließen sowie jenen danach (über sämtliche am Unternehmensnetzwerk angeschlossenen Technologien hinweg) Zugang auf bestimmte Geschäftsanwendungen und Services zu gestatten.

Welche Unternehmen benötigen eine Netzwerksegmentierung?

In den letzten Jahren hat die Netzwerksegmentierung enorm an Bedeutung gewonnen – besonders vor dem Grund zunehmender IT-Sicherheitsbedrohungen.

Grundsätzlich gilt: Jedes einzelne Unternehmen, das erhöhte Anforderungen an die IT-Sicherheit und Compliance hat, sollte sein Unternehmensnetzwerk segmentieren. Nichtsdestotrotz gibt es gewisse Unternehmen und Branchen, in welchen die Netzwerksegmentierung besonders essenziell ist. Hierzu gehören:

Anbieter im Gesundheitswesen – Unternehmen im Gesundheitswesen müssen auf den Schutz sensibler Patientendaten achten. Deshalb sollten sie hochsichere Segmente des Unternehmensnetzwerks durch eine geeignete Netzwerksegmentierung zusätzlich schützen.

Einzelhändler – Die PCI-Netzwerksegmentierung ist für Händler wichtig und umfasst eine strenge Kontrolle des Zugriffs auf Elemente des Netzwerks, in denen Karteninhaberdaten verwendet werden.

Darüber hinaus können Unternehmen die Netzwerksegmentierung nutzen, um Besuchern und Vertragspartnern einen Wi-Fi-Service zu offerieren. Wer sich mit Gastzugangsdaten einloggt, kommt in ein Mikrosegment, welches nur einen Zutritt auf das Internet erlaubt.

Schieben Sie Internetkriminellen einen mehrere Riegel vor!

In Zeiten von Cloud-Computing, Bring your own Device (BYOD) und dem Internet der Dinge (IoT) ist es zunehmend schwieriger, das Unternehmensnetzwerk zuverlässig vor Internetangriffen und -bedrohungen abzusichern. Die Netzwerksegmentierung ist eine leistungsstarke IT-Sicherheitsmaßnahme, welche Betrieben hilft, die IT-Infrastruktur von innen heraus sicherer zu machen.

Die Vorzüge der Netzwerksegmentierung liegen klar auf der Hand. Sie hilft dabei,

  • das Unternehmensnetzwerk vor Netzwerkangriffen zu schützen.
  • Schäden im Falle eines IT-Sicherheitsvorfalls durch weniger große Angriffsflächen zu kontrollieren und zu begrenzen.
  • große sowie komplexe Unternehmensnetzwerke administrierbar zu machen.
  • den Sicherheitsstatus eines Unternehmensnetzwerkes zu erhöhen.
  • die Observation des Netzwerkdatenverkehrs zu optimieren.
  • die Netzwerk-Leistung zu steigern.
  • technische Komplikationen zu orten.

Fazit: Keine Kompromisse bei der Netzwerksicherheit

Die Komplexität von Unternehmensnetzwerken steigt stetig. Zeitgleich werden IT-Sicherheitsanforderungen mit jedem neuen Anwender und jedem neuen Endgerät größer. Die Netzwerksegmentierung ist eine optimierte IT-Sicherheitsmaßnahme gegen Netzwerkangriffe, Ransomware-Infektionen sowie andere externe und interne Bedrohungen. Aber Vorsicht: Eine Netzwerksegmentierung ist kein Allheilmittel und sollte immer mit regelmäßigen Systemupdates, starken Zugangsdaten und Sicherheitslösungen zur Erkennung von Viren, Spam-E-Mails sowie Internetangriffen kombiniert werden.

Wollen auch Sie Ihr Unternehmen mit einer durchdachten Netzwerksegmentierung schützen? Oder sind Sie auf der Suche nach einer führenden Lösung in Sachen Netzwerksegmentierung? Kontaktieren Sie uns gerne unter der kostenfreien Rufnummer 0800 4883 338, wir beraten Sie gerne!

Foto © Laura Tancredi @ Pexels

Lesedauer ‘Der Klassiker, wenn es um Text geht – Microsoft Word im Detail’: 5 Minuten

Wenn es um die Bearbeitung von Texten auf dem PC geht, kommt man um Microsoft Word nicht herum. Mit einem Marktanteil von 85 Prozent ist Word das meistgenutzte Textverarbeitungswerkzeug in deutschen Unternehmen. Die Computersoftware war, als sie zu Beginn der 90er Jahre auf den Markt kam, bahnbrechend und wurde seitdem kontinuierlich fortentwickelt und an die Bedürfnisse der Nutzer angepasst. Ungeachtet diverser Alternativlösungen kann bis dato kein Mitbewerber-Produkt Word den Rang ablaufen. Aber was ist der Schlüssel zum Erfolg von Microsoft Word?

Word aus dem Hause Microsoft ist ein Textverarbeitungsprogramm mit Elementen des Microsoft-Office-Pakets. Word ist sowohl für Windows als auch für macOS verfügbar. Darüber hinaus gibt es auch mobile Apps für Android, iOS und Windows Phone. Fast immer wenn es um digitale Textverarbeitung geht, ist Word eine geeignete Wahl. Die Einsatzgebiete sind groß und langen vom privaten bis in den geschäftlichen Sektor: Von der Erstellung von Zeitschriften über Prospekte, Einladungen bis hin zu Imagebroschüren.

Um all diesen Publikationen ein individuelles Aussehen verleihen zu können, verfügt Word über eine Vielzahl an Formatierungs- und Designoptionen. Zudem besteht die Möglichkeit einer logischen Strukturierung über Inhaltsverzeichnisse.

So entstand das Textverarbeitungsprogramm Word

Der Ausdruck WYSIWYG hat durch Word globale Berühmtheit erlangt. WYSIWYG ist die Abkürzung für ‘What You See Is What You Get’. Im Klartext: Das, was man während der Bearbeitung eines Dokuments in Word sieht ist exakt das, was man am Ende als Resultat erhält, wenn man es ausdruckt oder als PDF abspeichert. Heutzutage mag so etwas selbstverständlich sein – als Word entwickelt wurde, war es das nicht. Diese Form der ‘Echtzeitdarstellung’ war zum Markstart von Microsoft Word 1989 vollkommen bahnbrechend (und brachte etliche Computer an ihre Leistungsgrenze). Unterschiedliche Formatierungen testen? Ging damals nur durch Drucken und Nebeneinanderlegen der verschiedenen Druckergebnisse.

Das Ergebnis schon im Verlauf des Bearbeitungsprozesses erblicken zu können, war zu Beginn der 90er absolut neuartig und hob die Software in Sachen ‘Usability’ – also in den Bereichen Nutzerfreundlichkeit und Handhabbarkeit – auf ein völlig neues Niveau.

Übrigens: Angesichts der einzigartigen Erfolgsgeschichte von Word hat Microsoft den Quellcode zu Microsoft Word for Windows 1.1a 2014 dem Computer History Museum gestiftet. Er steht dort für wissenschaftliche Zwecke zum Download bereit.

Wie arbeitet man mit Microsoft Word?

Mit Word lassen sich Texte formatieren und mit individuellen Designs versehen. Zudem verfügt die Anwendung über eine umfassende Rechtschreib- und Grammatikprüfung mit der Möglichkeit, diese in ihrer Funktion vollständig oder teilweise zu automatisieren. Word beachtet hier nicht bloß die Orthografie, sondern genauso Satzstruktur, Groß- sowie Kleinschreibung sowie Zeichensetzung.

Eine große Arbeitserleichterung bei der Arbeit an Texten, insbesondere in der Gruppe: Die ‘„Änderungen nachverfolgen’-Funktion. Einmal über ‘Überprüfen’ > ‘Änderungen nachverfolgen’ aktiviert, protokolliert Word sämtliche Anpassungen, welche an einem Text vorgenommen werden. Gepaart mit einer Kommentar-Funktion (‘Überprüfen’ > ‘Neuer Kommentar’) ist Word das perfekte Handwerkszeug zur kooperativen Dokumentenarbeit.

Die sog. ‘Modernen Kommentare‘ machen dieses Feature sogar noch leistungsfähiger: Kommentare werden nach Versender untergliedert und lassen sich in Threads zusammenschließen. Arbeitet man an einem in der Cloud gespeicherten Dokument, können Personen per @mention direkt in einem Kommentar genannt werden und man kann Teammitgliedern aus dem Word-Dokument heraus Arbeiten zuordnen.

Holen Sie mehr raus aus Microsoft Word

Nachfolgend ein paar Tipps, welche Ihnen in Ihrer täglichen Arbeit mit Word eine Menge Zeit sparen können:

1. Vorlagen nutzen: Microsoft stellt unzählige Layouts für Word kostenlos zur Verfügung (https://templates.office.com/?omkt=de-DE): Aus über 40 Kategorien kann man unter dutzenden von Designvorlagen für Kalender, Poster, Flyer, Unternehmenpläne, Broschüren, Einladungen und etlichen weiteren wählen.

2. Zeit sparen durch Tastenkürzel: STRG + C, STRG + V und STRG + S kennt mit Sicherheit jeder. Aber wussten Sie, dass Sie mit Markern eines gewählten Absatzes und STRG + L den Text linkszentriert setzen, während der Inhalt durch STRG + R rechtsbündig erscheint? Einen Textabstand von 1,5 schaffen funktioniert ebenfalls ganz flink und mühelos über STRG + 5. Shortcuts sparen – sinnvoll eingesetzt – sehr viel Zeit. Eine Übersicht sämtlicher zur Bereitschaft stehenden Tastenkombinationen in Word finden Sie hier.

3. Formatvorlagen individualisieren: Insbesondere im Unternehmensumfeld, wo ein gewisses Corporate Design berücksichtigt werden sollte, bieten sich Formatvorlagen an, um Dokumenten einen homogenen Anstrich zu verleihen. Einmalig in der Formatvorlage bestimmt, ist beispielsweise die Hauptüberschrift ganz automatisch in der Schriftart Verdana mit 24 Pt linksbündig und der Fließtext mit 12 Pt im Blocksatz angelegt. Richtig eingesetzt gewährleisten Formatvorlagen ein einheitliches Äußeres und sauber strukturierte Dokumente.

4. Blindtext einfügen: Wer viel mit Word arbeitet weiß, wie sinnvoll sog. Blindtext (Text ohne Sinngehalt mit dem Zweck, Textmenge grafisch zu simulieren) bei der Erstellung eines Layouts ist. ‘=rand(2,3)’ am Beginn einer neuen Textzeile eingetippt und ‘Enter’ gedrückt, erzeugt Blindtext in Word schnell und problemlos. Die erste Zahl steht dabei für die Anzahl der Absätze, der zweite Wert gibt die Anzahl der Sätze pro Absatz an.

5. Cursor-Position merken: Eine Funktion, welche besonders im Job an mehrseitigen Dokumenten enorm hilfreich ist, ist die Merkfunktion für die Position des Cursor. Word speichert die letzten vier Cursor-Standorte automatisch mit. Aufrufen kann man diese durch Drücken von Shift + F5.

6. Speichern, speichern und nochmal speichern: Wer häufig mit Word arbeitet, hat das vielleicht schon einmal erlebt: Zig Seiten Text sind fertig geschrieben, doch ausgerechnet an diesem Punkt hängt sich der Rechner auf oder der Akku vom Laptop ist leer. Dokument abgespeichert? Fehlanzeige. Deshalb generell der Tipp: In regelmäßigen Abständen speichern (trotz der Funktion ‘Automatisches Speichern’)! Und da viele über einen Zeitraum gestreut etliche Word-Dokumente öffnen, zum Schluss noch ein Hinweis, wie man alle geöffneten Word-Dokumente zum Feierabend hin auf einmal speichert. Bis zur Version 2003: Shift-Taste gedrückt halten und Klick auf ‘Datei’. Dann finden Sie in der Liste die Befehle ‘Alle speichern’ und ‘Alles schließen’. Ab Version 2007 muss dieses Feature einmalig eingerichtet werden, ist dann aber per Icons in der Schnellzugriffsleiste verfügbar:

  • Klicken Sie auf den Pfeil der Drop-Down-Liste rechts neben der Schnellzugriffsleiste
  • Wählen Sie den Eintrag ‘Weitere Befehle’
  • Im Fenster wählen Sie in der Drop-Down-Liste ‘Befehle auswählen’ den Eintrag ‘Alle Befehle’
  • Scrollen Sie nach unten wählen Sie den Befehl ‘Alle speichern’ bzw. ‘Alles schließen’
  • Fügen Sie die Befehle mit der Schaltfläche ‘Hinzufügen’ der Schnellzugriffsleiste hinzu
  • Bestätigen Sie die Änderungen im Fenster mit ‘OK’

Zum Abschluss sei angemerkt, dass Microsoft Word natürlich nicht das einzige Textverarbeitungsprogramm ist, das es gibt: Alternativen sind beispielsweise Pages von Apple sowie Textmaker von der Softmaker-Office-Suite (die einzige in Deutschland entwickelte Software dieser Kategorie). Weitere Word-Alternativen sind das kostenfreie Computerprogramm OpenOffice Writer von Apache sowie der quelloffene LibreOffice Writer und LaTeX. Im Gegensatz zu Word verfügt Letzteres jedoch nicht über ein WYSIWYG-Prinzip verfügt und ist deshalb deutlich komplizierter in der Anwendung.

Möchten Sie mit Microsoft Word produktiver werden? Kommen Sie gerne unter der kostenfreien Rufnummer 0800 4883 338 auf uns zu, wir beraten Sie gerne (und verraten Ihnen noch weitere nützliche Handhabungstipps)!

Foto © Pixabay @ Pexels

Lesedauer ‘HCI – Wissenswertes zum Thema Hyperkonvergente Infrastrukturen’: 5 Minuten

Das Rechenzentrum bildet das Herzstück vieler Unternehmen. Allerdings wird Ihr Betrieb mit zunehmender Digitalisierung von unternehmensinternen Vorgängen sowie dem Gebrauch einer Vielzahl unterschiedlichster Infrastrukturkomponenten diverser Hersteller ständig komplexer. Für viele stellt sich daher die Frage, wie man schnell und einfach für erweiterte Leistungsfähigkeit sorgen kann, ohne dabei IT-Kosten oder die besagte Komplexität weiter nach oben zu treiben. An dieser Stelle kommen hyperkonvergente Infrastrukturen ins Spiel. Um was es bei hyperkonvergenten Infrastrukturen geht, wo die Unterschiede zwischen hyperkonvergenten und konvergenten Infrastrukturlösungen liegen und welche Vorteile hyperkonvergente Infrastrukturen bieten, erfahren Sie in diesem Artikel.

Im Zeitalter von Industrie 4.0, Big Data, dem Internet der Dinge & Co. hängt der ökonomische Erfolg von Unternehmen in erster Linie von der Kompetenz ab, neue Anwendungen, Dienstleistungen und Waren in ständig knapperen Zeiträumen verlässlich sowie flexibel bereitzustellen. Allerdings setzt das eine IT-Systemlandschaft voraus, welche den ansteigenden Anforderungen unseres digitalen Zeitalters standhält und sich durch hohe Skalierbarkeit, Flexibilität sowie Ausfallsicherheit auszeichnet.

Da die konventionelle sowie mehrstufige Rechenzentrumsarchitektur mit ihrer vielschichtigen, heterogenen und steifen Systemlandschaft den modernen Ansprüchen immer weniger gerecht wird, gewinnen hyperkonvergente Infrastrukturen, kurz HCI (Hyper-Converged Infrastructure), immer mehr an Bedeutung – wie die Erkenntnisse einer aktuellen Analyse von techconsult zeigen.

Dieser Analyse zufolge denken bereits bereits zwei Drittel der Unternehmen in Deutschland über denUmstieg auf hyperkonvergente Infrastrukturlösungen nach – oder befinden sich bereits in der Planung.

Das ist auch nicht überraschend, denn einem Whitepaper der International Data Corporation, kurz IDC, entsprechend verzeichnen Unternehmen, welche auf eine solche hyperkonvergente Infrastrukturlösung wechseln, etliche Verbesserungen: Bis zu 50 % niedrigere Unterhaltskosten über fünf Jahre, 91 % geringere spontane Ausfallzeit, 50 % schnellere Entwicklungslebenszyklen für neue Features, 71 % bessere IT-Infrastruktur-Teams sowie 93 % weniger Personalzeit für die Bereitstellung neuer Server.

Was sind hyperkonvergente Infrastrukturen?

Bei hyperkonvergenten Infrastrukturen dreht es sich um den Architekturansatz, bei dem verschiedene Infrastrukturkomponenten des Rechenzentrums wie Server, Datenspeicher, Netzwerk, Virtualisierungsplattform und Managementsoftware in einem dezidierten System gebündelt werden. Dabei setzen hyperkonvergente Infrastrukturen entschlossen auf die Virtualisierung und eine software-zentrierte Gestaltung. Dies bedeutet, dass sämtliche Infrastrukturkomponenten sowie eingebettete Technologien von der Hardware entkoppelt und als flexible Komponenten auf die Schicht des ‘Hypervisors’ übertragen werden. Die Hypervisor-Software bildet die gesamte IT-Infrastruktur in einer virtuellen Umgebung ab und verteilt die Rechen- sowie Speicherressourcen gleichmäßig auf die unterschiedlichen Infrastrukturkomponenten.

Hyperkonvergente Systeme funktionieren somit grundsätzlich wie Cloud-Dienste: Auf der abstrahierten Ebene werden Services bereitgestellt, welche auf virtuellen Servern funktionieren, wobei die Hardware-Lösung im Hintergrund für den Nutzer weder sichtbar noch von Bedeutung ist.

Inwiefern unterscheidet sich eine hyperkonvergente von einer konvergenten Infrastruktur?

Obgleich konvergente wie auch hyperkonvergente Infrastrukturlösungen die Komplexität heterogener Rechenzentren lösen, gibt es ebenso erhebliche Unterschiede hinsichtlich des Umgangs mit Ressourcen. Bei einer konvergenten Infrastruktur werden die jeweiligen Infrastrukturkomponenten aufeinander abgestimmt und in der sogenannten Appliance orchestriert. Dabei bleiben selbige grundsätzlich autonom, sodass diese abgekoppelt benutzt oder skaliert werden können – doch ebenso administriert sowie gewartet werden müssen. In einer hyperkonvergenten Infrastrukturlösung dagegen steht, wie bereits erörtert, die Software im Mittelpunkt und gestattet die Verwaltung, Steuerung sowie Beaufsichtigung sämtlicher Komponenten und zugehörigen Technologien von einem inneren System aus.

Über eine engere Einbeziehung der jeweiligen Softwarekomponenten schreiten hyperkonvergente Systeme über die reine Rechenkapazität, den Speicher, das Netzwerk sowie die Virtualisierung hinaus. Auf diese Weise beinhalten hyperkonvergente Systeme meist auch Technologien etwa Daten-Deduplizierung, Datenkomprimierung für einen Transport über das Computernetz oder aber WAN-Optimierung. Außerdem enthalten hyperkonvergente Infrastrukturlösungen Gateways für die Cloud-Anbindung oder lassen sich in ein Desaster-Recovery-Konzept einbinden, das mehrere Rechenzentren enthält. Die Verwaltung sowie Bedienung der ganzen IT erfolgt bei HCI über eine relevante Software-Plattform, häufig in Form eines Web-Frontends.

Mehr Performance und Flexibilität mit hyperkonvergenten Infrastrukturen

Hyperkonvergente Infrastrukturen haben sich in den vergangenen Jahren zu einer wahrhaft innovativen Option zur herkömmlichen Rechenzentrumsinfrastruktur entwickelt. Die Vorzüge von hyperkonvergenten Systemen sprechen für sich – hyperkonvergente Infrastrukturen sind beispielsweise

  • skalierbar, flexibel und variabel, weil innovative IT-Services und Server bei Bedarf rasch zur Verfügung gestellt sowie eingebunden werden können.
  • effizient und entlastend, weil sie die Komplexität mindern und einen deutlich kleineren administrativen Aufwand herbeiführen. Außerdem lassen sich Standard-Anwendungen automatisieren.
  • leistungsstark, weil sämtliche Systemkomponenten enger untereinander verzahnt sind, zudem werden erforderliche Ressourcen optimal verteilt.
  • kosteneffizient, weil Betriebe nur für Ressourcen zahlen, die sie de facto benötigen.
  • hochverfügbar und sicher, da zum einen Backup-Vorgänge und Wiederherstellungsfunktionen bereits vorinstalliert sowie automatisiert und zum anderen sämtliche Komponenten digital verfügbar sind. Sodass können Anwendungen und Services ohne Datenverlust oder Systemausfälle gewechselt werden.

Der Umstieg auf HCI lohnt sich

Für agile Unternehmen sind Flexibilität sowie Skalierbarkeit relevante Aspekte für die Wettbewerbsfähigkeit – und somit letztlich für den Geschäftserfolg. Hyperkonvergente Infrastrukturen formen hierzu als schlanke ‘All-in-One-Lösung’ eine solide Grundlage. Dank der guten Skalierbarkeit gepaart mit der vereinfachten Verfügbarmachung von IT-Ressourcen und einem einfachen Monitoring und Organisieren sind hyperkonvergente Infrastrukturen für sämtliche Betriebe, welche das Rechenzentrum zukunftssicher sowie flexibel positionieren möchten, sinnvoll.

Wollen auch Sie Ihre Rechenzentren mit der hyperkonvergenten Infrastrukturlösung bündeln und so langfristig IT-Kosten senken? Haben Sie weiterführende Fragen zum Thema? Kontaktieren Sie uns unter 0800 4883 338 (kostenfrei innerdeutsch)!

Foto © Digital Buggu @ Pexels

Lesedauer ‘5G – State of the Art im Mobilfunk’: 4 Minuten

Portable Endgeräte ohne mobilen Breitbandzugang? Heutzutage unvorstellbar! Um mobiles Datenvolumen auf Handys, Tablets, Laptops & Co. einsetzen zu können, kommen mittlerweile unterschiedliche Mobilfunktechniken und Mobilfunkstandards zum Einsatz: GPRS, EDGE, UMTS, LTE und 5G. Was die einzelnen Mobilfunknetz-Akronyme bedeuten, wo genau die Unterschiede liegen und welcher Mobilfunkstandard der beste zu sein scheint, lesen Sie im nachfolgenden Beitrag.

Die Internetnutzung von unterwegs ist aus dem Geschäftsleben nicht mehr wegzudenken. Egal ob Kundenanfragen bearbeiten, Dokumente revidieren oder Termine planen: Dank der zunehmenden Verbreitung zeit- und ortsunabhängigen Arbeitens, dem verstärkten Gebrauch dynamischer Endgeräte und der Palette innovativer Office- sowie Produktivitäts-Apps, ist es heutzutage in etlichen Unternehmen gängig, mit mobilem Internet zu agieren.

Die Folge: Der ‘mobile Traffic’ ist in den letzten zehn Jahren um beinahe das 300-fache gewachsen.

Aktuellen Medienberichten zufolge (u.a. das Handelsblatt sowie das SPIEGEL Netzwerk wurden 2021 allein in Deutschland 1,4 Milliarden Gigabyte Daten über das Vodafone-Netz, rund 1,8 Milliarden Gigabyte über die Telekom-Netze und mehr als zwei Milliarden Gigabyte über Telefónicas O2-Netz befördert.

Doch: Mobiles Internet ist nicht gleich mobiles Internet. Abhängig von Dienstleister, Gegend und Tarif werden die portablen Daten über verschiedene Mobilfunknetze übermittelt, die wiederum auf individuellen Mobilfunktechniken sowie Mobilfunkstandards beruhen – und sich dementsprechend durch unterschiedliche Geschwindigkeiten differenzieren.

5G in Kürze

5G ist der aktuell jüngste Standard für Mobilfunknetze und wird auch als 5. Generation der Mobilfunktechnik bezeichnet. Wie dessen Vorgänger Global System for Mobile Communications (GSM), General Packet Radio Service (GPRS), Enhanced Data Rates for GSM Evolution (EDGE), Universal Mobile Telecommunications System (UMTS) und Long Term Evolution bzw. Long Term Evolution Advanced (LTE/LTE+) auch, wurde 5G durch die Standardisierungsorganisation 3rd Generation Partnership (3GPP) fortentwickelt und standardisiert.

Das Ziel von 5G ist es, neue Maßstäbe bezüglich Datengeschwindigkeit, Latenzperiode, Endgerätedichte, Verfügbarkeit, Energieeffizienz, Beständigkeit und Datensicherheit zu setzen. Damit geht der neue Mobilfunkstandard erheblich über digitale Telefonie und schnelles mobiles Internet hinaus. Zum einen gilt er als Antwort auf den weltweit steigenden Traffic, welcher etwa durch das Internet der Dinge, Streamingdienste und ‘Big Data’ erzeugt wird. Zum anderen stellt er die Weichen in Richtung mobile Gigabyte-Welt.

5G kann mehr als 4G, LTE und Co.

5G bietet im Vergleich zu den Vorgängerstandards LTE (4G) und UMTS (3G) hohe Datenraten von zehn Gbit pro Sekunde sowie Latenzzeiten von unter einer Millisekunde. Dadurch wird erstmalig Echtzeitkommunikation zwischen Personen, Endgeräten, Maschinen und Dingen machbar. Mit dem Ziel, Reichweite zu erhöhen, nutzt 5G ein breites Spektrum an neuen technischen Methoden, wie zum Beispiel:

Orthogonal Frequency Division Multiplexing (OFDM) – Bei OFDM handelt es sich um eine Modulationstechnik, die sehr flexibel funktioniert und die Kombination verschiedener variabler Trägerfrequenzen mit unterschiedlichen Bandbreiten und Intervallen ermöglicht.

Massive Multiple Input Multiple Output, (MIMO) – MIMO erlaubt durch die geschickte Ausnutzung vieler Sende- sowie Empfangsantennen den Datenaustausch über parallele Verbindungen und sorgt darüber hinaus für einen erhöhten Datendurchsatz.

Beamforming – Mit Beamforming wird die Übertragungsleistung in bestimmte Raumrichtungen gebündelt und verbessert. Folglich lassen sich Signale ganz gezielt in Richtung eines mobilen Endgeräts strahlen.

Small Cells – Small Cells komprimieren vorhandene Antennenstandorte bei äußerst hoher Nachfrage, um ihre Netzwerkkapazität zu erhöhen sowie Netzüberlastungen bei Großveranstaltungen oder in Bahnhöfen, Airports sowie Innenstädten solide zu umgehen.
Network Slicing – Beim Network Slicing wird das Mobilfunknetz bedarfsabhängig in anwendungsspezifische Arten eingeteilt, mit dem Ziel, verschiedene virtuelle Teilnetze parallel zu betreiben. Die Unterteilung gestattet es, unterschiedlichsten Nutzungen genau die passenden Ressourcen bereitzustellen.

Die Vorteile von 5G gegenüber LTE liegen klar auf der Hand.

Für Firmen:

  • Datenraten von bis zu 10 Gbit pro Sekunde
  • Latenzzeiten unter 5 Millisekunden
  • Beständigkeit bis zu 99,999 %
  • Verbesserte M2M (‘Maschine-zu-Maschine#Kommunikation’) in Echtzeit, z.B. zur Vertigungsautomatisierung
  • Optimierte Verknüpfung und Steuerung von Produktion, Lager und Logistik
  • Garantierte Netzverfügbarkeit über sog. private Campusnetze (z.B. besondere 5G-Subnetze für örtliche Firmengelände)

Für Verbraucher:

  • Schnelleres mobiles Hochgeschwindigkeitsnetz für Kommunikation und multimediale Anwendungen wie zum Beispiel mobiles Gaming, Streaming, 4K-Video
  • Optimierte Netzabdeckung und Netzstabilität
  • Innovative Nutzungsszenarien im Alltag (z.B. Augmented Reality in Echtzeit)
  • Geringere Strahlungsdisposition durch die Verteilung auf viele kleinere Funkzellen
  • Künftig noch bessere Mobilfunktelefonie durch Vo5G (Voice over 5G)

Mobilfunk – eine Ahnengalerie

Rückblickend wird etwa alle zehn Jahre eine neue, maßgebliche Mobilfunkgeneration entwickelt und eingeführt. Anfang der 1990er Jahre wurde mit dem GSM-Standard das allererste digitale Mobilfunknetz ins Leben gerufen. Außer der Telefonie war mit diesem Mobilfunkstandard nun auch mobile Datenübertragung realisierbar. Allerdings dauerte das sehr lange, weshalb GSM zunächst mit dem Mobilfunkstandard GPRS und später mit Edge ergänzt wurde. 2000 wurde mit UMTS die dritte Mobilfunkgeneration etabliert. Mit UMTS war es zum ersten Mal möglich, ‘mobil online’ zu sein. Mit der Einführung der 4. Mobilfunkgeneration (LTE Advanced) wurden die Innovationen des 3G-Netzes nochmals optimiert und es war möglich, noch größere Informationensmengen zu übertragen.

Der Mobilfunkstandard für die Digitalisierung

Die 5. Mobilfunkgeneration wird allgemein nicht nur als Evolution der bisherigen Mobilfunkstandards betrachtet, sondern stellt vielmehr eine Revolution des Mobilfunksektors dar: Aufgrund riesiger Datenraten, kurzer Latenzzeiten sowie größerem Frequenzspektrum zählt er als elementarer Baustein für die künftige Digitalisierung. Aber nur, weil 5G gerade der aktuelle Mobilfunkstandard ist heißt das keinesfalls, dass nicht schon jetzt an künftigen Technologien gearbeitet wird.

Haben Sie Fragen zum Thema? Kontaktieren Sie uns unter 0800 4883 338!

Foto © Z z @ Pexels

Lesedauer ‘Geotargeting und Geoblocking … schon einmal davon gehört?’: 3 Minuten

Kennen Sie die Begriffe ‘Geotargeting’ bzw. ‘Geoblocking’? Kann man die Technik als Unternehmen sinnvoll nutzen? In diesem Beitrag rund um das Thema liefern wir Antworten auf diese Fragen – und viele wertvolle Empfehlungen aus der Praxis.

Geotargeting und Geoblocking – was sich dahinter verbirgt

Jeder hinterlässt beim Surfen im World Wide Web Spuren. Mit Hilfe der IP-Adresse kann (zunächst einmal) eindeutig nachverfolgt werden, von wo aus auf der Welt z.B. eine Website aufgerufen wird. Die IP-Adresse ist im Grunde eine Kombination aus Fingerabdruck und Postleitzahl. Auf Grundlage dieser Technik werden Internetseiten automatisch in der korrekten Sprache angezeigt oder man wird beim Zugriff aus Deutschland unaufgefordert auf eine .de-Domain geleitet. Dieser Vorgang nennt sich ‘Geotargeting’.

Umgekehrt kann diese Information über die Herkunft eines Websitebesuchers aber ebenso genutzt werden, um ihn oder sie (je nach zuvor definiertem Herkunftsgebiet oder Land) von bestimmten Angeboten auszuschließen – dies nennt man ‘Geoblocking’. Konkret bedeutet das: Will man aus einem entsprechenden Land heraus eine Website aufrufen, kann einem der Zugang wegen der geographischen Herkunft (festgestellt anhand des IP-Adressbereichs) verweigert werden.

Die Technik kommt in der Praxis hauptsächlich zum Einsatz, um lizenzrechtliche Probleme auf Grundlage des Urheberschutzes zu vermeiden. So kann es passieren, dass ein bestimmter Clip auf YouTube beim Zugriff aus Deutschland nicht angezeigt wird – mit dem Hinweis ‘Dieser Inhalt ist in Ihrem Land nicht verfügbar’. Ebenso kann man während des Auslandsurlaubes womöglich nicht auf ein Video in der Tagesschau-Mediathek zurückgreifen – denn die Beiträge der öffentlich-rechtlichen Sender sollen auch nur für Benutzer in Deutschland abrufbar sein.

Wie ist das mit der rechtlichen Lage?

Es kann vorkommen, dass man bei der Internet-Suche nach einer Waschmaschine einen erhöhten Preis aufgelistet bekommt, wenn man aus Deutschland auf den Onlineshop zugreift, als wenn man dieselbe Website zum Beispiel aus Malta aufruft. Das war der EU ein Dorn im Auge, da es sich um so etwas wie Ungerechtigkeit handelt. Aus diesem Grund wurde vor einigen Jahren eine so bezeichnete ‘Geoblocking-Verordnung’ in allen EU-Mitgliedstaaten ins Leben gerufen – eine Regelung, welche die Benachteiligung von Käufern aus der EU angesichts ihrer Staatsbürgerschaft oder des Wohnsitzes verhindern soll (Link zur Verordnung (EU) 2018/302 des Europäischen Parlaments und des Rates vom 28. Februar 2018 über Maßnahmen gegen ungerechtfertigtes Geoblocking).

Die Datenschutzgrundverordnung (DSGVO) der EU hat diese Regulierungen nochmals konkretisiert. Sie beschreibt: Innerhalb aller Mitgliedsstaaten der Europäischen Union ist Geoblocking unzulässig. Die Begründung: Geoblocking hindert die EU-Bewohner daran, Produkte außerhalb des eigenen Landes zu fairen Konditionen zu kaufen. Es gibt jedoch Ausnahmen, wie bereits erwähnte Film- oder Fernsehangebote.

‘Dieser Service ist in Ihrem Land nicht verfügbar’ – oder doch?!

Gibt man den Begriff Geoblocking in einer Suchseite ein, trifft man vornehmlich auf Erklärungen sowie Werkzeuge, wie man Geoblocking gezielt umgehen kann. Geschrieben für Menschen, die ungehindert von überall aus der Welt auf sämtliche Angebote im Internet zurückgreifen wollen, ohne staatlichen bzw. lizenzrechtlichen Regeln unterworfen zu sein. Technisch möglich ist das über einen sog. Proxy-Server, welcher im nicht von der Sperrung betroffenen Staat steht, oder einen VPN-Tunnel (Virtual Private Network), der die eigene IP-Adresse verdeckt und so vorgibt, an einem anderen Standort zu sein, als man in Wirklichkeit ist.

Derartige Verschleierungstaktiken sind ganz bestimmt nicht im Interesse der Websitebetreiber, aber auch nicht gesetzwidrig. Während es zum Geoblocking in der EU bereits Regulierungen gibt, fehlen selbige bisher, was die technischen Optionen zur Vermeidung von Geoblocking betrifft. Sofern es kein anderweitig lautendes Urteil gibt, gilt: Geoblocking durch Einsatz eines Proxy-Servers oder auch VPN zu umgehen, ist legal. Daher gehen ein paar Websitebetreiber mittlerweile dazu über, eine Vermeidung von Geoblocking in ihren allgemeinen Geschäftsbedingungen zu untersagen.

Sollte man Geoblocking im Unternehmen nutzen?

Neben den unzählbaren Anleitungen zur Vermeidung von Geoblocking stößt man bei diesem Thema gelegentlich auf Schlagzeilen wie: ‘Russische Hacker mit Geoblocking stoppen!’. Klingt nach einer guten Idee, oder? Problemlos Zugriffe aus sämtlichen Ländern, in welchen keine Beschäftigten stationiert sind, sperren und so die persönliche IT-Infrastruktur schützen. Das private Unternehmensnetzwerk durch Zugriffe von fremden IP-Adressen zu sperren, ist eine gängige und unkomplizierte Maßnahme – sie kann und darf dennoch nur ein kleiner Baustein im Rahmen eines umfassenden IT-Sicherheitsplanes sein. Denn: Wie schon erwähnt, kann man Geoblocking mühelos umgehen. Hacker, woher auch immer jene stammen mögen, verwenden für die Angriffe in den wenigsten Situationen ihre echte IP, sondern verhüllen ihre Herkunft in der Regel; unter anderem, indem sie von kompromittierten Webservern aus attackieren.

Geoblocking ist zwar sinnvoll, allein aber auf keinen Fall ein effizientes Instrument zum Schutz Ihrer IT.

Um die unternehmerische IT abzusichern, ist vielmehr eine ausführliche Prüfung des Netzwerkzugriffs über die Firewall nötig. So sollte beispielsweise zum Schutz vor sog. DDos-Angriffen in der Firewall konfiguriert sein, dass die Menge der Verbindungen pro IP-Adresse beschränkt ist. Außerdem sollte die Firewall turnusmäßig gewartet werden. Firmware-Updates und eine Aktualisierung der geogeblockten IP-Adressen sollte regelmäßig durchgeführt werden, um einen sicheren Schutz dauerhaft zu gewährleisten.

Nehmen Sie unter 0800 4883 338 kostenfrei Kontakt mit uns auf, falls Sie Fragen zum Thema haben oder wenn Sie sich nicht sicher sind, ob ‘Geoblocking’ in Ihrem Unternehmen überhaupt schon konfiguriert ist. Wir beraten Sie gerne!

Foto © Elina Sazonova @ Pexels

Lesedauer: 2 Minuten

Ab dem 01. Oktober 2022 werden folgende Protokolle deaktiviert: Outlook, EWS, RPS, POP, IMAP und EAS in Exchange Online.

Wen oder was betrifft das? Alle Programme, Apps oder Dienste, die E-Mails generieren und diese per simpler Standardauthentifizierung (Benutzername und Passwort) verschicken.

Die Standardauthentifizierung wird durch die sogenannte ‘Modern Authentication’-Methode (basierend auf OAuth 2.0) ersetzt.

Was ist für Sie zu tun? Identifizieren Sie die betroffenen Anwendungen in Ihrem Unternehmen und kontaktieren Sie die jeweiligen Hersteller bezüglich eines adäquaten Updates. Alternativ bzw. wenn besagte Anwendungen nicht weiter unterstützt werden, sollten Sie rechtzeitig auf Anwendungen wechseln, welche ‘Modern Authentication’ unterstützen.

Als Kunde von Schneider + Wulf informieren wir Sie proaktiv (im Rahmen von Projekten oder Statusbesprechungen) in Bezug auf die Abschaltung veralteter Authentifizierungsmethoden. Handlungsbedarf besteht in diesem Zusammenhang ganz konkret in Bezug auf veraltete SuperOffice-Installationen unter Einsatz der Schnittstellen ‘Exchange-Sync’ oder ‘Superoffice Ticketsystem’.

Sie haben Fragen oder möchten wissen, ob Ihr Unternehmen von dieser Abschaltung betroffen ist? Kontaktieren Sie uns unter 0800 4883 338 kostenfrei oder per Mail an info@schneider-wulf.de. Eine weiterführende Erklärung seitens Microsoft zu dieser Angelegenheit finden Sie hier.

Foto © Steve JohnsonPexels