Lesedauer ‚Alles Wissenswerte für den Einsatz von Microsoft Planner‘ 6 Minuten

Microsoft Planner ist ein cloudbasiertes Management-Werkzeug das Firmen dabei hilft, Aufgaben und Projekte besser zu organisieren und zu verfolgen. Durch seine einfache Bedienung ermöglicht Planner es, die tägliche Arbeit effizienter zu organisieren. Für wen die Anwendung attraktiv ist, was Microsoft Planner alles kann und ob das Werkzeug DSGVO-konform ist, erfahren Sie im nachfolgenden Blogbeitrag.

Kollaboration leicht gemacht: Das ist das Motto von Microsoft Planner. Das Programm gibt Anwendern ein Werkzeug an die Hand, mit welchem sie anstehende Arbeiten im Aufgaben- oder Projektrahmen bequem organisieren und verwalten können. Mit Microsoft Planner erzeugen Teams mühelos neue To-dos, sortieren Aufgaben und weisen diese zu, geben Dokumente frei, diskutieren aktuelle Tätigkeiten im Chat und behalten den Projektfortschritt jederzeit im Auge. Des Weiteren können Kommentare und Anhänge hinzugefügt werden, um die Aufgabenerledigung optimal zu unterstützen. Kurzum: Mit Microsoft Planner kann man Arbeiten planen, koordinieren und deren Erledigung nachhalten.

Microsoft Planner zu benutzen ist eine gute Gelegenheit, um die Produktivität im Unternehmen nachhaltig zu steigern. Das Programm ist intuitiv und sehr einfach zu bedienen – so wird die Strukturierung sämtlicher To-Dos zum Kinderspiel. Durch die Aufteilung in verschiedene Listen (sogenannte ‚Buckets‘) sowie die Vergabe von Fälligkeiten und indivdualisierbare Benachrichtigungseinstellungen werden Nutzer kontinuierlich bei der Einhaltung und Erledigung ihrer Termine unterstützt.

Planner ist für sämtliche Business-Abonnenten von Microsoft 365 kostenfrei erhältlich. Die Anwendung ist für Windows und Mac sowie als Web-Anwendung via Browser und ebenso für mobile Endgeräte (Android + iOS) verfügbar.

Microsoft Planner, To-Do und Project Online – ist das nicht das gleiche?

Bietet Planner nicht die gleiche Funktionalität wie Microsoft To-Do oder Project Online? Ganz klar: Nein. Zwar ist To-Do auch eine Software-Lösung aus dem Hause Microsoft mit dem Ziel der Aufgaben- und Terminorganisation. Allerdings bewegt man sich mit Microsoft To-Do im ‚Mikrokosmos‘ einer Einzelperson. Zwar verschafft es jedem Mitarbeiter bzw. jeder Mitarbeiterin eine individuelle Übersicht über eigene oder zugewiesene Aufgaben – hier endet die Kapazität der Anwendung dann aber auch schon. Für Kollaboration und die eigentliche Gruppenarbeit ist wiederum Microsoft Planner ideal geeignet – für Projekte in kleinen bis mittelgroßen Gruppen. Hochkomplexe Projekte mit interdisziplinären, großen Projektteams verwalten Unternehmen am besten mit Microsoft Project Online.

Welche Vorteile der Einsatz von Microsoft Planner mit sich bringt

Microsoft Planner unterstützt agile Arbeitstechniken wie Kanban oder Scrum. Es liefert zum Beispiel ein sog. Kanban-Board, auf welchem sich Aufgaben ganz mühelos verwalten und per Drag & Drop je nach Aufgabenstatus zuordnen lassen. Sein volles Potenzial entfaltet die Lösung, wenn es im Team gebraucht wird. Speziell für kleine und mittelständische Unternehmen bietet das Werkzeug vielfältige Möglichkeiten zur Produktivitätssteigerung und Optimierung der Team-Kommunikation.

Vergleichen lässt sich das das Werkzeug am ehesten mit Lösungen anderer Anbieter wie Trello, Asana oder Jira. Im Gegensatz zu diesen verfügt Microsoft Planner allerdings über einen entscheidenden Vorteil: Die nahtlose Integration in das Microsoft-Ökosystem. Mit Schnittstellen zu Outlook, SharePoint und Microsoft Teams ist die Verfügbarkeit aller relevanten Informationen lückenlos. Für Unternehmen, die daher bereits eines oder mehrere dieser Programme einsetzen, ist Microsoft Planner eine sinnvolle Ergänzung ihrer Software-Landschaft. Zumal der Gebrauch – wie zuvor erwähnt – für Inhaber eines Business-Abonnements (aber auch für Enterprise-Kunden sowie im Rahmen von Education Office 365-Abonnements) kostenlos ist. So vermeiden Sie zusätzliche Lizenzkosten – in Zeiten wie diesen ein schlagkräftiges Argument für den Einsatz von Microsoft Planner als Projekt- und Aufgabenmanagement-Tool.

Ist Microsoft Planner DSGVO-konform?

Unternehmen, die über den Einsatz von Microsoft Planner nachdenken, haben mit hoher Wahrscheinlichkeit schon Microsoft 365 im Unternehmen etabliert. Aufgrund dieser Tatsache ist davon auszugehen, dass das Thema Datenschutz (und DSGVO) bereits durchleuchtet wurde. Für alle 365-User, die sich damit noch nicht beschäftigt haben oder im – eher unwahrscheinlichen – Fall, dass die Einführung von Planner als Einstieg in den Microsoft-Kosmos dient, sei hier deutlich angemerkt, dass dies schleunigst geschehen sollte. Denn tatsächlich kann es – bei mangelnder Vorbereitung – zu Konflikten zwischen dem in den USA ansässigen Microsoft und dem europäischen Recht kommen.

In diesem Zusammenhang raten wir allen Microsoft 365-Usern, unbedingt eine Risikobewertung durchzuführen sowie – im Hinblick auf den Datenschutz – außerdem eine strenge Konfiguration aller genutzen Services vorzunehmen. Konkret bedeutet das: Deaktivieren Sie in jedem Fall alle Services, die Sie nicht zwingend benötigen. Und – weitaus komplexer, jedoch umso wichtiger – deaktivieren Sie alle Dienste, die nicht auf EU-Servern gehostet werden.

Wer seine Hausaufgaben bereits erledigt hat, kann beim Einsatz von Microsoft Planner ganz entspannt durchatmen: Die Daten von werden in Irland oder den Niederlanden – ergo innerhalb der EU – gelagert. Wir möchten erwähnen, dass ein minimales Restrisiko für die (tatsächlich gesetzeswidrige) Übertragung personenbezogener Daten an amerikanische Strafverfolgungsbehörden besteht. Diese Vorgehensweise ist bei sämtlichen oben gelisteten alternativen Lösungen allerdings ebenso üblich.

Die Features von Microsoft Planner im Überblick

  • Visuelle Organisation von Arbeit, Aufgaben und Terminen
  • Administration sämtlicher Aufgaben zentral an einem Ort
  • Organisation von Teamarbeit
  • Zuteilung von Aufgaben
  • Entwurf von Kanban-Boards mit detailgenauen Aufgabenkarten
  • Kommunikation und Dialog mit anderen Benutzern
  • Einfügen sowie Freigeben von Dateien
  • Erstellung und Erfüllung von Checklisten
  • Statusverfolgung über visuelle Diagramme
  • Geschützte Datenspeicherung auf der Microsoft Cloud
  • Gebührenfrei verfügbar für Business-Abonnenten von Microsoft 365

 

Zu sämtlichen Fragen rund um Planner sowie alle anderen Lösungen aus dem Microsoft 365-Kosmos sind wir Ihr kompetenter Ansprechpartner. Sie erreichen uns unter der Nummer 0800 4883 338 (kostenfrei innerdeutsch) oder zur Vereinbarung eines unverbindlichen Besprechungstermines über unseren Terminplaner.

Foto © Startup Stock Photos @ Pexels

Weiterführende Links

Hier erhalten Sie weiterführende Informationen zu Office 365 sowie zu Microsoft Teams. Detaillierte Informationen zur Cloud-Lösung Azure finden Sie hier.

Lesedauer ‚IT-Sicherheitsvorfall: Prävention, Erkennung und Aufklärung!‘ 7 Minuten

IT-Sicherheitsvorfälle sind heutzutage allgegenwärtig. Aus diesem Grund sollten sich alle Unternehmen auf einen solchen IT-Sicherheitsvorfall vorbereiten, um im Ernstfall richtig reagieren zu können. Doch wann redet man eigentlich von einem IT-Sicherheitsvorfall? Welche wichtigen Maßnahmen sind vor, während und nach einem IT-Sicherheitsvorfall entscheidend? Antworten auf diese (und weitere) Fragen erhalten Sie im folgenden Artikel.

Egal ob IT-Schwachstelle, menschliches Fehlverhalten oder gezielter Hacker-Angriff: Mit wachsendem Digitalisierungsgrad sind IT-Sicherheitsvorfälle keine Seltenheit mehr – das Gegenteil ist der Fall: Mittlerweile Stehen solche Vorfälle auf der Tagesordnung und kommen in fast jedem deutschen Unternehmen vor.

Dadurch entstehende Folgeschäden sind oft beachtlich und reichen deutlich über das rein monetäre Verlustgeschäfte hinaus. Denn betroffen sind nicht mehr ausschließlich die attackierten Betriebe, sondern immer öfter auch Drittparteien innerhalb einer wirtschaftlichen Wertschöpfungskette. Und werden gar Behörden oder Versorger attackiert, beeinträchtigt dies sogar große Teile der Bevölkerung – als Beispiele seien hier IT-Sicherheitsvorfälle von 2021 bei Colonial Pipeline, dem Betreiber eines Benzin-Pipeline-Netzwerkes in den Vereinigten Staaten, wie auch bei den IT-Unternehmen Kaseya und SolarWinds genannt.

Doch was ist mit dem Begriff ‚IT-Sicherheitsvorfall‘ tatsächlich gemeint?

Das versteht man unter einem IT-Sicherheitsvorfall

Im Allgemeinen definiert sich ein IT-Sicherheitsvorfall als unerwünschtes Geschehnis, welches die Vertraulichkeit, Verfügbarkeit und Integrität von Informationen, Geschäftsabläufen, IT-Systemen, IT-Anwendungen oder IT-Diensten derart beeinträchtigt, dass ein enormer Schadensfall für die entsprechenden Unternehmen oder Personen entstehen kann.

Das Bundesamt für Sicherheit in der Informationstechnik kategorisiert in seinem Baustein ‚Sicherheitsvorfallmanagement‘ einen IT-Sicherheitsvorfall im Detail. Demnach handelt es sich insbesondere dann um einen IT-Sicherheitsvorfall, wenn:

    • Leib und Leben in Gefahr sind.
    • zentrale Unternehmensprozesse drastisch beeinträchtigt oder zum Stillstand gebracht wurden.
    • Hardware, Software oder geschäftskritische Daten bedroht sind und unrechtmäßig benutzt, manipuliert, gelöscht, zerstört oder eingeschränkt wurden.
    • Unternehmenswerte beschädigt wurden.
    • das Ereignis negativen Einfluss auf Kunden, Lieferanten oder andere Personen bzw. Instanzen außerhalb des betroffenen Unternehmens hat.

Ein IT-Sicherheitsvorfall ist heute wahrscheinlicher als je zuvor

Heutzutage muss ausnahmslos jedes Unternehmen damit rechnen, irgendwann Opfer eines sicherheitsrelevanten Ereignisses zu werden. Die Faktoren dafür, dass ein IT-Sicherheitsvorfall überhaupt entsteht, können dabei äußerst unterschiedlich sein. So sind etwa komplexe Internet-Angriffe mit Schadsoftware oder Ransomware, fehlkonfigurierte IT-Systeme, Sicherheitslücken in genutzter Software, Verstöße gegen Sicherheitsrichtlinien oder der Raub von mobilen Endgeräten (Notebooks etc.) Ursache für – mitunter weitreichende – IT-Sicherheitsvorfälle.

Mit dem Ziel, dass ein IT-Sicherheitsvorfall zeitnah und angemessen bearbeitet und beseitigt werden kann, sind Unternehmen daher bestens beraten, sich rechtzeitig mit dem Thema zu beschäftigen. Eine intelligente und umfassende Strategie zur Verfahrensweise bei IT-Sicherheitsvorfällen zu erstellen und einzuführen, sollte bei Entscheidern hoch priorisiert werden. Dazu gehört, dass sie neben dem Gebrauch erprobter IT-Sicherheitsmaßnahmen und -lösungen einen umfassenden Vorfallreaktionsplan (neudeutsch: Incident Response-Plan) einführen.

Richtig reagieren, leicht gemacht!

In einem Incident Response-Plan sind alle erforderlichen Maßnahmen festgelegt, die im Fall eines IT-Sicherheitsvorfalls zur Anwendung kommen. Üblicherweise ist eine Vorfallreaktion in vier Hauptphasen aufgegliedert:

Vorbereitung

Die sorgfältige Planung ist ein wichtiger Ablaufschritt in der Behandlung von IT-Sicherheitsvorfällen. Sie formt den Grundstock für den kompletten Prozess und bestimmt über Gelingen oder Versagen. In ebendieser Phase sollte eine Incident Response-Leitlinie, eine effiziente Reaktionsstrategie sowie eine feste Ablauforganisation erstellt und implementiert werden. Überdies gilt es sicherzustellen, dass alle Arbeitnehmer*innen im Hinblick auf deren Rollen und Verantwortlichkeiten bei der Reaktion auf IT-Sicherheitsvorfälle entsprechend geschult sind. Darüber hinaus ist es ratsam, Übungsszenarien zu entwickeln, um den Vorfallreaktionsplan zu beurteilen und bei Bedarf optimieren zu können.

Vorfallerkennung

In dieser Phase wird der Incident Response-Plan in Gang gesetzt. Hier gilt es zu prüfen, ob ein gemeldeter Vorfall tatsächlich sicherheitsrelevant ist. Zudem müssen die folgenden Fragen beantwortet bzw. geklärt werden: Wann fand der Angriff statt? Wer hat den Angriff entdeckt? Welche Bereiche sind durch den Angriff betroffen? Wurde die Quelle, der potenzielle Schwach- bzw. Einstiegspunkt bereits ermittelt? Welche Auswirkungen auf den aktuellen Betrieb hat der Vorfall? Welche (Langzeit-) Folgen sind möglich bzw. wahrscheinlich?

Eindämmung, Beseitigung und Wiederherstellung

Diese Phase fokussiert sich darauf, die zuvor ermittelten Auswirkungen des Sicherheitsvorfalls so gering wie möglich zu halten sowie etwaige Ablaufunterbrechungen abzuschwächen.

Folgeaktivitäten nach dem IT-Sicherheitsvorfall

Nachdem der Wiederherstellungsprozess abgeschlossen ist, sollte der Vorfall selbst und sämtliche Anstrengungen, die im Zuge der Behebung des IT-Sicherheitsvorfalls zum Tragen kamen, aufgearbeitet werden. Angesichts dessen ist es im Interesse eines ständigen Verbesserungsprozesses entscheidend, aus dem gesamten Vorfall zu lernen und derartige IT-Sicherheitsvorfälle in Zukunft präventiv zu unterbinden.

Weitere Empfehlungen sowie tiefergehende Informationen, wie IT-Sicherheitsvorfälle zu behandeln sind, finden Sie im IT-Grundschutzkompendium des Bundesamtes für Sicherheit in der IT.

Fazit: Bei einem IT-Sicherheitsvorfall zählt jede Minute

Fast nie ist die Abhängigkeit eines Unternehmens von einer funktionstüchtigen Informationstechnik so spürbar wie in dem Moment eines schwerwiegenden IT-Sicherheitsvorfalls. Gehen geschäftskritische Daten abhanden, fallen IT-Systeme oder gar komplette IT-Infrastrukturen aus, sind schwerwiegende Konsequenzen wie völliger Betriebsstillstand oder irreparabler Reputationsverlust wahrscheinlich.

Allerdings lässt sich das Schadensausmaß von IT-Sicherheitsvorfällen durch den Gebrauch einer strukturierten Vorgehensweise sowie fundierter Sicherheitsmaßnahmen und -lösungen zur Behandlung von sicherheitsrelevanten Ereignissen auf ein Mindestmaß reduzieren.

 

Wollen auch Sie Ihr Unternehmen mit einer umfänglichen Incident Response-Strategie vor schweren IT-Sicherheitsvorfällen schützen? Haben Sie weiterführende Fragen zum Thema? Kontaktieren Sie uns einfach kostenfrei telefonisch unter der nummer 0800 4883 338, wir helfen Ihnen gerne.

Foto © kat wilcox @ Pexels

Weiterführende Links

Hier finden Sie weiterführende Informationen zu IT-Sicherheitskonzepten im Allgemeinen sowie zum Thema Datensicherheit. Zu den Sicherheitsanalysen aus Angreifersicht unserer IT Security-Tochter CRISEC geht es hier.

Lesedauer ‚ Quo Vadis, IT-Deutschland? – BSI Lagebericht 2022 ‚: 6 Minuten

Im jährlich erscheinenden BSI Lagebericht des Bundesamtes für Sicherheit in der Informationstechnik (kurz BSI) beschreibt die Behörde die aktuelle Situation bezüglich der Bedrohungslage für Unternehmen durch Cyber-Attacken.
Welche Erkenntnisse Sie aus dem Dokument ziehen können und welche Konsequenzen sich für Unternehmen ergeben, erfahren Sie im nachfolgenden Blogbeitrag.

Eine kurze Geschichte des BSI

Das Bundesamt für Sicherheit in der Informationstechnik mit Hauptsitz in Bonn wurde am 1. Januar 1991 gegründet und ist dem Bundesministerium des Innern zugeordnet. Das BSI fungiert als unabhängige und neutrale Stelle für Fragen zur Informationssicherheit. Als staatliche Einrichtung ist sie damit in Europa einzigartig.

Derzeit sind dort über 1.400 Informatiker, Physiker, Mathematiker und andere Mitarbeiter beschäftigt. Das Aufgabenspektrum des BSI selbst ist dabei sehr komplex – insbesondere, da Probleme in der Informationstechnik so vielschichtig sind. Vorrangig geht es dem BSI darum, unsere Gesellschaft über die Gefahren durch Computerversagen, -missbrauch oder -sabotage zu informieren sowie geeignete Maßnahmen zur Vermeidung aufzuführen. Dies, ohne konkrete Produkte oder Hersteller zu empfehlen; vielmehr werden anerkannte Regeln für Technik und Organisation aufgestellt, um Schaden abzuwenden.

Seine amtlichen Aufgaben, Rechte und Pflichten regelt das sog. ‚BSI-Gesetz‘ (Gesetz zur Stärkung der Sicherheit in der Informationstechnik des Bundes) – unterzeichnet von Horst Köhler, Angela Merkel, Wolfgang Schäuble und Karl-Theodor zu Guttenberg – in seiner letzten Fassung vom 14. August 2009. Obwohl sich die ‚IT-Landschaft Deutschland‘ in den letzten 13 Jahren rasant verändert hat, ist die grundlegende Intention der Behörde gleich geblieben: Sie ist und bleibt für BürgerInnen und Unternehmen eine wichtige Anlaufstelle in Sachen Informationssicherheit.

Viele Vorgaben des BSI dienen mustergültig als Richtlinie zur Auditierung und Umsetzung der Informationssicherheit. Ganze Berufsgruppen orientieren sich seither an dessen Vorgaben.

Einmal im Jahr legt das BSI den sogenannten Bericht ‚Die Lage der IT-Sicherheit in Deutschland‘ vor. Das Vorwort hat das Bundesinnenministerium, den Beitrag selbst verantwortet inhaltlich das Präsidium des BSI. 2020 und 2021 waren es demnach Horst Seehofer als Bundesminister des Innern, für Bau und Heimat sowie Arne Schönbohm als Präsident des BSI. In diesem Jahr kommt das Vorwort von Nancy Faeser, Ihres Zeichens Bundesministerin des Innern und für Heimat.

Ganz aktuell befindet sich das BSI in einer mieslichen Lage: Zum 18. Oktober wurde dem seit 1. Januar 2016 im Amt befindlichen Präsidenten Arne Schönbohm die Führung der Geschäfte im BSI untersagt. Auslöser sind seine Verwicklungen mit der Firma Protelion und deren Verbindungen nach Russland. Dies verursachte ein weithin spürbares Beben innerhalb des BSI. Daher wurde der Lagebericht 2022 nun am 25. Oktober 2022 durch Herrn Dr. Gerhard Schabhüser als Vizepräsident des BSI präsentiert.

Grundlegende Erkenntnisse aus dem BSI Lagebericht

IT-AnwenderInnen könnten Ende 2022 die Hoffnung verfolgen, dass durch immer besser werdende technische Abwehrmechanismen, durch die Cloud, durch leistungsfähigere Systeme, künstliche Intelligenz, verbreitete Bekanntheit der Angriffsversuche und somit also auch die Achtsamkeit des einzelnen IT Anwenders die Hürde für erfolgreich durchgeführte Angriffen gegen die IT-Infrastruktur mittlerweile höher liegen sollte. Zudem sollte man meinen, dass selbst Hacker – durch wirtschaftliche Themen wie Krieg in Europa, Rezession, Inflation etc. – aktuell andere Sorgen plagen und so ihr Augenmerk umgeleitet wird; dass also ‚Fachkräftemangel unter Hackern‘ herrscht, wenn es um Angriffe auf Unternehmens-IT geht.

Leider geht dieses ‚Prinzip Hoffnung‘ laut dem aktuellen, 116 Seiten umfassenden BSI Lagebericht für den Analysezeitraum 1. Juni 2021 bis 31. Mai 2022 überhaupt nicht auf – das Gegenteil ist der Fall!

Leistungsfähigere Systeme, künstliche Intelligenz, weltweite Highspeed-Vernetzung und eine kontinuierliche Weiterentwicklung der Angriffsverfahren spielen den Cyberkriminellen in die Hände. Zudem erwies sich Corona als Motor des Erfolges für deren steigende Aktivitäten und Erfolge.

Fakt ist, dass die Internet-Kriminalität (neudeutsch gerne als Cybercrime bezeichnet) durch anonyme Zahlungen per Kryptowährungen und verschlüsselter Kommunikation seit Jahren zu einem höchst rentablen und ebenso professionalisierten Geschäftsmodell avanciert. Egal, ob sich Cyberkriminelle zu Gruppierungen wie beispielsweise Conti/Lockbit zusammenschließen oder einzeln agieren. Egal, ob sie rein profitorientiert oder im staatlichen Auftrag handeln – die Gefahr war nie zuvor höher! In anonymen Foren werden Hacker oder andere Berufsbilder wie Analysten (die Unternehmen als potenzielle Angriffsziele auf deren Marktwert prüfen) sowie psychologisch geschulte, sprachgewandte Mitarbeiter, die Ransom-Verhandlungen führen, gezielt angeworben.

Werden von einer Hacker-Gruppierung Schwachstellen in Unternehmen entdeckt, so wird dieses Wissen anderen Gruppen oder Einzeltätern im anonymen Darknet zum Kauf und eigenen Nutzung angeboten. Vereinfacht dargestellt dient das Darknet als Handelsplattform für den illegalen Handel mit Schwachstellen und Daten.

Wer dieses Jahr am 1. Februar im Rahmen des BSI-Kongresses der Keynote von Nancy Faeser gefolgt ist, wurde spätestens mit dem Einmarsch Russlands in die Ukraine drei Wochen später am 24. Februar klar, dass Cyberattacken auch ein Krieg der Staaten mit anderen Mitteln sind.

Zusammengefasst: Wichtige Aussagen im BSI Lagebericht

Der BSI Lagebericht gibt – anhand konkreter und lesenswerter Beispiele – Antworten auf relevante, die aktuelle Situation in ‚IT-Deutschland‘ betreffende, Fragen:

  • Welche typischen Angriffe werden gefahren?
  • Welche Bedeutung hat eine digitale Identität heutzutage?
  • Welche Schwachstellen werden (aus)genutzt?
  • Welche Rolle spielt der Mensch in diesen Szenarien?
  • Wie kann eine (vermeintlich) harmlose eMail eine existenzbedrohende Katastrophe im Unternehmen verursachen?
  • Welche Auswirkungen (z.B. auf die Lieferkette) können Cyber-Attacken mit sich bringen?

Das deutliche Signal des Lageberichtes dabei ist:

  • Die Bedrohung der IT-Sicherheit ist so hoch wie nie
  • Jeder kann ein potenzielles Ziel von Cybercrime werden
  • Ransomware ist und bleibt eine der größten IT-Gefahren für Unternehmen und einzelne Personen
  • Erpressungen werden vielschichtiger
  • Es gibt kein Ausruhen; die Abwehr ist und bleibt ein erforderlicher, kontinuierlicher Prozess
  • Es liegt an jedem Einzelnen und an jeder einzelnen Maßnahme, wie erfolgreich die Abwehr gegen Cybercrime ist
  • Die Summe der Maßnahmen und die Wirksamkeit der Awareness entscheiden über Erfolg oder Misserfolg

Der BSI Lagebericht macht insgesamt sehr deutlich, dass die Abwehr von Angriffen gegen IT und daran angebundene Infrastruktur eine wesentliche Aufgabe für jeden, der administrativ damit zu tun hat, aber auch für alle AnwenderInnen, die mit ihr arbeiten, darstellt. Denn Technik allein hilft nicht gegen Cybercrime.

In seinem Beitrag zur Veröffentlichung des BSI Lagebericht hat es das Bundesamt am 1. November 2022 auf Facebook nochmals sehr prägnant formuliert:

„Das Wohlergehen der Bevölkerung hängt stärker denn je davon ab, wie erfolgreich es gelingt, die digitale Resilienz der Gesellschaft zu stärken.“

Wenn Sie Interesse an allen Details haben, können Sie sich über nachfolgende Links selbst einen Einblick in die Einschätzung des Bundesamtes für Sicherheit in der Informationstechnik verschaffen:

Den einleitenden Artikel zum BSI Lagebericht finden Sie hier.
Der gesamte BSI Lagebericht ist als Download hier verfügbar.

Sie haben Fragen zu diesem oder weiteren Themen, die IT-Sicherheit Ihres Unternehmens betreffend? Wir sind Mitglied in der vom BSI und Bitkom vor 10 Jahren ins Leben gerufenen Allianz für Cybersicherheit und beschäftigen uns seit langem intensiv mit der Entwicklung im Bereich Informationssicherheit. Kontaktieren Sie uns einfach kostenfrei telefonisch unter der nummer 0800 4883 338, wir helfen Ihnen gerne.

Denn wir bei Schneider + Wulf haben es uns zur Aufgabe gemacht, Ihre digitale Resilienz zu stärken.

Foto © Negative Space @ Pexels

Weiterführende Links

Hier finden Sie weiterführende Informationen zu IT-Sicherheitskonzepten im Allgemeinen sowie zum Thema Datensicherheit. Zu den Sicherheitsanalysen aus Angreifersicht unserer IT Security-Tochter CRISEC geht es hier.

Lesedauer ‚ ADFS – Ein Zugang für alle Geschäftsanwendungen ‚: 4 Minuten

Die wachsende Menge verschiedener Cloud-Anwendungen sowie Web Apps und der damit verbundene Passwort-Wildwuchs bewirken einen verstärkten Trend zur Single-Sign-On-Identitätsüberprüfung. Microsoft bietet mit ADFS – Active Directory Federation Services – eine Single-Sign-on-Lösung an, welche unternehmensweit eine zentralisierte Anmeldung ermöglicht – sowohl innerbetrieblich als auch von außerhalb. Mehr über die Funktion der Lösung und welche Vor- und Nachteile ihr Gebrauch mit sich bringt, erfahren Sie im folgenden Blogartikel.

Unternehmen setzen zur Abwicklung betrieblicher Prozesse eine stetig steigende Zahl unterschiedlicher Systeme, Endgeräte, Geschäftsanwendungen, Web Apps und Cloud-Lösungen ein. Infolgedessen stehen MitarbeiterInnen vor der (immer komplexeren) Herausforderung einer aufwendigen Passwortverwaltung und -nutzung. Leider ist diese ‚tägliche Routine‘ nicht nur zeitintensiv und benutzerunfreundlich, sondern zudem empfänglich für IT-Sicherheitsrisiken.

Somit ist es nicht verwunderlich, dass viele MitarbeiterInnen mit ebenjener Passwortverwaltung überfordert sind, wie zahlreiche Gutachten bestätigen (bsplw. die Studie Psychologie der Passwörter 2021 von LastPass). Ferner demonstriert eine Auswertung von Yubico, dass 54% aller MitarbeiterInnen identische Passwörter für mehrere dienstliche Konten verwenden. 22% der Befragten schreiben Passwörter nach wie vor auf, um den Durchblick zu behalten – darunter 41% der Firmeninhaber und 32% der C-Level-Führungspersonen!

Den sinnvollsten sowie sichersten Weg aus diesem Dilemma bieten sogenannte Single-Sign-on-Lösungen, wie die Active Directory Federation Services von Microsoft.

ADFS: Eine Definition

Microsoft Active Directory Federation Services, kurz ADFS oder auch ‚Active Directory-Verbunddienste‘, stellt eine Lösung für die organisationsübergreifende Anmeldung an verschiedenen Systemen, Web-Apps und Cloud-Anwendungen (von Microsoft und Drittanbietern) dar.

Zur Identitätsüberprüfung der Anwender benutzen die ADFS von Microsoft eine Benutzerverwaltung der Active Directories. Dies ermöglicht der Single-Sign-on-Lösung eine Anmeldung der ArbeitnehmerInnen mit Hilfe der – im Verzeichnisdienst Active Directory gesicherten – Anmeldedaten. So werden Stolpersteine rund um die Verwaltung von Zugangsdaten reduziert und sämtliche für die tägliche Arbeit erforderlichen Zugänge an zentraler Stelle organisiert.

Zudem nutzen die Active Directory Federation Services das auf Erfordernissen basierendes Autorisierungsmodell und Anmelde-Token für die Zutrittskontrolle. Hierbei erfolgt eine genaue Trennung zwischen den Zielanwendungen sowie der Verwaltung der Anmeldedaten. Dank der Verwendung der Token müssen die AcDFS die Zugangskennungen nicht mit den Drittsystemen teilen.

Parallel dienen die Microsoft Active Directory Federation Services ebenfalls als Verbindung, um unterschiedliche Frameworks zu integrieren (z.B. die ‚Security Assertion Markup Language‘ SAML). Diese gewährt den Zugriff auf cloudbasierte und webbasierte Anwendungen, welche nicht in der Lage sind, die eingebaute Windows-Authentifizierung, kurz IWA, über Active Directory zu verwenden.

Einsatzmöglichkeiten von ADFS

Es gibt verschiedene Einsatzszenarien für Microsofts Active Directory Federation Services. Eine der meist genutzten ist die Verknüpfung von Web-Anwendungen mit Cloud-Anwendungen wie Microsoft 365, Office 365, SharePoint oder auch OneDrive. Ein beispielhafter Single Sign-on mit Active Directory Federation Services könnte dabei folgendermaßen ausschauen:

Zu Arbeitsbeginn melden sich die MitarbeiterInnen mit Benutzernamen und Kennwort in der individuellen Windows-Domäne an. Sobald sie Zugang auf etwa Office 365 benötigen, müssen sie den Internetbrowser starten und die Titelseite für den Webservice aufrufen.

Über die Active Directory Federation Services erhält der externe Anbieter die Identität der Angestellten sowie ihre Benutzerrolle oder andere benötigte Informationen per Tokens und Claims mitgeteilt. Darauffolgend meldet der externe Dienst die ArbeitnehmerInnen für die Benutzung an, ohne dass jene eigenhändig den Benutzernamen oder das Passwort eintragen müssen. Die MitarbeiterInnen können nun Office 365 entsprechend ihrer Berechtigungen verwenden.

ADFS – Vor- und Nachteile

Die Vorzüge von Active Directory Federation Services liegen klar auf der Hand:

Die MitarbeiterInnen eines Unternehmens benötigen nur noch eine einzige Zugangskennung, um sich für alle benötigten Programme und Dienste im Geschäftsalltag einzuloggen.

Microsofts ADFS sind mit sämtlichen externen Bereichen kombinierbar, die kein Windows-basiertes Identitätsmodell benutzen. In Kombination mit einer eigenen Active Directory ergibt sich so eine Vielzahl an Anwendungsmöglichkeiten.

Das zentrale Management in der Active Directory-Benutzerverwaltung beseitigt die Unübersichtlichkeit rund um die Verwaltung von Benutzerkennungen und Passwörtern.

Durch die Benutzung von Anmelde-Token erhalten externe Anbieter von Cloud-Diensten sowie Web Apps zu keiner Zeit Kenntnis über die tatsächlichen Benutzernamen oder Passwörter. Wird die Zusammenarbeit mit dem Anbieter beendet, genügt die Löschung der generellen Berechtigung. Passwörter oder Benutzernamen müssen nicht geändert oder gelöscht werden.

Doch auch bei der Nutzung von den ADFS gibt es Punkte, die beachtet werden müssen:

Zusätzlich zu den Gebühren für die Nutzung von Microsoft Active Directory Federation Services müssen Betriebe laufende Kosten für Verwaltung und Wartung berücksichtigen. Je nachdem, wie ADFS konfiguriert ist, können die finanziellen Aufwendungen höher liegen als erwartet (deshalb empfiehlt sich eine präzise Planung und Kalkulation im Vorfeld der Implementierung).

Gesamtkomplexität: Die Inbetriebnahme, Konfiguration und Wartung der Active Directory-Verbunddienste ist zeitaufwendig und komplex. Besonders dann, wenn neue Anwendungen hinzugefügt werden.

ADFS – Sichere und zukunftsweisende Architektur für Cloud-Anwendungen

Fast nichts demotiviert MitarbeiterInnen so extrem wie das Einprägen einer wachsenden Anzahl komplexer Anmeldedaten sowie deren permanente Eingabe, um Programme sowie Dienste nutzen zu können. Dank Microsofts Active Directory Federation Services müssen sich MitarbeiterIinnen nur noch einen Bruchteil solcher Anmeldedaten einprägen, um Zugang zu sämtlichen Geschäftsanwendungen, Cloud-Lösungen und Web Apps zu erhalten.

Weil beim Single Sign-On die Zugangskennungen nur ein einziges Mal übertragen werden, erhöht sich zudem die IT-Sicherheit des Netzwerkzugangs.

Liegt ein Anfangsverdacht eines Identitätsdiebstahls vor, können jegliche Benutzerkonten von einer Stelle gesperrt oder bearbeitet werden. Zur selben Zeit ist das Single Sign-out mit ADFS genauso unkompliziert wie das Single Sign-On. Durch die einmalige Abmeldung über den Single Sign-out werden automatisch alle Sitzungen beendet und die entsprechenden Verbindungen getrennt.

Möchten auch Sie mit Active Directory Federation Services von MS das Benutzererlebnis, die Produktivität sowie die IT-Sicherheit in Ihrem Betrieb steigern? Oder haben Sie noch Fragen zum Thema? Kontaktieren Sie uns unter 0800 4883 338 kostenfrei, wir beraten Sie gerne!

Mehr zum Thema

Hier finden Sie weiterführende Informationen zu IT-Sicherheitskonzepten im Allgemeinen sowie zum Thema Datensicherheit.

Lesedauer ‚Microsoft OneNote – virtueller Notizblock und mehr: 5 Minuten

Evernote, Apple- oder Google Notizen: Nützliche Notizerfassungsprogramme gibt es inzwischen einige; mit Microsoft OneNote natürlich auch aus dem Hause Microsoft. Kostenlos und einfach in der Handhabung liefert OneNote alles, was man braucht, um Unterlagen oder Dateien bequem und schnell anzulegen, zu editieren und zu speichern.

Die Anwendung OneNote aus dem Hause Microsoft ist eine Lösung zur Aufbewahrung und Organisation von Notizen. Mit dieser intuitiven Software lassen sich wichtige Dokumente und Dateien an einem Platz gebündelt sammeln und gleichzeitig übersichtlich verwalten. OneNote lässt sich in Bereiche sowie Seiten kategorisieren, genau wie ein Notizbüchlein aus Papier. Allerdings ermöglicht die elektronische Variante schnelles Ordnen, Navigieren sowie Recherchieren und erleichtert die Arbeit damit gewaltig. In OneNote lassen sich Ideen oder To-dos intuitiv und schnell eintragen, aber auch detaillierte Skizzen erstellen. Außerdem lassen sich Beiträge aus OneNote mit anderen teilen und man kann gemeinsam an diesen arbeiten – ein Highlight, welches vor allem beim Gebrauch in Unternehmen extrem hilfreich sein kann.

Damit man den Durchblick behält, lassen sich Notizen bei Microsofts Notizerfassungsprogramm durch Tags kennzeichnen. Und für die erforderliche Interaktivität kann man selbstverständlich auch Dateien wie PDFs oder Audionotizen, Onlinevideos und andere Medien einfügen – Inhalte aus dem Internet werden dabei ganz automatisch mit einer passenden URL versehen.

Office 365-Kunden profitieren von zusätzlichen Eigenschaften wie einer Versionsverwaltung, der Outlook-Integration und mehr.

Microsoft OneNote ist nicht nur für Windows verfügbar, sondern ebenso als App für iOS, macOS und Android. Damit hat man sämtliche Notizen plattformübergreifend und synchron zur Hand – sofern OneNote mit dem Microsoft-Cloudspeicher OneDrive verbunden ist.

Wichtig: Ab Windows 11 wird OneNote bei Windows-Neuinstallationen nicht mehr standardmäßig vorinstalliert. Es kann allerdings kostenlos heruntergeladen werden.

Microsoft OneNote im Mac App Store (macOS) und im App Store (iOS)

Microsoft OneNote für Android

Was OneNote im Arbeitsalltag leistet

Während sich mit OneNote im privaten Bereich perfekt Kochrezepte oder Einkaufslisten erstellen und organisieren lassen, erweist sich OneNote vor allem im geschäftlichen Umfeld als äußerst nützlich. Insbesondere dann, wenn mehrere Mitarbeiter auf Informationen zurückgreifen müssen, stellt die Notiz-Applikation OneNote eine praktische, kostenfreie Möglichkeit dar. In OneNote lassen sich Aufgaben, Ideen, Protokolle usw. übersichtlich ablegen. So ist zum Beispiel das firmenweite Erstellen einer Wissensdatenbank oder eines öffentlichen Wikis in OneNote möglich. Doch auch bei der Nutzung im Rahmen kleinerer Projektarbeiten überzeugt OneNote aufgrund der oben erwähnten Cloud-Synchronisation als Notizspeicher.

Grundsätzlich sind OneNote-Notizen stets gleich strukturiert:

Notizbuch > Abschnitt > Seite > Unterseite

Der ‚digitale Notizblock‘ OneNote ist in diverse Abschnitte gegliedert, welche wiederum jeweils beliebig viele Seiten und Unterseiten enthalten können. Ganz analog einem Heft aus Papier, in welchem es verschiedene Kapitel, Unterkapitel und einzelne Seiten gibt. Mit dem Vorteil, dass man die Abschnitte ständig erweitern und unkompliziert neu strukturieren kann.

Microsoft-Nutzer profitieren zusätzlich vom Gebrauch von OneNote, da sich OneNote nahtlos in alle weiteren Produkte der Office-Palette integriert. So lassen sich Daten aus Word beispielsweise in Sekundenschnelle zu OneNote transferieren und umgekehrt.

Weitere interessante Fakten zu OneNote

Einzelne Abschnitte lassen sich auf Wunsch mit einem Passwort versehen und so durch den unbefugten Zutritt von Dritten schützen.

Man kann Notizen miteinander verknüpfen.

Es gibt eine integrierte Text- sowie Spracherkennung. Dadurch können Inhalte, welche sich in eingefügten Bildern und Sprachdateien ‚verstecken‘, über die Suche gefunden werden.

OneNote eignet sich ideal für Stift-Eingaben, die auf einem Tablet als handschriftliche Notizen erstellt werden.

Notiz-Seiten in OneNote sind grundlegend ‚unendlich‘ groß. Aber Vorsicht: Sehr große Notizen lassen sich nur noch schwer drucken, wenn erforderlich.

Fünf Tipps für effizienteres Arbeiten mit OneNote (unter Windows)

1. Screenshots effizient in OneNote ablegen: Ganz egal, ob OneNote gestartet ist oder nicht; drückt man die Windows-Taste verbunden mit Shift + S, dann kann man einen Screenshot erstellen, für den man direkt den passenden Speicherort in OneNote festlegen kann (Notizbuch, Abschnittsgruppe, Abschnitt oder Seite). Dann nur noch auf ‚An den ausgewählten Speicherort senden‘ und im gleichen Moment befindet sich der Screenshot im Notizbuch an der definierten Stelle.

2. Audioaufzeichnungen erstellen: Über die OneNote App lassen sich auch Audioaufzeichnungen erstellen. Besonders praktisch ist dies beispielsweise bei kurzfristig anberaumten Besprechungen, an welchen nicht alle erforderlichen Personen teilnehmen können. Oder, wenn einem während einer Autofahrt plötzlich wichtige Gedanken in den Kopf kommen, die man nicht verbummeln will.

3. Audioaufzeichnungen durchsuchbar machen: Audioadateien in OneNote lassen sich für die Suche indizieren. Um die Suche nach gesprochenen Details in Audiodateien einzuschalten, wird die Funktion wie folgt aktiviert: Im Menü auf ‚Datei‘ klicken und ‚Optionen‘ auswählen. Als nächstes ‚Audio und Video‘ wählen und dort ‚Suche nach Wörtern in Audio- und Videoaufzeichnungen aktivieren‘ anhaken. Jetzt nur noch mit ‚OK‘ bestätigen und Audiodateien können fortan durchsucht werden.

4. Schneller arbeiten durch praktische Tastenkombinationen: In OneNote sind eine ganze Reihe von zeitsparenden Shortcuts verborgen, die das Arbeiten mit den Notizen noch rascher und müheloser machen. So kann man z.B. mit Strg+1 ein neues Aufgabenlistenelement erstellen oder entfernen. Microsoft hat auf dieser Seite alle Shortcuts für OneNote zum Nachschlagen aufgelistet.

5. Eine Notiz auf die Schnelle erstellen: Mit Windows+N legt man blitzschnell ein virtuelles Post-it an (hierfür muss OneNote nicht einmal offen sein). Diese Post-its werden im Standard-Notizbuch unter dem Segment ’nicht abgelegte Notizen‘ gesichert und lassen sich von dort an den richtigen Ort schieben, falls erforderlich. Optional kann man den Standard-Speicherort in den One-Note-Optionen unter ‚Speichern und Sichern‘ individuell festlegen.

Zu guter Letzt sei angemerkt, dass der geschäftliche Einsatz von OneNote rechtlich unbedenklich und DSGVO-konform ist. Für Interessenten mit Firmensitz in Deutschland gilt: Alle Daten werden auf Servern in Rechenzentren in der Europäischen Union – genauer gesagt in Deutschland selbst – gesichert. Dies kann man auf dieser Seite nachlesen, auf der alle Standorte der von Microsoft genutzten Rechenzentren pro genutztem Microsoft-Dienst transparent aufgeführt sind. Die Daten der Benutzer des Services OneNote, die eine Rechnungsadresse in Deutschland haben, werden daher einzig und allein in Deutschland gehostet.

Dennoch raten wir dazu, die Daten aus OneNote idealerweise im LAN abzuspeichern und über eine Netzwerkfreigabe allen MitarbeiterInnen des Unternehmens Zugriff zu gewähren (Achtung: An Backups denken!). Ist die Datenspeicherung in der Cloud gewünscht bzw. unumgänglich, ist darauf zu achten, sensble Daten wie Passwörter oder Bankdaten nicht in OneNote abzulegen. Für anderweitige schützenswerte Informationen empfehlen wir, die bereits erwähnte, in OneNote integrierte Passwort-Funktion zu nutzen.

Haben Sie Interesse, OneNote in Ihrem Unternehmen zu nutzen? Dann kontaktieren Sie uns unter 0800 4883 338 kostenfrei. Wir freuen uns, von Ihnen zu hören!

Mehr zum Thema

Hier finden Sie weiterführende Informationen zu Office 365 im Allgemeinen, zu Microsoft Teams und zu Cloud Computing.

Foto © Anna Tarazevich @ Pexels

Lesedauer ‚Was Sie über Composable Infrastructure wissen sollten‘: 3 Minuten

Zeitgemäße IT-Infrastrukturlösungen müssen in hohem Maße individualisierbar sein, um rasch auf Innovationen oder sich ändernde Geschäftsanforderungen reagieren zu können. Die ‚Composable Infrastructure‘ soll genau das ermöglichen. Was sich hinter dem neuen IT-Architekturansatz versteckt und warum es sich lohnt, über deren Einsatz nachzudenken, verraten wir Ihnen im folgenden Blogbeitrag.

Die Digitalisierungsdynamik nimmt Fahrt auf – und hebt den Wettbewerbsdruck auf mittelständische Unternehmen kontinuierlich an. Laut einer aktuellen Umfrage von Bitkom stellt inzwischen jedes zweite Unternehmen fest, dass Wettbewerber aus der eigenen Branche, welche frühzeitig auf die Digitalisierung gesetzt haben, ihnen jetzt voraus sind.

Um weiterhin erfolgreich am Markt zu sein, müssen Betriebe daher agiler sein als je zuvor und die eigene Infrastruktur stetig verbessern. Hierzu zählt auch die kontinuierliche Optimierung ihrer Geschäftsabläufe sowie die Modernisierung von Kernanwendungen. Dabei geht der Trend zunehmend weg von traditionellen IT-Architekturen mit komplexen Verwaltungswerkzeugen hin zu ‚zusammensetzbaren IT-Infrastrukturen‘.

Composable Infrastructure kurz vorgestellt

Eine solche ‚zusammensetzbare IT-Infrastruktur‚ definiert ein ziemlich frisches IT-Architekturkonzept zur Zurverfügungstellung von IT-Ressourcen wie Rechenleistung, Datenspeicher und Netzwerk. Im Unterschied zur konvergenten oder hyperkonvergenten Infrastruktur zeichnet sich die ‚Composable Infrastructure‘ dadurch aus, dass sie alle IT-Ressourcen von ihren physischen Systemen trennt, in durchdachte, zustandslose Ressourcenpools gruppiert und diese über softwarebasierte Schnittstellen als On-Demand-Dienste bereitstellt.

Das vorrangige Ziel dieses IT-Infrastrukturansatzes ist es, einem Unternehmensrechenzentrum zu ermöglichen, ihre eigene, physische Infrastruktur zu verwenden, um neue Anwendungsmöglichkeiten in Cloud-Geschwindigkeit bereitzustellen.

Zusammensetzbare Infrastrukturen können im Zuge dessen auf Grundlage von Bare Metal, virtuellen Maschinen (VM) oder Containern integriert werden. Für die Bereitstellung eines entsprechenden Framework bauen sie dabei auf drei Technologieschichten auf: die Hardware-Schicht, die Software-Schicht und die API-Schicht.

Hardware-Schicht: In der Hardware-Schicht liegen die IT-Komponenten, welche die Rechen-, Speicher- sowie Netzwerkressourcen bilden.

Software-Schicht: In der Software-Schicht abstrahiert die intelligente Software die Hardware-Ressourcen, koordiniert sie in logische Ressourcengruppen und weist die IT-Ressourcen flexibel zu. Außerdem kann sie Dienste zur Verfügung stellen, Operationen automatisieren, Ressourcengruppen eigenständig berichtigen und verschiedene andere Aufgaben wahrnehmen.

API-Schicht: Die API-Schicht wird von der Computersoftware für die Interaktion wie auch Steuerung der Hardwareressourcen verwendet. Die Programmierschnittstelle ist hierbei offen und erweiterbar, sodass sie mit verschiedenen Arten von Hardware interagieren kann.

Minuten statt Monate: IT-Infrastruktur schneller bereitstellen

Es gibt zahlreiche Vorteile, die für den Einsatz von Composable Infrastructure Lösungen sprechen. Dazu zählen zum Beispiel:

Flexibilität: Eine Composable Infrastructure ermöglicht es Unternehmen, IT-Komponenten im fortlaufenden Betrieb bereitzustellen, separat zu skalieren und an sich ändernde Arbeitslasten anzugleichen. Dabei ermöglicht die Software-definierte Intelligenz eine optimale Anwendungsleistung.

Keine Unterauslastung und Überbereitstellung: Die Composable Infrastructure trägt dazu bei, dass eine Unterauslastung wie auch Überbereitstellung von IT-Ressourcen vermieden wird, indem die Hardwareressourcen besser eingesetzt werden. Durch die smarte Verwaltungsschicht wird ein Hauptanteil des Bereitstellungs- sowie Optimierungsaufwandes eliminiert, der bei anderweitigen IT-Infrastrukturen entstehen kann, gerade bei wechselhaften Arbeitslasten.

Integrierte Automatisierung und Orchestrierung: Die eingebundene Automatisierung sowie Orchestrierung trägt dazu bei, den Verwaltungsaufwand zu minimieren, indem sie den Bedarf an manuellen Eingriffen reduziert und mehrere Routineaufgaben entfernt.

Dienstbasiertes Modell: Aufgrund des dienstbasierten Modells lohnt sich die ‚Composable Infrastructure‘ vorwiegend für Arbeitslasten, welche eine dynamische Ressourcenzuweisung erfordern, wie zum Beispiel KI oder maschinelle Lernanwendungen.

Kosteneffizienz: Durch logisch zusammengesetzte Ressourcenpools und Software-definierte Intelligenz werden die Abläufe der Anwendungsbereitstellung effizienter, was zu einer Minderung der Gesamtentwicklungskosten führt.

Fit für die Zukunft durch die Optimierung der IT-Infrastruktur

Tatsache ist: Traditionelle IT-Architekturen sind nicht für die Geschäftsanforderungen sowie umfassenden Arbeitslasten dieser Tage gemacht. Insbesondere im Hinblick auf die zunehmende Relevanz von Technologien wie Multi-Cloud, DevOps, Container, Internet of Things, Big Data wie auch künstliche Intelligenz kommen Betriebe nicht umhin, eine dynamische sowie skalierbare IT-Infrastrukturlösung einzuführen. Im Gegensatz zu konvergenten oder hyperkonvergenten Infrastrukturen bietet eine solche Composable Infrastructure Firmen zahlreiche Vorteile, insbesondere im Hinblick an die Anpassungsfähigkeit an die sich dauerhaft verändernden technologischen sowie wirtschaftlichen Faktoren.

Möchten auch Sie Ihre IT-Infrastruktur mit einer Composable-Infrastructure-Lösung auf ein neues Niveau heben und solide Mehrwerte für Ihr Unternehmen schaffen? Oder haben Sie noch Fragen zum Thema? Kontaktieren Sie uns gerne unter 0800 4883 338 kostenfrei, wir beraten Sie gerne!

Mehr zum Thema

Hier finden Sie weiterführende Informationen zum Thema IT-Infrastruktur im Allgemeinen, zu Cloud Computing und zu Microsoft Azure.

Foto © Michael Giugliano @ Pexels

Lesedauer ‚IT-Wissensmanagement – Know-how konservieren und optimieren‘: 6 Minuten

Erforderliches IT-Wissen ‚auf der Höhe der Zeit‘ ändert sich heutzutage ständig. Hinzu kommt, dass dieses Wissen in der Praxis auf unterschiedlichste Orte verteilt ist: In E-Mails, Datenbanken, Support-Tickets oder aber – im schlechtesten Fall – die Köpfe der IT-MitarbeiterInnen. Vor allem unter dem Gesichtspunkt der Mitarbeiterfluktuation sind Unternehmen deshalb dazu angehalten, eine optimal funktionierende IT-Wissensmanagement Strategie einzurichten. Was IT-Wissensmanagement im Detail bedeutet und welche Leistungen eine optimal funktionierende IT-Wissensmanagement Strategie beinhalten sollte, lesen Sie im folgenden Beitrag.

Wenige Wirtschaftsfaktoren haben so tiefgreifende und langanhaltende Auswirkungen auf Unternehmen wie der demografische Wandel. Zum einen führt dieser zu einem Mangel qualifizierter Nachwuchs- und Fachkräfte, zum anderen sorgt er für hohen Wissensverlust durch steigende Mitarbeiterfluktuation sowie das altersbedingte Ausscheiden von Mitarbeiter*innen aus dem Berufsleben.

Die Ergebnisse einer gegenwärtigen Studie des Wirtschaftsforschungsinstituts Prognos für die Vereinigung der Bayerischen Wirtschaft zeigen, dass bereits im Jahr 2025 2,9 Millionen Fachkräfte am deutschen Berufsmarkt fehlen werden (bis 2031 steigt diese Zahl auf 3,6 Millionen).

Deshalb ist es für Unternehmen essenziell, kostbares Know-how der Wissensträger mit System zu erfassen und folgende MitarbeiterInnen-Generationen damit fortzubilden – vor allem im Bereich IT.

Ein bewährtes Medium dafür ist agiles IT-Wissensmanagement.

Was der Begriff IT-Wissensmanagement bedeutet – eine Definition

Unter dem Begriff ‚IT-Wissensmanagement‘ oder auch ‚Knowledge Management‘ werden sämtliche strategische und operative Tätigkeiten eines Betriebs zusammengefasst, die den Erwerb, die Nutzung, die Weitergabe und die Speicherung von IT-Wissen verbessern.

Dabei wird zwischen zwei Wissensformen unterschieden: Explizitem und implizitem IT-Wissen.

Explizites Wissen: Beim expliziten IT-Wissen geht es um dokumentiertes und reproduzierbares IT-Wissen, wie zum Beispiel Arbeitsanweisungen oder Berichte.

Implizites Wissen: Beinhaltet sämtliches Know-how, welches auf Intuition, Praxiserfahrung sowie weiteren individuellen Fähigkeitn einzelner IT-Fachkräfte beruht. Vor diesem Hintergrund ist es oft nur in den Köpfen bestimmter IT-Wissensträger gespeichert und daher schwierig reproduzier- bzw. teilbar. Das ist vor allem deshalb problematisch, weil diese Wissensart die wirtschaftlich wertvollere für Unternehmen darstellt.

Analog zu diesen beiden Wissensarten werden im Wissensmanagement zwei Strategien unterschieden: die People-to-Document-Strategie sowie die People-to-People-Strategie.

People-to-Document-Strategie: Ist ein Konzept, welches eine allgemeine Bereitstellung von IT-Wissen an zentralen Standorten anstrebt. Hierfür bieten sich hauptsächlich Standard-Inhalte mit kleinerem Komplexitätsgrad und längerer Gültigkeit an.

People-to-People-Strategie: Im Gegenteil dazu beschäftigt sich die People-to-People-Strategie mit der interpersonellen Zurverfügungstellung sowie dem effizienten Gebrauch von IT-Wissen im Betrieb. Die Vorgehensweise ist vorranging für umfangreiches Spezialwissen geeignet.

Die wichtigsten Aufgaben für IT-Wissensmanagement

Der kluge Umgang mit IT-‚Wissenskapital‘ ist zu einem der relevantesten Erfolgsfaktoren für jedes im Wettbewerb stehende Unternehmen geworden. In Zeiten, in denen sich IT-Wissen durch fortschreitende Digitalisierung und globale Vernetzung in immer kürzeren Abständen ändert, steigen auch die Anforderungen an Werkzeuge und Methoden für agiles IT-Wissensmanagement.

Bestand die Hauptaufgabe von IT-Wissensmanagement der ersten Generation noch darin, Wissensdatenbanken einzurichten und zu pflegen, so ist das Tätigkeitenfeld von zeitgemäßem IT-Wissensmanagement breit gefächert. Zu diesen Tätigkeiten gehören:

1. IT-Wissensidentifikation: Die IT-Wissensidentifikation beschäftigt sich mit der Auswertung und Beschreibung des IT-Wissensumfeldes eines Betriebs. Das Ziel ist es, eine Aufzählung sämtlicher internen sowie externen Informationen, Ressourcen und Fähigkeiten eines Betriebs zu erhalten.

2. IT-Wissensentwicklung: Die IT-Wissensentwicklung befasst sich mit dem Aufbau neuen IT-Wissens innerhalb des Unternehmens, beispielsweise durch optimierte Lernprozesse, performante digitale Werkzeuge oder innovative didaktische Ansätze. Konkrete Zielsetzung ist es, IT-Wissen auf Dauer ins eigene Unternehmen zu holen und sich so einen Markt- oder Wettbewerbsvorteil zu beschaffen.

3. IT-Wissenserwerb: IT-Wissenserwerb organisiert innovatives IT-Wissen von extern, etwa durch die Kooperation mit einem Managed Service Provider. Idee ist, direkten Zugriff auf spezialisiertes IT-Expertenwissen zu erhalten, um so beispielsweise zukünftige IT-Projekte schneller umsetzen zu können.

4. IT-Wissensverteilung: Im Zuge der IT-Wissensverteilung beschäftigt man sich mit der Thematik, wie sog. ‚IT-Informations-Silos‘ eröffnet werden können, um das schon existierende IT-Wissen optimal zu verbreiten.

5. IT-Wissensnutzung: Die IT-Wissensnutzung befasst sich mit der Frage, wie das vorhandene IT-Wissen ideal genutzt werden kann, um IT-bedingte Wertschöpfungsprozesse zu verbessern und im Zuge dessen den Ressourceneinsatz zu reduzieren.

6. IT-Wissensbewahrung: Die IT-Wissensaufbewahrung ist zentrales Aufgabengebiet eines umfassenden IT-Wissensmanagements. Idee ist, IT-Wissen auf lange Sicht, teilweise gar über einige IT-Arbeitnehmer*innen-Generationen hinweg zu sichern, auf aktuellem Stand zu halten und besonders vor Datenverlusten sowie internen und externen Angriffen zu schützen.

7. IT-Wissensbewertung: Bei der IT-Wissensbewertung geht es darum, die Effektivität und den Zielerreichungsgrad einer IT-Wissensmanagement Strategie zu bewerten.

Die unterschiedlichen Modelle des IT-Wissensmanagement

Es gibt heute eine Menge verschiedener Ausführungen von IT-Wissensmanagement Systemen, welche das Thema IT-Wissensmanagement zu konzeptualisieren versuchen. Zu den Bekanntesten gehören:

das Wissensmanagement nach Nonaka sowie Takeuchi

das geschäftsprozessorientierte IT-Wissensmanagement

das Knowledge Engineering

das Wissensmarkt-Modell

Wenn Sie wüssten, was Sie alles wissen, könnten Sie…

Ein IT-Wissensmanagement System ist zu vergleichen mit einem natürlichen Gehirn. Der eigentliche Unterschied besteht allerdings darin, dass es sich aus dem impliziten und expliziten Wissen vieler Köpfe zusammensetzt und dem Betrieb auf diese Weise viele Vorzüge und Chancen bietet.

Hierzu zählen beispielsweise:

Volle Klarheit und den Überblick über die Fähigkeiten sowie das IT-Wissen aller MitarbeiterInnen

Nachhaltige Dokumentation, welche Erfolge und Misserfolge deutlich sichtbarer macht

Frühzeitige Erkennung von Chancen und Risiken

Verbesserte teaminterne wie abteilungsübergreifende Interaktion angesichts einer gemeinsamen IT-Wissensgrundlage

Raschere Lösungsfindung bei IT-Problemen

Optimierter Kundenservice sowie optimierte Qualitätssteigerung

Steigerung der Kundenzufriedenheit dank verbesserter IT-Produkte und IT-Dienstleistungen

Schnelleres Time-to-Market

Vermeidung von Doppelarbeiten dank zentraler Bündelung und Zugriffsmöglichkeit von Informationen, Best Practices wie auch Antworten für alle IT-Experten

Multiplikation von IT-Expertenwissen

Fazit: IT-Wissensmanagement – eine sinnvolle Bereicherung

IT-Wissensverlust kann Unternehmen teuer zu stehen kommen. Nicht verwunderlich daher, dass der Gebrauch von leistungsfähigen IT-Wissensmanagement Systemen mit der wachsenden Größe des Unternehmens, der IT-Wissensbasis und der IT-Wissensmitarbeiter*innen an Bedeutung gewinnt. Eine umfangreiche und ideal funktionierende IT-Wissensmanagement Strategie bietet Unternehmen die Chance, das geballte IT-Wissen der Arbeitnehmer*innen zu erkennen, zu analysieren, aufzubereiten, zu organisieren sowie weiterzugeben – aber auch zu messen wie auch zu evaluieren.

Wollen auch Sie mit leistungsstarken Werkzeugen für IT-Wissensmanagement den Wissenstransfer im Rahmen Ihres Betriebs verbessern und damit die Auswirkungen von IT-Wissensverlusten minimieren? Oder haben Sie noch Anliegen zum Thema? Sprechen Sie uns unter 0800 4883 338 kostenfrei an, wir beraten Sie gerne!

Foto © Janko Ferlic @ Pexels

Lesedauer ‚Exploits – IT-Schwachstellen und unterschätztes Hacker-Werkzeug‘: 5 Minuten

Meltdown. Spectre. Shitrix. Log4Shell. BlueKeep. PrintNightmare. Log4j. Die Liste neuartiger IT-Sicherheitslücken vergrößert sich täglich. Richtig ernst wird es, wenn diese Lücken für kriminelle Zwecke missbraucht werden. Ein hierfür häufig eingesetztes Werkzweug: Exploits. Als ‚Brecheisen‘ oder ‚Dietrich‘ helfen sie Angreifern dabei, in ein IT-System, Betriebssystem oder Netzwerk einzudringen. Was sich hinter dieser Angriffsmethode versteckt, welche Arten es gibt und wie Sie Ihr Unternehmen davor beschützen können, lesen Sie im folgenden Beitrag.

Die Bedrohungslage durch Internetangriffe hat sich weiter verschärft. Belastend kommt hinzu, dass jene Angriffsmethoden eine zunehmende Professionalisierung, technische Entwicklung und wirtschaftliche Entfaltung erleben – und aufgrund dessen deutlich an Schlagkraft gewinnen.

Aktuellsten Studienergebnissen von SoSafe zufolge war im vorangegangenen Jahr jedes dritte Unternehmen Ziel eines ‚erfolgreichen‘ Internetangriffs. Zudem sind drei von vier dieser Unternehmen der Meinung, dass sich die Angriffslage durch Homeoffice und ‚remote‘ Arbeitsmodelle zugespitzt hat.

Wenngleich mittlerweile minütlich neue Angriffsformen erschaffen werden, sind Internetkriminelle zur Ausbreitung von Malware, Ransomware und Co. auf Sicherheitslücken und Schwachstellen in Hardware-Produkten und Software-Lösungen angewiesen. Um diese zu finden, bauen sie auf besagte Exploits.

Was ist ein Exploit?

Unter dem Oberbegriff ‚Exploit‚ wird zum einen die rein theoretische Detailbeschreibung einer IT-Schwachstelle und zum anderen ein Programm mit ausführbaren Daten und Codezeilen verstanden, mit dem IT-Sicherheitslücken sowie IT-Schwachstellen aufgezeigt wie auch ausgenutzt werden können.

Im Allgemeinen stellen Exploit-basierte Angriffe ein potentes Mittel zum Einschleusen von Schadcode dar. So erhalten Internetkriminelle weiterführenden Zugriff und die Möglichkeit, an sensible Unternehmensdaten zu gelangen. Allerdings können Exploits auch im Kontext legitimer Sicherheitsüberprüfungen genutzt werden, um etwa eine Software oder Netzwerkkomponente auf Sicherheitslücken hin zu durchleuchten. Zu guter Letzt lässt sich durch Exploits die Wirksamkeit von Sicherheitsupdates oder Patches verifizieren.

Infektionsmethoden von Exploits

Mittlerweile gibt es unterschiedlichste Wege, auf welchen Exploits auf Hardware, Software oder auch Netzwerkkomponenten gelangen können. Zwei der gängigsten Methoden sind ‚Drive-by-Download‘ und ‚Drive-by-Exploits‘:

Drive-by-Download: Beim Drive-by-Download findet die Infizierung beim Surfen auf einer speziell dafür präparierten Internetseite statt – ohne dass die Opfer etwas davon merken. In vielen Fällen kommen dabei sogenannte Exploit Kits zum Einsatz. Diese enthalten eine Sammlung verschiedener Exploits für unterschiedliche Ziele, etwa für PDF Reader oder Webbrowser wie Firefox.

Drive-by-Exploits: Bei einem Drive-by-Exploit werden die Opfer gezielt infiziert. Hierzu werden die Exploits via Dokumenten in E-Mail-Anhängen, auf USB Sticks oder externen Festplatten verteilt.

Wie funktioniert ein Angriff mit Exploits?

Eine Attacke mit Exploits läuft meist in mehreren Schritten ab.

1. Sicherheitslücken finden: Im allerersten Schritt muss eine ausnutzbare IT-Schwachstelle gefunden werden. Dafür nutzen Bedrohungsakteure meist eine der zuvor genannten Methoden, um die Exploits auf die Zielsysteme zu bringen. Sobald diese installiert sind, suchen sie nach angreifbaren IT-Sicherheitslücken bzw. IT-Schwachstellen.

2. Schadcode ablegen und Programmfluss umleiten: Sobald die Exploits eine geeignete IT-Schwachstelle entdeckt haben, platzieren diese einen Schadcode, der den normalen Programmfluss auf den manipulierten Code lenkt.

3. Aktiv werden und Malware nachladen: Der aktive Schadcode ist dann in der Position, die Eigenschaften des gekaperten IT-Systems sowie die allgemein zugänglichen Betriebssystem-Funktionen aufzurufen. Auf diese Weise sammelt der Exploit beispielsweise Auskünfte über das System und kann weiteren Schadcode, etwa eine Ransomware, einen Banking-Trojaner oder auch anderweitige Malware aus dem Internet auf das IT-System laden.

Exploits: Angriffsklassen und Verfahren

Abhängig von der genutzten Angriffsart und – der konkreten Situation geschuldet – individuellen Aspekten lassen sich Exploits in verschiedene Klassen aufgliedern:

Zero-Day-Exploits: Zero-Day-Exploits sind wohl die bekannteste und gefürchtetste Form von Exploits. Hierbei handelt es sich um Sicherheitslücken, deren Existenz nur auf Angreiferseite bekannt ist. Das bedeutet, dass herstellerseitige Gegenmaßnahmen erst nach mindestens einem erfolgreichen Angriff eingeleitet werden können. Zudem muss ein Patch dann erst entwickelt werden, wodurch Angreifer Zeit haben, weitere IT-Systeme zu manipulieren und größeren Schaden anzurichten.

Remote ausgeführte Exploits: Remote Exploits zielen auf Schwachstellen der Netzwerksoftware und benutzen manipulierte Datenpakete für ihre Angriffe.

Denial-of-Service-Exploits: Auch bekannt als DoS-Exploits. Sie führen keinerlei eigenen Programmcode auf den angegriffenen Systemen aus, sondern verursachen eine Überlastung der Anwendung.

SQL-Injection-Exploits: Webanwendungen, die auf Grundlage von SQL-Datenbanken ihre Features ausführen, sind möglicherweise über SQL-Injection-Exploits verwundbar.

Command-Execution-Exploits: Anhand eines Command-Execution-Exploits wird Schadcode vom Angreifer gelenkt und mit umfänglichen Rechten auf dem kompromittierten System umgesetzt.

Wie man sich vor Angriffen mit Exploits schützt

IT-Sicherheitslücken sind eine der größten Herausforderungen für die Sicherung der Unternehmens-IT. Um Exploit-basierten Angriffen möglichst wenig Angriffsmöglichkeit zu geben, sollten IT-Verantwortliche dafür sorgen, dass sie die aktuellsten Software- und Sicherheits-Updates auf allen IT-Systemen installiert und in sämtlichen Anwendungen implementiert haben. Diese beseitigen IT-Sicherheitslücken und sorgen dafür, dass IT-Systeme vor bereits vertrauten Angriffsmustern abgesichert sind.

Exploits, die ihre Angriffe über das Web ausführen, lassen sich in den meisten Fällen durch den Gebrauch von innovativen Firewall-Lösungen der nächsten Generation oder auch Intrusion Detection sowie Intrusion Prevention-Lösungen unterdrücken.

Fazit: Schlagen Sie Internetkriminelle mit ihren eigenen Waffen!

Die wachsende Zahl kritischer IT-Sicherheitslücken und die damit verbundenen Exploit-Angriffe werden auch in Zukunft eine unvermeidbare Gefahr bleiben. Umso entscheidender ist es für Unternehmen, ihre IT-Infrastruktur durch eine mehrschichtige IT-Sicherheitsstrategie mit wirksamen Techniken zur Exploit-Abwehr sowie IT-Sicherheitsschulungen zum Thema abzusichern. Denn nur auf diese Weise lassen sich Risiken sowie Spätfolgen eines Exploit-Angriffs erheblich verringern.

Möchten auch Sie Ihre IT-Systeme und Geschäftsanwendungen mit leistungsstarken Lösungen zur Exploit-Abwehr schützen? Oder haben Sie noch weitere Fragen zum Thema? Kontaktieren Sie uns unter 0800 4883 338 kostenfrei, wir beraten Sie gerne!

Mehr zum Thema

Hier finden Sie weiterführende Informationen zu IT-Sicherheitskonzepten im Allgemeinen, zur Datensicherheit und zu Firewall-Lösungen. Zur Website von CRISEC, unserem Service für IT-Sicherheitsanalysen, geht es hier.

Foto © Fernando Mamberti @ Pexels

Lesedauer ‚SSL- und TLS-Zertifikate: Sicherer Datenverkehr dank Verschlüsselung‘: 5 Minuten

Internetkriminalität ist DAS Thema. Ungesicherte Unternehmenswebsites sind in diesem Zusammenhang ein gefundenes Fressen. Gerade Firmenwebsites, auf denen personenbezogene Angaben gemacht werden, sollten demnach gesichert sein. Das Stichwort lautet: SSL-Zertifikat. Was ein SSL-Zertifikat ist, wozu es dient, welche Auswirkungen das Fehlen eines solchen Zertifikats hat und wie Sie zu einem Zertifikat für eine Unternehmenswebsite gelangen, verraten wir Ihnen im nachfolgenden Beitrag.

Die Tage, in denen Unternehmenswebsites als starres Informationsmedium über Zeiträume hinweg die Webseitenbesucher langweilten, sind endgültig vorbei. Heute sind diese Websites mehr als nur eine ‚digitale Visitenkarte‘. Sie sind Marketinginstrument, Vertriebskanal, Service-Portal und Werkzeug zur Neukundengewinnung in einem – ein essenzieller Baustein für unternehmerischen Gewinn.

Allerdings zeichnen sich kompetente Unternehmenswebsites nicht nur durch zeitgemäßes Webdesign, hohe Benutzerfreundlichkeit und schnelle Ladezeiten aus, sondern auch durch ein fundiertes Sicherheitskonzept.

Deshalb ist der Einsatz von SSL- und TLS-Zertifikaten für Unternehmenswebsites ein zwingendes Soll. Nicht zuletzt, um eine stetig zunehmende Anzahl von Rechtsvorschriften sowie weitere verpflichtende Bedingungen zu befolgen, welche aus der europäischen Datenschutz-Grundverordnung (EU-DSGVO), dem Telemediengesetz (TMG), der ePrivacy-Richtlinie oder einem neuen Beschluss des Bundesgerichtshofs (BGH) zur aktiven Einwilligungsmöglichkeit der Cookie-Nutzung resultieren.

SSL- und TLS-Zertifikat kurz erklärt

Einfach gesprochen sind SSL- und TLS-Zertifikate kleine Datenpakete, welche die Identität einer Unternehmenswebsite sicherstellen und sämtliche Datenverbindungen zwischen dem Browser und der Domain auf dem Webserver verschlüsseln.

Die Kurzbezeichnung SSL steht für ‚Secure Socket Layer‚ und ist streng genommen ein altmodisches Protokoll, welches zur Verschlüsselung und Authentifizierung sensibler und vertraulicher Informationen zwischen einer Anwendung und einem Webserver verwendet wird. Mittlerweile funktionieren Zertifikate mit dem moderneren, sichereren Transport Layer Security-Protokoll (TLS). Im allgemeinen Sprachgebrauch wie auch in der Praxis wird allerdings weiterhin von SSL-Zertifikaten gesprochen, sofern es um eine Absicherung von Firmenwebsites sowie Webservern über diese Verschlüsslungstechnik geht.

Üblicherweise werden SSL- und TLS-Zertifikate verwendet, um Kontaktformulare, Login-Areale, Online-Bezahlungen und sonstige Datenübertragungen zu sichern.

Welche SSL- und TLS-Zertifikate gibt es?

Um ein SSL- oder TLS-Zertifikat zu erhalten, müssen sich Unternehmen an eine Zertifizierungsstelle wenden, welche durch das Public Key Infrastructure Consortium (PKI) – der Organisation zur Erhöhung der Datensicherheit im Internet – für den Vertrieb von SSL- und TLS-Zertifikaten berechtigt wurden.

Website-Betreiber können hierbei zwischen drei verschiedenen Versionen von SSL- und TLS-Zertifikaten wählen:

Domain Validation-Zertifikat – Dieses Zertifikat bildet die unterste Stufe der SSL- und TLS-Zertifikate. Das bedeutet, dass die Überprüfung der Websitebetreiber bei der Erstellung dieser Version nicht besonders ausführlich ist. Oftmals versendet die Zertifizierungsstelle lediglich eine Mail an die im ‚WHOIS-Eintrag‘ angegebene Mail-Adresse und fordert die Antragsteller auf, (z.B.) einen DNS-Eintrag zu ändern oder eine besondere Datei auf seinen Server zu ladenund so den Besitz der Domain zu verifizieren. Da der Überprüfungsvorgang hier meist gänzlich automatisiert verläuft, werden Domain-Validation-Zertifikate unter Experten oftmals als nicht sicher eingestuft. Manche Browser markieren daher Domain-Validation-Zertifikate, um auf die vergleichsweise niedrigen Sicherheitsstandards hinzuweisen.

Organization Validation-Zertifikat – Diese Version ist vom Sicherheitsniveau eine Stufe höher angesiedelt und wird erst nach einer präzisen Unternehmensprüfung ausgestellt. Website-Besucher haben die Möglichkeit, die Vertrauenswürdigkeit der Internetseite genau zu kontrollieren.

Extended Validation-Zertifikat – Dieser Typ von SSL-und TLS-Zertifikat wird nach äußerst strikten Auswahlkriterien vergeben und stellt dementsprechend die höchste Sicherheitsstufe dar. Die Zertifizierungsstellen begutachten neben der Website das in Beziehung stehende Unternehmen und den Bewerber selbst.

Alle Varianten sind für eine einzelne Internetseite oder als Multidomain-Lösung (SAN-Zertifikate) verfügbar.

Kostenlose vs. kostenpflichtige Zertifikate

Geht es um die bloße Sicherung einer Unternehmenswebsite, erfüllt ein kostenfreies Zertifikat die Ansprüche ebenso gut wie ein kostenpflichtiges. Nichtsdestotrotz gibt es einige Details, in denen sich kostenlose und kostenpflichtige Zertifikate voneinander unterscheiden.

Validation Level – Die Verschlüsselungs-Levels sind für jedes SSL- und TLS-Zertifikat die selben, jedoch unterscheiden sie sich im erforderlichen Verifizierungsprozess. Grundlegend gilt: Zertifikate mit einer höheren Sicherheitsstufe sind generell kostenpflichtig.

Gültigkeit – Die meisten kostenpflichtigen SSL- und TLS-Zertifikate sind ein bis zwei Jahre gültig. Kostenlose Zertifikate laufen dagegen nach maximal 90 Tagen ab. Firmen, die auf gebührenfreie Zertifikate bauen, müssen diese also ständig neu beantragen bzw. austauschen.

Domain-Zugehörigkeit – Ein kostenloses SSL- oder TLS-Zertifikat lässt sich immer bloß für eine einzelne Domain erzeugen und an diese ist es dann auch gebunden. Kostenpflichtige Zertifikatlösungen sind domainübergreifend nutzbar.

Wie erkenne ich, ob eine Website über SSL erreichbar ist?

Entsprechend zertifizierte Unternehmenswebsites weisen am Anfang der Internetadresse ein ‚https‘ statt ‚http‘ aus. Das ’s‘ steht dabei für ’secure‘ und zeigt dem Website-Besucher, dass dem Hypertext-Transfer-Protocol eine erweiterte Verschlüsselungsschicht angehängt ist. Darüber hinaus kann eine sichere Verbindung durch ein ‚Geschlossenes Vorhängeschloss‘-Symbol oder eine grüne Adressleiste angezeigt werden.

Google rät jedem Unternehmen bzw. Websitebetreiber, SSL- und TLS-Zertifikate zu verwenden. Bereits seit 2014 wird dies zusätzlich mit positivem Suchmaschinen-Ranking honoriert.

Ohne Websitesicherheit kein Kundenvertrauen

Die aktuelle Situation Internetkriminalität betreffend verschafft dem Thema ‚SSL- und TLS-Zertifikate‘ neue Relevanz. Und immer noch sind zu viele Unternehmenswebsites – gerade die kleiner und mittelständischer Betriebe – gar nicht oder nur unzureichend zertifiziert.

Neben dieser existenzsicherenden Tatsache gibt es weitere gute Argumente für den Einsatz eines adäquaten Zertifikats:

  • Das Vertrauen von Kunden und Interessenten wird gefestigt
  • Ein Zertifikat hat positive Auswirkungen auf das Suchmaschinen-Ranking
  • Rechtsvorschriften und Leitlinien werden eingehalten bzw. erfüllt

Es sei aber nochmals ausdrücklich erwähnt: SSL- und TLS-Zertifikate erfüllen ihren Zweck nur dann, wenn sie von einer vertrauenswürdigen Zertifizierungsstelle stammen. Die Bundesdruckerei hat hierzu in einem Artikel die bedeutendsten Faktoren detailliert dargestellt.

Ihre Unternehmenswebsite hat bislang kein SSL- oder TLS-Zertifikat? Dann wird es allerhöchste Zeit! Eine Unternehmenswebsite ohne Zertifikat ist vergleichbar mit einem Unternehmen ohne Schloß an der Eingangstür … Haben Sie weitere Fragen zu Zertifikaten oder Verschlüsselung? Sind Sie auf der Suche nach einer geeigneten Zertifizierungsstelle? Kontaktieren Sie uns unter 0800 4883 338, wir beraten Sie gerne!

Quelle und weitere Details hier | Foto © Ekrulila @ Pexels

Lesedauer ‚Microsoft Power Platform: Treiber einer schnellen Digitalisierung‘: 6 Minuten

Das Thema ‚Digitalisierung‘ umtreibt die Geschäftswelt seit Jahren. Obwohl einerseits der Bedarf an neuen, leistungsstärkeren und datenbasierten Geschäftsanwendungen wächst, um Geschäftsprozesse zu optimieren sowie Mehrwerte zu schaffen, fehlen auf der anderen Seite immer mehr IT-Fachkräfte und Fachwissen, um diese zu entwickeln. Aus diesem Grund gewinnen Low-Code-Plattformen wie Microsoft Power Platform zunehmend an Popularität. Aber was genau ist Microsoft Power Platform, wie ist die sie strukturiert und welche Vorzüge bieten die integrierten Schlüsselanwendungen? Alles Wissenswerte erfahren Sie in Folge in diesem Blogbeitrag.

In der zunehmend technologiegesteuerten Geschäftswelt dreht sich alles um Wandlung, Neuerung, Geschwindigkeit und Daten. Deshalb ist es keinesfalls verwunderlich, dass die Herausforderungen und Erfordernisse an Unternehmen konstant steigen: Zum einen müssen sie durchweg schneller auf dynamische Markt- und Geschäftsentwicklungen eingehen. Zum anderen müssen sie in zunehmend knapperen Intervallen innovative Geschäftsanwendungen entwickeln sowie bereitstellen, welche effizientes Arbeiten und rasches Handeln ermöglichen.

Für längere Entwicklungszeiten und kostenintensive Individualentwicklungen ist da wenig Platz. Erschwerend kommt hinzu, dass vielerorts passendes Fachpersonal fehlt, um die vielen Geschäftsanwendungen zu erstellen und implementieren, die für die digitale Transformation gebraucht werden.

Laut dem Branchenverband Bitkom gibt es gegenwärtig 96.000 unbesetzte IT-Stellen. Software-EntwicklerInnen sind dabei mit Abstand am gefragtesten.

Deshalb setzen immer mehr Unternehmen Low-Code-Plattformen wie Microsofts Power Platform ein.

Was ist Microsoft Power Platform? Eine Definition

Microsoft Power Platform ist eine sog. Low-Code-Plattform (‚wenig Code‘), die anstelle von gewöhnlichen, textbasierten Programmiertechniken visuelle Methoden in Gestalt von Point-and-Click oder Drag-and-Drop gebraucht mit dem Ziel,

  • die schnelle sowie ressourcenschonende Entwicklung von datenbasierten Geschäftsanwendungen zu gewährleisten,
  • wiederkehrende Vorgänge zu automatisieren,
  • aggregierte Geschäftsdaten zu visualisieren,
  • Firmenprozesse zu digitalisieren und optimieren.

Die Lösung von Microsoft vereint hierzu eine Vielzahl performanter Services aus dem Microsoft-Produktangebot. Zu den Schlüsselkomponenten zählen:

  • Microsoft Power BI
  • Microsoft Power Apps
  • Microsoft Power Automate
  • Microsoft Power Virtual Agents

Leistungsfähige Anwendungen, vereint in einer Plattform

Diese vier Komponenten haben jeweils eigene Schwerpunkte und können daher isoliert für sich oder eng verknüpft gemeinsam eingesetzt werden. Zur reibungslosen Funktion – einzeln oder im Team – stellt wiederum Microsoft 365 (mit diversen Werkzeugen wie Dynamics 365, Azure, Dataverse, AI Builder etc.) den passenden Rahmen.

Im Folgenden erfahren Sie mehr über die Schwerpunkte der eingesetzten Komponenten und Werkzeuge:

Microsoft Power BI – Dank Microsoft Power BI können sämtliche Geschäftsdaten, die in der Microsoft Power Platform gebündelt werden, in multimediale Dashboards und Berichte umgesetzt werden.

Microsoft Power Apps – Mit Microsoft Power Apps sind Ihre MitarbeiterInnen in der Lage, datenbasierte Geschäftsapps ebenso wie Geschäftsanwendungen schnell und unkompliziert zu entwickeln und einzuführen.

Microsoft Power Automate – Microsoft Power Automate begünstigt durch die Automatisierbarkeit wiederkehrender Arbeitsabläufe die Mitarbeitereffizienz.

Microsoft Power Virtual Agents – Mit Power Virtual Agents können MitarbeiterInnen eigenständig leistungsstarke Chatbots erarbeiten und optimieren.

Microsoft Dataverse – Microsoft Dataverse ist der gemeinsame Datendienst aller Anwendungen sowie Services, Microsoft 365, Dynamics 365 und Microsoft Azure. Darüber hinaus bietet er die zentrale Schnittstelle für die Anbindung aller anderen Daten. Mehrere große Software-Anbieter wie SAP und Adobe fördern Microsoft Dataverse standardmäßig und beteiligen sich an der ‚Open Data Initiative‘.

AI Builder – Der AI Builder ist ein Werkzeug, welches es MitarbeiterInnen möglich macht, Funktionen aus dem Bereich ‚Künstliche Intelligenz‘ in Geschäftsprozesse und Anwendungen einzubinden.

Konnektoren – Diese stellen die Auswahl von Schnittstellen zu diversen Systemen zur Verfügung. So können MitarbeiterInnen unterschiedlichste Datenquellen mit Microsoft Power Platform verknüpfen.

Erfolgreich gemeinsam arbeiten dank Microsoft Power Platform

Microsoft Power Platform wendet sich an alle MitarbeiterInnen, die (versteckte) Potenziale in der Optimierung von Arbeitsprozessen erkennen. Mit dem Low-Code-Ansatz können diese – größtenteils in Eigenregie – binnen kürzester Zeit Daten auswerten, Arbeitsabläufe optimieren und automatisieren, datenbasierte Lösungen entwickeln und einführen sowie Berichte oder Chatbots erzeugen. Zudem liefert die Plattform selbst professionellen Entwicklern eine hervorragende Basis, um kompliziertere Geschäftsanwendungen zu entwickeln und einzuführen.

Die wichtigsten Vorteile im Überblick

Die Vorzüge der Microsoft-Power-Platform-Nutzung liegen auf der Hand. Unter anderem

  • wird die IT-Abteilung unterstützt.
  • können die Kosten für die Produktion professioneller Applikationen oder die Automatisierung von Geschäftsprozessen stark reduziert werden.
  • müssen Anwendungsentwicklungen durchweg weniger ausgelagert oder durch Spezialisten ausgeführt werden.
  • erhalten MitarbeiterInnen verbesserten Zugang zu Geschäftsdaten und Informationen – dies hilft bei cleveren und schnelleren Entscheidungen.
  • ersetzen die neuen Workflows manuelle, zeitaufwendige Geschäftsprozesse und erhöhen somit die Effizienz.

Der Einsatz von Microsoft Power Platform lohnt sich

Low-Code-Plattformen wie Microsoft Power Platform erfreuen sich immer größerer Beliebtheit. Für Unternehmen stellen sie eine geeignete Möglichkeit dar, mit vertretbarem Zeit- und Kostenaufwand Geschäftsanwendungen intern zu erarbeiten. Darüber hinaus hilft sie MitarbeiterInnen, ihren Fokus auf Innovation, Wissen und Können zu setzen – Ergebnis ist eine erhöhte Leistungsfähigkeit und Effizienz des Einzelnen sowie des Unternehmens als Ganzes.

Möchten auch Sie Ihre MitarbeiterInnen mit dem Einsatz von Microsoft Power Platform befähigen, Geschäftsanwendungen zu entwickeln, Geschäftsprozesse zu verbessern sowie die Wertschöpfung im Betrieb voranzutreiben? Haben Sie weitere Fragen zu Microsoft Power Platform oder benötigen Sie in diesem Zusammenhang Unterstützung? Kontaktieren Sie uns kostenfrei unter 0800 4883 338, wir beraten Sie gerne.

Mehr zu Microsoft Azure erfahren Sie hier. Mehr zu Office 365 hier.

Foto © Mohan Nannapaneni @ Pexels