Martins key.matiq-Blog
>> Zurück zum Artikelverzeichnis >>
Risikominimierung
Geschrieben: 22.11.2022
Stichwörter: Sicherheit
Cybersicherheit hat vor allem mit Risikominimierung zu tun: Der Minimierung von Risiken, dass Angreifer*innen Daten ausspähen, verfälschen, löschen oder missbrauchen können. Und von Folgerisiken, dass daraus Bedrohungen gegen die digitale Identität1, das Eigentum, das Ansehen bei Dritten bis hin zur Gesundheit, Leib und Leben2 oder auch Bedrohungen von anderen Menschen, die einem lieb und teuer sind, entstehen können.
key.matiq versucht, seinen Anteil zur Risikominimierung beizutragen, indem es die Verwaltung von Passwörtern und anderen digitalen Geheimnissen erleichtert. Dabei sehen wir aber nicht nur die Gefahren von Angriffen, sondern auch Risiken, die aus technischen Defekten, Programmierfehlern oder allgemein aus menschlichen Schwächen entstehen3, und suchen diese mit dem Ratgeber4, und automatischen oder zumindest einfach zu handhabenden technischen Mitteln5 zu begegnen.
Vom angeborenen Risikohandling bis zum Risikomanagement
Alle Lebewesen haben bereits durch ihre Evolution eine Fähigkeit erworben, mit Risiken umzugehen.6 Deshalb sollte man Bauchentscheidungen nicht verachten. Aber, wenn man genug Zeit und weitere nötige Ressourcen hat, kann man diese auch nutzen, um ein durchdachtes Risikomanagement7 zu betreiben. Da dies, wenn vollständig umgesetzt, auch nicht ohne Aufwand ist, würde es aber wohl Privatpersonen und kleine Unternehmen überfordern bzw. der Aufwand könnte leicht den Nutzen übersteigen.
Daher macht es Sinn, sich nach einem Mittelweg umzuschauen. Schließlich gibt uns das Paretoprinzip8 den Hinweis, dass wir mit einem Bruchteil des Aufwands bereits einen wesentlichen Effekt erzielen können.
Das Ergebnis vorweggenommen
Mein Vorschlag für einen ersten Umgang mit den Risiken eines beliebigen Vorhabens9 (also eines Mittelwegs zwischen dem spontanem Umgang und der Anwendung der ISO-31000-Prozedur) ist:
Strengen wir mal unser Gehirn an und grübeln, welche Gefahren dafür in Betracht kommen. Aber wir sollten durchaus auch Bekannte interviewen und im Internet recherchieren, um auf die Risiken zu kommen, an die wir nicht von selbst gedacht haben.10
Sobald die Liste der möglichen Risiken steht, sollten wir uns auf solche mit hohen Eintrittswahrscheinlichkeiten oder hohen Schadenshöhen konzentrieren. Genauer: Wir betrachten alle Einzelrisiken, denen wir zutrauen, eine Rolle in der obersten Risiko-Liga spielen zu können.11
Nun kümmern wir uns um diese höchsten Risiken und versuchen, die Maßnahmen zu finden, die mit dem geringsten Aufwand den höchsten Effekt für die Minimierung des Risikos haben.
Wir arbeiten dabei wie eine Köch*in, die darauf achtet, dass nichts anbrennt und dass das Essen zur richtigen Zeit fertig wird (und schmeckt).12
Wie weit sollten wir den Aufwand treiben? Wir sollten zur Beantwortung dieser Frage immer die Kosten für zusätzliche Maßnahmen mit der dadurch zu erreichenden Verringerung der Risiken vergleichen!13
Mathematische Grundlagen ...
... des von mir vorgeschlagenen Mittelwegs:
Wir sollten bei der Risikoanalyse vor allem die Größenordnungen betrachten. Denn: Positive Zufallswerte (bei Eintrittswahrscheinlichkeiten und Schadenshöhen) sind statistisch nicht normalverteilt, sondern sie sind logarithmisch normalverteilt (d. h. ihre Größenordnungen sind normalverteilt)14. Die Größenordnungen können schlicht als Logarithmen der absoluten Werte berechnet werden. Die Bewertung eines Einzelrisikos15 (Eintrittswahrscheinlichkeit mal Schadenshöhe) ist in der Größenordnung einfach die Summe aus den Größenordnungen (Logarithmen) von Eintrittswahrscheinlichkeit und Schadenshöhe16. Nach diesen Größenordnungen sollten wir die Einzelrisiken sortieren.
Prinzipiell dürften die Einzelrisiken mit den höchsten Größenordnungen die mit kleinerer Größenordnung völlig überlagern, so dass letztere vernachlässigt werden könnten.
Doch ganz so einfach ist es nicht:
- Sicher besteht bei einer Reihe von Einzelrisiken eine große Unsicherheit, zum Einen wegen einer breiten Streuung der Eintrittswahrscheinlichkeit, zum anderen wegen einer möglichen Fehleinschätzung wegen unzureichender Datenlage.
- Außerdem kann wohl das höchste Risiko (wiederum nach dem Pareto-Prinzip) durch wenige Maßnahmen ordentlich gedrückt werden, so dass dann das nächstgrößte in den Vordergrund tritt.
Wir sollten daher nicht nur die höchsten Einzelrisiken weiter betrachten, sondern auch diejenigen, die wir vielleicht unterschätzt haben oder die nach Minimierung größerer Risiken aufrücken könnten.
Ist das nicht alles selbstverständlich?
Für Mathematiker*innen sollte es bis hierhin selbstverständlich sein. Aber nicht jede*r hat Mathematik auf der Schule verinnerlicht. Vielmehr war diese vielen ein Gräuel, wie das im nächsten Abschnitt gezeigte Beispiel zeigt.
Wie man es nicht machen sollte
Leider hat in so manches Datenschutzaudit eine sehr merkwürdige Art der Risikoberechnung Einzug gehalten, wie wir sie 2020 selbst erleben mussten. Als Grundlage dafür, ob weitere Maßnahmen oder sogar eine Datenschutz-Folgeabschätzung erforderlich wären, sollten wir eine Risikobewertung auf folgende Weise vornehmen:17
- Die verschiedenen Einzelrisiken für unsere Kund*innen sollten aufgeführt werden und deren Eintrittswahrscheinlichkeiten und erwartbaren Schadenshöhen seien zu klassifizieren.
- Die vorgegebenen Kategorien der Eintrittswahrscheinlichkeiten und der Schadenshöhen waren jeweils: "vernachlässigbar", "eingeschränkt", "signifikant", "maximal". Ihnen wurden Punktzahlen (1, 2, 3, 4) zugeordnet.
- Für jedes Einzelrisiko sollten nun die Punktzahlen für Eintrittswahrscheinlichkeit und Schadenshöhe miteinander multipliziert werden, um das Einzelrisiko zu bewerten.
-
Der Durchschnitt der Einzelbewertungen sollte dann folgende Konsequenzen
haben:
- Ergebnis kleiner 3: keine weiteren Maßnahmen notwendig;
- Ergebnis zwischen 3 und 9: weitere Maßnahmen zur Risikominderung prüfen und umsetzen;
- Ergebnis größer 9: Datenschutz-Folgeabschätzung durchführen.
Die genannte Methodik beinhaltet nun mehrere Fehler:
-
Es war nicht klar, ob die Kategorien für die Eintrittswahrscheinlichkeiten
und Schadenshöhen mit deren Absolutwerten oder deren Größenordnungen
korrellieren sollten:
Die Absolutwerte zu nehmen, wäre nicht in Ordnung, da die beiden Größen sich nicht absolut sondern logarithmisch normal verteilen.18.
Sollten die Punktzahlen jedoch mit den Größenordnungen (also den Logarithmen der Absolutwerte) korrellieren, wäre das Multiplizieren nicht in Ordnung. Sie wären zu addieren.19 -
Die Durchschnittsbildung der Einzelbewertungen macht überhaupt keinen
Sinn:
Eine Durchschnittsbildung bedeutet, das durch weitere Aufteilung eines Einzelrisikos das berechnete Gesamtrisiko vermindert würde, obwohl die tatsächliche Grundlage sich überhaupt nicht verändert hat.
Wem evtl. zusätzliche DS-Maßnahmen unangenehm sind, kann sich leicht aus der Affäre ziehen, indem er/sie weitere Risiken an den Haaren herbeizieht, die eine geringe Bewertung erfahren, und damit den Durchschnitt drücken.
Dagegen dürfte bei einer (nach meiner Ansicht) richtiger Rechnung die höchste Einzelbewertung meist eine gute Näherung für das Gesamtergebnis abgeben.20
Im Ergebnis ist die gesamte Rechnung für die Tonne. Schade, denn damit vergibt man sich die Chance, nachvollziehbare Kriterien für weitere Maßnahmen zu bestimmen. Ich hoffe, dass sich das irgendwann bei den entscheidenden Leuten herumspricht.
Wie machen wir es bei key.matiq?
Wir haben es auf verschiedenen Ebenen mit Risikominimierung zu tun. Wir sehen z. B. die Risiken der Nutzer*innen bezüglich ihrer Kennwortverwaltung und was wir dagegen tun können.21 Dann sehen wir das Risiko, dass der Service angegriffen werden könnte. Wir sehen aber auch Unternehmensrisiken.22
Greifen wir exemplarisch die wichtigsten Risiken für den Service heraus:
- Eindringen in den Service durch Zugriff auf die Web-App,
- Eindringen in den Server über administrative Kanäle,23
- Angriff auf den Server über physikalischen Zugriff 24 und
- Angriff auf den Server durch matiq-Mitarbeiter*innen.25
Greifen wir hier wiederum exemplarisch Angriffe direkt auf die Web-App heraus. Hier gibt es glücklicherweise viele Untersuchungen, wie so etwas geschehen könnte. Z. B. das OWASP Top 10 Projekt. Wir haben daher im Jahr 2020 die Firma Securai mit einem Penetrationstest beauftragt. Securai ist auf die OWASP-Top-10-Risiken spezialisiert, hat uns aber auch weitere wichtige Sicherheitshinweise gegeben. Damit konnten wir diese Risiken stark minimieren.26
1) Siehe z. B. den Artikel "Identitätsdiebstahl".
2) Siehe z. B. den FAZ-Artikel "Hacker greifen Kliniken an", Patrick Bernau, 21.11.2020 oder einfach mit einer Suchmaschine und den Stichworten "hacking krankenhäuser" suchen.
3) Z. B. kann es passieren, dass ein Kennwort in key.matiq verändert abgespeichert wird, aber dort, wo es benutzt wird, die Veränderung gar nicht durchgeführt wurde. Technische Defekte könnten z. B. zum Verlust sämtlicher key.matiq-Daten führen. Beide Risiken bewältigen wir mit Backups.
4) Siehe im Handbuch den Teil Ratgeber
5) Regelmäßige System-Backups sorgen dafür, dass wir im schlimmsten Fall zumindest einen kürzlichen Stand der key.matiq-Datenbank wiederherstellen können. Für jeden einzelnen Container werden zudem tägliche Backups gezogen, die die Besitzer*in importieren kann, um an versehentlich gelöschte oder veränderte Daten wieder heranzukommen.
6)
Parasiten, die ihren Wirt umbringen, sterben aus. Deshalb gibt es eine
Tendenz, dass Parasiten harmloser werden oder gar eine Symbiose mit den
Wirten eingehen. Solche Gene haben Vorteile im Überlebenskampf.
Der zu übermütige Hase wird vom Fuchs gefressen, der zu ängstliche verhungert.
Beide können ihre Gene nicht weitergeben.
Wir Menschen haben für die Risikoabwägung mehr Hirn als ein Hase zur
Verfügung. Aber auch der Abwägeprozess darf nicht zu lange dauern, sondern
muss manchmal in Sekundenbruchteilen erfolgen, da das Zögern sonst selbst zum
Risiko wird. Man spricht hier von Bauchentscheidungen, die aber wohl eher im
präfrontalen Cortex des Hirns getroffen werden.
7) Siehe Wikipedia "Risikomanagement".
8) Siehe Wikipedia "Paretoprinzip".
9) Diese Verallgemeinerung ist nicht unbedingt nötig, aber solange wir nicht gezwungen sind, Einschränkungen zu machen, sollten wir es auch noch nicht tun. Wir können so erst einmal Risiken ganz allgemein als solche betrachten, und etwas Mathematik im Allgemeinen und Statistik im Besonderen einsetzen, nehmen also zunächst nur recht gesicherte Erkenntnisse zu Grundlage der Betrachtung. Als "Vorhaben" bezeichnen, wir das, worauf sich die Risiken beziehen. Es kann sich also um ein einzelnes Ziel, aber auch um ein Unternehmen oder um das eigene Leben handeln.
10) In einem Team kann natürlich auch ein Brainstorming sehr sinnvoll sein.
11) Ich empfehle, erst dann auszusortieren, wenn die Liste komplett steht, und dann auch sehr vorsichtig vorzugehen. Oft erweisen sich gering erscheinende Risiken bei genauerer Betrachtung doch als gar nicht so unerheblich, wie sie auf den ersten Blick erschienen.
12) Vor Jahrzehnten hat mein damaliger Chef von diesem "Küchenvergleich" erzählt, als er von einer Projektmanagement-Schulung zurückkam. Auf Grund der vorangegangenen Überlegungen denke ich, dass sich diese Methode nicht nur für das Projektmanagement, sondern durchaus auch für eine einfache Art des Risikomamanagements eignet.
13) Dies Argument gilt natürlich auch für die Behandlung des Risikos von Fehlschätzungen. Also einfach etwas Augenmaß bewahren.
14) Siehe Wikipedia "Logarithmische Normalverteilung". Eine logarithmische Normalverteilung ist, außer wenn deren Breite viel kleiner als der Erwartungswert ist, deutlich verschieden von der einfachen Normalverteilung: Ausreißer nach oben sind dann wesentlich wahrscheinlicher als gleich große Ausreißer nach unten.
15) Das Herunterbrechen auf Einzelrisiken sollte soweit geschehen, dass wir für jedes einzelne Risiko rein zufällige Verteilungen (das wären dann logarithmische Normalverteilungen) für Eintrittswahrscheinlichkeit und Schadenshöhe erwarten können. Sollten wir andere Verteilungen finden, so ist dies ein Indiz dafür, dass diesem Risiko mehrere unabhängige Einzelrisiken zugrunde liegen, dann auch einzeln betrachtet werden sollten.
16) Logarithmen kann man eigentlich nur von einheitenlosen Größen berechnen, was bei einer Schadenshöhe nun nicht der Fall ist. Aber wenn wir uns auf Standardeinheiten (z. B. Euro bzw. Euro/Jahr) für alle Berechnungen einigen, können wir einfach jeweils den Betrag der Größe als Ausgangspunkt nehmen. (Unterschiedliche Einheiten, wie z. B. Euro und Dollar bewirken bei den Logarithmen nur einen konstanten Offset, der dann – bei Verwendung von Standardeinheiten – bei allen Werten gleich ist, sich also bei allen Vergleichen wieder herausrechnet.)
17) Wer genau die darin steckende Formel und damit verbundene Regel zu verantworten hat, weiß ich leider nicht, der Auditor war es jedenfalls nicht und das EU-Parlament auch nicht. Der Auditor war selbst mit der Formel, die er da anzuwenden hatte, nicht sehr glücklich. Er hat mir etwas zur Herkunft der Berechnungsart erzählt, aber ich weiß es nicht mehr genau genug, um es hier wiederholen zu können. Es ist aber auch egal: Irgendwo auf dem Weg zwischen Gesetz und der Auditpraxis, also in der Entwicklung von Ausführungsbestimmungen der DSGVO bis hin zu der von konkreten Audit-Formularen dürfte es passiert sein.
18)
Für Verteilungen, deren Breite sehr viel kleiner als der Erwartungswert
(Mittelwert) ist, wird eine logarithmische Normalverteilung zwar einer
einfachen Normalverteilung sehr ähnlich. Allerdings trifft dieser Fall
bei Risikoabschätzungen nur dann zu, wenn die Eintrittswahrscheinlichkeit
kaum variert, bzw. demgegenüber im Mittel sehr hoch ist und dies bei der
Schadenshöhe ähnlich der Fall ist. Aber alle Maßnahmen zur Risikominderung
tragen dazu bei den Erwartungswert stark zu drücken. Dann kann man aber
eben nicht mehr von einer Ähnlichkeit von einfacher Normalverteilung und
logarithmischer Normalverteilung ausgehen.
Die Behandlung einer logarithmischen Normalverteilung als einfache
Normalverteilung führt dazu, dass man die Wahrscheinlichkeiten deutlich
oberhalb des Erwartungswertes unterschätzt, während sie deutlich unterhalb des
Erwartungswerts überschätzt werden. Nicht gerade gut für eine realistische
Risikobewertung.
19)
Gemäß der Formel: log(a) + log(b) = log(a * b)
Dies ergäbe die Größenordnung des Einzelrisikos. Um den Absolutwert des
Einzelrisikos zu erhalten, wäre noch die Anwendung der Exponentialfunktion auf
die Größenordnung erforderlich.
20)
Genaugenommen müssten die Einzelbewertungen zunächst die Summe der Punktzahlen
von Eintrittswahrscheinlichkeit und Schadenshöhe enthalten und könnten dann
über die Exponentialfunktion in Absolutwerte gewandelt werden, die dann
aufzuaddieren wären. Davon könnte dann wieder der Logarithmus gebildet
werden, um die Größenordnung zu bestimmen. Aber, wenn nicht gerade die beiden
Einzelrisiken mit der höchsten Größenordnung ähnliche Werte aufweisen, dann
kommt da ein Wert heraus, der etwas (aber nicht viel) größer ist als der für
die höchste Einzelbewertung.
(Die letztgenannte einfache Näherung, also nur das größte Einzelrisiko
zu berücksichtigen, würde aber leider nicht ohne Weiteres für DS-Audits
taugen: Denn die Betroffenen könnten damit motiviert werden, das größte
Einzelrisiko in viele deutlich kleinere Unterrisiken aufzuteilen, um einem
unangenehmen Gesamtergebnis zu entgehen.)
21)
Da ist das Risiko, dass ein Kennwort bei einem Web-Shop nicht gut aufgehoben
ist und es in einem Hacking-Angriff erbeutet wird. Die Nutzer*in sollte also
für jeden Shop ein eigenes Kennwort benutzen. Passwortmanager erleichtern
dies.
Da ist aber auch das Risiko, dass Kennworte verloren gehen können, z. B. wenn
man einen lokalen Passwortmanager verwendet, dessen Hauptkennwort man
vergessen hat. Deshalb bieten wir Hinterlegungen an.
Es gibt aber auch das große Risiko, dass eine Nutzer*in auf einen
Phishing-Angriff hereinfällt und freiwillig ihr Kennwort oder gar ihre
digitale Identität preisgibt. Deshalb weisen wir in allen automatisch
versandten E-Mails auf diese Gefahr hin und geben den Hinweis, dass man
per E-Mail empfangene Links immer als unsicher, also skeptisch betrachten
sollte.
Auch Links, die auf solchen unsicheren Seiten stehen. Man darf unsicheren
Seiten niemals soweit trauen, dass man auf ihnen vertrauliche Daten eingibt.
(Wir versuchen Links in E-Mails so weit wie möglich zu vermeiden, aber für
wenige Zwecke können sie sehr nützlich sein, wenn sie dann mit der gebotenen
Vorsicht benutzt werden.)
Schließlich haben wir lernen müssen, dass trotz all unseres Engagments, ein
optimales Werkzeug für die Geheimnisverwaltung bereitzustellen und über das
Handbuch zur richtigen Verwendung anzuleiten, key.matiq dennoch nicht immer
richtig und ausreichend angewendet wird. Eine persönliche Beratung oder ein
Training ist zusätzlich sinnvoll, um einen optimalen Effekt für die digitale
Sichererheit zu erzielen. Deshalb planen wir bereits
(202227) unser Portfolio um das Angebot von
Beratung bzw. Training zu erweitern.
22) Natürlich müssen wir schauen, dass wir mit unserem Geld auskommen, dass wir rechtzeitig den Markteintritt hinbekommen, dass aber auch die Funktionalität und Sicherheit von key.matiq die notwendige kritische Masse (die einen Erfolg ermöglicht) erreicht.
23) Es gibt nur wenige administrative Zugangsmöglichkeiten zum Server, die durch starke Verschlüsselungsmethoden gesichert sind und auf nur wenige Personen begrenzt sind.
24)
Das direkte Ausspähen von Daten wird durch verschlüsselte Platten verhindert.
Kritisch ist jedoch, dass ein physikalischer Zugriff theoretisch die
Änderung der Software auf dem Server
zulässt.28 Deshalb müssen derartige Angriffe
erkannt und abgewehrt werden.
Wir haben derzeit nicht die Möglichkeit, selbst eine 24/7-Überwachung eines
Servers durchzuführen. Deshalb mieten wir den Server bei einem zertifizierten
deutschen Provider, der uns die sichere Überwachung garantiert.
Natürlich ist es nicht unbedenklich, die Kontrolle für diese Überwachung
aus der Hand zu geben. Dennoch sind wir überzeugt, dass diese Entscheidung
die richtige ist, denn der Provider dürfte ein starkes Interesse daran haben,
seinen guten Ruf nicht zu verlieren.
Sicherheitshalber haben wir auch Maßnahmen getroffen, die zu einer hohen
Entdeckungswahrscheinlichkeit für jede Änderung unserer Software durch
Unbefugte führt.29 D. h. der Provider würde ein
hohes Risiko eingehen, falls er seiner Verpflichtung, unseren Server vor
Angriffen über den physikalischen Zugriff zu schützen, nicht sorgfältig
nachkommen sollte.
Wir haben bislang keine Berichte gefunden, dass Server, die von solchen
zertifizierten Providern in Deutschland betrieben werden, über den Weg des
physikalischen Zugriffs angegriffen wurden. Nach meiner Einschätzung dürften
für diese von Art Angriffen hierzulande auch kaum normale Cyberkriminelle in
Frage kommen, da Polizei und Justiz bereits entsprechend sensibilisiert sind.
Es wäre eher etwas für staatliche Akteure und würde auch nicht funktionieren,
ohne Spuren zu hinterlassen, die zur Entdeckung der Agent*innen führen können.
Also auch für diese Art von Angreifer*innen besteht der Angriffsweg
"Änderung von Server-Software über den physikalischen Zugriff" nicht ohne hohe
Hürden.
Sollten wir feststellen, dass es dennoch passiert, müsste der Provider
aufgrund der Überwachungsprotokolle und -einrichtungen der Polizei mitteilen
können, wer dafür verantwortlich war.29
Wir selbst würden durch vorläufiges Abschalten des Servers, Wiederherstellung
der Software und Information der möglicherweise betroffenen Kund*innen den
Schaden begrenzen, soweit es geht.
25) Momentan sind wir noch eine sehr überschaubare Firma, bei der dieses Risiko minimal ist. Wir planen aber, zu wachsen, und dann werden wir aber auch die Kapazitäten haben, durch Anwendung des 4-Augen-Prinzips das Risiko im Griff zu behalten.
26) Siehe auch den Blog-Artikel "Penetrationstests".
27) Jahr zum Zeitpunkt der Überprüfung dieses Texts.
28) Vor diesem Problem steht allerdings praktisch jede*r, der einen Server betreibt. Es geht dabei nicht nur um Server, die Software as Services (also Web-Apps) anbieten, sondern auch z. B. Server, die Software zum Download bereitstellen. Wenn jemand einen physikalischen Zugriff auf den Server hat, könnte er oder sie immer auch die bereitgestellte Software (für Folgeangriffe auf die Endbenutzer*innen) verändern, zumindest theoretisch. Praktisch müsste er bzw. sie natürlich die nötigen Kenntnisse besitzen. Ob die Person dann mit Entdeckung und Strafverfolgung rechnen muss, hängt dagegen davon ab, wie der Server überwacht wird und wo der Server steht.
29)
Theoretisch stehen wir dabei schon wieder vor einem Problem: Wer die Software
auf einem Server verändern kann, kann natürlich auch Überwachungssoftware
modifizieren, um dabei seine oder ihre Spuren zu verwischen. Die
Überwachungssoftware müsste also auch überwacht werden und wir geraten in
einen (theoretischen) Teufelskreis. Doch in der Praxis ist es eher die
Angreifer*in, die in einen Teufelskreis gerät: Sie müsste nicht nur die
anzugreifende Software sondern auch die Überwachungssoftware so verändern,
dass dies bei der normalen Benutzung der veränderten Software nicht auffällt
und es auch nicht bei einer Überprüfung oder der Benutzung der
Überwachungssoftware bemerkt wird. Der kleinste Fehler kann zur Entdeckung
führen und je mehr sie modifiziert, desto größer ist das Risiko der
Angreifer*in, einen Fehler zu machen.
Kurz gefasst: Der Teufelskreis der Angreifer*in "divergiert" während der
Teufelskreis der Verteidigung "konvergiert".
Einfache Maßnahmen, die die Entdeckungwahrscheinlichkeit steigern, sind
z. B. die Verwendung einer Versionsverwaltung von Software-Dateien,
Backups und die Übertragung von Backups auf andere Computer. Somit sind
nicht autorisierte Veränderungen erkennbar und nachweisbar. Ferner helfen
Programme, die zyklisch den Server überprüfen und auf Probleme aufmerksam
machen.
30) Alles andere würde den Provider selbst oder weitere Personen (z. B. interne und externe Auditor*innen) oder Institutionen in die Bredouille bringen, da der Provider nach ISO 27100 zertifiziert ist und damit auch wirbt. Es sind daher viele Menschen auf mehreren Ebenen daran interessiert, dass die Sicherheitsmaßnahmen nicht nur in der Theorie, sondern auch in der Praxis funktionieren oder zumindest eine starke abschreckende Wirkung entfalten.