Martins key.matiq-Blog

>> Zurück zum Artikelverzeichnis >>


Ausnahmslos

Geschrieben: 10.01.2022
Letzte Überarbeitung: 26.04.2022
Stichwörter: Grundsätze, Recht u. Rechtsprechung

Was ist passiert?

Die Tagesschau berichtete über einen Fall krasser Verletzung des Datenschutzes. Für polizeiliche Ermittlungen bei einem Sturz mit Todesfolge griff die Polizei Mainz auf Daten der Luca-App zu, obwohl dies nach dem Infektionsschutzgesetz verboten war 1.

Warum war das verboten?

Die Daten zur Kontaktnachverfolgung werden ja nur deshalb erhoben, um die Corona-Pandemie zu bekämpfen. Wenn diese Daten nun auch für andere Zwecke benutzt werden, besteht die berechtigte Sorge, dass der ursprüngliche Zweck nicht mehr erreicht werden kann: Gaststättenbesucher*innen können nicht mehr unbedenklich die Luca-App benutzen. Wer weiß, wer die Daten für welche Zwecke nutzen wird?

Nun ist genau dieser Worst-Case eingetreten. Wenigstens wurde die Sache gleich publik, die Staatsanwaltschaft Mainz hat sich entschuldigt und versprochen, die Mitarbeiter*innen hinsichtlich der Rechtslage zu sensibilisieren. Aber reicht das? Was einmal passiert, könnte an anderer Stelle ein zweites Mal passieren.

Und tatsächlich: Nur vier Tage später finde ich bereits die Meldung2, dass zwar "in Baden-Württemberg und Rheinland-Pfalz" die "Ermittlungsbehörden bei Gesundheitsämtern" abblitzten, aber der "rheinland-pfälzische Justizminister Herbert Mertin (FDP) [...] für Erstaunen mit seiner Äußerung [sorgte], wonach die Luca-App etwa bei Mordermittlungen womöglich doch von Ermittlungen genutzt werden könne."

Herbert Mertin scheint zwar mit seiner Auffassung alleine dazustehen, doch seine Äußerung zeigt, dass das Thema heikel ist und es selbst bei klaren gesetzlichen Regelungen Leute gibt, die versuchen, einen Hintereingang zu bohren.

Was ist der tiefere Grund für das Versagen?

Vom Arbeitsschutz her kennt man die Regel: Technische Vorkehrungen sind besser als Arbeitsanweisungen. Wer kennt schon alle Regeln, versteht diese auch in ihrer vollen Bedeutung und Wichtigkeit, kann dies alles im Kopf behalten? Erfolgversprechender ist es, wenn eine technische Vorkehrung ein Fehlverhalten erst gar nicht ermöglicht.

Eine Schneidemaschine, die zwei weit auseinander liegende Knöpfe besitzt, die gemeinsam betätigt werden müssen, verhindert, die Hände woanders (also z. B. unterm Messer) sind, wenn die Maschine schneidet. Das ist viel wirksamer als ein "Achtung!"-Schild.

Die Corona-Warn-App lässt einen Missbrauch der Daten erst gar nicht zu, da die Kontaktdaten immer nur lokal und anonym gespeichert werden. Das Problem bei dieser App ist allerdings, dass sie viel zu lange inkompatibel mit den Luca-QR-Codes war (von April bis Ende November 2021), und dass nicht jede*r die Meldung3 mitbekommen hat und es vielleicht jetzt gar nicht mehr versucht. Außerdem befreit der Check-in via Corona-Warn-App (außer in Sachsen4) immer noch nicht von einem Check-in über Papier oder Luca. Also: Der Ansatz ist also gut, die Ausführung eher weniger. Eine Schneidemaschine, die nicht schneidet, wird nicht benutzt, auch wenn sie noch so sicher ist.

Und ein weiterer Grund für das Versagen des Datenschutzes ist, dass man bei der Polizei wohl glaubte, für sie gäbe es immer eine Ausnahme von der Regel. (Gelesen und nur missverstanden haben können sie jedenfalls das Infektionsschutzgesetz kaum. Der § 28a (4) ist völlig eindeutig.) Da kam wohl gerade recht, dass die Luca-App keine Sicherheitsvorkehrungen gegen den Missbrauch trifft.

Was Privacy by Design zu bewirken vermag

Letztendlich entscheiden Gerichte, wie eine Regel wie der §28a (4) IfSG auszulegen ist. Wichtig bei solchen Prozessen ist aber, wer die Beweislast trägt: Greift die Polizei unberechtigterweise Daten ab, müsste gegen diese erst einmal geklagt werden, und die Kläger*innen müssten beweisen, dass dies unberechtigt war. Sie müssten einen Schaden nachweisen oder durchsetzen, dass es ein Disziplinarverfahren gibt ...

Ganz anders schaut es aus, wenn der Abgriff der Daten gar nicht ohne Weiteres möglich ist (wie bei der Corona-Warn-App). Jetzt müsste sich die Polizei mühen, die Mühlen der Justiz für sich in Gang zu bringen, um Software-Entwickler*innen dazu zu bringen, Hintertüren für den Datenabgriff einzubauen.

Ein Datenschutz, der bereits im Design der Software verankert ist, schiebt also die Beweislast denen zu, die Ausnahmen wollen. Und: Bevor diese die Ausnahmen auf dem Klageweg durchgesetzt haben, kann ein Abgriff gar nicht erfolgen.5

Gibt es überhaupt Regeln ohne Ausnahme?

Neben dem strikten Verbot im IfSG § 28a (4) kennen wir auch allgemeine Regeln, wie z. B. die Abschaffung der Todesstrafe in der Europäischen Menschenrechtskonvention (EMK) und im Grundgesetz (GG), das Folterverbot (EMK und GG) und die Unantastbarkeit der menschlichen Würde (GG Art. 1 und Präambel der EU-Grundrechtecharta).

Die Ausnahmslosigkeit dieser Regeln hat den Grund, dass jede Ausnahme soviel Schaden anrichten würde (schon durch die damit verbundene Erschütterung des Vertrauens in diese Regeln), dass sie nicht zu rechtfertigen wäre.

Z. B. zeigt die Geschichte Deutschlands von 1933 bis 1945, dass die Legalität der Todesstrafe weit mehr Unheil anzurichten vermag, als durch die mögliche Abschreckung von Kriminellen zu rechtfertigen wäre.

Datenschutz im Kern

Für den Datenschutz im Kern brauchen wir ebenfalls eine Regel ohne Ausnahme und technische Mittel, die ein Brechen der Regel verhindern.

Was ist der Kern? Es ist die digitale Identität. Und es sind die digital gespeicherten persönlichen Gedanken, die ich noch niemandem mitgeteilt habe.

Warum so eng gefasst? Weil es natürlich auch persönliche Daten gibt, auf die ausnahmsweise zugegriffen werden können muss. Z. B. wenn ein berechtigter Anfangsverdacht für einen Mordfall besteht.

Aber für zumindest zwei Datenarten wäre jede Ausnahme fatal. Die digitale Identität ermöglicht einem Menschen in der digitalen Welt zu beweisen, dass er er selbst ist und nicht jemand anders. Es darf niemand, auch nicht der Polizei, auch nicht bei schlimmem Tatverdacht, erlaubt werden, die digitale Identität zu stehlen. Wie bei der Todesstrafe wäre sonst mehr Unheil zu erwarten als möglicherweise zu verhindern wäre. Wenn sich jemand anders meine digitale Identität aneignet, um anderen vorzuspiegeln, dieser Mensch wäre ich, und die von ihm getroffenen Aussagen wären meine, wird in der Tat meine Menschenwürde verletzt.5

Die zweite Datenart sind die Gedanken, die ich für mich digital aufgezeichnet habe. Es geht nicht um Chats, nicht um den Besitz von Kinderpornographie, sondern es geht darum, dass Menschen z. B. einen Computer nutzen, um ihre Gedanken zu ordnen oder zu sichern, um den Kopf frei zu bekommen. Auch hier gilt: Selbst falls es sich um schlimmste Phantasien handeln sollte, jeder fremde Zugriff darauf wäre eine Verletzung der Würde des oder der Betroffenen. Er oder sie muss die Gelegenheit haben, schlimme Gedanken auch wieder fallen zu lassen, ohne dass jemand anders sie je gesehen hat. Das ist das Prinzip der Gedankenfreiheit.

Überprüfen wir das vorstehende Argument noch einmal in zwei Richtungen:

  • Wieso soll diese strenge Auslegung nur gelten, wenn jemand die Gedanken für sich behält (behalten will)? Einen Gedanken anderen zu kommunizieren bedeutet auch jemand anders zu beeinflussen. Hass, den ich für mich behalte, ist noch kein Verbrechen, ich kann den Hass noch überwinden. Hass, den ich anderen kommuniziert habe, bewirkt bereits etwas. Es ist nicht mehr nur ein Gedanke, sondern schon eine Tat.
  • Wieso soll die Gedankenfreiheit nicht einfach auf den Kopf beschränkt bleiben? Weil wir damit Menschen, die sich nicht mehr so viel merken können, gegenüber Menschen, die mehr im Kopf behalten können, benachteilige. Wir würden älteren Menschen die geistige Krücke wegschlagen. Es würde deren Würde antasten.

Bemühungen auf EU-Ebene

Hilfreich für die obige Argumentation ist auch, dass sich die Stiftung JEDER MENSCH e.V. darum bemüht, einen Artikel "Digitale Selbstbestimmung" in die Charta der Grundrechte der EU aufzunehmen. Der Text des Artikels soll lauten: "Jeder Mensch hat das Recht auf digitale Selbstbestimmung. Die Ausforschung oder Manipulation von Menschen ist verboten."

Technische Maßnahmen bei key.matiq

Wir haben von Anfang an dafür gesorgt, dass das Hauptkennwort und auch alle Kerngeheimnisse weder Angehörigen der matiq UG noch irgendwem sonst zu Gesicht kommen. Bis zur Version 1 haben wir dies darüber erreicht, dass solche Geheimnisse immer nur kurzzeitig und nur im flüchtigen Hauptspeicher gehalten wurden. Seit der Version 2.0 stellen wir auf soweit wie möglich6 auf clienseitige Verschlüsselung um. Ein Zugriff auf den Klartext von Geheimnissen wäre damit nur noch durch Einsatz beträchtlicher krimineller7 Energie möglich.

Wer auch immer einen solchen Zugriff in Erwägung ziehen sollte, sollte sich verklaren, dass er*sie sich bei einer tatsächlichen Umsetzung deutlichen persönlichen Risiken aussetzen würde.

 

1) "Mainzer Polizei nutzte Daten der Luca-App", 07.01.2022 (ursprünglicher Link offline, nun gelinkt zu einem Archiv)

2) "Hat die Luca-App noch eine Zukunft?", Eric Beres, Judith Brosel, Kai Laufen, SWR, 10.11.2021 (ursprünglicher Link offline, nun gelinkt zu einem Archiv)

3) "Warn-App kann auch Luca-Codes scannen", 10.11.2021 (ursprünglicher Link offline, nun gelinkt zu einem Archiv)

4) Siehe "Sachsen erlaubt Check-in per Corona-Warn-App", Chris Köver, 04.05.2021

5) Jedenfalls nicht, ohne dass der Softwarehersteller mitspielt, bestochen oder erpresst wird.

6) Es geht nicht darum, dass eine Polizist*in am Tatort einen Telefonanruf annimmt, und nicht gleich sagt, wer sie ist. Es geht aber darum, dass sie nicht befugt ist, die Zugangsdaten zu E-Mail-Account oder Chat-Diensten eines/einer Verdächtigten ausfindig zu machen, um in dessen/deren Namen Nachrichten zu versenden.

7) Siehe "Glossar (Cautiously Knowing Service)"

8) Die vorangegangenen Ausführungen machen deutlich, dass der Versuch, durch Veränderung der Software, Kerngeheimnisse auszuspähen, kriminell wären, selbst wenn die deutschen Gesetze dahingehend verändert würde, das zu erlauben. Der unveränderbare Grundsatz von Artikel 1 des deutschen Grundgesetzes schützt diese Auffassung. Wir könnten sie damit notfalls entweder wirksam mittels einer Verfassungsklage durchsetzen oder uns auf das Widerstandsrecht nach Artikel 20 GG berufen. Das würde dann auch gewiss nicht geräuschlos passieren. Die Hürde, eine solche Umprogrammierung vorzunehmen oder von außen her zu erzwingen, wäre also ausgesprochen hoch.


>> Zurück zum Artikelverzeichnis >>