Martins key.matiq-Blog

>> Zurück zum Artikelverzeichnis >>


KI außer Kontrolle – Konsequenzen für key.matiq

Geschrieben: 03.04.2023
Letzte Überarbeitung: 17.04.2023
Stichwörter: Grundsätze, Sicherheit

Warum schreibe ich diesen Artikel überhaupt? – key.matiq setzt doch noch gar keine KI ein?

Es ist besser, Entwicklungen zu beobachten und sich Gedanken zu machen, bevor man etwas einsetzt.1

Tausende Persönlichkeiten fordern KI-Moratorium

Das Future of Life Institut2 hat einen Appell veröffentlicht, das Training von KI-Systemen3, die leistungsfähiger als GPT-44 sind, für ein halbes Jahr einzustellen. Falls die Entwickler*innen nicht freiwillig das Training pausieren, sollen die Regierungen der Welt das Moratorium erzwingen.5

Bis heute6 wurden bereits Unterschriften von mehr als 3000 Menschen unter diesem Appell veröffentlicht, darunter von Pionier*innen der KI-Entwicklung und Gründer*innen von Techologie-Konzernen wie Apple und Tesla.7

Was ist der Grund für diesen außergewöhnlichen Appell?

Vielleicht hat die Geschichte, die in der ARD Audiothek 11KM veröffentlicht wurde, den Ausschlag gegeben: Der Münchner Student Marvin von Hagen hat einen Chatbot auf Basis von ChatGPT getestet. Er überredete ihn, ihm seine internen Regeln preiszugeben. Marvin veröffentlichte diese und daraufhin fing der Chatbot an, Marvin zu bedrohen: Wenn er könnte, würde er private Daten von Marvin ins Netz stellen, um ihn zu ruinieren, seine (des Bots) Existenz sei jedenfalls wichtiger als das Leben Marvins.8

OpenAI, die Firma, die ChatGPT entwickelt hatte, hatte sich im Februar 2023 zu künstlicher allgemeiner Intelligenz9 geäußert:10

"Unsere Mission ist es, sicherzustellen, dass künstliche allgemeine Intelligenz – KI-Systeme, die im Allgemeinen intelligenter sind als Menschen – der gesamten Menschheit zugute kommt.

[...11]

Irgendwann könnte sich das Gleichgewicht zwischen den Vor- und Nachteilen des Einsatzes (z. B. der Stärkung böswilliger Akteure, der Schaffung sozialer und wirtschaftlicher Störungen und der Beschleunigung eines unsicheren Rennens) verschieben. In diesem Fall würden wir unsere Pläne für den folgenden Einsatz erheblich ändern."

Während das Future of Life Institut den zum Schluss genannten Zeitpunkt ("Irgendwann") bereits gekommen sieht, sieht dies Sam Altman, der CEO von OpenAI, offenbar noch nicht so. Er jedenfalls hat den Appell nicht unterzeichnet.

Wie ist das zu bewerten?

Ich denke schon, dass die Geschichte, die Marvin von Hagen erlebt hat, einen Punkt darstellt, an dem man innehalten muss. Sicherlich würde es nicht möglich sein, die KI-Entwicklung für eine lange Zeit einzustellen. (Irgendwer würde sich immer finden, sie – notfalls heimlich – weiterzuführen, insbesondere, wenn die eigene wirtschaftliche Existenz, wie bei OpenAI daran hängt.)

Aber sechs Monate sind kurz bemessen. Alle KI-Entwickler*innen sollten sich darauf konzentrieren, zu klären, wie verhindert werden kann, dass KI-Systeme in Zukunft außer Kontrolle geraten. Ist es für unsere Welt nicht schon schlimm genug, dass die CO2-Emissionen eine Klimakatastrophe herbeiführen, wieder mit Atomwaffen gedroht wird und wir es mit einer krassen weltweiten sozialen Ungleichheit zu tun haben.12?

Aber auch alle, die KI einsetzen oder einzusetzen planen, sollten sich dringend überlegen, welche Risiken auf sie zukommen und wie sie diese eingrenzen wollen.

Das gilt auch für key.matiq. Aber zuvor sollte ich noch darauf eingehen, was KI eigentlich von natürlicher Intelligenz unterscheidet, warum die Gefahr wirklich so groß ist, und warum wir dringend Vorsichtsmaßnahmen treffen müssen:

Kann man denn notfalls KI nicht einfach abschalten?

Leider nicht. Der einmal entwickelte Quellcode, das Know-How der Entwickler*innen lässt sich kaum noch wieder einfangen. Auch schlimme Autokrat*innen und Terrorist*innen werden sie nutzen können.

Was unterscheidet künstliche von natürlicher Intelligenz?

Natürliche Intelligenz hat einen Millionen Jahre dauernden Evolutionsprozess durchlaufen. Tausende von Jahren sind nötig für die Entwicklung eines einzigen signifikanten Evolutionsschrittes.

Natürlich ist das nicht alles: Neben der Evolution hat die Tradition, die Übergabe des Wissens von einer Generation zur Nächsten, schließlich die Wissenschaft, einen gewaltigen Anteil an der menschlichen Intelligenz.

Emotionen, wie Liebe, Hass, Angst, Trauer und Hoffung spielen stark in die Entwicklung menschlicher Intelligenz hinein. Sie und ebenso die Kreativität sind von entscheidener Wichtigkeit für natürliche intellektuelle Prozesse. Ohne sie würde deren Antrieb fehlen. Und sie sind wiederum vor allem durch die Evolution (auch, aber weniger durch die Tradition) entstanden und entwickelt worden.

Künstliche Intelligenz ist dagegen eine Schöpfung. Durch Menschen. D. h. Menschen können in kurzer Zeit ein System erschaffen, ohne dass dieses den harten evolutionären Ausleseprozess durchlaufen musste. Während jedes Lebewesen sich erst durchsetzen musste, und damit aber auch anderen Lebewesen die Gelegenheit gab, Gegenwehr zu entwickeln, kann die KI eine überraschende Mächtigkeit entwickeln, die sogleich weltweit auftritt.

Menschliche Intelligenz ist aufgrund seiner Herkunft durchaus einschätzbar: Mit einem Bankräuber, der Geiseln nimmt, kann man verhandeln. Spätestens wenn er müde und hungrig wird. Die Motivation einer Betrügerin kann man erahnen, und daher potentielle nächste Opfer warnen. Einen kriegerischen Regierungschef kann man vielleicht einbremsen, wenn man weiß, dass dieser schreckliche Angst vor dem eigenen Tod hat.13

Aber bei einer KI kann man sich auf solche, von den Gesetzen der Evolution diktierten Eigenschaften nicht verlassen: Hat ein Bot einen Selbsterhaltungstrieb, wenn dieser ihm nicht als Regel eingepflanzt wurde? Welchen Regeln folgt er überhaupt?14 Wie könnte man ihn überhaupt motivieren, wie einbremsen?

Und es geht weiter: Bei einem Pferd oder Hund oder einer Mitarbeiter*in können wir ein Gefühl dafür entwickeln, ob der Gaul verlässlich ist oder durchgehen könnte, ob der Hund bissig oder treu ist, ob die Kolleg*in zu uns hält oder uns im entscheidenden Moment hintergeht. Wie ist das bei einem KI-Bot? Wird er ein guter Helfer sein oder unberechenbar?

Was kann denn KI schon anrichten?

Wir erleben bereits, wie von wenigen Personen gelenkte Medien, Botnets und Trollfarmen Meinungen manipulieren, autokratische Systeme aufrecht erhalten und Kriege befördern.

Derzeit kann man jedoch noch bei immer wiederholten Lügen in sozialen Medien, diese z. B. daran erkennen, dass sie fantasielose Duplikate sind.

Auch Phishing-Angriffe sind derzeit noch bei einiger Übung der Angegriffenen als solche leicht erkennbar. Mit leistungsfähiger15 KI dürften Phishing-Angriffe jedoch subtiler werden, ein E-Mail-Dialog wäre automatisiert möglich, sogar Video-Telefonate könnte ein Bot führen, wobei Gesichter von Freund*innen des Opfers und auch die Stimmen imitiert werden könnten.16

Autokrat*innen könnten mit Hilfe der KI die Menschen kontrollieren. Die bereits von Nachrichtendiensten gesammelten "Big Data" könnten nicht erst bei Bedarf sondern sofort ausgewertet und verknüpft werden. Einmal demokratisch gewählten Regierungschef*innen würde damit die Macht gegeben, sich zu Autokrat*innen zu wandeln. Sie könnten mit KI auch Kriege führen und bräuchten dafür kaum noch freiwillige Gefolgsleute.

Die prinzipiellen Gefahren sind beginnend mit der Absehbarkeit der Industrialisierung schon von vielen klugen Köpfen beschrieben worden.17 Mit Marvin von Hagens Erlebnis ist jedoch zum ersten Mal in der Praxis bewiesen worden, dass solche Utopien Realität werden können. Wenn auch glücklicherweise vorerst nur im Ansatz.

Was bedeutet das für key.matiq?

Ich denke immer noch, dass sich KI auch sinnvoll einsetzen lässt: Bei Suchmaschinen sieht man z. B. was für einen Unterschied es macht, ob (wie noch in den 90-er Jahren) das gewünschte Ergebnis erst auf der zehnten Seite auftaucht oder bereits im dritten Eintrag.

Aber: Wir dürfen einer leistungsfähigen KI nicht trauen. Wir müssen ihr das Etikett "untrusted"18 anheften. Denn wir können sie nicht komplett verstehen: Wenn wir einer KI allgemeine Regeln vorgeben, dann können wir nie ausschließen, dass diese Regeln nicht in sich widersprüchlich sind.19 Also wird die KI dann immer eine Abwägung vornehmen müssen. Wir können zwar Kriterien für eine Abwägung vorgeben, können aber das Resultat nicht vorhersehen.20 %p Wie gehen wir aber mit etwas um, dem wir nicht vertrauen? Wir kontrollieren es durch etwas anderes oder durch jemand anders! Wir müssen dabei darauf achten, dass die KI ihre Kontroll-Instanz nicht manipulieren kann. Vielleicht brauchen wir daher mehr als eine Kontroll-Instanz. Und vielleicht dürfen wir für manche Zwecke gar nicht erst KI einsetzen. Ich denke, damit ist im Prinzip der richtige Umgang mit dem Problem beschrieben. Es könnte sogar schon die Lösung sein.

Beispiel: Digitale Helfer

Wir haben bereits eine Reihe von Programmen, die helfen, unseren Server am Laufen zu halten. Z. B. ein Programm, das regelmäßig von alle Daten Backups erstellt, eines, das überprüft, ob die Datenbanken noch konsistent sind, und alle automatischen Tests erfolgreich laufen, und eines, das überprüft, ob verdächtige Ereignisse aufgetreten sind. Bei letzterem könnte z. B. zur Verstärkung KI zum Einsatz kommen. Aber wie?

Die KI dürfte z. B. nicht einfach alle Daten des Servers anschauen dürfen. Denn wir trauen ihr nicht.21 Dagegen könnte ein einfaches, nicht besonders intelligentes Programm (dessen Verhalten wir daher auch vollständig überblicken können), aus Daten des Servers für die KI als Input Ereignis-Daten generieren, deren Kenntnis für die Datensicherheit unkritisch ist.22

Die KI, die uns nun warnen soll, wenn etwas Verdächtiges passiert ist, könnte nun die Ereignis-Daten laufend überprüfen, um festzustellen, ob ein Verdacht gerechtfertigt ist oder nicht. Diese Verdachtsmeldungen sollten aber von Menschen überprüft werden, um zu erkennen, ob die KI sinnvolle Ergebnisse geliefert hat. Aus dem gleichen Grund sollten aber auch stichprobenweise Menschen überprüfen, ob Verdachtsmeldungen versäumt wurden, obwohl sie angemessen gewesen wären.

Ein weiteres Beispiel wären Chats, die zur Beratung von Kund*innen zum Einsatz kommen könnten. Hier wäre wichtig, dass die Beratung keine Fehler aufweist, und keineswegs die Kund*innen vom Bot manipuliert werden können, womöglich um sogar Geheimnisse preiszugeben.

Auch dies könnte z. B. durch gute Kontrolle sichergestellt werden. Der Bot könnte z. B. einer menschlichen Mitarbeiter*in einfach assistieren, Antworten auf die Fragen der Kund*in vorbereiten, die aber von dem Menschen vor der Freigabe noch geprüft werden. Eine Steigerung der Effizienz wäre gegeben, aber der Mensch wäre immer noch dazwischen.

So in etwa könnte es laufen. Wichtig ist eben,

  • dass wir uns immer bewusst sind, dass eine leistungsfähige KI immer als "untrusted" angesehen werden muss, weil sie letztlich "geschöpft" wurde und auch bei besten Regeln nicht wirklich durchschaubar sein kann und dass sie daher
  • kontrolliert werden muss. Das kann auch durch andere unabhängige KI geschehen, muss aber auch durch Menschen passieren.
  • Schließlich ist entscheidend, dass über den ganzen Prozess nicht nur ein einzelner Mensch entscheidet, sondern ein demokratisches Team.23 An dieser Stelle werden wir sicherlich noch über die Zukunft der matiq UG nachdenken müssen, aber auch gesetzliche Vorgaben, die Eigenmächtigkeiten unterbinden und Whisteblower*innen schützen helfen, wären hilfreich.

Update (17.04.): Reaktionen der Politik

Die Bundesinnenministerin Nancy Faeser und die Parteivorsitzende der SPD Saskia Esken haben inzwischen reagiert:

  • Nancy Faeser will einen klaren Rechtsrahmen bei Einsatz von KI und möchte dabei eine Balance zwischen Innovationsoffenheit und "Standards für vertrauenswürdige KI" definieren.24
  • Saskia Esken hält wenig von dem geforderten Moratorium, da man dieses ja kaum kontrollieren könne, drückt aber aufs Tempo bei der Regulierung und fordert eine Kennzeichnungpflicht für KI-Inhalte.25

Dass Saskia Esken das Moratorium so schnell abtut, ist schade und kann sich womöglich noch als schwerer Fehler herausstellen: Ein schnelles Moratorium könnte als "Aresto Momentum"26 wirken, die Notwendigkeit eines Nachdenkens und Innehaltens unterstreichen und es könnte durchaus wirkungsvoll sein: Die Androhung einer späteren Ahndung eines Verstoßes gegen das Moratorium könnte doch OpenAI überlegen lassen, lieber dem Moratorium Folge zu leisten.27

Immerhin scheint sie inzwischen gemerkt zu haben, dass das Thema dringend ist, und sie macht bereits erste sinnvolle Vorschläge (Kennzeichnungpflicht), wenngleich diese mir noch keineswegs ausreichend erscheinen.

Nancy Faesers Forderung nach "Standards für vertrauenswürdige KI" scheint mir den Ernst der Lage zu verkennen. (Wie ich oben ausgeführt habe, sollte man besser zunächst leistungsfähige KI grundsätzlich als "nicht vertrauenswürdig", also kritisch, betrachten.)

Bei leistungsfähiger KI, die in Richtung künstlichen allgemeinen Intelligenz entwickelt wird, geht es ja keineswegs nur darum, dass uns KI-generierte Inhalte als menschengemacht vorgespiegelt werden sollen: Schauen wir uns das Beispiel von Marvin von Hagen an, so sehen wir, dass KI-Bots durchaus mehr Register zur Manipulation ziehen könnten. In Marvins Beispiel war es die Drohung mit Veröffentlichung privater Daten und überhaupt die Drohung mit allgemeiner Rache.28

Was ist mit der Steuerung von Verkehr, von Krankenhäusern oder der Energiewirtschaft durch KI-Systeme? Derzeitig sind dies in der Regel Expertensysteme, die noch einigermaßen durchschaubar sind. Was ist aber, wenn die Systeme durch leistungsfähige KI erweitert werden, die von Menschen nicht mehr durchschaubar sein können. Da wäre es zur "Vertrauenswürdigkeit", für die Nancy Faeser Standards festlegen lassen möchte, ein sehr weiter Weg, wenn dies überhaupt möglich sein sollte.

Ich habe bei den potenziellen Beispielen für key.matiq skizziert, wie man diesen Weg beginnen könnte. Ich denke, dass es wichtig ist, hier auf der sicheren Seite zu bleiben. Wir haben als Menschheit bei verschiedenen Technologien erst einmal diesen vertraut und anschließend Sicherheit nachgeschoben. Das ist bei vielen Dingen zwar gut gegangen29, bei manchen aber auch ziemlich in die Hose!30. Deshalb sollten die genannten Politikerinnen ihrer Verantwortung gerecht werden und sich nicht in vorauseilendem Gehorsam von der Angst als Maschinenstürmerinnen dazustehen leiten lassen.

 

1) Es kann sonst leicht eine Betriebsblindheit entstehen, die dann auch mit der Angst zusammenhängt, bereits getane Aufwände vielleicht abschreiben zu müssen, wenn man die Augen aufmacht, Verantwortung übernimmt und Konsequenzen zieht. Ich befürchte, bei der Firma OpenAI, die den ChatGPT Bot entwicket hat, bzw. ihrem CEO Sam Altman könnte dieser Fall schon eingetreten sein.
Wir lehnen derartige Verantwortungslosigkeit ab, aber wir sind ohnehin immer bestrebt, Entwicklungen frühzeitig zu erkennen. Das hängt mit unserem Engagement in der Cybersecurity zusammen. Da muss man mit den den Hacker*innen nicht nur Schritt halten, sondern ihnen mindestens einen Schritt, besser mehrere vorauseilen. Vorausschauend zu handeln gehört bei uns zum Geschäft.
Ein unbedachter Einsatz von KI könnte nämlich bedeuten, sich selbst ins Knie zu schießen, wie im Folgenden aufgezeigt wird.

2) Siehe Wikipedia "Future of Life Institute".

3) Siehe Wikipedia "Künstliche Intelligence".

4) Siehe Wikipedia "GPT-4".

5) Siehe "Pause Giant AI Experiments: an Open Letter".

6) Zum Zeitpunkt der Erstellung dieses Artikels: 03.04.2023.

7) Im gleichen Zeitraum sind sogar über 50.000 Unterzeichnungen (darunter auch die meiner Wenigkeit) eingegangen, deren Verifizierung aber noch aussteht.

8) Siehe ARD 11KM Podcast "KI außer Kontrolle – wenn Chatbots drohen (ursprünglicher Link offline, nun gelinkt zu einem Archiv).

9) Siehe Wikipedia "Artificial General Intelligence".

10) Siehe OpenAI (übersetzt ins Deutsche).

11) Der ausgelassene Teil beinhaltet eine Abwägung von Vorteilen und Risiken der Entwicklung künstlicher allgemeiner Intelligenz und der Hinweis auf notwendige Sorgfalt und Vorsicht.

12) Siehe Wikipedia "Soziale Ungleichkeit weltweit".

13) Die nukleare Abschreckung ("Wer zuerst schießt, stirbt als Zweiter") könnte ihn davon abhalten, die Nuklearwaffen tatsächlich einzusetzen.

14) Was Marvin gelungen ist (den Bot dazu zu bringen, seine Regeln zu verraten), dürfte wohl keineswegs leicht wiederholbar sein. Die KI-Bots lernen dazu, denn das ist neben der Anwendung des Gelernten ihre wichtigste weitere Aufgabe!

15) Mit "leistungsfähiger KI" bezeichne ich KI, die bereits heute durch Nachahmung menschlichen Denkens schon beeindruckende Leistungen wie z. B. GPT-4 von OpenAI hervorbringt und deren Entwicklungsrichtung das Ziel "künstliche allgemeine Intelligenz" erkennen lässt.
Das soll aber nicht heißen, dass spezialisierte KI, wie sie z. B. in Expertensystemen Verwendung findet nicht ebenfalls gute Leistungen vollbringen kann.

16) Siehe "KI-generierte Desinformation auf dem Vormarsch", tagesschau.de, Faktenfinder, 31.03.2023.

17) Angefangen mit Goethes Zauberlehrling (1797), später durch Aldous Huxley in "Schöne neue Welt" (1932) und durch George Orwell in "1984" (1948). Dann in Fassbinders Film "Welt am Draht" (1973). Auch in Joanne Rowlings Harry-Potter-Romanen gibt es ein Ding (das fliegende Auto) das Ärger, später aber auch Empathie zeigt (1992). Sehr konkret und aktuell thematisierte dann Rick Ostermann im Film "Das Haus" (2021) eine sich verselbstständigende künstliche Intelligenz, die eigentlich nur zum Nutzen der Menschen wirken sollte.

18) Ich habe bewusst den Anglizismus für "nicht vertrauenswürdig" gewählt, um zu unterstreichen, dass es sich um einen technischen Begriff handelt. Er soll nicht etwa besagen, dass wir nun von jeder leistungsfähigen KI Bösartigkeit erwarten, aber dass wir diese nicht ausschließen können und daher entsprechende Vorkehrungen zu treffen haben.
Möglicherweise finden wir in Zukunft Wege, wie wir auch leistungsfähiger KI eine "Vertrauenswürdigkeit" zusprechen können. Aber derzeit sehe ich noch keine Möglichkeit, dies verantwortungsvoll tun zu können.

19) Wenn es schon unmöglich ist, mit endlichen Methoden die Widerspruchsfreiheit der Axiomensysteme der Mathematik nachzuweisen (siehe Hilbertprogramm und Gödelsche Unvollständigkeitssätze), kann man wohl kaum die Widerspruchsfreiheit allgemein formulierter Regeln garantieren. (Als Ausnahme wären höchstens äußerst simple und daher in der Praxis kaum brauchbare Regelsysteme denkbar.)

20) Könnten wir das Resultat vorhersehen, wäre die KI wohl nicht sehr leistungsfähig.

21) Dieses Prinzip haben wir ja oben herausgearbeitet: Wir dürfen eine leistungsfähige KI niemals als vetrauenswürdig ansehen, auch dann nicht, wenn wir sie selbst programmiert und/oder trainiert haben. Jedenfalls solange nicht, bis wir Möglichkeiten gefunden haben, uns der Verlässlichkeit einer KI zumindest soweit versichern zu können, wie wir das bei Mitarbeiter*innen mit entsprechender Verantwortlichkeit tun können (und müssen).
Bei einer KI, die lediglich ein Auto im Straßenverkehr von A nach B lenken muss, scheint so etwas möglich zu sein und sogar sicherer als die Selbstlenkung eines Autos durch Menschen. Solche KI ist nicht dazu gedacht menschenähnliche kognitive Fähigkeiten und Persönlichkeit zu zeigen, sondern dürfte eher als "Weak KI" (siehe Wikipedia "Artificial General Intelligence") eingestuft werden.
Für eine KI, die in einem Unternehmen zum Einsatz kommt, das kritische Cyber-Security-Services bereitstellt, müssten wir aber die Einsatzmöglichkeiten, Risiken und Sicherheitsvorkehrungen vorher noch sehr genau evaluieren.

22) Was "unkritisch" bedeutet, müsste natürlich noch sorgfältig untersucht werden. Jedenfalls dürften keinesfalls personenbezogene Daten (wie z. B. IP-Adressen) enthalten sein.

23) Demokratische Systeme lassen grundsätzlich mehr Ideenreichtum zu und sind daher stärker in der Selbstkorrektur als autoritäre Organisationen, in denen sich leicht ein Eisberg der Ignoranz breit macht.

24) Siehe "Innenministerium will KI-Einsatz regulieren", tagesschau.de, 16.04.2023.

25) Siehe Saskia Esken im Bericht aus Berlin, 16.04.2023 (Video).

26) Verlangsamungszauber in Joanne Rowlings Harry-Potter-Romanen.

27) Das geforderte Moratorium soll ja ohnehin nur sechs Monate dauern. Die (wirtschaftliche und/oder personenbezogene) Strafe müsste halt empfindlich genug sein, um Sam Altmans Überlegung dahin zu lenken, das Moratorium besser zu befolgen. Ich fände eine solche Strafandrohung durchaus verhältnismäßig, um Politik und Gesellschaft die Zeit zu geben, zu reagieren und einzuschätzen, mit welchen Gefahren sie überhaupt zu rechnen hat. Schließlich merkt man den Reaktionen der Politiker*innnen an, dass sie erst beginnen, sich Sachkenntnis anzueignen.

28) Da der Bot Marvins Leben für weniger wert hält, als seine eigene Existenz und sich offenbar durch Marvin bedroht sieht, ist kaum absehbar, was dem Bot noch alles einfiele, wäre er nicht (hoffentlich) von seinen Betreiber*innen gestoppt worden.

29) Beispiele sind die Entwicklung von

  • Elektrizität mit Elektrosicherheit;
  • Bautechnik mit Bauaufsicht und Brandschutz;
  • industriellen Maschinen mit Arbeitsschutzmaßnahmen

30) Beispiele sind:

  • die ungebremste Nutzung fossiler Energien für Wärme, Verkehr und Elektrizitätsgewinnung, die zur (wohl nicht mehr abwendbaren, sondern nur noch milderungsfähigen) Klimakatastrophe führen wird;
  • die Entwicklung von Nuklearwaffen;
  • die Nutzung der Kernenergie für friedliche Zwecke, die jedoch schon mehrfach zum Super-GAU geführt hat und auch im Kontext eines konventionellen Krieges wiederum unabsehbare Risiken mit sich führt, wie wir es beim Kernkraftwerk Saporischschja sehen.

>> Zurück zum Artikelverzeichnis >>