Zitat Zitat von Azaloth Beitrag anzeigen
Deutschland selbst? Spätestens 1941, nach den ersten deutschen Bombenangriffen. Muss ich mich nochmal wiederholen?
Sorry, meist argumentierst Du ja ganz vernünftig, aber hier musst Du Dir bitte gefallen lassen:

So einen hanebüchenen Scheißdreck habe ich schon lange nicht mehr gelesen!

England fühlt sich ach so bedroht und erklärt Deutschland 1939 den Krieg, weil es 1941 angegriffen wird? Denkst Du überhaupt nach über das was Du schreibst? Was haben denn die Engländer gedacht, Deiner Meinung nach? Dass sie Deutschland mal so fix den Krieg erklären und die Deutschen ihnen Blümchen zuwerfen wenn sie in Berlin einmarschieren oder was? Niemals, mit keiner Äußerung, keiner Tat, keiner Provokation hat das Deutsche Reich vor dem Ausbruch des 2. WK in Europa jemals das Britische Empire bedroht, sondern im Gegenteil alles daran gesetzt um mit dieser Weltmacht, die durch nach hunderten zählenden Eroberungs- und Angriffskriegen dazu wurde (!!!) Frieden zu halten. Nachdem England Deutschland den Krieg erklärt hatte, nicht andersherum, schreib es Dir bitte hinter die Ohren, nur so herum wird ein Schuh draus, das erzählt zähneknirschend sogar der "Professor" Knopp. Das Deutsche Reich hat sich ergo gegen einen fremden Aggressor der sich in Angelegenheiten mischte, die ihn einen Scheißdreck angingen, nämlich eine militärische Lösung der Fragen Danzig, deutsche Minderheit in Polen, Korridor, nachdem alle anderen Lösungswege versagt hatten, zu Wehr gesetzt. Dass sich im Verlaufe des Krieges England dann "bedroht" gefühlt haben mag, das liegt dann wohl in der Natur der Sache.