Ich stelle hier ein Thema ein, zum Nachdenken an Wenige, eventuell zur Empörung der Majorität, was ich aber nicht hoffe, es auch nicht beabsichtigt ist.

Ich behaupte, Deutschland ist aus dem 1. Weltkrieg letztlich gestärkt hervor gegangen.
Die Binsenweisheit, dass KEIN Land nach einem Krieg stärker als vor dem Krieg ist, lasse ich einmal außen vor, das galt für England wie für Frankreich, ebensio wie für Russland und das deutsche Reich)

Und dass Deutschland Reparationen zahlen musste, für die angerichteten Verwüstungen ganzer Landstriche in Nordfrankreich und Belgien, hat nichts mit Verbrechen an Deutschland zutun sondern war nur recht und billig.

Deutschland ist geostrategisch und geopolitisch gestärkt aus dem WK 1 hervor gegangen.
Beweis:

1.) Minderung der Kriegsgefahr im Südosten durch den Fortfall Österreichs aus dem Einfluu des Reichs, Reduzierung Österreichs auf das Niveau eines unbedeutenden Mittelstaates.

2.) Fortfall einer Interessenlage des russischen Reiches/gegründete SU im Osten. Befriedigung polnischer Interessen zur Reatauration der Rzeczespospolita

3.) beginnender Antagonismus zwischen England und Frankreich

4.) mit dem Rhein eine strategisch klare Grenze zu Frankreich

Über geringe territoriale Einbußen hatte das Reich keinen Grund zur Empörung, so geht es nun einmal Verlierern.
UND,

5.) Deutschland wurde nicht besetzt.