71 Abos und 6 Abonnenten
Artikel

Das Ende der Kolonien

Das Ende der Kolonien

Die deutschen Kolonien waren in jeder Beziehung ein Fehlschlag. Trotzdem reagierte die Öffentlichkeit verbittert über den Verlust – wovon letztlich die Nationalsozialisten profitierten.

Aus G/Geschichte 2/2016.