Westliche Werte – Deutschland ist nur ein Lakai!

WERTEVERFALL DES WESTENS Von Robin Fermann, 21.06.2015 Es muss ernsthaft die Frage gestellt werden, was sich mit den so genannten westlichen Werten oder der Gemeinschaft der Werte des Westens verträgt und was nicht. Fakt ist, wir erleben seit Jahrhunderten, dass die westlichen Länder, früher unter der Führung von Großbritannien und seit Anfang 1900 von den US-Administrationen, permanent andere Völker in der Welt angreifen, ermorden, ausplündern und sich respektlos rechtfertigen. Was sind daher westliche Werte? Bestehen westliche Werte aus Kolonialisierung, Ausbeutung, Weiterlesen →