Seiten

Montag, 18. Februar 2013

Deutschland - Was ist Deutschland


Quelle: Parteienallianz

Deutschland - Was ist Deutschland

Was ist Deutschland und wo liegt es?
Zunächst einmal muss man sich der Bedeutung des Begriffes ,,Deutschland" überhaupt bewusst werden. Der Begriff Deutschland bezeichnet keine politisch und staatlich festgelegte Einheit.
Der Begriff Deutschland tauchte erstmalig, urkundlich festgelegt, in dem zwischen 1077 und 1081 im Rheinland verfassten Annolied als ,,diutschiu lant" auf und bezeichnet seitdem das Siedlungsgebiet der Altdeutschen, beziehungsweise der deutschen Stämme.
Der Begriff Deutschland ist also primär ein kultueller, nationaler, geschichtlicher und ethnischer Begriff und erst sekundär ein politischer und staatsbildener Begriff.
Daher ist es ein Fehler, den Begriff Deutschland mit einem (deutschen) Staat gleichzusetzen, bzw. Deutschland auf ein proklamiertes Staatsgebilde zu begrenzen.
Deutschland, also das deutsche Land, ist dort wo Deutsche die angestammte Bevölkerungsmehrheit stellen, die das betreffende Land kultiviert und aufgebaut hat, es urbar gemacht hat, durch den Aufbau von Siedlungen, von Städten, der Wirtschaft oder der Infrastruktur.

Keine Kommentare:

Kommentar veröffentlichen