Definiciona

alemán

A - julio 4, 2014

Definición

Es un adjetivo que tiene como significado que es natural, relativo, concerniente y perteneciente a Alemania un país europeo que esta situado en el norte y que en la antigüedad se nombraba como Germanía. También se dice del idioma indoeuropeo que corresponde al grupo de las germánicas occidentales.

Etimología

vocablo, procede del francés «allemand» y del latín «alĕmanĭcus».