Significado y definicion de firmar, etimologia defirmar

Definición

Qué es, concepto o significado

Verbo activo transitivo. Este termino se dice especialmente de una persona, en poner, colocar o escribir una firma en un documento o cualquier cosa análoga. En forma desusado, certificar, afirmar, dar por cierto en alguna cosa, la firmeza o seguridad a algo. Verbo pronominal. Emplear tal o cual el título o nombre de la firma.

Este vocablo en su etimología se compone del sustantivo «firma» y del sufijo flexivo «ar» que indica infinitivo de los verbos o del latín «firmāre» que quiere decir afirmar o dar fuerza.

firmar

Ampliar vocabulario

¿Conoces el significado de estas palabras?

fablar


fastigiarias


foro


fragura


falleciente


Bibliografía ►


Siguiente Definición al azar



  
 PALABRAS RELACIONADAS
Concepto, definición corta y significado de firmar - Etimología y origen de la palabra firmar - Qué es firmar - RAE - Wikipedia.