Definiciona

naturismo

N - septiembre 4, 2017

Definición

Sustantivo masculino. El significado de esta palabra se relaciona, comprende y hace referencia (en filosofía) a una tendencia, doctrina o movimiento de tipo médico en que preconiza el uso de los agentes o medios naturales para la conservación de la salud y el tratamiento de los padecimientos o trastornos aplicados en la rama de la medicina.

Etimología

Este vocabulario esta compuesto del sustantivo «natura» y del sufijo «ismo» que indica algún tipo de doctrina, teoría, tendencia, expresión de un idioma.