Definiciona

anatomía (ciencia)

A - agosto 19, 2014

Definición

Sustantivo femenino. Es una palabra que tiene como definición como una ciencia que hace parte de la biología que estudia a cerca de los sistemas, los órganos del cuerpo humano, los animales y las plantas, lo mismo la forma y el sistema externo e interno de los seres vivos.

Etimología

Este vocabulario es de origen latino con la expresión «anatomĭa» y a su vez del griego «ανατομη» (anatomē).