anatomie
Définition
Du grec ancien ana, "vers le haut" et tom, "couper", l'anatomie est la science de l'intérieur du corps, basée sur la dissection des organismes.
On y retrouve notamment l'étude des organes et des tissus.
Du grec ancien ana, "vers le haut" et tom, "couper", l'anatomie est la science de l'intérieur du corps, basée sur la dissection des organismes.
On y retrouve notamment l'étude des organes et des tissus.