Anatomie - Définition


Posez votre question

Définition

L'anatomie est une science destinée à l'étude des différentes parties composant des organismes vivants, de types animal ou végétal. Par la dissection ou d'autres moyens, elle étudie la dimension, la structure et les rapports des éléments structurant un corps, une plante, etc. On distingue l'anatomie générale - qui prend également en compte l'analyse de la physiologie - de l'anatomie descriptive - qui s'attache aux volumes, emplacements, etc. L'anatomie dite chirurgicale a pour particularité d'étudier une région précise de l'organisme.

Schéma

Pierrick Horde

Réalisé en collaboration avec des professionnels de la santé et de la médecine, sous la direction du docteur Pierrick HORDE, directeur éditorial de Santé-Médecine et du Particulier Santé.

Santé médecine.net Le Particuler Santé

A voir également

Publié par Jean-François Pillou. Dernière mise à jour le 20 août 2014 à 13:55 par christelle.b.

Ce document intitulé « Anatomie - Définition » issu de Journal des Femmes Santé (sante-medecine.journaldesfemmes.fr) est soumis au droit d'auteur. Toute reproduction ou représentation totale ou partielle de ce site par quelque procédé que ce soit, sans autorisation expresse, est interdite. Sante-Medecine.net adhère aux principes de la charte « Health On the Net » (HONcode) destinée aux sites Web médicaux et de santé. Vérifiez ici.