Biologie - Définition
Définition
La biologie est une discipline scientifique. La biologie est l'étude de tout être vivant, qu'il soit humain, végétal ou animal. La biologie couvre aussi l'étude de l'environnement dans lequel les différents organismes évoluent. La discipline concerne aussi bien les organismes contemporains que les organismes qui ont existé par le passé. Enfin, l'évolution et la mutation des organismes font aussi partie de la biologie. La discipline est enseignée dès le primaire. C'est l'une des matières principales dans les formations médicales et paramédicales.
Ce document intitulé « Biologie - Définition » issu de Journal des Femmes (sante-medecine.journaldesfemmes.fr) est soumis au droit d'auteur. Toute reproduction ou représentation totale ou partielle de ce site par quelque procédé que ce soit, sans autorisation expresse, est interdite. Sante-Medecine.net adhère aux principes de la charte « Health On the Net » (HONcode) destinée aux sites Web médicaux et de santé. Vérifiez ici.