Définition

La géobiologie est, au sens éthymologique, l’étude (logie) de l’influence de la terre (géo) sur le vivant (bio), qu’il soit humain, animal ou végétal.