Définition organicisme
Citations
Synonymes
Définition
Organicisme (Nom commun)
[ɔʁ.ɡa.ni.sism] / Masculin
- Théorie médicale qui s’efforce de rattacher toute maladie à une lésion matérielle d’un organe.