Ruralisme

Le ruralisme désigne la « science du mieux vivre dans les campagnes » ou la « tendance à idéaliser la vie à la campagne ». Le terme est aussi utilisé pour qualifier la « politique qui consiste à améliorer le sort de ceux qui vivent des produits de la terre »[1],[2].

  1. « Ruralisme », Définition de « ruralisme », sur cntrl.fr, le site du Centre National des Ressources Textuelles et Lexicales (consulté le )
  2. « Ruralisme », dans Dictionnaire de français Larousse (lire en ligne)

Developed by StudentB