Le ruralisme désigne la « science du mieux vivre dans les campagnes » ou la « tendance à idéaliser la vie à la campagne ». Le terme est aussi utilisé pour qualifier la « politique qui consiste à améliorer le sort de ceux qui vivent des produits de la terre »[1],[2].