Der Deutsche Wanderverband (DWV) ist eine gemeinnützige Organisation in Deutschland, die das Wandern fördert. Er wurde 1883 gegründet und arbeitet daran, Wanderwege zu entwickeln, die Gesundheit und Naturerlebnis zu fördern. Der DWV organisiert Wanderveranstaltungen, bildet Wanderführer aus und engagiert sich für nachhaltigen Tourismus.