
La France est la première destination naturiste au monde. Et désormais, inutile d'aller sur le littoral ou à la campagne, le naturisme se développe de plus en plus en ville.
via Franceinfo – Santé (https://www.francetvinfo.fr/sante/psycho-bien-etre/le-naturisme-en-ville-aussi_2846875.html#xtor=RSS-3-[sante])
