Droits des femmes

soumis il y a 5 mois par suggere
Les droits des femmes sont l'ensemble des droits et libertés fondamentaux reconnus aux femmes, qui leur permettent de vivre pleinement et à égalité avec les hommes dans tous les domaines de la vie.