Glossaire Psychologie / Terme
Le féminisme est, selon les définitions du dictionnaire Merriam-Webster : « la théorie de l'égalité politique, économique et sociale des sexes » et « l'activité organisée au nom des droits et des intérêts des femmes ».
Lien permanent Féminisme - Date de création 2021-12-19