En 2017, les révélations de l'affaire Weinstein et le mouvement #MeToo qui a suivi ont fait l'effet d'un choc. Depuis, assurément, quelque chose est en train de changer au royaume du 7e art. Enfin, les femmes prennent leur place dans le monde du cinéma. Et elles le font ensemble, tous corps de métiers confondus. Car c'est collectivement qu'elles veulent changer les règles d'un monde dominé par les hommes. Qu'elles soient réalisatrices, actrices, scénaristes ou productrices, elles sont bien dé...