Un siècle avant Weinstein, les femmes dominaient Hollywood
Au début de son histoire, avant de devenir une industrie, Hollywood était vu comme un éden pour les femmes, un lieu où elles pouvaient exercer des métiers de pouvoir et où elles étaient payées autant voire mieux que les hommes. Une situation qui ne tardera pas à changer. Radicalement.
Mary Pickford et Frances Marion en 1920, sur le tournage de «The Love Light» |