Sembra
un'opinione comune abbastanza diffusa, quella che se fossero le donne
a detenere i posti di potere, attualmente occupati in larga parte
dagli uomini, ci ritroveremmo in una società migliore, dove la
violenza e le guerre diminuirebbero radicalmente, mentre verrebbero
recuperate equità e giustizia sociale.
Impossibile
non domandarsi se questa opinione corrisponda alla verità e se
davvero le donne al potere possano essere garanzia di un "mondo
migliore".....