J'ai cette impression nouvelle, mais récurrente et persistante en plus d'être un tantinet désagréable, que notre monde (ou bien serait-ce la France ?) est en passe de devenir (ou bien redevenir) un monde d'hommes.
Qui gèrent, qui pensent, qui parlent, qui agissent et qui conjecturent.
D'autorité.
Où sont les femmes ?
Ce déséquilibre, assez flagrant selon moi pour qui observe un tant soit peu cette marche du monde (ou bien serait-ce la France ?), me devient quasi insupportable.
Comme obscène.
D'où tirent-ils à la fin, ces hommes, cette légitimité ?
Et cela est-il, véritablement, de bon augure ?