Géraldine WOESSNERLe vrai-faux de l'info

 

Les salaires ont-ils plus augmenté en France ou en Allemagne ?

  • Copié

Emmanuel Macron affirme que les salaires ont beaucoup plus augmenté en France qu'en Allemagne au cours des dix dernières années.

Les chroniques des jours précédents