Les salaires ont-ils plus augmenté en France ou en Allemagne ?

  • A
  • A
Le vrai-faux de l'info est une chronique de l'émission La matinale d'Europe 1
Partagez sur :

Emmanuel Macron affirme que les salaires ont beaucoup plus augmenté en France qu'en Allemagne au cours des dix dernières années.