Facebook a manipulé les émotions de 700.000 utilisateurs

Pendant une semaine, du 11 au 18 janvier 2012, Facebook et des scientifiques des Universités Cornell et de Californie à San Francisco, ont utilisé le système d'algorithmes du réseau pour modifier le contenu des informations reçues par un groupe d'utilisateurs afin d'étudier l'impact sur leurs émotions.
Pendant une semaine, du 11 au 18 janvier 2012, Facebook et des scientifiques des Universités Cornell et de Californie à San Francisco, ont utilisé le système d'algorithmes du réseau pour modifier le contenu des informations reçues par un groupe d'utilisateurs afin d'étudier l'impact sur leurs émotions. © Reuters
  • Copié
avec AFP , modifié à
Facebook a manipulé des informations de près de 700.000 utilisateurs anglophones pour étudier "la contagion émotionnelle" dans les groupes.

Facebook is watching you. Le réseau social a manipulé des informations de près de 700.000 utilisateurs anglophones pour étudier "la contagion émotionnelle" dans les groupes. Et il publie ainsi une étude qui alarment certains internautes. La recherche, effectuée du 11 au 18 janvier 2012 en partenariat avec des scientifiques des Universités Cornell et de Californie à San Francisco, a été publiée dans la revue scientifique américaine Comptes rendus de l'Académie nationale des sciences (PNAS), datées du 17 juin.

Optimisme et pessimisme sont contagieux. Les auteurs cherchaient à savoir si le nombre de messages positifs ou négatifs lus par les utilisateurs influençait la teneur de ce qu'ils postaient eux-mêmes sur le site. Ils ont constaté que les utilisateurs ciblés commençaient à utiliser davantage de mots négatifs ou positifs selon l'ampleur des contenus auxquels ils avaient été "exposés".

"Les états émotionnels sont communicatifs et peuvent se transmettre par un phénomène de contagion, conduisant les autres personnes à ressentir les mêmes émotions sans en être conscientes", écrivent les auteurs de cette recherche. Selon eux, "ces résultats montrent la réalité d'une contagion émotionnelle de masse via les réseaux sociaux."

15.04 930x620 Facebook Argent

L'étude inquiète les internautes. L'étude suscite une attention grandissante sur la toile après des articles publiés samedi dans la revue en ligne Slate et sur les sites du magazine The Atlantic et de Forbes. Certains internautes expriment "leur trouble profond" ou qualifient la méthode utilisée "d'alarmante" ou de "démoniaque".

Susan Fiske de l'Université de Princeton qui a édité la recherche, a indiqué à The Atlantic avoir contacté les auteurs pour leur faire part de ses préoccupations quant à leurs travaux. Ils lui ont dit que les autorités de leurs universités avaient approuvé ces travaux "car Facebook, apparemment, manipule systématiquement le contenu des informations diffusées".

Pas de polémique, selon Facebook. Interrogé par l'AFP, Facebook, plus grand réseau social avec plus d'un milliard d'utilisateurs, a rejeté ces accusations.  "Cette recherche a été menée pendant seulement une semaine et aucune donnée utilisée n'était liée au compte d'une personne en particulier", indique une porte-parole, Isabel Hernandez, dans un courrier électronique. "Nous faisons des recherches pour améliorer nos services (...) et une grande partie consiste à comprendre comment les gens répondent à différents contenus positifs ou négatifs", poursuit-elle.

sur-le-meme-sujet-sujet_scalewidth_460_scalewidth_460-1_scalewidth_460

Slingshot : après sa tentative de rachat, Facebook copie Snapchat

Etats-Unis : peut-on menacer de mort son ex-femme sur Facebook ?

Morbihan : un jeune meurt noyé après un défi Facebook

Facebook : la publicité vidéo arrive en juin