Aujourd'hui, je vous révèle un truc incroyable : pourquoi tant de gens likent des absurdités. (sourcé)
Critiquer, c'est être vilain, hein ? M'enfin, ce sont les enfants qui pensent ça !
Tout ce que vous avez toujours voulu savoir sur le comportement des gens sous les posts et pourquoi ils likent ou continuent à liker les posts de leur influenceur préféré, même lorsque des commentaires ont déjà proposé des critiques rationnelles ?
Alors non, ce n'est pas car ils ne les comprennent pas... enfin parfois. Pas seulement non plus, parce qu'ils likent une phrase qu'ils ont aimé sur tout le post.
Sont ils vraiment en contrôle de leur "likes" ? Vous ne vous êtes jamais demandé cela ?
La science va enfin vous expliquer pourquoi les gens "likent" les bétises de certains "influenceurs" et pourquoi vous n'exercez pas votre esprit critique quand vous devriez.
Et non, pas non juste parce que la photo est vraiment jolie..., on va parler de raisons plus profondes.
Les réseaux sociaux ont révolutionné notre rapport à l'information, mais aussi à ceux qui la diffusent. Certains influenceurs rassemblent des communautés si fidèles qu'elles continuent de les soutenir, coute que coute et nous allons aller au-delà des stratégies et objectifs individuels.
Mais pourquoi ? Pourquoi, après avoir suivi un influenceur pendant deux mois, cinq mois, un an, voire plus, est-il si difficile de voir et d’admettre qu’il s'est trompé sur un truc dans un post, qu’il simplifie à l’extrême, qu’il déforme la réalité, qu’il défend un raisonnement bancal, voir qu'il vient de sortir une grosse connerie et qu'il ne se remet même pas en question ?
Ce que le chat 4o et moi allons vous montrer (oui je n'avais que 4h à passer sur un tel sujet), c'est que le remettre en question, c'est se remettre en question soi-même.
Cela signifie reconnaître qu'on s'est laissé séduire sans assez réfléchir, guidé par nos émotions certainement, qu'on a adhéré à des idées biaisées, qu'on a relayé des posts discutables, qu'on a aimé et commenté des contenus superficiels et peu étayés, sans esprit critique et pendant longtemps.
Bref, cela revient à remettre en cause sa propre capacité de discernement.
Et notre cerveau déteste ça.
Alors, au lieu d’admettre un doute, on préfère continuer à liker, à défendre, à rationaliser. Plutôt que d’accepter qu'on a peut-être suivi un charlot qui n'est pas aussi pro et compétent qu'il n'en a l'air sur les questions qu'il aborde.
Ce comportement peut être analysé sous l’angle de ces 10 mécanismes psychologiques (non exhaustif) bien documentés et étudiés par la science :
Le biais de confirmation (Nickerson, 1998) : tendance à privilégier les informations confirmant nos croyances existantes.
La dissonance cognitive (Festinger, 1957) : inconfort psychologique face à une contradiction entre croyances et preuves contraires.
L’effet de groupe et la loyauté sociale (Tajfel & Turner, 1979) : défense instinctive des idées partagées par son groupe.
Le biais d’autorité (Milgram, 1963) : tendance à accorder plus de crédibilité à une personne perçue comme légitime.
L’effet de viralité et la validation sociale (Tversky & Kahneman, 1973) : plus une information est répétée et visible, plus elle semble crédible.
L’engagement et l’effet de gel (Lewin, 1947) : plus on investit dans une croyance, plus il est difficile de revenir en arrière.
L’illusion de vérité (Hasher et al., 1977) : répétition d’une affirmation qui la rend crédible, même si elle est fausse.
Le biais de négativité (Rozin & Royzman, 2001) : attention excessive aux informations négatives, favorisant les controverses.
L’heuristique de disponibilité (Tversky & Kahneman, 1973) : juger la fréquence ou la validité d’un fait en fonction de sa facilité d’accès mental.
Le biais d’ancrage (Tversky & Kahneman, 1974) : influence excessive de la première information reçue sur les jugements futurs.
La pression à la conformité (Asch, 1951) : adaptation de son opinion à celle du groupe par peur du rejet.
Le biais d’homophilie (McPherson et al., 2001) : tendance à interagir avec des personnes ayant les mêmes croyances, renforçant les bulles de filtre.
📌 Bien sûr que vous êtes concernés, vous allez le comprendre avec cette liste d'exemples :
1️⃣ Biais de confirmation
Un influenceur affirme que "visualiser son succès garantit sa réalisation". Un commentaire explique que cela ne fonctionne pas sans action concrète et étapes claires, mais ses abonnés ignorent ou rejettent la critique en la qualifiant de "négative".
Un medecin défend un régime alimentaire contesté scientifiquement. Plutôt que de considérer les études contraires, ses adeptes privilégient les témoignages positifs.
2️⃣ Dissonance cognitive
Un influenceur santé recommande l’eau citronnée à jeun pour "éliminer les toxines". Un expert démontre que c’est un mythe, mais les adeptes rétorquent : "Je me sens mieux, donc ça fonctionne !".
Un youtubeur vend un programme miracle pour devenir riche en 6 mois. Lorsqu’un analyste le démonte, ses fans préfèrent croire que "les élites cachent ces opportunités". :)
3️⃣ Effet de groupe et loyauté sociale
Un influenceur bien-être prône le minimalisme et l’anti-consommation mais fait du placement de produit en secret. Ses fans le défendent en arguant qu’il "mérite d’être payé".
Un coach sportif recommande des exercices sans s'assurer de l'état de santé de ses abonnés et sans recommandation d'usage. Quand un commentaire contredit ces pratiques, les adeptes crient au "hater".
4️⃣ Biais d’autorité
Un gourou du business dit que "les diplômes sont inutiles". Lorsqu’un économiste prouve le contraire, ses abonnés répondent : "Regarde où il en est aujourd’hui !".
ou encore souvenez-vous du : "Il ne faut surtout pas de plan B"!
Un influenceur nutrition affirme que "le sucre est un poison absolu". Un diététicien démontre que c’est faux, mais ses abonnés le traitent de "vendu".
5️⃣ Effet de viralité et validation sociale
Un défi dangereux (ex. : manger des boules de lessive liquide) se propage sur TikTok. L’engouement est tel que des milliers d’utilisateurs le relèvent, malgré le bon sens puis les avertissements en tout genre.
Une fausse information sur la santé est largement relayée. Les commentaires critiques sont noyés sous les likes et partages.
6️⃣ Effet de gel et engagement
Un internaute a dépensé 2 000€ dans un programme de formation inefficace et fumeux. Plutôt que d’admettre l’arnaque, il affirme : "J’ai appris beaucoup de choses !". "1% c'est parfait avec l'effet de levier".
Un coach pour CEO affirme que « un vrai leader ne dort que 4h par nuit ». Malgré les preuves scientifiques démontrant l'impact négatif du manque de sommeil (Walker, 2017), ses abonnés rationalisent : « Ce n’est pas pour tout le monde, seuls les vrais gagnants y arrivent ! ». Grâce à son statut et aux milliers de likes qu'il reçoit, toute critique est ignorée, renforçant un mythe épuisant mais lucratif.
7️⃣ Illusion de vérité
Une fausse citation d’Einstein (« Si vous ne pouvez pas l’expliquer simplement, c’est que vous ne l’avez pas compris ») est massivement partagée. À force de répétition, elle est perçue comme authentique, bien qu’Einstein ne l’ait jamais dite.
L'affirmation « on n’utilise que 10 % de notre cerveau » est fausse, mais elle est répétée depuis des décennies dans les médias et les films, si bien qu’elle est encore considérée comme vraie par beaucoup.
8️⃣ Biais de négativité
Un influenceur déclenche une polémique absurde. Plus c’est extrême, plus les interactions explosent.
Il a compris le principe utilisé par les journaux et chaînes d’information qui mettent en avant les catastrophes, crimes et crises économiques, car une information négative capte plus d’attention et génère plus d’engagement que des nouvelles positives. (Mais non cela ne joue absolument pas sur notre moral, enfin, ne soyez pas pessimiste !)
Un post outrageux sur un sujet politique récolte dix fois plus de partages qu’une analyse nuancée, car les utilisateurs réagissent plus aux contenus qui les choquent ou les irritent.
9️⃣ Heuristique de disponibilité
Un fait divers violent largement relayé aux infos donne l’impression que les agressions explosent, alors que les statistiques montrent une stabilité ou une baisse des crimes. La fréquence de l’information fausse la perception de la réalité et du risque.
Les médias et influenceurs mettent en avant quelques success stories d’investisseurs ayant fait fortune avec le Bitcoin. Ceux qui ont perdu leur argent sont invisibilisés, créant l’illusion que « tout le monde réussit ».
🔟 Biais d’ancrage
Un influenceur annonce "gagnez 10 000€/mois facilement". Même si l’offre réelle est différente, le premier chiffre influence la perception et celle à 2000€ devient l'affaire du siècle à saisir instantanément avec ce soir.
Une publicité affiche un prix barré élevé avant de montrer le prix réduit, donnant une illusion de bonne affaire.
1️⃣1️⃣ Pression à la conformité
Lors d’une réunion, un manager propose une stratégie manifestement inefficace. Personne ne le contredit, car les autres collègues acquiescent, et personne ne veut être celui qui "fait des vagues".
Une personne ayant un avis nuancé sur une question sensible évite d’exprimer son opinion dans un groupe très polarisé et finit par adopter la position dominante pour éviter les conflits.
1️⃣2️⃣ Biais d’homophilie
Une personne ayant des idées écologistes très marquées ne fréquente que des amis partageant les mêmes convictions. Toute critique ou nuance sur certaines solutions écologiques est alors perçue comme une attaque, faute d’exposition suffisante à des arguments alternatifs.
Sur LinkedIn, plusieurs influenceurs business partagent les publications des autres sans jamais les critiquer. Ils forment un écosystème fermé d'autorité où leurs idées semblent universellement acceptées, et ne sont jamais mises à l’épreuve d’un débat contradictoire entre eux.
Il est grand temps de vous donner le droit de critiquer ou de soutenir ceux qui le font avec pertinence, non ?
Références bibliographiques :
Arkes, H. R., & Blumer, C. (1985). The psychology of sunk cost. Organizational Behavior and Human Decision Processes, 35(1), 124-140.
Cialdini, R. B. (2001). Influence: Science and practice. Allyn & Bacon.
Festinger, L. (1957). A Theory of Cognitive Dissonance. Stanford University Press.
Lewin, K. (1947). Frontiers in group dynamics: Concept, method and reality in social science; social equilibria and social change. Human Relations, 1(1), 5-41.
Milgram, S. (1963). Behavioral study of obedience. Journal of Abnormal and Social Psychology, 67(4), 371–378.
Tajfel, H., & Turner, J. C. (1979). An integrative theory of intergroup conflict. The social psychology of intergroup relations, 33(47), 74.
Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175–220.
Tversky, A., & Kahneman, D. (1973). Availability: A heuristic for judging frequency and probability. Cognitive Psychology, 5(2), 207–232.