Join us for free and read amazing contents on elCurator.

Get wind of our features.

Already registered? Sign in.

Les «dark patterns»: comment les technologies nous manipulent

Jul 04
Xvm1dfaf23e 7ed0 11e8 9d74 5d78a4dfcf15

Le monde des technologies use et abuse largement de techniques pour nous rendre accro à ses services ou nous forcer à certains choix qui n'en sont pas vraiment. Mais la révolte gronde, y compris au sein même des géants du Web.

Voulez-vous regarder ce nouvel épisode que Netflix a lancé automatiquement? Cherchez-vous vraiment à faire défiler ces photos déjà vues d'Instagram? Et que dire encore de cette impression d'avoir senti son portable vibrer, de le sortir de sa poche par réflexe ou par ennui, en cherchant inconsciemment cette petite pastille rouge: appel manqué, nouveau texto, nouvelle notification? Toutes ces situations ont pour point commun d'être liées aux "dark patterns", soit le résultat du travail de longue haleine de l'industrie des technologies pour nous déconcentrer et nous rendre accros. Alors que de plus d'utilisateurs se posent la question d'une désintoxication nécessaire aux technologies, le Figaro vous explique comment ce concept est devenu central, y compris chez les géants du numérique.

Le néologisme, que l'on pourrait traduire par "design douteux", a été inventé en 2010 par un spécialiste du design d'interfaces numériques, Harry Brignull. Avec ses sonorités inquiétantes, l'expression veut dire quelque chose des sombres desseins qui animeraient les concepteurs de chaque service numérique. "Il s'agit de manipulations dans le design même des services que nous utilisons, pour faire faire des choix à l'utilisateur, dont il n'est pas conscient" résume ainsi Albert Moukheiber, docteur en neurosciences, psychologue et animateur de débats sur le design éthique avec l'association Chiasma Paris. "Cela peut-être pour nous empêcher de quitter un service, en rendant cela particulièrement difficile ou en jouant sur notre culpabilité, ou bien au contraire pour nous inciter à devenir accro en jouant sur des biais cognitifs", ajoute le scientifique.

Ces biais cognitifs, ce sont en fait tous ces mécanismes de la pensée qui nous font parfois avoir des jugements moins rationnels, comme celui de trouver un produit à 0.99 euros beaucoup moins coûteux qu'un autre au prix rond. Il y en a des centaines, que les psychologues étudient depuis les années 1970 et que les experts du marketing, de la communication ou de la politique utilisent à des fins de manipulation commerciale ou électorale. Dans le champ des technologies, le Laboratoire des technologies persuasives de Stanford a été créé en 1997 par BJ Fogg, figure majeure de la "captologie" ou l'étude des ordinateurs et des technologies numériques comme outils de persuasion.

Le fondateur d'Instagram est passé par ces cours, tout comme plusieurs designers et psychologues aujourd'hui cadres chez Facebook ou Google. Contrairement aux techniques de manipulations "traditionnelles" des années 1970, les "dark patterns" ont ceci de nouveau qu'ils sont traçables et activables automatiquement grâce aux technologies, pour plus d'efficacité: Facebook sait par exemple sur quelles notifications un utilisateur est le plus susceptible de cliquer, et peut donc automatiquement suggérer davantage de contenus auxquels il est sensible.

(Facebook met de fausses notifications pour vous faire penser que vous avez des messages même si ce n'est pas le cas, afin que vous acceptiez les paramètres de confidentialité et de suivi plus vite)

Ces deux dernières années, les "dark patterns" ont beaucoup fait parler d'eux car d'anciens employés des entreprises des technologies se sont mis à dénoncer ces pratiques qui seraient allées trop loin. Tristan Harris, ancien ingénieur de Google, intervient ainsi régulièrement pour dénoncer une économie de l'attention selon lui néfaste pour la société. Une vague d'inquiétude s'est emparée de la Silicon Valley, qui s'est mise à réfléchir à ses propres pratiques.

" LIRE AUSSI: Pourquoi la déconnexion est la nouvelle lubie de la Silicon Valley

Plusieurs anciens cadres des GAFAM se sont joints à cet effort. Les géants du Web, comme Google, Apple ou Facebook, commencent désormais à mettre en place des fonctionnalités liées à la déconnexion, pour aider leurs utilisateurs à se "désintoxiquer" de leurs services. Petit à petit, la société comprend que quand elle est accro à ses téléphones, ses réseaux sociaux ou ses jeux, ce n'est pas seulement parce qu'elle n'a aucune volonté mais plutôt qu'elle fait face aux tactiques élaborées par des gens dont c'est justement le métier de fabriquer son addiction. Et qu'ils sont devenus trop doués.

Comment fonctionnent les "dark patterns" ?

Pour déclencher une action, rien de tel que d'utiliser ce que Nir Eyal, un ancien élève du Laboratoire de la Persuasion de Stanford, appelle un "itch" ou une "démangeaison". Cet auteur du best-seller sur la captation de l'attention, Hooked, Comment créer des produits addictifs, définit cela comme "quelque chose qui dérange, qui gêne" dans la psyché d'un consommateur. L'idée est de s'appuyer sur cette démangeaison pour servir de déclencheur à l'action. L'ennui, la tristesse ou la peur du rejet sont des déclencheurs très forts, et si un service soulage cette "démangeaison", il est associé au soulagement dans l'esprit du consommateur.

"Le lien entre un déclencheur interne (exemple: la peur du temps qui passe) et une réaction (prendre une photo et la poster sur Instagram) va progressivement se renforcer, se sédimenter - "comme les couches de nacre qui se déposent dans une huître" écrit Eyal -, et devenir une habitude, quelque chose de subconscient plus jamais questionné. Comme aujourd'hui on va sur Google quand on se pose une question. Ou sur Amazon quand on cherche un livre ou un DVD. Sur Twitter ouTinder quand on s'ennuie, sur Facebook quand on se sent seul." explique ainsi la journaliste Claire Richard dans l'Obs.

Tous les services du Web veulent-ils nous tromper ?

Oui, mais toutes ces formes de manipulation par le design ne sont pas forcément à condamner: certaines sont même très utiles. Les techniques dites de "nudge" sont ainsi utilisées pour faire de l'incitation vertueuse. Elles reposent justement sur l'idée de contraindre sans en avoir l'air. L'aéroport Schiphol d'Amsterdam a par exemple réussi à baisser de 80 % ses dépenses de nettoyage dans les toilettes pour homme en collant dans les urinoirs un autocollant de mouche, pour les mettre au défi de viser plus juste. Il existe en fait un panel assez gargantuesque d'outils pour jouer sur les biais cognitifs des utilisateurs et il faut se faire à l'idée qu'il n'est pas forcément possible d'y échapper.

- Celui de l'aversion au risque est par exemple l'un de ceux sur lesquels les sites de réservation de voyage jouent beaucoup. "Plus qu'une place disponible à ce prix" lit-on ainsi dans un rouge inquiétant.

- Les réseaux sociaux utilisent aussi beaucoup le biais de conformité sociale: il s'agit de montrer ce qui est populaire chez ses amis car on aime naturellement se conformer à ce que font nos proches, dont on partage les goûts. Twitter affiche sans cesse les tweets les plus intéressants diffusés pendant votre absence auprès de ceux que l'on observe le plus souvent. De même, Facebook l'utilise pour faire la publicité des événements: votre ami Untel est ainsi intéressé, précise discrètement le réseau.

- Le fait de déclencher automatiquement l'apparition de nouveaux contenus joue aussi sur le biais de l'attention continue ainsi que l'illusion de récence, qui consiste à présenter l'information comme nouvelle, quand bien même elle est recyclée par un algorithme. "Sur les réseaux sociaux par exemple, l'algorithme dévoile nos publications par à-coups pour générer des likes, puis les montre à d'autres pour en générer de nouveau afin de nous faire revenir régulièrement pour obtenir ces micro-récompenses" explique ainsi Hubert Guillaud sur le site Internet Actu.

Que peut-on faire face aux "dark patterns" ?

Plusieurs personnes ont déjà tenté de lancer l'alarme, à l'image de Tristan Harris et de ses conférences/ Celui-ci essaie de faire comprendre aux géants du numérique que l'attention n'est pas forcément le bon indicateur sur lequel mesurer le succès d'un service, quitte à parfois utiliser des ressorts comme la peur pour sensibiliser à ces sujets. Pour Albert Moukheiber, cette inquiétude généralisée est "exagérée". "Mais cela, ne veut pas dire qu'il ne faut pas légiférer, ni éduquer le consommateur". De la même manière que des agences de régulation sanitaires veillent à ce que l'industrie alimentaire n'introduise pas de substances illégales dans nos aliments, certains prônent une l'instauration d'une "éthique de l'attention" à travers des normes imposées aux fabricants de services. En Europe, un premier pas a déjà été accompli en ce sens avec le Règlement Général sur la Protection des Données. Il prône ainsi le principe de "privacy by design", c'est-à-dire de conception éthique de la vie privée, par défaut: les cases sont ainsi sensées êtres décochés pour éviter que les utilisateurs souscrivent à une utilisation de leurs données non consentie. Mais certains, comme Tumblr, n'ont visiblement pas encore bien compris.

What are you waiting for? Get the best of the web.