Facebook, un modèle économique dangereux pour la démocratie

5 avril 2018 | Non classé

Chacun a entendu parler de l’émotion provoquée par la découverte de l’utilisation des bases de données de Facebook pour influencer la décision du Brexit en Angleterre et l’élection de Donald Trump aux États-Unis.

Mais de quoi s’agit-il précisément ? C’est assez simple, hélas. Jusqu’en 2014, les conditions d’utilisation de Facebook prévoyaient que l’accord d’un usager permettait d’accéder également aux données de ses « amis » (friends) sans avoir l’accord de ces derniers.

Un chercheur britannique a alors obtenu le plus légalement du monde le consentement de 270 000 utilisateurs de Facebook pour leur faire soi-disant passer un test psychologique. En s’appuyant simplement sur le règlement de Facebook, il a alors eu dans le même temps accès aux données de tous les « amis » de ceux qui lui avaient répondu. Comme chaque utilisateur de Facebook possède en moyenne 200 amis, ce chercheur britannique s’est retrouvé à la tête de données concernant prêt de 50 millions d’Américains. Il a ensuite cédé ces données à une entreprise « amie » qui les a utilisés à des fins politiques.

La puissance de calcul des ordinateurs permet en effet aujourd’hui de répartir les citoyens par catégories non seulement en fonction de leur âge, de leur catégorie sociale, de leurs préoccupations politiques et religieuses, mais aussi en fonction de leurs goûts culinaires, de leurs préférences vestimentaires, de leurs intérêts culturels et sportifs, de leurs lieux de vacances, etc. Cette sélection par catégorie permet ensuite d’envoyer à chacun des mails, des messages Facebook, ou des tweets, parfaitement ciblées sur ses centres d’intérêt. De telle façon qu’il devient facile d’influencer un grand nombre de personnes en utilisant pour chacun un argumentaire qui le touche intimement, comme s’il émanait d’un « ami » qui le connait bien et partage ses préoccupations. Que ce soient des robots qui génèrent ces messages reste évidemment inconnu de ceux qui les reçoivent. Ainsi, vous pouvez recevoir un message de quelqu’un qui dit vous avoir découvert par l’intermédiaire des réseaux sociaux, partager votre intérêt pour telle star du cinéma ou tel passe-temps, et après avoir dit quelques mots sur votre passion partagée, vous glisser une réflexion sur l’état social ou politique du pays, vous manifester ses inquiétudes (qui sont évidemment les vôtres puisque le robot est programmé pour les connaître), voire vous dire son espoir dans un changement auquel vous pensez vous aussi.

Le but de ces messages ciblés n’est pas de vous faire changer d’avis, mais de confirmer chacun dans ses a priori par un contact qu’il croit être de proximité, de telle façon qu’il devienne moins réceptif aux argumentaires rationnels. Les positions de chacun se caricaturent, le débat se durcit, chacun n’écoute plus les arguments des personnalités politiques, car il a « bien compris », grâce aux messages de tous ceux qui pensent comme lui (en réalité les robots) qu’il a raison.

La question posée par cela est simple : le modèle de réseau social gratuit qui repose sur l’exploitation commerciale des données personnelles de ses membres n’est-il pas en contradiction à la fois avec l’éthique, et avec la possibilité d’un fonctionnement démocratique ? En effet, en démocratie, les messages politiques diffusés par des lobbys sont explicitement désignés comme tels. En France, c’est d’ailleurs un des rôles du CSA d’y veiller. Mais les messages ciblés des robots sur les réseaux échappent au CSA, et ils peuvent influencer gravement des citoyens à leur insu, mettant en péril la logique démocratique basée sur le débat, la curiosité du point de vue de l’autre et l’échange des idées.

S.T.

Serge Tisseron

Serge Tisseron

Psychiatre, docteur en psychologie

Serge Tisseron est psychiatre, docteur en psychologie habilité à diriger des recherches, membre de l’Académie des technologies, chercheur associé à l’Université Paris VII Denis Diderot (CRPMS).

Newsletters

Cliquez-ici pour retrouver tous les articles par newsletter

Archives

  • 2019 (19)
  • 2018 (53)
  • 2017 (1)

Catégories