Le facebookenstein (ou frankenbook si vous préférez)
Prenez le premier réseau social de la planète (Facebook) et le roman de Mary Shelley (Frankenstein), mixez les deux et vous obtenez Facebookenstein (ou Frankenbook si vous préférez). Souvent dans l'histoire des technologies, on observe un "moment Frankenstein", ce moment où ceux qui ont développé les dites technologies ont l'impression d'avoir fabriqué un monstre et où ils ont aussi l'impression d'être dépassé par leur créature.
Tout commence en Juin 2016.
C'est ce moment que traverse Facebook actuellement. Le dernier emballement médiatique s'est cristallisé autour de la conférence de Chamath Palihapitiya, ex VP chargé de la croissance de l'audience, dans une conférence repérée par The Verge, et où il n'a pas de mot assez durs pour qualifier "cette merde" (sic). Cet article du Monde vous raconte tout ça très bien.
A partir de là on est allé exhumer d'autres déclarations d'autres anciens responsables de Facebook ou de chez Google, et on a bien sûr fait le rapprochement avec ce mouvement qui touche depuis bientôt deux ans les ingénieurs de la Silicon Valley qui traversent une crise de conscience en mode "rholala on s'est gavé de thunes mais est-ce qu'on n'a pas un peu programmé et interfacé des trucs moisis qui auraient tendance à abrutir les gens ?" Bref une sorte de révélation christique à la Claudel mais avec Patrick Le Lay dans le rôle de Jesus, et à l'envers.
S'il fallait dater au carbone 14 ce mouvement, on pourrait le faire commencer fin Juin 2016. Juin 2016 c'est la publication remarquée du bouquin "Chaos Monkeys" où un ancien chef de produit de chez Facebook révélait notamment comment Facebook mentait sur sa capacité et ses stratégies d'influence ainsi que sur la volumétrie et l'ampleur des données recueillies sur les utilisateurs. En Juin 2016 c'est aussi un repenti ex "philosophe produit" ("Design ethicist") de chez Google, Tristan Harris, qui nous livrait ses confessions, nous racontait les cours de "persuasion technologique", et comment il avait du remords et comment il partait fonder son label "Time Well Spent" après avoir passé des années à imaginer des stratégies et des interfaces capables de siphonner du temps de cerveau disponible à grands coups de captologie et de notifications.
Récemment, en Octobre 2017, grondait un orage annonciateur d'une tempête plus grande encore lorsque Justin Rosenstein, l'un des ingénieurs à l'origine du monde du bouton Like faisait à son tour son repenti.
Et donc depuis que la vidéo de Chamath Palihapitiya est devenu virale, on a ressorti tout ça. Et tant qu'à y être les vieilles histoires de ces ingénieurs de la même Silicon Valley qui depuis des années inscrivent leurs enfants dans des écoles Waldorf, sans Wifi ni tablettes ni ordinateurs.
Et on a interrogé différents experts et universitaires (dont bibi sur France Inter) pour savoir ce qu'il se passait dans la Silicon Valley et si Facebook était vraiment "une merde qui détruisait le lien social". Experts et universitaires qui furent (dont bibi sur TV5 Monde) un peu pris au dépourvu pour expliquer tout cela clairement dans un temps médiatique très très très court. Mais bon.
(j'en profite et je vous mets ici la version intégrale de l'interview vu que juste quelques secondes ont été conservées pour le passage à l'antenne. Ça dure 8 minutes et y'a deux ou trois blancs correspondant aux questions de Yann Gallic, merci à lui)
La crise de la quarantaine
Moi perso j'ai deux hypothèses, mais crédibilité scientifique et timing oblige, je n'ai livré à la presse que la première : les ingénieurs de la Silicon Valley traversent une crise "éthique" de la quarantaine (ou de la trentaine), après que l'enthousiasme de la jeunesse indexé sur la joie des stock-options et sur la fébrilité des dividendes leur a permis de développer des technologies, des interfaces et des fonctionnalités dont on n'avait pas trop le temps de se demander si elles n'étaient pas un peu quand même de la merde, voilà qu'on allait se mettre à découvrir qu'on avait passé tout ce temps du côté obscur et qu'on allait illico créer d'autres fonds de Capital Risqueurs mais attention hein, du capital risque "éthique" et du label "Time Well Spent" et on allait voir ce qu'on allait voir en termes de Privacy By Design et tout et tout. Et on allait surtout attendre un peu pour voir, parce que jusqu'ici, soyons honnête et saluons l'initiative, mais même si ça frémit, on ne voit quand même pas grand chose venir disrupter en mode puzzle ces technologies dont le déterminisme est au service d'un projet et d'un modèle marchand qui a autant envie de permettre l'émancipation que Gérard Collomb a envie de prendre une retraite qui serait pourtant une formidable respiration démocratique**.
** je blague hein vous me connaissez, sérieusement je pense que ce soudain et concomitant éveil des consciences est à regarder comme un symptome important et intéressant d'un mouvement plus large de contestation de l'horizon technologique en général.
Avant t'avais plein de théories sur l'éducation. Et puis un jour t'as des enfants
Voilà mon autre hypothèse. Simple. Tous ces types ont fait des enfants. Avant ils avaient des jolies théories et plein de thune. Et maintenant ils ont plein de thune et des enfants dont l'observation seule suffit à bousiller n'importe quelle belle théorie sur l'éducation aux médias (j'utilise ici un argument d'autorité vu que j'ai moi-même plein de théories et plein d'enfants). Mais bon convenez que répondre ex-abrupto "Ben c'est parce qu'ils ont des gosses en âge d'avoir un compte Facebook" à la question "Mais que se passe-t-il dans la Silicon Valley et Facebook détruit-il vraiment le lien social ?" eut été aussi court que discourtois.
Et Zuckerberg il en pense quoi ?
La question bien sûr, face à ce moment Frankenstein et à ce Facebook Bashing était de savoir quand et comment Facebook allait choisir de répondre à tout cela. Dans un premier temps, à chaud, il le fit par un communiqué laconique (la police) expliquant que Chamath Palihapitiya ne travaillait plus chez Facebook depuis longtemps et que Facebook avait grandi et mûri et prenait désormais toutes ces questions très au sérieux. Lol.
Et puis il y eut le communiqué officiel, publié le 15 décembre 2017, soit à peine 4 jours après l'article de The Verge. Communiqué officiel signé du "Director Of Research", David Ginsberg, et de Moira Burke, Research Scientist et intitulé : "Hard Questions : Is Spending Time on Social Media Bad for Us ?"
Je vous traduis. "Questions difficiles : le temps que nous passons sur les médias sociaux est-il mauvais pour nous ?" Ce à quoi on pourrait répondre simplement par la chanson de Brassens : le temps ne fait rien à l'affaire.
Mais plus sérieusement (quoique), en termes de communication de crise ce communiqué reprend tous les codes du genre :
d'abord rassurer : non pas sur l'ampleur du problème, mais sur le fait que l'entreprise a bien conscience "des enjeux du problème"
ensuite faire douter : expliquer que la communauté scientifique est profondément divisée en citant des scientifiques effectivement divisés sur des points particuliers (la qualification précise de la nature de l'addiction aux réseaux sociaux par exemple) mais en omettant soigneusement de mentionner que la communauté scientifique est également parfaitement d'accord sur d'autres points (le fait que les réseaux sociaux jouent sur les mécanismes de l'addiction par exemple).
enfin conclure en citant quelques exemples d'actions mises en place par l'entreprise pour prouver qu'elle a bien pris en compte le problème et que ces exemples soient ce qui va rester dans l'esprit des gens (effet "last but nos least"). En s'efforçant de concentrer les exemples positifs sur le segment qui concentrait les critiques négatives (ici en l'occurence, la question de l'effet sur les enfants), en disant qu'on investit massivement mais en omettant de rappeler qu'on vient de lancer une initiative visant à les transformer en un nouveau public captif.
Et le communiqué de Facebook remplit toutes ces cases, dans l'ordre et avec la manière ; c'est beau comme une campagne de communication de Monsanto sur les OGM.
Donc pour reprendre le titre de Lucie Ronfaut dans Le Figaro, "Facebook admet qu'il peut être néfaste pour certains utilisateurs". Facebook va d'ailleurs même un peu au-delà en actant ce que nombre de scientifiques ont en effet démontré depuis des années, à savoir que, comme rappelé par Numérama :
"Généralement, quand les gens passent beaucoup de temps à consommer passivement des informations — en lisant sans interagir avec les autres — ils disent se sentir plus mal par la suite."
En revanche comme l'affirme le même communiqué, en déduire que "communiquer avec ses amis sur Facebook engendre des conséquences positives pour votre bien-être" est un raccourci aussi rapide qu'inexact.
Mais ce Mea Culpa n'est pas une première fois. La vraie première fois c'était le 16 février 2017 (il y a presque un an déjà ...) dans la lettre en forme de programme politique que Zuckerberg avait adressé à "sa" communauté. Le taulier reconnaissait alors, je vous l'avais expliqué, qu'il était inquiet des "effets très puissants qui lient sensationnalisme et polarisation de l'opinion et conduisent à une perte de compréhension globale d'un phénomène." Il disait aussi que "Les médias sociaux (...) récompense(nt) la simplicité et décourage(nt) la nuance" et que cela "nous pousse à des points de vue extrêmes."
La guerre ça tue, la pluie ça mouille, la technologie c'est neutre
Et donc sur cette "Hard Question" consistant à savoir si le temps passé sur les médias sociaux nous est mauvais pour nous, le Director Of Research conclut le communiqué officiel en indiquant que :
"In sum, our research and other academic literature suggests that it’s about how you use social media that matters when it comes to your well-being."
Voilà hein. Magique. Oubliez le "pourquoi" (le temps passé est mauvais) et recentrez-vous sur le "comment", sur le comment vous utilisez ce temps-là. Une forme de relativisme de la pensée qui s'évite de réfléchir sur les causes d'un problème en repoussant la responsabilité dudit problème sur le comportement des utilisateurs désignés comme autant de coupables qui s'ignorent. Vieille mais toujours très efficace ruse rhétorique.
Au final donc : venez pas nous emmerder, les technologies sont neutres, tout dépend de comment vous vous en servez et de votre état d'esprit du moment, rompez les rangs.
Mais bon quand même comme on vous connaît et que vous êtes un peu chiants et que vous allez pas lâcher le morceau, on va vous jeter en pâture quelques gadgets comme autant d'os à ronger histoire d'avoir la paix et de pouvoir retourner pépouze faire du Business.
La vie en Snooze
Et donc de nous annoncer de nouvelles fonctionnalités pour nous permettre de mieux faire levier sur ce "how", sur ce "comment" nous utilisons cette plateforme, et de lister dans l'ordre :
Primo : l'amélioration de la qualité du News Feed (insérez ici des rires enregistrés ou croyez-les sur parole, c'est vous qui voyez, moi j'ai déjà beaucoup écrit sur ce sujet :-)
Deuxio : la possibilité de "Snoozer" un ami pendant 30 jours pour ne plus voir ses publications pendant ces 30 jours (sans bien sûr qu'il sache qu'il a été "snoozé", puisque le royaume de la Compassion Team a depuis longtemps annexé celui de la faux-culerie).
Tertio : la même célèbre "Compassion Team" (non sérieux ils ont vraiment une équipe de recherche qui s'appelle comme ça ...) vient aussi de lancer la fonctionnalité dite du "Take A Break" pour te permettre, en cas de rupture amoureuse, de pouvoir continuer d'espionner ton ex sans qu'il/elle ne te jette au visage son horripilant nouveau bonheur. Magique. Et surtout psychologiquement très sain.
Quarto : l'amélioration de sa panoplie d'outils de prévention du suicide (qui, comme je te l'expliquais déjà en Juin 2016, n'a de toute façon rien à faire sur Facebook).
Comme je vous ai déjà, dans d'autres articles de ce blog, parlé des points 1, 3 et 4, permettez-moi de me concentrer sur cette trouvaille du Snooze.
Peut-on mettre des boutons sur les relations sociales comme de l'acné sur un visage d'adolescent ?
Les relations sociales sont-elles solubles dans les boutons ou fonctionnalités supposé-e-s permettre de les organiser ? A la manière du Like qui a tué le lien, je suis intimement convaincu que le "friending" dans la forme de publicitarisation orchestrée qui le caractérise au sein de la plateforme bleue, est en effet, a minima et au mieux, un engourdissement profond de logiques de socialisation qui impliquaient auparavant une forme de consentement implicitement désintéressé ou en tout cas davantage centré sur une logique de récompense dialogique (= "on était content de discuter avec des gens") que sur la quête d'une quantification immédiatement observable et donc narcissiquement gratifiante parce qu'instantanément valorisable (= "wesh moi aussi j'ai plus de 300 amis").
Le Snooze c'est le bouton que tu hais le plus sur ton radio-réveil. Le bouton qui, une fois que l'alarme t'a fracturé les deux tympans, te permet de gagner 9 minutes pendant lesquelles tu ne te rendormiras pas de toute façon et où tu pourras ressasser à loisir dans ta tête le fait que tu vas de toute façon devoir te lever et que t'as pas envie mais que de toute façon tu n'auras pas le temps de te rendormir ALORS QUE SANS CE PUTAIN DE BOUTON SNOOZE TU AURAIS GAGNÉ 9 PRÉCIEUSES MINUTES DE SOMMEIL RÉPARATEUR. Donc le Snooze est officiellement l'incarnation technologique de la procrastination non-performative. Et un fléau de l'humanité. Bref.
Ce qui est intéressant dans ce concept du "snooze" et dans le contexte de l'annonce de Facebook, c'est qu'il est auto-référentiel et performatif : il est un moyen pour la firme de "Snoozer" la polémique.
Mais comme je l'ai déjà dit plus haut, l'idée même du Snooze est profondément malaisante et me semble être avant tout une nouvelle manière de jouer avec les relations sociales numériques sur la base d'une perversité sourde. Car même investi des meilleurs intentions du monde, le Snooze pervertit la relation établie en y installant une dissymétrie profonde : comme on ne peut pas savoir si l'on a été "snoozé" (et par qui et depuis quand et jusqu'à quand), on va forcément se demander en permanence si on ne l'a pas été et si ce n'est pas ce Snooze qui fait que, par exemple, tel ami semble ne plus "liker" nos posts avec la même fréquence qu'auparavant.
L'infâme Leader Snoke Snooze va donc être une pièce de plus dans le puzzle du "Social Cooling", peut-être le prochain mal du siècle ... A moins qu'au contraire il ne constitue l'arme fatale de Facebook pour lutter contre le refroidissement social. Parce que bien sûr vous être tentés de me dire :
"Non mais n'importe quoi, Facebook n'a pas intérêt à ce qu'on se demande en permanence si on a été Snoozé ou non."
Ben si. Justement. Parce que plus Facebook vous entretient dans le sentiment que des gens ne vous voient ou ne vous entendent pas, et plus vous avez envie que l'on vous voie et que l'on vous entende, et donc plus vous interagissez. D'ailleurs la quasi-totalité des "gadgets" inventés par Facebook depuis son invention, du Poke au Snooze, ont toujours eu pour objet et pour fonction de jouer sur la rente attentionnelle que fabriquent les effets d'invisibilisation sociale (= le fait que l'on ne voit pas les gens à qui l'on parle et que l'on ne sache pas s'ils sont présents ou non au moment où on leur parle) ; des effets d'invisibilisation sociale et discursive qui sont leur coeur de métier du business algorithmique chargé, justement, d'organiser et de monnayer cette (in)visibilité .
If You've Got Hard Questions, We've Got Hard Science
Il y a déjà plus de 5 ans qu'est paru un article co-écrit avec Gabriel Gallezot et Brigitte Simmonot. On y réfléchissait à pas mal de trucs et notamment à la question des "corpus" du web. Et l'on avait écrit ceci (et vous allez voir que c'est en lien avec ce que je vous raconte depuis le début de cet article) :
"Dans l'histoire des sciences, les scientifiques de tous les domaines, de toutes les époques, de toutes les disciplines, se sont en permanence efforcés de prendre l'ascendant sur leurs différents corpus ; pour pouvoir être exploitable, le corpus doit pouvoir être circonscrit par ceux qui prétendent en faire l'analyse.
"Il n’y a rien que l’homme soit capable de vraiment dominer : tout est tout de suite trop grand ou trop petit pour lui, trop mélangé ou composé de couches successives qui dissimulent au regard ce qu’il voudrait observer. Si ! Pourtant, une chose et une seule se domine du regard : c’est une feuille de papier étalée sur une table ou punaisée sur un mur. L’histoire des sciences et des techniques est pour une large part celle des ruses permettant d’amener le monde sur cette surface de papier. Alors, oui, l’esprit le domine et le voit. Rien ne peut se cacher, s’obscurcir, se dissimuler." (Latour, 1985).
Google Books, projet de numérisation lancé en 2005, dispose à ce jour de 4% de tous les livres publiés depuis deux siècles, en sept langues. Soit une estimation à hauteur de deux milliards de mots et 5,2 millions de livres numérisés (Cohen, 2010), tout simplement « le plus grand corpus linguistique de tous les temps » (Véronis, 2010). Autre type de corpus, celui de Facebook et de ses 850 millions de membres, soit le plus grand « corp(u)s social » numérique, le plus grand pan-catalogue des individualités et de leurs mémoires (Ertzscheid 2007, 2010b). Du premier corpus, celui de Google, on ne pourra que se réjouir, pour ce qu'il représente de potentialités ouvertes dans l'aventure linguistique comme compréhension du monde, sous réserve qu’il soit et reste disponible aux chercheurs indépendants. Et l'on mettra du temps à en épuiser les possibles. Du second, on ne peut que continuer à raisonnablement s'alarmer devant des usages que seul contrôle et détermine le site hôte, compagnie cotée en bourse et devant satisfaire ses actionnaires.
L'informatique, les outils de la linguistique de corpus ont permis aux linguistes de rester les maîtres de corpus aux dimensions exponentielles. Même chose dans le domaine de la médecine avec la conquête du dernier grand corpus, celui du génome. Ces gigantesques corpus numériques, s’ils sont une formidable opportunité pour différents champs de recherche, posent aux scientifiques au moins deux questions cruciales : comment y avoir accès, et avec quelles règles, contraintes ou limites méthodologiques et éthiques. Et enfin comment s’assurer de la complétude ou de l’incomplétude dudit corpus quand celui-ci est entièrement géré ou mis à disposition par des sociétés régies avant tout par des logiques commerciales et non scientifiques. Individuellement comme collectivement, nous nourrissons en permanence des monstres calculatoires et industriels qui, dans certains domaines, sont en passe d'être les seuls capables de circonscrire des corpus qui relèvent pourtant du bien commun. Ce qui oblige à repenser totalement la question de l’archive et du rôle de la puissance publique dans la constitution, la gestion et l’accès à cette dernière."
Vous voyez où je veux en venir ? If You've Got Hard Questions, We've Got Hard Science.
La vraie "hard question" n'est pas de savoir si le temps que nous passons sur les médias sociaux est nocif ou bénéfique. La vraie "hard question" c'est de savoir comment nous pouvons, comment la communauté scientifique peut, en toute clarté et en toute exhaustivité, avoir accès aux données et aux macro-structures algorithmiques qui nous permettront de répondre à cette question en nous évitant de mal la poser ou de ne pouvoir disposer que des éléments de réponse fournis par Facebook, nécessairement discutables (et d'ailleurs discutés). Souvenez-vous : en 2012, une étude de Facebook sur Facebook nous expliquait que son algorithme permettait de nous sortir de notre bulle de filtre, et ils nous refaisaient la même 3 ans plus tard. Sans parler, bien sûr, des autres études auxquelles ils continuent de se livrer sans aucune forme de consentement.
Voilà pourquoi il est devenu vital d'avoir accès à ces informations de manière neutre, exhaustive et non-biaisée. Le principal intérêt de la crise éthique qui touche la Silicon Valley réside peut-être là-dedans.
Mafia de la Valley et repentis de Silicone
Car s'il y a des repentis, c'est bien qu'il y a une Mafia. Tristan Harris, Justin Rosenstein, Chamath Palihapitiya et tous les autres sont un symptôme du malaise de plus en plus profond lié au rôle politique et sociétal déterminant (et déterministe) joué par ces plateformes.
Puisse la couverture médiatique de leur "repenti" ne pas faire oublier que le vrai problème n'est pas de combattre ou de condamner ces technologies ou ces plateformes pour ce qu'elles sont, mais de comprendre comment elles fonctionnent pour encadrer leur impact et leur rôle dans un espace public garant de la démocratie, lors même que la démocratie semble de plus en plus en délicatesse avec la question de l'espace public.
Olivier Ertzscheid
Olivier Ertzscheid est enseignant-chercheur (Maître de Conférences) à l'Université de Nantes en Sciences de l'information et de la communication. Il a publié un livre sur les GAFA intitulé "L'appétit des géants" aux éditions C&F. On peut consulter son blog ici.