Illustration : Tomo Kihara / TheirTube

Comment reprendre le contrôle sur l’algo : des tips utilisateurs à l’utopie algorithmique

Et si vous pouviez dire à Facebook quelles pubs vous aimez et transmettre à YouTube votre amour du hip-hop californien des années 90 ? Un algorithme véritablement personnalisé… gagnant-gagnant. CTRLZ a eu envie d’explorer cette utopie algorithmique.

Au début tout allait bien. Vous appreniez à vous connaître, il vous surprenait par des suggestions osées et inattendues. Et puis, la routine. Plus il vous connaissait, moins il prenait de risque. Les mêmes choses, ad nauseam. C’en était trop, il fallait reprendre les choses en main.

Lui, c’est votre algorithme de recommandation. Et vous n’êtes pas seul(e) à en être lassé(e). Sur les forums, une question tourne en boucle : pourquoi Youtube persiste-t-il à nous recommander des morceaux que l’on connaît déjà par cœur ? Ou à nous servir des tubes des années 90 alors que nous sommes branchés sur les dernières sorties ?

“Mon plus gros problème avec les recommandations Youtube, ou tout service de ce type (Spotify, Amazon, etc.), est qu’ils ne comprennent pas quels aspects du contenu me plait, déplore un utilisateur sur le forum du Y combinator. Parfois, ça marche parce que j’imagine que je recherche les mêmes choses que la majorité des autres gens. D’autres fois, je peux regarder une vidéo d’une heure qui va décrypter un thème dans le détail et Youtube va me proposer pendant plus d’une semaine de regarder des vidéos populaires et plutôt superficielles de cinq minutes. Il n’y a pas de problème avec ces vidéos, elles sont plutôt bien faites, mais ce n’est pas ce que je cherche”, poursuit-il. D’autres proposent des solutions : “Peut-être un bouton ‘c’est cool, mais assez pour le moment’ ? On pourrait garder une catégorie que l’on aime mais baisser la fréquence de recommandation pendant un moment”.

Pas touche à mon algo

Chris Lovejoy est data scientist. Il a décidé de prendre le problème à bras le corps et a créé son propre algorithme. Une démarche qu’il explique dans un billet sur son blog :

“J’adore regarder des vidéos YouTube pour améliorer ma vie de manière tangible. Malheureusement, l’algorithme YouTube n’est pas d’accord. Il aime me donner des clickbaits et autres déchets.”

Il met alors au point ses propres critères de qualité (entre autres, le ratio entre popularité de la chaîne et popularité de la vidéo) et met en place un système pour recevoir les recommandations par mail plutôt que de devoir scroller. Il découvre ainsi des vidéos qu’il juge intéressantes et qui se placent habituellement assez bas dans les recommandations YouTube. Lovejoy a, par ailleurs, rendu son code librement accessible sur GitHub.

D’autres, comme Antoine, 35 ans et adepte de rock et d’expérimental, prennent soin de leur algorithme en le conservant jalousement :

“Je ne laisse absolument personne toucher à mes comptes YouTube et Spotify pour éviter de me taper de la merde”.

Sa copine a des goûts similaires, “mais pas exactement”, dit-il. “Elle écoute aussi des trucs récents que je serais incapable de classifier. Des trucs de néobobos”. De quoi créer des guerres de tranchées :

“Sur l’Apple TV, je suis obligé de faire la guerre pour que ma copine ouvre une session YouTube invité. Sinon je me retrouve avec des suggestions pourries et ça me dose vraiment beaucoup. Elle ne comprend pas parce qu’elle n’a pas une utilisation intensive comme moi de YouTube”.

Les enfants aussi ont tendance à ruiner son algorithme. Et il y a pire : les fêtes de famille. Après Noël, lorsqu’il avait laissé tourner des vidéos de cheminées, il lui a fallu quelques jours pour retrouver une page de suggestions épurée de ce genre de contenus.

D’autres, au contraire, invitent le plus possible d’avis divergents aux commandes de leurs comptes pour favoriser la diversité. “Du coup, mon algorithme n’a aucun sens”, se réjouit Nils, 30 ans. 

Personne ne sait vraiment comment agir sur les algorithmes de recommandation, mais beaucoup essaient. Parmi les conseils glanés sur Internet pour raviver la flamme : effacer son historique et avoir une écoute plus proactive – la découverte amène la découverte. C’est ce que Pierre Lapin appelle “muscler” son algorithme. Dans un article en immersion dans le TikTok alternatif de Vincent Manilève, il conseille son camarade pour qu’il s’extirpe du “TikTok Vanilla” et plonge dans le “Deep TikTok”. Liker ce que l’on aime, aller voir le profil des créateurs intéressants, partager des contenus les moins mainstream possibles, indiquer lorsque l’on est pas intéressé et surtout scroller et scroller encore… Voici comment il nous décrit sa démarche, lorsque nous nous entretenons avec lui :

“Je ne sais pas si c’est vraiment de la manipulation mais plutôt reprendre notre responsabilité de viewer. Ton algorithme est un peu le miroir de ta consommation”.

Reprendre le contrôle ?

Fermez les yeux et imaginez… Imaginez un monde où vous pourriez dire à YouTube que vous n’aimez pas les morceaux trop mainstream mais que vous êtes friands de musique old school. Imaginez un monde où vous pourriez faire savoir à Facebook, qui a compris depuis longtemps que vous êtes en plein déménagement, que vous appréciez en effet les publicités de meubles et qu’il est le bienvenue à vous en proposer d’autres. Ne serait-ce pas… merveilleux ?

Merveilleux, et probablement naïf, comme l’explique Guillaume Chaslot, fondateur de l’organisation AlgoTransparency et ancien employé de Google préposé à l’algorithme de recommandation de YouTube :

“Le problème est que l’IA [de YouTube] n’a pas été construite pour vous donner ce que vous voulez – elle est construite pour vous rendre accro. Les recommandations ont été créées pour vous faire perdre votre temps”

Or, pour augmenter votre temps passé sur la plateforme, un contenu extrême vaut mieux qu’un contenu de qualité.

Un constat que partage Chris Lovejoy, le développeur inventeur d’un algorithme de recommandation alternatif. Intéressés par son projet, des représentants de YouTube sont entrés en contact avec lui. “Ils m’ont expliqué davantage leur algorithme et ils prennent en compte beaucoup plus de métriques que je l’ai fait dans mon projet, raconte-t-il à CTRLZ. Et d’ajouter :

“Par exemple, si quelqu’un revient le jour suivant ou s’il laisse un commentaire positif après visionnage. En revanche, le focus est toujours d’augmenter les vues et l’engagement. Je ne crois pas que cela soit nécessairement incompatible avec nous donner ce qu’on veut, mais il n’y pas d’alignement complet des deux. Cela pourrait desservir le nombre de vues/engagement puisque certaines personnes devraient probablement regarder moins de vidéos.”

Lovejoy évite désormais Youtube et a une panoplie d’extensions pour bloquer les recommandations. 

On voit pourtant poindre quelques initiatives interactives. Depuis 2019, sur la plateforme de distribution de jeu vidéo Steam par exemple, l’utilisateur peut choisir s’il préfère des jeux mainstream ou de niche, vieux ou récents. Ces filtres se superposent aux recommandations algorithmiques basées sur les comportements de consommation similaires à celui de l’utilisateur. Une fonctionnalité user-friendly pourtant mise en place pour amadouer les développeurs indépendants avec qui la plateforme avait eu quelques désagréments, décrypte le magazine américain The Verge.

Capture d’écran de la plateforme Steam

Adopte un algorithme

Si les plateformes américaines ont encore du mal à donner le pouvoir à l’utilisateur, nous savons néanmoins où aller. Direction Flint et l’École des robots pour adopter un algorithme à entraîner. Flint et l’École des robots sont des algorithmes de veilles créés en 2017 pour faire face à la montée de la désinformation. Benoit Raphael, co-fondateur de Flint, nous détaille la démarche :

“Le chaos de l’info vient surtout des algorithmes de Google et de Facebook. Leurs algorithmes sont optimisés pour favoriser la croissance donc le temps passé devant la page et modifier légèrement le comportement des gens”.

Selon ce professionnel des médias, pour contrer une machine, il faut une autre machine : ” Il faut que ce soit une machine que chacun peut utiliser pour reprendre le contrôle”.

Ainsi est né Flint, un robot spécialiste de la veille média que chaque lecteur entraîne et personnalise en cliquant sur les articles qu’il aime et en indiquant ceux qu’il n’aime pas. L’algorithme est créé pour proposer des articles de qualité équivalente à ceux aimés et pour garder un élément de surprise afin de sortir le lecteur de sa bulle d’information. Comme Pierre Lapin, Benoît Raphaël croit à une responsabilité individuelle, au moins en partie, sur notre consommation de contenus :

“Ça provoque une réflexion. Reprendre le contrôle de l’algorithme c’est aussi comprendre sa relation et se responsabiliser. Le résultat de Flint est le résultat de notre entraînement : si on ne se pose pas de question, on aura le robot que l’on mérite”

Pour Facebook, souligne-t-il néanmoins, c’est différent puisque la plateforme s’applique à modifier légèrement vos comportements. 

La version payante de son outil permet d’entrer dans l’École des robots, véritables salles d’entrainement des petits algorithmes spécialisés, où l’on peut fournir des articles qu’on aime à son robots et accéder à des ressources pédagogiques pour comprendre la méthode. Pour pallier au phénomène de black box, l’idée que toutes les décisions prises par IA ne sont pas nécessairement explicables, Benoit Raphael et son équipe travaillent sur l’interface de relation entre l’utilisateur et l’IA. Le robot est ainsi capable de se donner une note de compréhension pour dire s’il saisit vos attentes. Il peut aussi vous donner les contenus disponibles selon vos critères, ce qui vous permet d’élargir ou non votre recherche :

“Pour augmenter la qualité de ce que l’on fait, il faut augmenter le niveau d’exigence des utilisateurs. Cela participe à un mouvement pour bien comprendre les algorithmes, pour éventuellement s’en dégager ou pour les utiliser avec prudence et diversifier les sources d’informations”.

Ils développent désormais différents modèles, comme un algorithme qui ferait le contraire de ce que vous demandez pour vous envoyer des contenus les plus éloignés de vous-même.

La bibliothèque d’algorithmes de Twitter

Demain, aurons-nous la main sur les algorithmes qui régissent notre accès à l’information ? Benoît Raphaël en est convaincu :

“La première phase d’algorithmes de recommandation a explosé avec le web 2.0, le web interactif. Cela a permis à chacun d’avoir une très bonne visibilité. Google et Facebook ont créé ces algorithmes de ranking pour donner la même visibilité à des gens qu’à des médias traditionnels. Depuis cinq ans, on se rend compte des effets pervers et des biais parfois dramatiques notamment pour la démocratie. Aujourd’hui on a conscience qu’il faut soit plus de transparence, soit plus de sincérité, soit redonner un peu plus la main aux utilisateurs”.

Comme les utilisateurs ont fait changer l’industrie agroalimentaire qui s’est tournée en masse vers le bio pour le produire de manière industrielle, Benoît Raphaël pense qu’on pourrait observer un même mouvement pour des algorithmes bio à la traçabilité garantie.

Signe que cette vision n’est peut-être pas un vœu pieu, Jack Dorsey, fondateur de Twitter, a détaillé face à un groupe d’investisseurs, en février dernier, sa vision pour un réseau décentralisé baptisé Bluesky. Il imagine pour celui-ci une bibliothèque d’algorithmes de recommandation dans laquelle les utilisateurs pourraient piocher. Une sorte “d’app-store d’algorithmes de recommandation”, a-t-il expliqué. Le 24 mars, en amont des débats sur la “section 230”, texte de loi fondamental qui permet aux sites participatifs de ne pas être responsables du contenu publié (sous conditions), il renchérit :

“Nous croyons que les gens devraient avoir de la transparence ou un contrôle significatif sur les algorithmes qui les affectent. Nous reconnaissons que nous pouvons faire plus pour proposer de la transparence algorithmique, du machine learning juste et des contrôles qui donnent le pouvoir aux gens. Les équipes de machines learning de Twitter étudient des techniques et développent une feuille de route pour s’assurer que nos modèles algorithmiques présents et futurs répondent aux plus hauts standards de transparence et de justice”

En attendant cette ère de l’algorithme citoyen, vous pouvez toujours appliquer aux algos commerciaux la méthode scientifique : faites des hypothèses, effectuez des comparatifs. “Vous pouvez créer deux profils, un Chrome et un Firefox, et voir comment ceux-ci réagissent à vos différentes interactions”, conseillent Gilles Tredan et Erwan Le Merrer, spécialistes des boîtes noires algorithmiques. Au pire, voilà votre compte de secours prêt pour vos soirées Lou Bega !


LES BONS LIENS

CTRLZ vous recommande l'initiative du dev Tomo Kihara, TheirTube. Un site qui permet de voir le Youtube des autres et plus précisément celui de 
6 profils : fruitarien, survivaliste, libéral, conservateur, conspirationniste et climatosceptique. Les recommandations proposées pour chacun des profils sont constituées à partir des historiques de chacun des persona (visibles également). 
1 Commentaire
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *