Internet, Big Data et personnalisation : incursion dans les entrailles du web

Le Web est aujourd’hui tout puissant et compte plus de 3 milliards d’utilisateurs. Trois milliards de clients potentiels pour les géants du web qui collectent de plus en plus de données sur leurs visiteurs pour leur offrir une expérience de plus en plus personnalisée et performante. Explications.

(Voir la rubrique finale « Pour aller plus loin »…pour… aller plus loin et tout comprendre de ce phénomène en vidéos et articles)

 


 

En l’espace de 20 ans, Internet s’est imposé comme le média non plus de demain mais bien d’aujourd’hui. Le nombre de ses utilisateurs n’a cessé de grimper, dépassant la barre des 3 milliards d’utilisateurs en 2014. La téléphonie mobile a permit de propulser la connectivité dans le monde, en équipant les pays les plus défavorisés de réseaux mobiles. En 2011, on comptait déjà plus de 5 milliards d’abonnés mobiles.

La prise d’assaut de ce nouvel outils par la population mondiale s’accompagne de grands bouleversements économiques, technologiques et sociaux. Notre vision du monde s’en trouve complètement modifiée. Les réseaux sociaux offrent un transfert de l’information ultra-rapide sinon immédiat et révolutionnant nos modes de consommation de l’information. Les médias dits « traditionnels » radio, presse écrite et même télévision font face à des défis inédits. Et c’est la façon dont ils appréhenderont ces défis qui nous dira la structure et le rôle des médias de demain. L’évolution transparaît déjà significativement dans nos modes de consommations. Si l’on compare les sources d’informations privilégiées selon les générations la différence se fait déjà sentir. Chez les 12-24, 25 % environ privilégient internet contre même pas 10 % pour les 40-59 ans. Non seulement la tendance ne fait que débuter, mais elle va inéluctablement se propager aux générations plus âgées. Il est évident que les 12-25 ans d’aujourd’hui privilégieront au moins tout autant internet lorsqu’ils auront 40-59 ans.

 

Courbe audiences média par génération

 

Par ailleurs, le web, ce n’est pas seulement un nouveau support médiatique, c’est avant tout une synthèse de tous les supports existants et qui promet bien des possibilités pour les créateurs de contenus quels qu’ils soient.

Ici, nous ne nous intéresserons pas à la façon dont les médias, traditionnels ou émergents, se saisissent de cet outil et appréhendent son instantanéité, mais plutôt au défi beaucoup implicite soulevé par le processus engagé de personnalisation de l’expérience de tout un chacun sur la toile. Plutôt qu’un web libre et pluraliste, c’est l’horizon d’un web cloisonnant qui semble se dérouler devant nous. D’un web vierge et inexploré nous passons au web dompté et personnalisé. D’un web de l’anonyme à celui d’une connaissance toujours plus fine de ses utilisateurs. Deux raisons poussent les géants du web à s’aventurer sur le chemin du fichage personnel de leurs utilisateurs. La première est liée à la recherche d’une expérience toujours plus performante pour le client. Les cookies et autres traceurs servent avant tout à comprendre ce que l’utilisateur recherche sur internet et donc à le lui donner. C’est ainsi la prétention de Google et de Facebook et les raisons de leur succès. La seconde raison qui pousse les entreprises du web sur le chemin de la personnalisation tient de l’extraordinaire opportunité économique que le traçage peut représenter. Savoir ce que l’internaute veut, c’est aussi pouvoir le lui vendre. La collecte minutieuse et exhaustive des données numériques personnelles permet donc un ciblage publicitaire plus précis que jamais. Tout le monde semble y trouver son compte. Les annonceurs y trouvent leur public. Les utilisateurs trouvent réponse à leurs attentes. Et bien sûr, les nouveaux intermédiaires que sont Google, Facebook ou même Twitter y trouvent un modèle économique fructueux et prospère, et les gouvernements un potentiel outil de surveillance.

Cliquer pour lire l’infographie « Une brève histoire de l’Internet » (faite par moi-même…)

 

La personnalisation, ça marche comment ?

La personnalisation n’est pas intrinsèquement mauvaise, c’est le produit d’une tendance générale d’amélioration de l’expérience de navigation des internautes. Tout utilisateur y est confronté à chaque instant sur la toile. Son principal agent actif ? Les cookies. Un cookie est un petit fichier texte déposé sur votre ordinateur lors de la visite d’un site web. Leur objectif étant de collecter des informations relatives à votre navigation internet et de vous fournir des services personnalisés.

La majorité des sites web utilisent ce procédé pour tracer votre navigation. En premier lieu, ces cookies servent à proposer une navigation plus fluide et satisfaisante au visiteur. C’est grâce à eux qu’Amazon vous recommande les produits les plus proches de vos attentes, en fonction de ce que vous avez déjà cherché sur la boutique en ligne (et ailleurs…).
C’est grâce à eux qu’Airbnb vous recommande un appartement à louer pile dans la ville pour laquelle vous venez de réserver un billet d’avion. C’est aussi grâce à eux que la presse internet parvient de mieux en mieux à toucher son public. Pourquoi donner à lire un article sur les pandas à un ingénieur en aéronautique passionné de la Seconde Guerre Mondiale ? En bref, les cookies vous facilitent la vie au quotidien sans que vous n’y fassiez attention. Ce sont aussi eux qui permettent aux sites web de collecter des informations sur leurs utilisateurs et de les revendre aux annonceurs qui peuvent alors proposer des publicités ciblées et pertinentes. Depuis 2009, la législation européenne exige une transparence accrue sur le fonctionnement des cookies. C’est pourquoi vous recevez des avertissements du type « Pour continuer à naviguer, vous devez accepter les cookies ». Par ailleurs Google a fait beaucoup de progrès dans ce domaine. Vous pouvez « tout connaître » du traçage actuel à votre sujet en visitant cette page. Slate a aussi concocté une recette pour « savoir précisément ce que Google sait de vous ».


La législation européenne en matière de cookies

La directive « paquet télécom », adoptée en 2009 par le Parlement Européen impose :

  • un consentement préalable de l’utilisateur avant tout stockage de données sur le visiteur.

  • une durée de vie des cookies fixée à 13 mois.

  • aux régies publicitaires, aux réseaux sociaux et aux éditeurs de mesures d’audience de demander explicitement cet accord.


 

Schéma explicatif du fonctionnement de la personnalisation des contenus sur internet

Schéma explicatif du fonctionnement de la personnalisation des contenus sur internet Monkey Business


 

Google

Initialement, le programme de Google permettant de hiérarchiser les réponses reposait sur un algorithme purement mathématique calqué sur le modèle de citations universitaires. PageRank évaluait la pertinence d’un site web selon le nombre de fois qu’il était mentionné par un autre site. Au fil des ans, cet algorithme a subit un important relifting, mutant progressivement vers un système de classement personnalisé.

Le nouvel algorithme de Google est peut-être mathématique, mais il est évolutif. Autrement dit, les réponses apportées par Google sont de plus en plus personnalisées et dépendent de plus en plus de l’identité de l’utilisateur qui en fait la demande. En clair, la firme de Mountain View a élaboré un panel de critères confidentiels ayant pour vocation de constituer une fiche toujours plus fine sur ses utilisateurs. Historique de recherche, localisation géographique et tout un tas d’autres critères personnalisés sont passés au peigne fin du limier de Google. Tout cela pour offrir une réponse adaptée aux besoins de ses utilisateurs.

 

L’image ci-dessous montre comment la même recherche peut amener des résultats différents selon l’utilisateur.

Comparaison de recherche du même mot-clé selon deux utilisateurs différents sur Google
Comparaison de recherche du même mot-clé selon deux utilisateurs différents sur Google

 

Ici les deux internautes ont recherché le mot-clé « Égypte ». Sauf que Scott obtient des réponses avant tout en relation avec la politique tandis que Daniel ne reçoit que des réponses liées au tourisme. Ce sont les données collectées jusqu’à présent par Google qui lui ont permet de proposer des réponses différentes et adaptées à son interlocuteur. On peut s’imaginer que Daniel est un grand voyageur, passionné de tourisme alors que Scott serait beaucoup plus impliqué dans les affaires politiques et médiatiques.

Google a donc changé de paradigme. D’une réponse « pertinente » fondée sur l’objectivité, il est passé à une réponse « personnalisée » et donc subjective au point de confondre les deux termes. Pour construire cette fiche détaillée et cibler ses réponses et publicités, Google retient différents types de données sur chacun de ses utilisateurs. René Pickhardt en a listé plus de 50, parmi lesquels :

  • Historique des recherches
  • La localisation géographique
  • Le  navigateur (Firefox, Chrome, Safari, Internet Explorer…)
  • Le logiciel d’exploitation (Linux, Windows ou Mac iOS)
  • La langue parlée
  • Le temps passé sur une page
  • A quel moment de la journée et de la semaine, etc…

C’est en analysant ces données, qui lui parviennent via une gamme élargie de services (Gmail, Maps, Drive, téléphonie, YouTube, images et vidéos… ) que Google constitue une fiche extrêmement détaillée de chacun de ses utilisateurs jusqu’à en déterminer le sexe, l’âge, les centres d’intérêts, le métier, l’origine… La puissance et la performance de Google réside dans la précision et l’exhaustivité de ce panel de critères.

 

Facebook

 

Chez Facebook, le procédé est exactement le même. C’est en constituant une fiche personnelle toujours plus précise que l’algorithme de Facebook offre une expérience toujours plus performante du réseau social. Tout ce qui apparaît dans votre fil d’actualité, les suggestions de pages, d’amis ou de groupes, et de publicités, tout cela dépend de votre navigation antérieure sur le site.

De la même manière que Google, Facebook trie votre fil d’actualité pour ne retenir que ce qui est susceptible de vous intéresser. Il se base ainsi sur un algorithme très performant appelé « EdgeRank » qui analyse les éléments suivants pour filtrer votre fil d’actualité :

  • vos interagissements passés avec la personne
  • le nombre de likes (j’aime)
  • nombre d’amis en communs
  • les pages que vous aimez
  • et bien d’autres, mais la recette exacte, comme celle de Google, demeure inconnue.

Centralisation des portes d’entrées et renforcement de la personnalisation

En 2013,  40 % des internautes passaient pas des moteurs de recherches pour s’informer, quand 24 % passait pas les réseaux sociaux ( avec une hausse de 110% par rapport à 2012). C’est à dire que 64 % des internautes arrivent sur un média d’information en ligne par un moteur de recherche ou un réseau social. Quand on voit que Google occupe 62 % du marché et que Facebook compte plus d’un milliard d’utilisateurs, il n’y a pas de quoi relativiser les risques potentiellement induits par la personnalisation du web.

Parts de marché des moteurs de recherches

Selon une étude Parse.ly parue en 2015, la courbe se serait déjà inversée. Les réseaux sociaux représenteraient 43% des entrées vers un site de presse web quand Google ne comptait plus que pour 38 %. L’arrivée sur le marché d’Instant Articles, l’outil de lecture d’information intégré au fil d’actualité Facebook pourrait bien révolutionner notre mode de consommation de l’information. Jusqu’à présent, les outils comme Google News, son moteur de recherche ou Facebook constituaient de formidables portes d’entrées pour les sites d’information. Avec Instant Articles, Facebook propose d’intégrer directement les articles sur réseau social, dans leur entier et donc sans renvoyer vers le média propriétaire. Pour l’instant, Facebook revendique plus de 350 partenaires. Mais beaucoup hésitent encore à franchir le pas, quand d’autres considèrent déjà attaquer le géant en justice. Cette mini-révolution est en effet lourde de conséquences. Comment les médias dont le business model repose sur le trafic des visiteurs (et donc la publicité) pourraient sortir gagnant d’une telle configuration ? Dans les tous les cas, le journalisme entre dans une nouvelle ère, et les portes d’entrées sur l’information ne vont pas en se diversifiant. C’est donc à eux de trouver l’équilibre entre rôle citoyen et contrainte économique en travaillant avec les futurs diffuseurs de masse.

Diagramme représentant la part des différentes portes d’entrées sur les articles de presse en ligne. Facebook est passé devant Google :

schéma


 

La personnalisation, et alors ?

C’est un fait le web tend à la personnalisation de ses services pour des raisons avant tout économiques. Mais pourquoi lutter contre une tendance qui semble satisfaire tout le monde ? Pourquoi se méfier ? Quels peuvent être les risques de cette personnalisation tous azimuts ?

 

Atteintes aux libertés individuelles et violation de la vie privée

Dès 2011, Maximilian Schrems, jeune étudiant en droit, dépose plainte contre Facebook. Début d’un long bras de fer entre David et Goliath. L’autrichien reproche à Facebook de collecter des données à son insu et de les envoyer vers les Etats-Unis sans réelle assurance que ces données resteront confidentielles. Le jeune David obtiendra gain de cause en 2015 avec la décision de la Cour de Justice de l’Union Européenne qui invalide le système « Safe Harbour », cadre législatif du transfert des données personnelles depuis l’Europe vers les Etats-Unis.
La réaction de Maximilian Schrems sur son site :

« I very much welcome the judgement of the Court, which will hopefully be a milestone when
it comes to online privacy. This judgement draws a clear line. It clarifies that mass surveillance
violates our fundamental rights. Reasonable legal redress must be possible.
The decision also highlights that governments and businesses cannot simply ignore our fundamental right to privacy, but must abide by the law and enforce it. »

Contrairement à Google et Apple, Facebook ne dément pas collaborer avec le gouvernement américain (ce qui n’empêche les deux autres d’être impliqués). On l’accuse même d’être impliqué dans le programme de surveillance de la NSA, appelé PRISM, et dont l’ampleur avait été révélée au monde par Edward Snowden. Ainsi, de nombreux observateurs et utilisateurs voient dans cette accumulation de données personnelles (ce que l’on qualifie de Big Data) une potentielle atteinte à la vie privée des citoyens.


 

Comment sortir de la bulle de filtres ?

  • Utiliser un logiciel d’exploitation indépendant comme Linux
  • Désactiver certains cookies et fonctionnalités jugées non nécessaires (localisation…)
  • Naviguer sur Firefox ou Tor
  • Offrir une transparence totale sur les outils de personnalisation et permettre à l’utilisateur d’activer ou de désactiver le ciblage.

 

Alors que les géants du web réfutaient toujours de telles accusations. La lutte contre le terrorisme a poussé le gouvernement américain à bafouer certains droits fondamentaux. En France, la nouvelle loi anti-terroriste se lance sur le même chemin en renforçant les moyens de surveillance du gouvernement. L’accumulation de millions de données personnelles en temps réel par les géants du web pose de nombreuses questions quant à la protection de ces données et de la vie privée des utilisateurs. Mais ce n’est pas tout, quand bien même ces données restaient dans le cercle privé et donc confidentiel, ces données peuvent être vendues et donc diffusées (toujours confidentiellement) et faire l’objet de vol en masse comme ce fut le cas avec le site de rencontre Ashley Madison et le #Celebgate.

Impossibilité de s’en défaire. Si la législation européenne a été renforcée dans ce domaine, il n’empêche que l’utilisateur qui refuse les cookies ne peut tout simplement plus utiliser un grand nombre de services proposés sur internet. Quoi que vous fassiez sur internet, ce sera répertorié, fera l’objet d’échanges commerciaux et aura des incidences sur votre navigation à venir. Il est donc très difficile de se défaire de ces pratiques, désormais dominantes sans atrophier considérablement son confort de navigation sur internet.

 

Personnalisation du web et bulle de filtrage

La personnalisation s’avère être la clé du succès des géants du web. C’est un formidable outil mais il semble s’accompagner d’un phénomène inédit et potentiellement nocif. Ce phénomène, c’est la constitution d’une bulle de filtrage ou « filter bubble », une notion popularisée par Eli Pariser, auteur du livre éponyme The Filter Bubble.

Vidéo d’Eli Pariser lors des TED Talks:


 

Les bulles de filtrage renvoient à l’idée que les algorithmes et autres outils de collecte de données ont des effets pervers inattendus. En clair, en amassant toujours plus de données et en affinant le profil de leurs utilisateurs, les moteurs de recherches et réseaux sociaux, au lieu de les ouvrir à l’immensité du web, ne font que les enfermer dans ce qui est susceptible de les intéresser, en se fondant sur ce qui les intéresse déjà.

Habituellement utilisée pour illustrer le l’importance du Dark Net, l’image de l’iceberg est tout à fait parlante dans ce contexte. Si vous pensiez sillonner de vastes étendues, en réalité la plus grande partie du web reste immergée. Et il vous est malheureusement de plus en plus difficile de partir à la découverte de cette partie cachée. Car plus les algorithmes sont efficaces, plus ils précisent votre profil, et mieux ils déterminent ce qui vous intéresse et ce qui ne vous intéresse pas.

 

Le monde algorithmique

Mathématique, logique et donc prévisible ce monde de l’efficacité propulsé par les géants du web limite de plus en plus les chances de découverte impromptue. Grâce à Google nous obtenons la réponse à tout ce que nous cherchons. Mais assez logiquement, nous ne trouvons pas de réponse à ce que nous ne savons même pas que nous cherchons. Nous partons de ce que nous savons que nous ne savons pas. Autrement dit, quand nous tapons sur Google « bataille de Marignan », on espère trouver une information que nous ne savons pas, disons la date. Nous savons d’emblée que nous cherchons la date et donc ce que nous trouverons et cela limite incroyablement la sérendipité. C’est à dire nos chances de découvrir quelque chose de vraiment inattendu, comme Christophe Colomb avec les Amériques.

 

Eli Pariser a relevé plusieurs caractéristiques de la bulle de filtrage :

  • Elle est façonnée par les outils de personnalisation et les algorithmes
  • Elle est exponentielle : plus on est actif plus on livre de données et plus notre profil se précise
  • Et donc plus elle nous isole socialement, politiquement et dans nos goûts et passions.
    Réduisant potentiellement nos capacités de création et d’innovation.

Le risque principalement évoqué par Pariser c’est le potentiel de nuisance de la bulle de filtrage sur le processus de création et d ‘innovation. Voici les effets imputés à la constitution d’une bulle de filtrage selon l’auteur :

  • la bulle de filtrage limite artificiellement notre spectre de solution. Notre potentiel créatif.
  • Elle ne constitue par un environnement favorable à la créativité pour la simple et bonne raison qu’elle ne nous confronte pas à de nouvelles idées, nouvelles conceptions et visions du monde. Elle privilégie la précision à la diversité.
  • Elle nous plonge dans un processus passif d’acquisition de l’information. Ce processus ne repose plus sur l’exploration de l’inconnu mais sur le renforcement de ce que nous savons déjà, en actionnant le biais de confirmation.

La personnalisation du web est si efficace que nous ne voudrions pas nous en passer, elle nous sert tous les jours, et nous offre un gain de temps considérable en triant ce qui ne nous intéresse pas (à priori). Ôter de notre vue une quantité considérable d’information nous aide à mieux naviguer dans ce vaste océan mais cela a aussi tendance à nous ôter toute conscience de l’existence même de cette quantité d’information.

 

Le biais de confirmation

En réalité, la personnalisation actionne un processus cognitif naturel chez l’Homme.
Notre dispositif cognitif repose sur un équilibre très mince entre le renforcement de ce que nous savons (la mémoire) et la place réservée à ce que nous pouvons apprendre. Ce mécanisme de renforcement de ce que nous savons repose sur le simple fait que pour mémoriser nos savoirs, notre cerveau se doit de les compresser. Ainsi, ce qu’on appelle le schemata nous permet de mémoriser les choses que nous avons vues par le passé, de façon à en prendre acte et réagir en conséquence, plus intelligemment et plus rapidement.

Fonctionnement biais de confirmation et bulles de filtrages

 

La bulle de filtre peut intervenir directement sur cet équilibre de deux manières selon pariser :
d’une la bulle de filtre nous plonge de plus en plus dans un univers que nous connaissons déjà et avec lesquelles nous sommes déjà d’accord, confirmant de plus en plus notre vision du monde préétablie. De deux, et c’est l’effet inverse, elle ôte de notre vue un certain nombre d’informations nouvelles qui pourrait accroitre ou même bouleverser notre savoir.

 


 

Le biais de confirmation et l’expérience de Claudia Cohen « L’anniversaire » :

L’expérience a consisté à montrer une seule et même vidéo à différentes personnes. Celle-ci met en scène une femme qui fête son anniversaire avec ses amis. Sauf que, toutes n’ont pas été informées de la même manière. A certaines on a dit que la femme était serveuse, à d’autres qu’elle était bibliothécaire. Les premières ont ainsi mémorisé le fait qu’elle buvait de la bière quand les seconds se sont souvenues qu’elle portait des lunettes. Résultat, selon l’information que l’on cherche (indirectement) notre cerveau réagit différemment. Cela s’appelle le biais de confirmation.


La mort du rédacteur en chef ?

Enfin, les géants du web ne sont évidemment pas les seuls à recourir à la personnalisation et donc à favoriser la constitution d’une bulle de filtrage. La quasi totalité des sites internet, dont les médias, utilisent les cookies pour nous tracer et améliorer notre expérience de navigation. La presse en ligne profite également de la collecte des données. En mémorisant les centres d’intérêts de ses lecteurs, un média en ligne peut proposer du contenu journalistique adapté aux envies de ses lecteurs.
Si la personnalisation s’allie très bien avec le ciblage de publicités qui permet de toucher son public plus facilement, les conséquences pourraient être beaucoup plus sérieuses lorsqu’il s’agit de l’information. L’esprit critique et avisé de l’être humain se forge dans la confrontation avec des points de vus différents et divergents, voire opposés  et vers lesquels il ne se tournerait pas naturellement. C’est ainsi que nous pouvons dépasser notre seul entendement et progresser, en développant des idées nouvelles. Or, si la bulle de filtre nous plonge dans une bulle de confirmation de ce que nous savons déjà, alors  au lieu de se développer et de se créer, nos idées ne feraient en réalité que de se renforcer. D’où la nécessaire remise en question de ce modèle éditorial parmi les médias en ligne, qui ont vocation à informer le citoyen et pas simplement à rencontrer leurs intérêts.

De medium is the message, la dynamique journalistique est passée sur le web au user is the message. Grâce aux outils technologiques, la presse est plus que jamais capable de définir le profil type de son lectorat: âge moyen, centres d’intérêts, temps de lecture, à quel moment la journée, sur quel appareil (téléphone, tablette, ordinateur…) etc. Le journalisme comme la majorité des services proposés sur internet sort à priori largement gagnant de la personnalisation du web, qui lui assure de rencontrer son public en proposant le bon angle et la bonne information, au bon moment. Mais le danger qui guette le journalisme est plus implicite. Il est question de son intégrité et de son rôle citoyen d’information de la population.

Or avec la personnalisation poussée à son maximum, ce n’est plus véritablement les lecteurs qui adhèrent à la ligne éditoriale du média en question mais le média lui-même qui adhère à la ligne éditoriale indiquée par les données de connexion de ses lecteurs. Le chemin sur lequel s’aventure la presse en ligne l’obligera inévitablement à se remettre en question et à redéfinir l’équilibre entre information complète et contrainte économique. Au lieu d’ouvrir le lecteur à de multiples problématiques et sujets, la personnalisation des contenus journalistiques ne ferait que renforcer le lecteur dans ses propres convictions et savoirs. Le journalisme devra t-il se plier aux seules exigences de son lectorat (même si concrètement c’est ce que font déjà les médias, contrainte économique oblige) ou devra t-il réinventer sa manière de médiatiser l’information ? Il est bon de rappeler qu’Eli Pariser n’est pas fondamentalement contre la personnalisation, mais contre son automaticité et sa non-transparence. Il propose déjà de donner plus de contrôle au visiteur, en l’autorisant à activer et désactiver les différents éléments de ciblage de l’information, et en lui indiquant comme c’est le cas en Europe avec les cookies, que le contenu qu’il s’apprête à lire lui est volontairement destiné plutôt qu’à un autre. La réponse viendra peut-être des géants du web eux-mêmes, lancés dans leur course effrénée au perfectionnement de leurs algorithmes. Eric Schmidt, CEO de Google, revendique déjà maîtriser des algorithmes capables de recréer cette serendipité essentielle à la découverte humaine et que parviennent tant bien que mal à préserver la presse et ses rédacteurs en chef. De quoi rassurer le rédacteur en chef … ou pas.

Des positions critiques du pessimisme d’Eli Pariser existent. De nombreux spécialistes et études relativisent la finesse des ces bulles de filtrages et par conséquent leur capacité d’influence et de contrôle sur notre navigation personnelle. Quand d’autres relativisent purement et simplement les prétendus effets néfastes imputables à l’automatisation de nos modes de vies et à la personnalisation de nos modes de consommations. Est-ce qu’un monde personnalisé et entièrement prévisible serait pour autant mauvais ? C’est une question d’éthique qui se pose devant nous, faudra t-il satisfaire le lecteur/consommateur au point de lui proposer uniquement ce que son profil numérique nous dit qu’il aime ou faudra t-il conserver un minimum de cette sérendipité, possibilité de tomber sur quelque chose d’inattendu et donc potentiellement intéressant ?

 

Pour aller plus loin :

ARTE : une superbe série en 10 épisodes sur les coulisses du web

Un gros web-doc bien dense et complet

Marianne : Ces robots qui façonnent Internet à votre image

Slate : Comment éclater la bulle de filtre ?

Laurent Collet : La presse écrite sur le web et ses lecteurs comme limites aux techniques de personnalisation de l’information.

ARTE : Quand le web nous enferme dans notre bulle.

Eli Pariser The filter bubble : what the internet is hiding from you
 

 

 

 

Publicités

Une réflexion sur “Internet, Big Data et personnalisation : incursion dans les entrailles du web

  1. Ping : Revue de Web #5 | Monkey Business

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s