Infos Outils Froids
J'ai eu le plaisir de préfacer la nouvelle version du Guide pratique publié par Archimag, Outils et efficacité d'un système de veille paru en novembre dernier que vous pouvez commander ici .
Voici donc le texte en question que vous pouvez également télécharger au format PDF sur Slideshare.
La veille dans un environnement numérique mouvant
Par Christophe Deschamps (www.outilsfroids.net)
Consultant & formateur en veille et gestion de l’information
Les pratiques de veille dans les organisations se sont profondément modifiées en une décennie. En remontant dans le temps on se souviendra que les plateformes de veille intégrées ont commencé à voir le jour entre 1997 et 2000, avec des outils comme Périclès de Datops, Information Miner d’Arisem ou encore Aperto Libro d’Inforama. Le coût de ces solutions les réservait cependant à des grandes entreprises. Parallèlement à ces outils apparaissait une gamme de logiciels abordables pour des PME ou des particuliers. Citons par exemple le métamoteur Copernic 1999 ou l’aspirateur de sites web eCatch Pro. Toutefois, les solutions qui rencontraient le plus de succès à l’époque étaient les agents dits « push », qui permettaient de recevoir de l’information sur son poste en fonction de profils personnalisés : My Yahoo, Net2 One ou encore le logiciel Marimba. Entre 2001 et 2004, les outils de recherche et de veille sur le web continuent à se multiplier. Citons par exemple Ferret de Ferretsoft, Express Search d’InfoSeek, Kenjin d’Autonomy, Alexa, C4U,… A mesure qu’ils envahissent les disques durs des professionnels de la veille et que ces derniers en découvrent les limites, une certaine désillusion apparaît et le terme d’agents intelligents, souvent utilisé pour les qualifier, est à juste titre remis en cause. On commence par ailleurs à entrevoir l’ampleur de ce qui n’est pas indexé par les moteurs de recherche, un « corpus » que l’on nomme alors « web invisible » et les organisations, notamment privées, de comprendre qu’il sera désormais impossible de se passer d’outils d’automatisation de la veille pour exploiter les quantités croissantes d’informations présentes sur internet.
Les moteurs des changements actuels
En septembre 2005 émerge le concept de « web 2.0 » qui désigne notamment les nouvelles pratiques visant à mieux rechercher et classer l’information issue du web. On parle de « crowdsourcing[1] » pour désigner l’utilisation par un grand nombre d’internautes de services qui, d’une part, récupèrent des données susceptibles d’améliorer l’expérience utilisateur après agrégation (ex : les recommandations d’Amazon), d’autre part, de développer des pratiques collaboratives en mode réseau social. Les services en question (social bookmarking, réseaux sociaux , social news , microblogging) ont l’immense avantage de permettre aux veilleurs de tirer parti de l’information surveillée par d’autres. En effet, la deuxième innovation majeure relative au web 2.0 est l’apparition des flux RSS, un système basé sur une simplification du langage XML, qui permet à l’émetteur d’encapsuler l’information qu’il diffuse dans des balises afin de mieux la structurer et au récepteur de s’y abonner comme il le ferait avec une chaîne télévisée, via un agrégateur de flux RSS.
Sept ans plus tard, ce web 2.0, rebaptisé « web social », a profondément changé le paysage de la veille en mettant à disposition de chacun les outils lui permettant d’effectuer sa veille (sur les moteurs de recherche classique, l’actualité, les productions scientifiques,…) dans le but de surveiller sa réputation numérique, de mieux comprendre une thématique, d’en suivre les évolutions et finalement d’apprendre au quotidien. Tout le monde ne s’est pas mis à faire de la veille, du jour au lendemain, mais les pratiques et les besoins informationnels ont évolué. Ainsi une étude menée par L’Express en 2011[2] nous apprend que 72% des français disent s’informer plus qu’il y a cinq ans, que 76% d’entre eux considèrent l’information comme importante pour leur vie personnelle et 56% pour leur vie professionnelle (66% chez les moins de 34 ans). La possibilité de surveiller le web est donc devenue nécessité et ce n’est d’ailleurs pas la seule étape du cycle de la veille impactée par ces changements puisqu’une une fois l’information repérée, il est souvent important de la rediffuser vers les membres de ses réseaux dans le but de la faire connaître, mais aussi de gagner en crédibilité sur ses thématiques de prédilection. Là encore les services issus du web 2.0 sont en première ligne avec par exemple la fonction « J’aime » de Facebook, le retweet de Twitter ou les services de curation.
Une troisième évolution contribue à ce profond renouvellement des usages, tant dans la surveillance que dans la diffusion de contenus. Il s’agit de la progression des tablettes et smartphones. Une récente étude du cabinet Deloitte, indique qu’il s’est vendu plus de ces terminaux dans le monde en 2011 que de PC classiques. Lorsqu’on sait que 50% des mobinautes affirment s’en servir pour diffuser parfois ou souvent des informations sur les réseaux sociaux[3], on comprend que plusieurs étapes traditionnelles du métier de veilleur peuvent être « cannibalisées » par des métiers et fonctions transverses où le besoin de faire de la veille devient de plus en plus pressant : community managers, journalistes, communiquants, enseignants et chercheurs, chargés de R&D et bien sûr simples citoyens…
Plus de sources, plus de données, plus d’informations
Revers de la médaille, la même étude de L’Express indique que, parallèlement à ce besoin d’information, 76% des français se sentent submergés par elle (ce taux monte à 82% chez les 15-24 ans).
Le web fait émerger en permanence de nouvelles sources d’information : médias traditionnels bien sûr (presse en ligne), mais aussi blogs, pages Facebook, services de journalisme citoyen, etc. Or, chacune d’elle peut devenir une source intéressante à monitorer. En effet, ce que l’on doit comprendre lorsqu’on souhaite mettre le web sous surveillance, c’est qu’on ne peut plus se limiter aux sources traditionnellement considérées comme fiables, pour la bonne et simple raison que l’information qui fait potentiellement la différence, le signal faible donc, peut très bien se trouver sur Twitter, Facebook ou Youtube : l’avis d’un expert, une vidéo révélant involontairement un mécanisme ou un process nouveau, un lien vers une étude mal indexée par les moteurs de recherche, une indiscrétion… En ce sens, faire de la veille sur le web demande, notamment pour les documentalistes traditionnels, un changement d’état d’esprit radical, puisqu’il faut substituer à la validation de la source la validation de l’information qu’elle produit. Le sentiment de sécurité fourni par les bases de données classiques ne peut exister sur le web car les sources ne sont pas sélectionnées par un tiers sur des critères de qualité, mais bel et bien par le veilleur qui est alors le seul à être en mesure de les juger. C’est donc d’un système permettant d’évaluer le niveau de risque que l’on accepte de prendre en utilisant telle ou telle source dont on a besoin. En ce sens le veilleur évolue nécessairement dans un environnement informationnel insécure et … doit faire avec. D’autant que les choses ne vont pas aller en s’améliorant. Une étude du cabinet IDC parue en 2011[4] indique en effet que la quantité de données produite dans le monde est sur le point de doubler tous les deux ans et que, d’ici la prochaine décennie, la quantité de données gérées par les entreprises pourrait être multipliée par 50… Ce chiffre inclut tous les types de données classiques (actualités, images, sons, vidéos) mais aussi celles, plus granulaires et bien plus nombreuses, qui peuvent être exploitées statistiquement une fois agrégées en « sets » : données météorologiques relevées automatiquement, positions géographiques transmises par puces RFID ou GPS, données publiques générées par les administrations et services publics (open datas), données que nous laissons individuellement dans les services en ligne ou applications de smartphones, etc. Ce phénomène que l’on évoque depuis quelques mois sous le terme de big datas avait été annoncé dès 2007 par le chercheur en économie Ian Ayres dans son ouvrage « Super crunchers »[5]. Il y expliquait que l’expertise et l’intuition seraient petit à petit remplacées par des modèles statistiques prédictifs car « champ après champ, l’analyse statistique découvre les relations cachées parmi des genres immenses et disparates d’information ». Et c’est bien là aussi l’objectif de la veille… Dans ce contexte le veilleur qui souhaitera tirer parti des big datas afin de compléter ou d’éclairer les informations dont il dispose devra se transformer en professionnels des flux, capables grâce à de puissants logiciels de datamining d’explorer d’énormes continent de données afin de les sonder, triturer, en détecter les irrégularités signalant l’existence de données discrètes, de signaux faibles, etc. C’est ici qu’entrent en jeu les interfaces graphiques de cartographie et de navigation dans l’information, seules susceptibles de permettre l’exploration et la manipulation de cette masse de données mouvante afin de lui donner du sens et d’optimiser de futures prises de décisions.
Au final une spécialisation de plus dans le spectre fonctionnel déjà très large couvert par les professionnels de l’information.
Plus de moyens de surveiller le web
Corollaire de la multiplication des sources web pour la veille, celle toute aussi perturbante, des moyens à mettre en œuvre pour les surveiller. La typologie d’outils a en elle-même peu évolué. On y retrouve les outils de surveillance de pages et sites web (monitoring), les flux RSS qui, disponibles depuis l’aube des années 2000, font désormais parti des « vieux » outils et les alertes par mots-clés sur les moteurs ou bases de données (type Google Alerts). Ce qui en revanche a changé c’est la manière de les mettre en œuvre. Le web social et les services qui le constituent ont en effet permis l’émergence d’une information dite « temps-réel », c’est-à-dire émise en permanence par n’importe quel individu ou organisation via Twitter, Facebook, Linked In, Youtube,… Il devient donc de plus en plus nécessaire de surveiller ce qui se dit sur ces réseaux de nous ou de nos organisations (e-réputation) afin de réagir en cas de crise ou de bad buzz, mais aussi ce qui se dit de nos concurrents et de ce qu’eux-mêmes y disent (veille concurrentielle classique). Les praticiens de la veille stratégique ne s’y sont pas trompés puisque 79% d’entre eux disent surveiller les réseaux sociaux pour trouver de l’information relative à leurs concurrents, aux évolutions de leur secteur d’activité, aux tendances de consommation, etc[6].
Depuis trois ou quatre ans[7], de très nombreuses solutions ont donc vu le jour avec cet objectif ; Citons par exemple Sindup, Alerti, Mention, ou Alterian SM2. Les éditeurs traditionnels de plateformes de veille tels Digimind ou AMI Software ne sont d’ailleurs par en reste avec l’ajout dès 2008-2009 de briques de surveillance de médias sociaux. Si la veille sur le web se popularise depuis quelques années, force est de reconnaître que c’est avant tout lié à cette indispensable gestion de la réputation numérique que nous évoquions dès 2006[8].
Ces solutions « algorithmiques » ne sont toutefois pas les seules. Plus innovantes sont les pratiques de veille se basant sur les individus. En effet, puisque le web social agrège les contenus granulaires que chacun y diffuse, il suffit de repérer via un sourcing approprié les utilisateurs de médias sociaux experts dans leurs domaines pour s’abonner à leurs comptes et bénéficier ainsi de leur veille partagée. La validation de la source consistera alors à s’assurer de la réelle expertise de l’internaute. Quant à surveiller son compte, là encore cela ressemblera à ce que l’on faisait déjà avec les flux RSS, mais de manière technologiquement transparente puisqu’intégrée d’un simple clic sur « Follow », « Like » ou « S’abonner à » sur le profil de l’expert repéré. D’autres solutions, plus centralisées, existent d’ailleurs puisque les logiciels-clients de médias sociaux comme Tweetdeck ou Hootsuite permettent de suivre dans une interface unique les évolutions des comptes utilisateurs ou médias sociaux auxquels on est abonné, ainsi que de diffuser voire de multi-diffuser vers ces différents espaces. Surveiller les utilisateurs de médias sociaux experts dans leur domaine revient donc à mettre en place des filtres humains entre la masse informationnelle présente sur le web et nous.
Notons par ailleurs que tout est fait pour que ces experts s’emparent d’outils qui leur permettront de diffuser le fruit de leur veille. Les services de curation, que l’on peut qualifier de dispositifs de veille adaptés aux non-professionnels, font une entrée remarquée sur le web depuis 2010. Certains permettent par exemple de suivre des flux RSS habituels mais aussi des utilisateurs réseaux sociaux ou des regroupements d’utilisateurs (listes Twitter) tout en mettant en œuvre une démarche simplifiée par rapport à un agrégateur classique. Citons par exemple les services en ligne Scoop.it, Storify, ou Pinterest (pour les images) ou les applications pour smartphones telles que Flipboard, Pulse ou Feedly. La curation apporte des possibilités inédites autour de l'information : circulation, recommandations, partage, enrichissement, agrégation, capitalisation… L’objet "information", traditionnellement au cœur des pratiques professionnelles des veilleurs, documentalistes et gestionnaires de connaissances change de mains, ou, plus exactement, le nombre de mains qui s'en emparent est multiplié.
Plus de moyens de traiter l’information
Les pratiques de curation ne sont cependant pas l’apanage du web puisqu’on les retrouve à l’identique dans les fonctionnalités offertes en interne par les réseaux sociaux d’entreprise (Jamespot Pro, Knowledge Plaza, Yoolink Pro,…). C’est d’ailleurs logique puisque les deux familles d’outils sont directement inspirées de services de social bookmarking comme Delicious.
De fait, il devient possible à n’importe quel employé de partager facilement les résultats de sa veille quotidienne sur l’intranet et de donner ainsi à voir son expertise en interne. Les RSE permettent toutefois d’aller beaucoup plus loin que le simple partage de favoris en proposant par exemple la création de communautés thématiques privées ou publiques. A partir de là il devient possible de proposer un autre mode de traitement de l’information issue de la veille, particulièrement adapté au temps réel et baptisé par son créateur Robert Clarke (un ancien analyste de la CIA) approche target centric[9]. Ici, les communautés de veille thématiques créées dans le RSE et dans lesquelles on incluera analystes et décideurs permettent aux trois parties prenantes de dialoguer au fil de l’eau autour de l’information collectée et pallient potentiellement aux faiblesses classiques d’un dispositif de veille : manque de partage de l’information, difficulté à analyser l’information collectée et manque de compréhension des besoins informationnels des décideurs de la part des veilleurs et des analystes. Toutefois, pour que cela fonctionne il est nécessaire d’animer ces communautés et les veilleurs ont ici un rôle important à jouer, traditionnel d’ailleurs puisque par un étonnant « retour vers le futur », ils retrouvent le rôle qui était déjà le leur avant l’arrivée du web, lorsque le métier était fait d’entregent et de diplomatie et qu’il consistait avant tout à faire remonter l’information de réseaux de commerciaux ou de techniciens présents sur le terrain. Les RSE issus du web social sont potentiellement une solution pour réunifier ces deux espaces de la veille stratégique et offrent ainsi aux veilleurs de nouvelles opportunités de développement de leurs fonctions. Ces gains sont d’ailleurs reconnus puisque l’étude sur les RSE publiée par SerdaLAB en septembre dernier indique que le bénéfice principal ressenti par leurs utilisateurs est le partage de la veille (44%), à égalité avec l’amélioration du travail collaboratif.
Plus de tout, est-ce trop ?
Le web social et l’accroissement de la mobilité ont profondément modifié les pratiques de veille ainsi que le champ d’intervention des veilleurs dans les organisations. Ils se retrouvent confrontés à plus de collaborateurs qui mettent en œuvre des pratiques de veille sans être pour autant des professionnels de l’information. Ils découvrent de nouveaux champs d’investigation avec les big datas et de nouvelles possibilités de sources intéressantes à surveiller avec les médias sociaux. Ils entrevoient la possibilité de gérer la remontée et l’analyse des informations différemment avec les RSE. C’est beaucoup de changements auxquels il faut s’adapter mais est-ce trop ? Chaque changement est à la fois synonyme de menaces et d’opportunités et si l’on ne continue pas à prendre les choses en mains en s’emparant de ces nouveaux outils, en canalisant au mieux les nouveaux espaces informationnels, en intégrant ces nouvelles pratiques afin de les mettre à notre service, ne risque t’on pas finalement de voir nos métiers se diluer ? Le métier de veilleur est en évolution permanente. On peut le regretter et avoir envie de se poser un moment mais, ici plus qu’ailleurs, c’est utopique car s’arrêter c’est reculer…
[1] Que nous traduisons généralement par l’expression « foules – ressources »
[2] Enquête sur les nouvelles pratiques de consommation de l’information des français. L’Express – Iligo. Mars 2011
[4] IDC Extracting value from chaos - 2011
[5] Ian Ayres, Super crunchers, Why thinking-by-numbers is the new way to be smart, Bantam, 2007
[6] Baromètre des pratiques de veille 2012 - Digimind
[7] Voir le tableau comparatif des solutions de e-réputation proposé par Camille Alloing : http://www.tablefy.com/compare/2652/e-réputation
[8] Cf. Christophe Deschamps, L’indispensable gestion de la réputation numérique. ZDnet. Février 2006. http://www.zdnet.fr/blogs/ils-ont-blogue/l-indispensable-gestion-de-la-reputation-numerique-39600489.htm
[9] Intelligence analysis, a target centric approach, CQ Press, 2003
Parmi les auteurs de ce guide vous retrouverez des auteurs de blogs bien connus comme Frédéric Martinet, Camille Alloing, Terry Zimmer et Jérôme Bondu