Paris 2063




J'ai eu le plaisir de participer au numéro de Documentaliste & Sciences de l'information fêtant les 50 ans e de l'ADBS. On m'a demandé de réfléchir à ce que serait le métier de veilleur dans 50 ans. Grand fan de science-fiction (et de son rapport avec nos métiers) je ne me suis pas fait prié et la courte nouvelle ci-dessous est le fruit de ces cogitations. Je remercie au passage les journalistes d'Internet Actu de leurs articles sur les NBIC qui m'ont "alimenté". A vrai dire je pense que tout cela sera dépassé dans 50 ans (dans 25?) mais c'était amusant de tenter l'exercice.

Paris 2063


Vernor se réveilla en sursaut. La puissante alerte mentale qu'il venait de recevoir indiquait une altération nette de l'environnement qu'il surveillait pour le compte de Runciter & Singh. Depuis trente ans, cette société achetait et exploitait les terres rares qui alimentaient en métaux précieux les constructeurs de bio-implants du monde entier. D'un déclic mental, Vernor éveilla son propre implant Google, un descendant des mythiques Google Glasses. Il entama alors la discussion avec Eva, sa persona, une représentation anthropomorphique qu'il s'était créée depuis le départ d'Eva, la vraie... La nouvelle Eva donnait corps à l'intelligence artificielle qui se nourrissait depuis quinze ans de la personnalité de Vernor, de ses besoins professionnels et personnels, de ses envies qu'elle devançait maintenant en permanence. Un double de lui-même en somme, qui pesait lourd dans les négociations financières menées durant les entretiens d'embauche ! Jour après jour, Eva l'aidait à analyser des zettaoctets de matières numériques, ses terres rares à lui, constituées de datas provenant de capteurs fixes ou mobiles, terrestre ou spatiaux, implantés dans des humains ou des animaux, dans des moteurs ou sur des frigos et issues de textes, de vidéos, de fichiers audios, etc. Ce flux infini passait par la monstrueuse moulinette analytique qu'ils pilotaient de concert pour être transformé en éléments de réponses à ses questions, mais surtout pour l'aider à détecter les schémas déviants et anomalies du continuum informationnel commun. Et c'est bien ce à quoi il faisait face en ce moment même.

D'un nouveau déclic mental il passa en mode collectif. L'implant lui ouvrit la connexion vers les onze autres éveilleurs de la compagnie. Leurs douze personas avaient déjà synthétisé la situation en un modèle global dont chacun explorait les cordes et les nœuds et qui indiquait un risque potentiel autour du site malais de Kuantan où la compagnie extrayait plusieurs variétés de monazite. La conjonction qui avait généré l'alerte était constituée principalement d'articles de journaux locaux datant de quatre à six mois, évoquant l'exaspération croissante des populations face aux pollutions générées par l'extraction du minerai, de l'interception sur le réseau Crypto Gopher d'une annonce recherchant certains profils techniques parlant le dialecte du cru et de la détection par un satellite de la compagnie d'une hausse anormalement élevée des activités humaines aux abords du site. Le signal ayant entraîné l'alerte était finalement venu de l'accostage il y a une demi-heure au port de Kuantan d'un bateau passé quelques semaines plus tôt par les Zones aveugles, ces régions du monde qui, volontairement ou faute de moyens, ne produisaient pas suffisamment de données pour être intégrées au grand jeu économique international et étaient devenus de fait le repère des bio-conservateurs, des religieux anti-implants et autres terroristes éthiques. 
Arguant d'un manque d'informations, les éveilleurs Sebastian, Rachel et Léon furent les seuls à émettre des réserves sur la fiabilité des scenarii issus du modèle, qui tous pourtant indiquaient un risque de coup de main sur le site dans les 48 heures, mais le quorum était largement atteint. Eva se chargerait de transmettre la décision des éveilleurs à la persona de Voight-Kampff, le directeur stratégique de la compagnie, qui déciderait alors des suites à donner. « L'info passe, l'action suit », une fois de plus la devise des éveilleurs serait respectée.


Fin de Google Reader. Quelle alternative pour les professionnels? Une étude complète par Serge Courrier




On l'attendait tous et c'est Serge Courrier ( @secou) qui s'y est collé (et pas qu'un peu :-)
Il nous propose une étude de 230 pages sous forme de présentation PDF dans laquelle il a étudié plus d'une trentaine agrégateurs de flux RSS sur plus de 100 critères différents.
Des agrégateurs inclus dans votre navigateur aux lecteurs à héberger sur serveur en passant par les gestionnaires de courrier électronique et les applications pour mobile, tout y passe.
Quelles sont les solutions qui sortent du lot? Je vous laisse les découvrir sur Slideshare.
C'est en Creative Commons et Serge indique par ailleurs qu'il mettra à jour cette étude.Un grand merci à lui donc.

Tableau comparatif de 23 services gratuits d'alertes email par mots-clés


 OutilsVeille

 
Même si de mon côté les alertes Google continuent de fournir des résultats intéressants, leur fonctionnement aléatoire, tel que constaté par Danny Sullivan, et les rumeurs persistantes de leur prochaine disparition m'ont amené à faire un tour d'horizon des différentes solutions alternatives existantes. 
 
J'en ai listé 19 (j'ai conservé Google Alerts comme référence, d'où le chiffre 20 23) :
  • Alerti
  • Favebot (MàJ du 27/05/2013)
  • Findthatfile (MàJ du 03/05/2013)
  • Giga-Alerts
  • Google Alerts
  • Hyperalerts
  • Mention
  • Northern Light
  • Nutshellmail
  • Prismatic
  • Resultly
  • Scoop.it (MàJ du 06/05/2013)
  • Social Mention
  • Talkwalker Alerts
  • Topsy
  • Trap.it
  • Trove
  • Tweetalarm
  • Tweetbeep
  • Twilert
  • Video-alerts
  • Yahoo! Alerts
  • Yotify
Je les ai ensuite comparé dans un tableau créé sous avec les critères suivants.
  • Critères génériques
  • Surveillance multisources ou monosource ou un seul type de sources (ex : médias)
  • Fréquence d'envoi réglable
  • Possibilité d'alertes en temps réel
  • Existence d'un Flux RSS intégrant les même items que l'alerte par email
  • Possibilité de requêtes avancées (avec opérateurs booléens ou de ciblage)
  • Personnalisation des sources (création de bouquets, filtrage,...)
  • Version gratuite d'un service payant
  • Sources surveillées
  • Facebook
  • Twitter
  • Autres réseaux sociaux
  • Blogs
  • Forums
  • Vidéos
  • Images
  • Web (c'est à dire tout ce qui reste et qui constituait le seul type de sources surveillées initialement par Google Alertes en 2004)
  • Sites commerciaux (Amazon, eBay,...)
  • Autres
J'ai ensuite ajouté quelques commentaires évoquant les points forts ou faibles de chaque service.

Si ce ne sont pas les services d'alerte qui manquent, je constate au final qu'il va être difficile de remplacer vraiment les alertes Google si elles viennent à disparaitre. Les raisons à cela sont notamment :
  • La puissance des robots d'indexation de Google et la taille de son index qu'aucun autre acteur n'est prêt d'égaler
  • La possibilité de faire des requêtes "complexes" et de les transformer en alertes (par ex : filetype:pdf intitle:"intelligence économique" site:gouv.fr pour voir arriver des documents PDF titrant "intelligence économique" et publiés sur des sites du gouvernement français.
  • sa capacité à s'adapter à toutes les langues et le fait qu'il n'est pas centré sur un espace géographique spécifique (à savoir les Etats-Unis pour beaucoup de ces services)
Cela ne veut pas dire pour autant qu'aucun concurrent n'a d'intérêt, il existe en effet de nombreux services intéressant à mettre en oeuvre de part :
  • la variété des sources qu'ils permettent de surveiller (Mention, Alerti, Notify), 
  • leur simplicité d'usage et l'ergonomie (cf. le très prometteur Alerts qu'il faut suivre de prêt)
  • leur capacité à synthétiser de manière très "propre" les contenus multiples provenant de plusieurs réseaux sociaux (Nutshellmail)
Le risque étant pour le veilleur de devoir multiplier les services d'alerte afin de pallier (incomplètement faut-il le dire) à la disparition de Google Alertes.

ACCEDER AU TABLEAU COMPARATIF

PS : nous avons dans le cadre de ce travail retesté
Scoop.it qui pourrait selon nous devenir un acteur très intéressant des alertes par emails puisque chaque utilisateur peut créer des requêtes par mots-clés pour de nombreux types de sources. Mots-clés qui pour l'instant remontent dans son dashboard mais pourraient lui être envoyées par email...
Finalement j'avais raté le fait qu'il y a bien une mention des nouveautés dans l'email envoyé par Scoop.it, même si elles sont très mal valorisées. Ce service devient donc, comme indiqué ci-dessus, très intéressant pour une veille par mots-clés
 

Les flux Twitter en natif dans Google Reader




Lors d'une formation à la veille donnée il y a quelques mois et alors que nous explorions les possibilités de Google Reader, une des participantes s'est aperçu qu'il était possible de générer des flux RSS Twitter à la volée dans ce dernier (merci à elle!).

Pour cela il faut :

  • ouvrir le volet "Explorer" dans la fenêtre de gauche
  • choisir "Afficher toutes les recommandations"
  • cliquer sur l'onglet "Rechercher"

  • en bas de la page dans "Suivi des mots-clés et des recherches" choisir "Twitter search" dans le menu déroulant et cliquer sur "S'abonner"

C'est fait !

Au passage vous aurez remarqué qu'il est possible de s'abonner ainsi à des flux eBay, Google blogs et Google News.

Reste à savoir combien de temps cette possibilité sera proposée.

TaDaweb, un outil de veille innovant et aux fonctionnalités impressionnantes




Il faut le dire, la start-up luxembourgeoise Tadaweb apporte un vrai plus quant à la manière de mettre en place une veille sur le web. Il ne s'agit pas d'une énième solution de social media monitoring, même s'il est possible de surveiller des requêtes dans Twitter ou Facebook, mais bien d'une solution ayant une vocation plus large, apte de ce fait à contenter les veilleurs exigeants et aimant configurer leurs sources de manière pointue.
Pour schématiser on pourrait dire que Tadaweb est une sorte de Yahoo Pipes aux fonctionnalités simplifiées et focalisé sur la surveillance du web.
Concrètement, Tadaweb se compose d'un Dashboard en ligne et d'un logiciel à installer intitulé Tadaweb Creator. C'est à partir de ce dernier que vous allez configurer vos veilles, l'espace en ligne servant plutôt à la consultation et au partage des "Tadas" (l'équivalent du Pipe), même s'il est possible de consulter aussi dans le logiciel.
Le Tadaweb Creator est composé de deux parties. A droite un navigateur qui va vous permettre d'indiquer la page ou partie de page à surveiller, à gauche un "whiteboard" qui, à l'image de Yahoo Pipes, est l'espace de travail sur lequel vous allez positionner vos "outils de travail".



La solution reprend dans son ergonomie les étapes logiques de tout dispositif de veille automatisée à partir des onglets présents dans la partie gauche de l'interface :

  • Onglet Source : permet d'indiquer les sources à utiliser.  Il peut s'agir :
    • de pages web ne disposant pas de flux RSS
    • de flux RSS
    • de recherches à configurer dans Google ou Yahoo
    • de recherches à configurer dans Twitter ou Facebook
Une fois vos sources ajoutées (vous pouvez en inclure autant que vous voulez) vous allez configurer le type de contenu que vous souhaitez en extraire grâce au second onglet :
  • Onglet Extract : possibilité d'extraire
    • des parties d'une page web
    • des formulaires présents dans une page. Cet élément essentiel va par exemple vous permettre d'utiliser comme source n'importe quel moteur de recherche présent sur un site web et d'en automatiser l'interrogation.
    • listes : L'outil est ici très puissant puisqu'il va créer des "smarts lists" identifiant dans la page les types d'information susceptibles de vous intéresser.
    • extraction des liens de la page
    • extraction des tableaux (cf. ci-dessous)
    • extraction de flux RSS
    • extraction d'images



Une fois ces données sélectionnées elles génèrent un flux de contenu auquel il va être possible d'appliquer de nombreux traitements :
  • Onglet Transform :
    • créer une règle qui permettra d'ajouter ou supprimer un contenu automatiquement ou de formater les contenus existants en fonction de vos besoins (ex : ne faire apparaître que les données chiffrées)
    • filtrer par mots-clés
    • Fusionner ou diviser
    • Comparer (par exemple les résultats de deux moteurs et les dédoublonner)
    • Créer des boucles pour appliquer des traitements similaires à des éléments de même type
Maintenant que vous disposez exactement du contenu dont vous avez besoin, vous allez pouvoir en tirer un livrable qui se régénèrera automatiquement une fois configuré.
  • Onglet Output : 
    • la fonction report permet d'agréger en un seul document les différents listes issues d'un même Tada et d'y ajouter une structure (titre, table des matières autogénérée en fonction des contenus, rubriques, sous-rubriques) ainsi que du texte libre. Le rapport est annoncé comme pouvant être généré en HTML ou en PDF mais je n'ai pas trouvé cette seconde possibilité.

Une fois votre Tada thématique enregistré, il devient accessible dans votre dashboard en ligne dans l'onglet intitulé My Tadas. Chaque Tada peut être configuré de manière à vous alerter automatiquement par email lorsqu'un nouveau contenu apparaît. On peut également choisir ici si le Tada sera public ou privé. Pour l'instant il n'est pas possible de le partager à l'intérieur d'un groupe privé (une équipe de veilleurs par exemple) mais la fonctionnalité est annoncée.
Par ailleurs, il est possible d'intégrer plusieurs Tadas dans un "journal" que l'on pourra ensuite partager sur une page spécifique, à la manière de Paper.li ou de Tweeted Times par exemple.

En se rendant sur la page des Tadas publics (qui dispose d'un moteur de recherche), il est possible de voir ceux qui ont été réalisés par d'autres utilisateurs et de se rendre compte ainsi de l'ampleur des possibilités offertes par l'outil. A l'instar des Pipes, il est possible de récupérer un Tada pour le lire mais pas (encore) d'en créer une copie afin d'en décortiquer ensuite le fonctionnement ou de le réutiliser avec ses propres données (sauf si je n'ai pas trouvé la fonctionnalité) NDLA : cf. commentaire n°1. C'est dommage mais les créateurs du service ne sont toutefois pas avares de conseils et d'aides puisqu'on peut : L'ensemble des ressources en ligne est centralisé sur cette page.

Au rayon des regrets un manque qui nous semble important, celui d'un flux RSS en sortie de chaque Tada, qui comme pour Yahoo Pipes, permettrait de récupérer dans un agrégateur les contenus traités. On comprend bien la volonté des créateurs du service d'amener les internautes à venir sur la plateforme pour y mettre en oeuvre des pratiques sociales mais ça reste frustrant. Frustrant également le fait de ne pas pouvoir ajouter plus de 10 résultats par liste, je n'ai pas trouvé la fonctionnalité permettant de modifier ce nombre. NDLA : c'était bien çà.
Autre ajout qui pourrait être intéressant, celui d'une brique statistique permettant de monitorer l'activité d'un Tada ex : combien de nouveaux contenus par mois en moyenne, avec de beaux camemberts, histogrammes de fréquence et nuages de tags auxquels nous ont habitué les outils de surveillance orientés e-réputation. Enfin des fonctionnalités collaboratives permettant le travail en groupe seraient évidemment un plus.

Quqoiqu'il en soit il y a bien longtemps que je n'avais pas été aussi enthousiasmé par un outil de veille (et j'en ai testé...). Même s'il est toujours difficile de prévoir la pérennité de ce type de service je vous invite si vous êtes veilleur (et Dieu sait qu'on l'est tous de plus en plus) à investir un peu de temps dans Tadaweb. Il ne sera pas perdu, et je suis persuadé que ce service pour l'instant gratuit a de l'avenir. Reste à savoir ce que ses créateurs ont prévu en terme de rentabilisation et j'espère qu'ils voudront bien nous en dire plus en commentaire :-)
En tous les cas je souhaite longue vie à ce service de grande qualité.

Pour le test c'est par ici.


Diphur s'améliore et ... devient payant




Diphur est un service déjà ancien puisque je l'avais chroniqué en janvier 2011. Il s'agit d'un service de surveillance de pages web intéressant car il permet notamment d'être informé uniquement lorsque tel ou tel mot apparaît dans une page.

Au rayon des améliorations il faut noter qu'il propose un flux RSS spécifique pour chaque page surveillée, flux alimenté par les modifications repérées par le crawler. Ce qui, de fait, en fait un service qui permet d'ajouter des flux à des pages qui n'en ont pas initialement. C'est moins propre qu'un Feed43 mais aussi moins technique et donc fort pratique.

Ce flux existait initialement puis avait disparu dans un flux global reprenant tous les changements de toutes les pages qur vous surveilliez. Pas pratique. On le retrouve désormais sur la page de changement d'une URL surveillée : 


Trois autres nouvelles foncctionnalités sont désormais accessibles :

  • My Intel : permet de créer des requêtes booléennes sur les pages/sources que l'on a déjà monitorées pour y surveiller l'apparition de mots-clés ou expressions spécifiques
  • My groups : qui permet de partager des surveillances avec des groupes privés et d'ajouter des commentaires. Ce qui peut évidemment permettre d'appuyer un processus de veille collaborative simple
  • Surveillance de parties de pages : grace à un nouveau bookmarklet, Diphur peut maintenant surveiller une partie de page à web et non toute la page. Ca marche plutôt bien et permet de récupérer un flux RSS beaucoup plus propre que si l'on surveille une page complète.



Vous trouverez dans cette vidéo la procédure à suivre pour cela.


La moins bonne nouvelle c'est que toutes ces investissements et développements amènent Diphur à devenir payant à partir de la mi-mars.
Le service va bientôt être proposé en version mobile et ouvrir une API afin de permettre des croisements et mashups si possible intéressants (IFTTT !!).
L'email du co-fondateur du service, Rod Bennet, qui annonce ces changements et qui a été adressé aux utilisateurs donne quelques chiffres plutôt impressionnants pour un service de ce type (enfin je crois car on a peu de bases pour comparer) :
  • 150 new registrations daily
  • 30k Emails Sent daily
  • 65k RSS Feeds Accessed daily
  • 1k New Bookmarks daily
On comprend mieux alors que ses développeurs cherchent à le monétiser...

A noter également une info intéressante dans le même email: "Our user demographics analytic report shows we have 47k active users in 108 countries. Users are mostly concentrated in central Europe and mainly in France".

Quoiqu'il en soit, Diphur restera un service atypique et de qualité dans la galerie des services de monitoring en ligne et qui a clairement renouvelé le genre selon nous.

A noter que le service restera gratuit pour ceux qui ont déjà un compte mais la "date de péremption" n'est pas indiquée.

La veille dans un environnement numérique mouvant




J'ai eu le plaisir de préfacer la nouvelle version du Guide pratique publié par Archimag, Outils et efficacité d'un système de veille paru en novembre dernier que vous pouvez commander
ici .



Voici donc le texte en question que vous pouvez également télécharger au format PDF
sur Slideshare.

 

La veille dans un environnement numérique mouvant

Par Christophe Deschamps (www.outilsfroids.net)

Consultant & formateur en veille et gestion de l’information

Les pratiques de veille dans les organisations se sont profondément modifiées en une décennie. En remontant dans le temps on se souviendra que les plateformes de veille intégrées ont commencé à voir le jour entre 1997 et 2000, avec des outils comme Périclès de Datops, Information Miner d’Arisem ou encore Aperto Libro d’Inforama. Le coût de ces solutions les réservait cependant à des grandes entreprises. Parallèlement à ces outils apparaissait une gamme de logiciels abordables pour des PME ou des particuliers. Citons par exemple le métamoteur Copernic 1999 ou l’aspirateur de sites web eCatch Pro. Toutefois, les solutions qui rencontraient le plus de succès à l’époque étaient les agents dits « push », qui permettaient de recevoir de l’information sur son poste en fonction de profils personnalisés : , ou encore le logiciel Marimba. Entre 2001 et 2004, les outils de recherche et de veille sur le web continuent à se multiplier. Citons par exemple Ferret de Ferretsoft, d’InfoSeek, Kenjin d’Autonomy, Alexa, C4U,… A mesure qu’ils envahissent les disques durs des professionnels de la veille et que ces derniers en découvrent les limites, une certaine désillusion apparaît et le terme d’agents intelligents, souvent utilisé pour les qualifier, est à juste titre remis en cause. On commence par ailleurs à entrevoir l’ampleur de ce qui n’est pas indexé par les moteurs de recherche, un « corpus » que l’on nomme alors « web invisible » et les organisations, notamment privées, de comprendre qu’il sera désormais impossible de se passer d’outils d’automatisation de la veille pour exploiter les quantités croissantes d’informations présentes sur internet.

Les moteurs des changements actuels

En septembre 2005 émerge le concept de « web 2.0 » qui désigne notamment les nouvelles pratiques visant à mieux rechercher et classer l’information issue du web. On parle de « crowdsourcing[1] » pour désigner l’utilisation par un grand nombre d’internautes de services qui, d’une part, récupèrent des données susceptibles d’améliorer l’expérience utilisateur après agrégation (ex : les recommandations d’Amazon), d’autre part, de développer des pratiques collaboratives en mode réseau social. Les services en question (social bookmarking, réseaux sociaux , social news , microblogging) ont l’immense avantage de permettre aux veilleurs de tirer parti de l’information surveillée par d’autres. En effet, la deuxième innovation majeure relative au web 2.0 est l’apparition des flux RSS, un système basé sur une simplification du langage XML, qui permet à l’émetteur d’encapsuler l’information qu’il diffuse dans des balises afin de mieux la structurer et au récepteur de s’y abonner comme il le ferait avec une chaîne télévisée, via un agrégateur de flux RSS.

Sept ans plus tard, ce web 2.0, rebaptisé « web social », a profondément changé le paysage de la veille en mettant à disposition de chacun les outils lui permettant d’effectuer sa veille (sur les moteurs de recherche classique, l’actualité, les productions scientifiques,…) dans le but de surveiller sa réputation numérique, de mieux comprendre une thématique, d’en suivre les évolutions et finalement d’apprendre au quotidien. Tout le monde ne s’est pas mis à faire de la veille, du jour au lendemain, mais les pratiques et les besoins informationnels ont évolué. Ainsi une étude menée par L’Express en 2011[2] nous apprend que 72% des français disent s’informer plus qu’il y a cinq ans, que 76% d’entre eux considèrent l’information comme importante pour leur vie personnelle et 56% pour leur vie professionnelle (66% chez les moins de 34 ans). La possibilité de surveiller le web est donc devenue nécessité et ce n’est d’ailleurs pas la seule étape du cycle de la veille impactée par ces changements puisqu’une une fois l’information repérée, il est souvent important de la rediffuser vers les membres de ses réseaux dans le but de la faire connaître, mais aussi de gagner en crédibilité sur ses thématiques de prédilection. Là encore les services issus du web 2.0 sont en première ligne avec par exemple la fonction « J’aime » de Facebook, le retweet de Twitter ou les services de curation.

Une troisième évolution contribue à ce profond renouvellement des usages, tant dans la surveillance que dans la diffusion de contenus. Il s’agit de la progression des tablettes et smartphones. Une récente étude du cabinet Deloitte, indique qu’il s’est vendu plus de ces terminaux dans le monde en 2011 que de PC classiques. Lorsqu’on sait que 50% des mobinautes affirment s’en servir pour diffuser parfois ou souvent des informations sur les réseaux sociaux[3], on comprend que plusieurs étapes traditionnelles du métier de veilleur peuvent être « cannibalisées » par des métiers et fonctions transverses où le besoin de faire de la veille devient de plus en plus pressant : community managers, journalistes, communiquants, enseignants et chercheurs, chargés de R&D et bien sûr simples citoyens…

Plus de sources, plus de données, plus d’informations

Revers de la médaille, la même étude de L’Express indique que, parallèlement à ce besoin d’information, 76% des français se sentent submergés par elle (ce taux monte à 82% chez les 15-24 ans).

Le web fait émerger en permanence de nouvelles sources d’information : médias traditionnels bien sûr (presse en ligne), mais aussi blogs, pages Facebook, services de journalisme citoyen, etc. Or, chacune d’elle peut devenir une source intéressante à monitorer. En effet, ce que l’on doit comprendre lorsqu’on souhaite mettre le web sous surveillance, c’est qu’on ne peut plus se limiter aux sources traditionnellement considérées comme fiables, pour la bonne et simple raison que l’information qui fait potentiellement la différence, le signal faible donc, peut très bien se trouver sur Twitter, Facebook ou Youtube : l’avis d’un expert, une vidéo révélant involontairement un mécanisme ou un process nouveau, un lien vers une étude mal indexée par les moteurs de recherche, une indiscrétion… En ce sens, faire de la veille sur le web demande, notamment pour les documentalistes traditionnels, un changement d’état d’esprit radical, puisqu’il faut substituer à la validation de la source la validation de l’information qu’elle produit. Le sentiment de sécurité fourni par les bases de données classiques ne peut exister sur le web car les sources ne sont pas sélectionnées par un tiers sur des critères de qualité, mais bel et bien par le veilleur qui est alors le seul à être en mesure de les juger. C’est donc d’un système permettant d’évaluer le niveau de risque que l’on accepte de prendre en utilisant telle ou telle source dont on a besoin. En ce sens le veilleur évolue nécessairement dans un environnement informationnel insécure et … doit faire avec. D’autant que les choses ne vont pas aller en s’améliorant. Une étude du cabinet IDC parue en 2011[4] indique en effet que la quantité de données produite dans le monde est sur le point de doubler tous les deux ans et que, d’ici la prochaine décennie, la quantité de données gérées par les entreprises pourrait être multipliée par 50… Ce chiffre inclut tous les types de données classiques (actualités, images, sons, vidéos) mais aussi celles, plus granulaires et bien plus nombreuses, qui peuvent être exploitées statistiquement  une fois agrégées en « sets » : données météorologiques relevées automatiquement, positions géographiques transmises par puces RFID ou GPS, données publiques générées par les administrations et services publics (open datas), données que nous laissons individuellement dans les services en ligne ou applications de smartphones, etc. Ce phénomène que l’on évoque depuis quelques mois sous le terme de big datas avait été annoncé dès 2007 par le chercheur en économie Ian Ayres dans son ouvrage « Super crunchers »[5]. Il y expliquait que l’expertise et l’intuition seraient petit à petit remplacées par des modèles statistiques prédictifs car « champ après champ, l’analyse statistique découvre les relations cachées parmi des genres immenses et disparates d’information ». Et c’est bien là aussi l’objectif de la veille… Dans ce contexte le veilleur qui souhaitera tirer parti des big datas afin de compléter ou d’éclairer les informations dont il dispose devra se transformer en professionnels des flux, capables grâce à de puissants logiciels de datamining d’explorer d’énormes continent de données afin de les sonder, triturer, en détecter les irrégularités signalant l’existence de données discrètes, de signaux faibles, etc. C’est ici qu’entrent en jeu les interfaces graphiques de cartographie et de navigation dans l’information, seules susceptibles de permettre l’exploration et la manipulation de cette masse de données mouvante afin de lui donner du sens et d’optimiser de futures prises de décisions.

 Au final une spécialisation de plus dans le spectre fonctionnel déjà très large couvert par les professionnels de l’information.

Plus de moyens de surveiller le web

Corollaire de la multiplication des sources web pour la veille, celle toute aussi perturbante, des moyens à  mettre en œuvre pour les surveiller. La typologie d’outils a en elle-même peu évolué. On y retrouve les outils de surveillance de pages et sites web (monitoring), les flux RSS qui, disponibles depuis l’aube des années 2000, font désormais parti des « vieux » outils et les alertes par mots-clés sur les moteurs ou bases de données (type Google Alerts). Ce qui en revanche a changé c’est la manière de les mettre en œuvre. Le web social et les services qui le constituent ont en effet permis l’émergence d’une information dite « temps-réel », c’est-à-dire émise en permanence par n’importe quel individu ou organisation via Twitter, Facebook, , Youtube,… Il devient donc de plus en plus nécessaire de surveiller ce qui se dit sur ces réseaux de nous ou de nos organisations (e-réputation) afin de réagir en cas de crise ou de bad buzz, mais aussi ce qui se dit de nos concurrents et de ce qu’eux-mêmes y disent (veille concurrentielle classique). Les praticiens de la veille stratégique ne s’y sont pas trompés puisque 79% d’entre eux disent surveiller les réseaux sociaux pour trouver de l’information relative à leurs concurrents, aux évolutions de leur secteur d’activité, aux tendances de consommation, etc[6].

Depuis trois ou quatre ans[7], de très nombreuses solutions ont donc vu le jour avec cet objectif ; Citons par exemple Sindup, Alerti, Mention, ou Alterian SM2. Les éditeurs traditionnels de plateformes de veille tels Digimind ou AMI Software ne sont d’ailleurs par en reste avec l’ajout dès 2008-2009 de briques de surveillance de médias sociaux. Si la veille sur le web se popularise depuis quelques années, force est de reconnaître que c’est avant tout lié à cette indispensable gestion de la réputation numérique que nous évoquions dès 2006[8].

Ces solutions « algorithmiques » ne sont toutefois pas les seules. Plus innovantes sont les pratiques de veille se basant sur les individus. En effet, puisque le web social agrège les contenus granulaires que chacun y diffuse, il suffit de repérer via un sourcing approprié les utilisateurs de médias sociaux experts dans leurs domaines pour s’abonner à leurs comptes et bénéficier ainsi de leur veille partagée. La validation de la source consistera alors à s’assurer de la réelle expertise de l’internaute. Quant à surveiller son compte, là encore cela ressemblera à ce que l’on faisait déjà avec les flux RSS, mais de manière technologiquement transparente puisqu’intégrée d’un simple clic sur « Follow », « Like » ou « S’abonner à » sur le profil de l’expert repéré. D’autres solutions, plus centralisées, existent d’ailleurs puisque les logiciels-clients de médias sociaux comme Tweetdeck ou Hootsuite permettent de suivre dans une interface unique les évolutions des comptes utilisateurs ou médias sociaux auxquels on est abonné, ainsi que de diffuser voire de multi-diffuser vers ces différents espaces. Surveiller les utilisateurs de médias sociaux experts dans leur domaine revient donc à mettre en place des filtres humains entre la masse informationnelle présente sur le web et nous.

Notons par ailleurs que tout est fait pour que ces experts s’emparent d’outils qui leur permettront de diffuser le fruit de leur veille. Les services de curation, que l’on peut qualifier de dispositifs de veille adaptés aux non-professionnels, font une entrée remarquée sur le web depuis 2010. Certains permettent par exemple de suivre des flux RSS habituels mais aussi des utilisateurs réseaux sociaux ou des regroupements d’utilisateurs (listes Twitter) tout en mettant en œuvre une démarche simplifiée par rapport à un agrégateur classique. Citons par exemple les services en ligne Scoop.it, Storify, ou Pinterest (pour les images) ou les applications pour smartphones telles que Flipboard, Pulse ou Feedly. La curation apporte des possibilités inédites autour de l'information : circulation, recommandations, partage, enrichissement, agrégation, capitalisation… L’objet "information", traditionnellement au cœur des pratiques professionnelles des veilleurs, documentalistes et gestionnaires de connaissances change de mains, ou, plus exactement, le nombre de mains qui s'en emparent est multiplié.

 Plus de moyens de traiter l’information

Les pratiques de curation ne sont cependant pas l’apanage du web puisqu’on les retrouve à l’identique dans les fonctionnalités offertes en interne par les réseaux sociaux d’entreprise (Jamespot Pro, Knowledge Plaza, Yoolink Pro,…). C’est d’ailleurs logique puisque les deux familles d’outils sont directement inspirées de services de social bookmarking comme Delicious.

De fait, il devient possible à n’importe quel employé de partager facilement les résultats de sa veille quotidienne sur l’intranet et de donner ainsi à voir son expertise en interne. Les RSE permettent toutefois d’aller beaucoup plus loin que le simple partage de favoris en proposant par exemple la création de communautés thématiques privées ou publiques. A partir de là il devient possible de proposer un autre mode de traitement de l’information issue de la veille, particulièrement adapté au temps réel et baptisé par son créateur Robert Clarke (un ancien analyste de la CIA) approche target centric[9]. Ici, les communautés de veille thématiques créées dans le RSE et dans lesquelles on incluera analystes et décideurs permettent aux trois parties prenantes de dialoguer au fil de l’eau autour de l’information collectée et pallient potentiellement aux faiblesses classiques d’un dispositif de veille : manque de partage de l’information, difficulté à analyser l’information collectée et manque de compréhension des besoins informationnels des décideurs de la part des veilleurs et des analystes. Toutefois, pour que cela fonctionne il est nécessaire d’animer ces communautés et les veilleurs ont ici un rôle important à jouer, traditionnel d’ailleurs puisque par un étonnant « retour vers le futur », ils retrouvent le rôle qui était déjà le leur avant l’arrivée du web, lorsque le métier était fait d’entregent et de diplomatie et qu’il consistait avant tout à faire remonter l’information de réseaux de commerciaux ou de techniciens présents sur le terrain. Les RSE issus du web social sont potentiellement une solution pour réunifier ces deux espaces de la veille stratégique et offrent ainsi aux veilleurs de nouvelles opportunités de développement de leurs fonctions. Ces gains sont d’ailleurs reconnus puisque l’étude sur les RSE publiée par SerdaLAB en septembre dernier indique que le bénéfice principal ressenti par leurs utilisateurs est le partage de la veille (44%), à égalité avec l’amélioration du travail collaboratif.

Plus de tout, est-ce trop ?

Le web social et l’accroissement de la mobilité ont profondément modifié les pratiques de veille ainsi que le champ d’intervention des veilleurs dans les organisations. Ils se retrouvent confrontés à plus de collaborateurs qui mettent en œuvre des pratiques de veille sans être pour autant des professionnels de l’information. Ils découvrent de nouveaux champs d’investigation avec les big datas et de nouvelles possibilités de sources intéressantes à surveiller avec les médias sociaux. Ils entrevoient la possibilité de gérer la remontée et l’analyse des informations différemment avec les RSE. C’est beaucoup de changements auxquels il faut s’adapter mais est-ce trop ? Chaque changement est à la fois synonyme de menaces et d’opportunités et si l’on ne continue pas à prendre les choses en mains en s’emparant de ces nouveaux outils, en canalisant au mieux les nouveaux espaces informationnels, en intégrant ces nouvelles pratiques afin de les mettre à notre service, ne risque t’on pas finalement de voir nos métiers se diluer ? Le métier de veilleur est en évolution permanente. On peut le regretter et avoir envie de se poser un moment mais, ici plus qu’ailleurs, c’est utopique car s’arrêter c’est reculer…

 


[1] Que nous traduisons généralement par l’expression « foules – ressources »

[2] Enquête sur les nouvelles pratiques de consommation de l’information des français. L’Express – Iligo. Mars 2011

[3] Cf. étude L’Express

[4] IDC Extracting value from chaos - 2011

[5] Ian Ayres, Super crunchers, Why thinking-by-numbers is the new way to be smart, Bantam, 2007

[6] Baromètre des pratiques de veille 2012 - Digimind

[7] Voir le tableau comparatif des solutions de e-réputation proposé par Camille Alloing : http://www.tablefy.com/compare/2652/e-réputation

[8] Cf. Christophe Deschamps, L’indispensable gestion de la réputation numérique. ZDnet. Février 2006. http://www.zdnet.fr/blogs/ils-ont-blogue/l-indispensable-gestion-de-la-reputation-numerique-39600489.htm

[9] Intelligence analysis, a target centric approach, CQ Press, 2003



Parmi les auteurs de ce guide vous retrouverez des auteurs de blogs bien connus comme
Frédéric Martinet, Camille Alloing, Terry Zimmer et Jérôme Bondu


Les slides de la présentation donnée lors du lancement de Knowledge Plaza 3


-

Vous trouverez ci-dessous le lien vers le support de la présentation que j'ai donné lors du petit-déjeûner de lancement de Knowledge Plaza 3. J'y traite du knowledge management et ... de la fin du knowledge management tel qu'on le pratiquait dans les organisations.
Attention, cette présentation est optimisée pour être lue dans Powerpoint.

Plus d'articles :



 
Modèle several3 par Net-Tec Internet Solutions Adapté pour ViaBloga par Alexandre Fontenaille.