Outils de veille : entre rêve et réalité

Je réponds dans ce billet à la publication de Camille concernant les outils de veille et pourquoi ça ne marche pas (ou si peu), puisque j’ai estimé qu’un commentaire n’était pas très adapté.

Les deux arguments présentés par Camille sont recevables et reflètent une partie de la réalité du sujet traité qui est la veille image ou d’opinion. Pour rappel, le premier est relatif aux corpus de sources fournis par les éditeurs et qui ne sont pas toujours adéquats aux attentes des clients. Le deuxième argument revient sur « la tectonique des sphères du web ».

Toutefois, je pense qu’il y a d’autres paramètres qui rentrent en jeu pour éviter les amalgames et établir une vision la plus claire possible du marché des logiciels de veille (en France comme ailleurs).

  • Un des premiers « éléments perturbateurs » consiste dans la sémantique utilisée (par les éditeurs, par les utilisateurs et par les acheteurs). Le terme solution (utilisé par Camille) est révélateur d’une certaine « idéologie » dans les projets de veille, que certains appellent aussi ‘le bouton magique’. Solution a été intégré (maladroitement, avec une reprise de l’anglais) dans les discours français sans se rendre compte que cet artefact qu’est le logiciel de veille, avant même qu’il soit acheté, installé et opérationnel soulève divers problèmes à plusieurs niveaux : sécurité, compétences, organisation, gestion, finances…Quant au deuxième terme : il s’agit de « sourcing« , qui à ce jour ne dispose d’aucune définition claire et partagée par les professionnels ici en France, donc chacun fait ce qui lui convient ;-)
  • Pour rappel (historique), le choix de certains éditeurs de proposer des corpus de sources pré-paramétrés (même s’il y a des raisons d’ordre économique pour ça) n’est pas toujours viable. Seuls aujourd’hui les agrégateurs de presse et les bases de données professionnelles rentabilisent convenablement ce choix. Maintenir des bases de données de X milliers de sources renouvelables, mouvantes et mourantes coûte cher pour les éditeurs. Ce choix ne s’explique pas uniquement par les coûts mais aussi par « la pression » de certains professionnels de disposer de packages de sources à l’époque ;-) Ce choix peut s’avérer aujourd’hui inadéquat dans certains projets de veille image.
  • Concernant les projets de veille e-réputation, deux options sont disponibles pour un client : soit disposer d’une offre dite généraliste (adaptée aux différentes problématiques de veille) comme ce qui se trouve ici en France, ou faire appel à un éditeur spécialisé uniquement sur ce créneau. Ceci pour dire que les avantages du généraliste constituent aussi ses limites/inconvénients. Je rappelle aussi que le positionnement d’un éditeur est lié étroitement à la vision de ses dirigeants à long terme, qui se déclinent à travers des choix de roadmap RD, d’interfaces, et donc d’offres. Donc si la veille image ne représente qu’une niche, il paraît évident qu’une posture opportuniste paraît la plus adéquate, sans justifier des virages et des changements de cap qui peuvent remettre en cause la vie de l’éditeur.
  • Les éditeurs spécialisés en e-réputation se permettent donc pour des raisons de taille et dans une logique de pénétration du marché de s’appuyer sur l’existant en terme d’API des grands fournisseurs de contenus comme Google, Yahoo, Facebook et Twitter.
  • Par ailleurs, les arguments présentés par Camille, s’adressent plutôt aux opérationnels/veilleurs, qui sont dans une majorité des cas (d’après ce que j’ai pu voir) les utilisateurs de l’application et non les acheteurs ni les clients finaux. Donc il est évident que les forces commerciales des éditeurs s’adressent plutôt au public des acheteurs et des clients finaux qu’aux opérationnels, tout en leur fournissant un minimum d’arguments d’ordre technique et fonctionnel. Et c’est là qu’il y aura un décalage entre valeur promise, valeur attendue et valeur perçue.
  • Enfin, la nature même des contenus, des supports et des canaux disponibles aujourd’hui sur le Web pousse à faire appel non pas à un seul outil mais plutôt à toute une armada : logiciels de surveillance, logiciels de crawl, logiciels de classification, logiciels de cartographie… Le but étant de couvrir de manière intelligente les différents espaces d’échanges des internautes.

Articles similaires:

0 Posted on 11 août, 2010 by Aref JDEY

Partagez cet article avec la communauté !