Livre blanc : Réputation Management et e-réputation

La société Digimind vient de publier un nouveau Livre blanc intitulé « Réputation Management et e-réputation« .

Le risque de réputation est maintenant considéré comme le risque numéro 1 par les entreprises. La politique sociale et la réputation peuvent impacter l’image de ses produits ou même sa valorisation boursière. Ainsi, la réputation  apporte une plus-value à la valorisation en Bourse: plus 5% par an en moyenne pour les 10 entreprises les mieux notées en 2000.

Par ailleurs, comme le rappellent les responsables de Digimind : « Les études montrent que plus de 80% des dommages causés par le risque de réputation proviennent d’un déséquilibre entre le buzz et la réalité« .

Aujourd’hui, les risques standards sont identifiés et quantifiés, même si ils ne sont pas toujours sous contrôle. Mais reconnaitre que les attaques de réputation sont une menace croissante n’est pas suffisant.

Beaucoup d’entreprises sont déconcertées sur la façon de se préparer. Beaucoup d’entreprises ne considèrent même pas que les problèmes de réputation constituent un risque en soi, mais plutôt  une sorte d’onde de choc secondaire, conséquence d’un autre problème.

Par ailleurs, beaucoup d’entreprises ne savent pas comment tirer parti de leur réputation et comment  gérer les opportunités via les médias sociaux.

Ce Livre blanc aborde principalement 3 questions :

  • Pourquoi les attaques de réputation sont-elles en train de devenir une menace prioritaire pour les entreprises ?
  • Quelle nouvelle approche doivent observer les sociétés pour se préparer ?
  • Comment, dans la gestion de la réputation, tirer parti et gérer les opportunités, et pas seulement les menaces ?

Enfin, Digimind met en avant ce constat intéressant publié dans « An Economist Intelligence Unit white paper » : « Protéger la réputation d’une entreprise est la tâche la plus importante et difficile à laquelle doivent faire face les cadres supérieurs. Les changements dans l’environnement économique ont rendu les entreprises plus vulnérables aux dommages réputationnels, avec le développement des médias mondiaux et des canaux de communication. Mais les entreprises sont lentes pour résoudre les problèmes qui peuvent ternir leur image de marque. C’est curieux comme l’art de la protection de la réputation est peu développé et compris« .

Pour consulter ce document : www.digimind.com/fr/resources/livres-blancs/reputation-management-et-e-reputation/

Au service de votre réputation

Voir notre blog spécialisé sur l’e-réputation : www.votre-reputation.com
Et spécialement la rubrique Particuliers : www.votre-reputation.com/particuliers/

Intelligence économique et Big Data : peut-on parler d’innovation disruptive ? – Diplomatie Digitale

le 27 mar 2015

Intelligence économique et Big Data sont-ils complémentaires ou antagonistes ? La révolution de la data va-t-elle bouleverser le secteur ? Le Big Data est-il disruptif, c’est-à-dire va-t-il provoquer un éclatement des métiers et du secteur de l’Intelligence économique ?

Ces questions intéressent les professionnels de l’intelligence économique pour qui le Big Data détient le potentiel pour faire avancer les pratiques actuelles… à condition que les données soient structurées et que l’éthique soit respectée.

A l’occasion de l’intervention de Jean-Pierre Vuillerme, Senior VP Management des risques de l’ADIT, pour le colloque “La donnée n’est pas donnée” à l’Ecole Militaire, nous avons décidé de faire le point sur les relations entre Intelligence économique et Big Data.

Le Big Data : un phénomène né du Cloud ?

Avant même d’évoquer les relations qui existent entre intelligence économique et Big Data, il faut peut-être revenir sur ce que couvre réellement ce terme polysémique (l’école de sciences des données de Berkley a ainsi recensé plus de 40 définitions différentes). Le Big Data se définit généralement comme un ensemble de méga-données qui se caractérise, comme l’intelligence économique, par un triptyque : « high volume, high velocity, high variety » (volume, vitesse, variété).

Cette “alliance des 3 V” peut déjà fournir un début de réponse à l’énigme Big Data : il s’agit de la convergence de plusieurs bases de données différentes, avec un volume important et dans un temps relativement court. L’aspect qui nous semble le plus novateur dans cette convergence de méga-données est certainement la variété des données de par (1.) leur nature (vidéo, audio, image, texte), et (2.) leur provenance (Twitter, Youtube, recherche Google, données Exif, données audio).

Cette variété de données et des plateformes d’utilisation est le point le plus complexe à traiter techniquement : qu’il s’agisse des réseaux sociaux, des données publiques (open data), de données liées aux objets connectés et de métadonnées (données liées aux fichiers produits comme l’heure, la géolocalisation, etc), on se retrouve avec des extensions de fichiers et une masse de données structurées différemment.

En effet, s’il suffisait simplement de tirer parti d’un volume important de données en provenance d’une source unique, il n’y aurait rien de véritablement révolutionnaire dans le Big Data. Il est déjà possible à l’heure actuelle de puiser à l’intérieur d’un gisement de données uniques : c’est ce qu’on appelle le data mining, qui est une technique éprouvée et utilisée depuis longtemps par les professionnels de l’intelligence économique. La spécificité des Big Data tient à ce qu’elles rassemblent plusieurs informations différentes. Vient ensuite « la mise en place de règles de gestion et d’interactions, de segmentation et de personnalisation temps réel sur l’ensemble des canaux existants » (Arnaud Féménia, d’Opal Consulting) qui permet de tirer une réponse pertinente.

Il existe déjà plusieurs exemples connus utilisant les Big Data : Siri d’Apple peut déjà être considéré comme un logiciel précurseur de Big Data, tout comme Google Now ou encore Cortana de Microsoft. Ces applications/technologies ont ainsi recours à plusieurs données recherchées sur le Web pour fournir une réponse à une question donnée. Le Cloud a certainement joué un rôle majeur dans l’émergence du Big Data, avec la mise en ligne de données toujours plus volumineuses, toujours plus variées.

Intelligence économique et Big Data : des enjeux transverses

L’intelligence économique se distingue par sa capacité à trouver, protéger et exploiter l’information qualifiée. Théoriquement, cette capacité peut être démultipliée par le Big Data qui offre des perspectives de traitement et un gain de temps considérables. De fait, intelligence économique et Big Data semblent amenés à se rapprocher.

Avec l’émergence des méga-données (et des outils pour les analyser), l’intelligence économique se retrouve en effet touchée dans ses trois piliers : la veille/analyse, la sécurité et l’influence.

Veille/analyse : vers une collecte à 360°

Sans surprise, le principe de veille/analyse est le premier impacté par le Big Data. C’est tout à fait logique dans la mesure où les méga-données mettent à notre portée un nombre plus important de matériau brut que le consultant en intelligence économique se devra de raffiner. On peut globalement distinguer deux types de collecte : la collecte externe et la collecte interne.

  • Memex est un exemple très concret de collectes de données externes: le moteur de recherche de la DARPA dont nous décrivions les capacités peut ainsi fouiller de nombreux sites du Deep Web à partir de leur nom de domaine et en ignorant le fichier robots.txt. Le crawler récupère ainsi une foule de données (volume) de différentes natures (variété) qu’il va compiler en une cartographie temps réel (vitesse). Le moteur de recherche peut ainsi isoler un numéro de téléphone détecté sur une ligne Excel et le rattacher à un fichier média (photo, image) où ce numéro est visible – une tactique souvent utilisée pour ne laisser aucune trace exploitable par un moteur de recherche classique.
  • Les exemples de collecte interne sont déjà plus importants : ils sont ainsi réalisés par un grand nombre d’acteurs (banques, les assurances, les professionnels du tourisme) afin d’exploiter le large éventail de données détenues par les entreprises – base de données clients, historique de sites, données générées par des automates à l’étranger…

Dans la pratique, données internes et données externes vont se croiser à l’image de Flux Vision d’Orange afin de donner du sens aux données, avoir une vision en temps réel ou prédictive.

Cette collecte a donc un parallèle : la data devient le nerf de la guerre. Une collaboration fructueuse entre intelligence économique et Big Data ne fera sens que s’il existe un flux de data, exploitables et structurées et suffisamment important. Un tel flux suppose donc que le maximum de données, notamment publiques, soient mises à disposition du plus grand nombre : le mouvement d’Open Data doit donc s’accélérer.

Sécurité : entre perte de contrôle des données et prédiction des dangers

Le Big Data va peu à peu se traduire par une perte de contrôle sur ses données. En attendant de savoir, comme le dit Michel Serres pour le Figaro, qui sera le dépositaire de nos données, cette perte de contrôle est déjà source de danger pour les individus et pour les entreprises.

Un exemple simple : le croisement des données liées à l’utilisation d’un mobile (visible dès lors que l’on s’exprime sur les réseaux sociaux), de la géolocalisation et d’un agenda en ligne peut permettre de déterminer avec exactitude les allées et venues d’un dirigeant d’entreprises. Il s’agit d’une masse faramineuse de data certes, mais auxquelles des technologies exploitant les Big Data peuvent donner du sens. Il est inutile de préciser à quel point la capacité à déterminer avec exactitude les déplacements d’une personnalité est dangereuse : cela peut permettre par exemple de faciliter les attaques sur les entreprises de toutes sortes comme par exemple « l’arnaque au président » alors que l’on sait le PDG d’une société à l’étranger.

Plus adaptées aux entreprises, des solutions de Big Data appliquées à la finance de marché commencent à voir le jour, à l’image d’une technologie développée par la société de conseil Novencia. Dans une logique d’intelligence économique, cela peut permettre de détecter les signaux faibles des menaces pesant sur une entreprise – même si le Big Data prédictif a son lot d’erreurs.

C’est notamment le cas du Big Data appliqué à la prévention des épidémies. La société HealthMap avait déclaré avoir détecté l’épidémie neuf jours avant l’OMS. La réalité est beaucoup moins prodigieuse, puisque la société HealthMap avait plus d’une semaine de retard.

Influence : plus de réactivité et de précision

Dernier pilier du triptyque de l’intelligence économique, l’influence sera tout aussi impactée par le Big Data. Non pas tant au niveau des actions concrètes, qui requerront toujours une touche humaine, mais au niveau de la compréhension macro et micro des sphères d’influence, des communautés et des écosystèmes.

Si la technologie existe (voir nos articles sur les répercussions sur Swissleaks), elle est généralement éclatée entre divers outils non-homogènes (Gephi, Linkurious, Visibrain, Crowdmap).

Enfin, malgré l’existence des outils précités, leur exploitation peut être chronophage et la capacité à dissocier les sphères d’influence selon des requêtes précises plutôt rares : il manque encore à l’heure actuelle un outil temps réel et grand public qui pourrait faire la différence. Les premières solutions commencent à voir le jour, mais leurs prix et leur complexité font qu’elles sont souvent peu abordables pour les entreprises – à l’image de cette solution déployée par le gouvernement d’Arabie Saoudite.

Si du mariage entre intelligence économique et Big Data naissait un outil de ce type, l’influence s’en retrouverait profondément bouleversée en amont et en aval : il serait non seulement possible de mener et d’ajuster une stratégie d’influence dans un temps très court, mais également de mieux apprécier les résultats d’une campagne.

Intelligence économique et Big Data : l’innovation disruptive tant attendue ?

Le Big Data a le potentiel d’être une innovation de rupture pour l’intelligence économique.

La révolution des méga-données transforme ainsi notre rapport au savoir, qui migre d’une logique “Data > Information > Connaissance“, à un schéma inverse : “Information > Data > Connaissance“. C’est-à-dire que la structuration des méga-données devient une condition sine qua non à leurs exploitations : si une donnée est inexploitable par le logiciel de Big Data d’une entreprise, elle est donc inutile. Il y a donc un effort à faire pour transformer une information en plusieurs lots de données exploitables (lieu, horaire, émetteur, etc.) afin d’en tirer de la connaissance.

La donnée dépasse donc son statut uniquement factuel : il ne s’agit plus d’une constituante de l’information, elle devient un point nécessaire à l’élaboration du savoir.

Face à ce changement de paradigme, le risque d’éclatement des métiers de l’Intelligence économique est réel. A l’image du numérique qui a bouleversé le marketing et la communication, le Big Data pourrait bouleverser les métiers liés aux sciences de l’information. Le secteur en pleine mutation est toujours dans ses balbutiements, mais il voit déjà l’émergence de plusieurs métiers transverses et à consonance anglo-saxonne (en l’absence d’équivalent français) : data scientists, chief data officer, growth hacker, computer scientists – voir à cet sujet l’excellente étude de Datagency et IAB, disponible gratuitement à cette adresse, sur l’évolution des métiers du marketing et de la communication)…

Exemples d’évolution des métiers – Etude Datagency et IAB


Intelligence économique et Big Data - Exemples d'évolutions métiers numérique


Ces métiers ont en commun l’utilisation de techniques liées aux statistiques, à la lecture et à l’agrégation de données, mâtinées de connaissances en code : les métiers se rapprocheront de plus en plus des métiers de l’ingénierie.

Les besoins technologiques vont donc aboutir à une mutation du consultant IE, de la même manière que le détective privé moderne utilise son ordinateur en complément de ses enquêtes sur le terrain. Il faudra des experts de la donnée, capables de la structurer, de l’apprécier, d’établir des règles de collecte pour respecter les exigences éthiques… La formation apparait donc comme une étape nécessaire pour les praticiens de l’Intelligence économique, pour ne pas manquer une évolution cruciale du secteur mais aussi pour conserver un regard critique sur des technologies encore en transformation.

Une chose est certaine : l’intelligence économique devra prendre sa place pour éviter que sa spécificité, à savoir l’apport d’information qualifiée, ne se retrouve éparpillée à travers différents métiers.

L’incontournable besoin humain

Dans “Amusing Ourselves to Death“, Niel Postman avait déclaré que le monde moderne risquait de se retrouver noyé “dans un océan d’insignifiances“. Cette citation peut s’appliquer au risque posé par le Big Data. Face à un trop-plein de données ou en l’absence de règles de segmentation très nettes, une architecture Big Data peut être un danger : les données peuvent être fausses, tronquées ou pire non-exhaustives.

Par exemple, nous avions évoqué dans l’article précédent l’exemple de la confusion entre Triangle des Bermudes et Australie par Google. Nous aurions pu aussi évoquer les faux positifs de Google Flu Trends, ce service Google censé prévoir les épidémies de grippe mais qui a largement surestimé ces dernières. Pour ces raisons, l’importance de la touche humaine pour contextualiser, tempérer ou réinterpréter les résultats du Big Data est incontournable.

Car il faut remettre les choses dans le contexte. Se contenter de voir le monde à travers le prisme numérique est une erreur. Se reposer uniquement sur les prouesses du Big Data reviendrait à faire l’erreur des renseignements américains lors du 11 septembre qui ont sous-estimé l’humain au profit du tout technologique. L’angle et l’orientation donnée à une recherche reste incontournable, d’autant plus si cette recherche couvre des millions, voire des milliards, de données de nature différente.

Pour ces raisons, intelligence économique et Big Data sont appelés à marcher main dans la main. Les seconds ne vont pas ringardiser la première car l’analyse humaine est capitale. La raison tient principalement au fait qu’une donnée ne crée pas de sens : seul l’homme le peut. Le retour sur investissement passera donc par une mise en place d’une méthodologie fiable, des techniques de recoupage, des objectifs et des KPI. Plutôt que de se perdre dans l’infini possible du Big Data, plutôt que de jouer les apprentis sorciers ou de s’adonner à un bricolage dangereux, la mise en place de best practices et d’objectifs clairs est la meilleure réponse possible à une exploitation raisonnée du Big Data.

Vous souhaitez nous consulter pour plus d’information ? Cliquez ici.

Partager :

Sur le même thème

Tags : big dataintelligence économique

Nous suivre :

COP21 et manoeuvres d’influence : Bernard Carayon s’exprime.

Dans une tribune publiée sur Figaro Vox, Bernard Carayon livre son analyse sur les entreprises de déstabilisation à venir menées par les ONG anglo-saxonnes à l’encontre de la filière énergétique française. A l’occasion de la tenue au mois de décembre de la COP21 à Paris, la France connaîtra une opportunité sans précédent pour asseoir un statut et s’assurer un rayonnement international dans ce d…

La rédaction d’Archimag et RSD organisent un focus sur la gouvernance de l’information

286%20Actu%20Focus%20r%C3%A9dac%20CJO.jp

RSD participe au prochain Focus de la rédaction organisé par le magazine Archimag.

RSD vous propose une conférence sur la gouvernance de l’information et insistera notamment sur la mise en place d’un projet, ses finalités et ses étapes. En partenariat avec le groupe Serda, cette conférence s’inscrit dans les Focus de la rédaction du magazine Archimag. 

[…] Lire la suite de cet article sur Archimag.com