Menu principal

05.06.2017 - I&T

Big data : le « grand » big bang territorial

Bienvenue dans l'ère de la data qui se restitue, s'échange, se partage et ... se monétise. Impacts sur les actuels producteurs de données ? Opportunités pour les PME ? Appréhension par les grands comptes ? Avantages pour le territoire ? A quand la société « data centric » ?

 

À ceux qui auraient orbité à environ 325 km d’altitude ces dernières années (l’expression de « big data » est relativement récente), il est un mot qui, sur terre, fait le buzz au point de devenir un mot-valise : la data. Mot d’origine anglaise, associé dans un premier temps à « big » pour signifier « infobésité », « tsunami », « avalanche », comme autant de catastrophes, et plus récemment conjugué à « smart » comme pour engager son potentiel chargé en « valeurs ». Et aussitôt assimilé à « nouveau pétrole » pour « or noir » de l’économie digitalisée.

Tantôt eldorado, tantôt menace à la Big Brother. Tantôt remède, tantôt poison, selon son interlocuteur, l’usage, sa posologie et aussi un peu sa sensibilité aux mises en garde qui rangent l'une de ces technologies dites clefs de demain au rang de l’intrusion depuis que les Google, Amazon, Facebook, Microsoft et Apple, s'en sont emparés.

Pour autant, si le marché de la data n’existe pas encore (la valeur dépendra de son usage), les géants du web, eux, semble considérer que cet actif n’a pas de prix. Facebook a mis sur la table 22 Md$ pour acquérir WhatsApp alors que la société est en perte. Microsoft a déboursé 26,2 Md$ - une valorisation 9 fois son chiffre d’affaires et 30 fois son résultat opérationnel - pour empocher LinkedIn et ses millions de données détenues sur sa plateforme. Google a mis la main sur Nest, thermostat connecté qui produit en continue de la donnée sur les foyers. Le géant de l'agrochimie Monsanto n'a pas non plus hésité à racheter au prix fort plusieurs start-up du comme The Climate Corp. (1 Md$), spécialiste de l'analyse prédictive météo et du risque agricole, qui vend de l'assurance.

 

Nouvel actif immatériel des entreprises ?

Depuis quelques mois, on voit le terme de « smart data » se substituer peu à peu à « big data ».

On a parlé « big data » pendant quelques années car on traitait le sujet sous l’angle "infrastructures", notamment sous l'impulsion des technologies à même de traiter les volumes de données avec l’agilité nécessaire grâce à des logiciels en open source type Hadoop. Or aujourd’hui, ce qui intéresse, c’est comment on met la data au service des métiers et pas la donnée au service des informaticiens », explique Kevin Polizzi.

L’entreprise qu’il dirige, Jaguar Network, née dans les télécoms et le cloud avec un Datacenter dans le 16e arr. de Marseille, a développé une « business unit » spécialisée dans la data valorisation, « staffée comme une start-up interne avec 7 personnes, des marketeurs techniques, qui maîtrisent l’infrastructure, préalable nécessaire au traitement des données, et chapeautées par un directeur général, un ancien dirigeant de Cisco. Ce sont des profils très expérimentés, rares et chers. Il y en a un en France. On a de la chance qu’il vienne chez nous, qu’il ait accepté de venir sur le territoire et de baisser son salaire ».

Le département, qui devrait assez rapidement s’émanciper de Jaguar, travaille (mais pas exclusivement) sur les données hébergées par ses serveurs. « Par exemple, on travaille avec un de notre client : Asterop, une société basée à Grenoble et Paris, qui elle-même compile 600 sources de données publiques ouvertes (Insee, impôts…) pour créer des études de marché de géomarketing. Le secteur du retail est naturellement ciblé par ce type d’offres mais aussi les collectivités ».

« Le volume ne joue en rien », dit autrement Christophe Suffys, à la tête de Bittle, une « vieille » start-up créée en 2009 avec deux associés, qui fait aussi partie de la (encore petite) minorité d’opérateurs français capables de prendre le sujet de la donnée brute à bras le corps. L’ingénieur informaticien au parcours professionnel dans la business intelligence ne situe pas son entreprise dans le « big data », mais bel et bien dans le « smart data » :

La valeur ne se crée pas sur les données en tant que telles, mais sur l'exploitation intelligente d'informations, qui grâce au croisement avec d’autres données et des traitements analytiques, permet de créer de nouveaux services ou d’améliorer l’existant ».

 

Loin encore des « Data Lake »

 

Force est de constater, note le CIGREF, réseau de grandes entreprises dans son étude présentée en novembre dernier sur les tendances en matière d’usages des données (Maturité, pratiques et modèle) « que les entreprises valorisent encore assez peu leurs informations, notamment du fait d’un manque de compétences, d’investissements dans les outils, et de stratégie dédiée ». Tout en notant qu’il s’agit d’un enjeu pourtant fondamental : « dans un contexte où le risque de désintermédiation est majeur, la maîtrise de la relation client, la personnalisation de masse et la co-conception avec les consommateurs seront capitales dans la réussite des entreprises en 2020 ».

Un long chemin reste aussi à parcourir avant que les PME ne deviennent « Data centric » avec la donnée comme élément structurant d’une stratégie. Pour elles, le « Data Lake », ce fameux « lac de données » qui se réfère à une stratégie d’archivage suffisamment claire pour pouvoir extraire des informations pertinentes, ressemblent encore à des « marécages impraticables ».

Kevin Polizzi reconnaît que ce sont encore les grands comptes qui consomment ses prestations. « Les PME sont en train de faire les efforts nécessaires pour mettre au carré leurs systèmes d’informations. Elles seront prêtes pour la data valorisation dans 2 à 3 ans » assure-t-il.

 

Big bang territorial

Pour les historiques producteurs de données, si ce n’est pas de l’ubérisation, c’est un véritable « big bang » à effets collatéraux.

« Non seulement, nous ne sommes plus les seuls mais nous ne sommes plus qu’un acteur mineur, reconnaît sans concession Alexandre Gautier, directeur adjoint de l’INSEE PACA. « Il y a d’un côté des données structurées et celles qui ne le sont pas. Or, les approches statisticiennes classiques ne sont pas compétentes pour donner du sens à ces dizaines, centaines, milliers de téraoctets, qui viennent de partout et nulle part ».

« L’explosion de la data a énormément d’impact sur notre agence, nos métiers et notre façon de travailler les données. Non seulement, cela impose de recruter des spécialistes mais aussi de repenser notre rôle au cœur de l’écosystème local », complète Christian Brunner, le directeur général de l’AGAM.

Bienvenue donc dans l’ère de la donnée qui se restitue, se partage et se mutualise entre collecteurs, producteurs, consommateurs et autres contributeurs, qui ne sont plus tout à fait les mêmes. L’essor des plateformes collaboratives, de type Airbnb ou Blablacar, mais aussi l'utilisateur lui-même, à travers ses notes, commentaires ou recommandations, se sont immiscés parmi les nouveaux entrants dans la chaîne de production de la valeur des données.

L’impact de la donnée sur les acteurs traditionnels n’était naturellement pas le sujet central de la rencontre organisée par l’agence d’urbanisme de la ville de Marseille, l’AGAM, ce 30 mai au théâtre de la Minoterie à Marseille. Et si la thématique, « La ville, laboratoire de la donnée », était le sujet du débat, il s’agissait bien davantage de la valeur économique de ce nouveau carburant et du rôle qu’ont et auront à tenir les entreprises dans ce nouveau terrain de jeu pour la « valoriser », terme qui fait davantage consensus que « monétiser ». 

 

Acte 2 de l'open data ?

« La donnée est juste le carburant qui circule dans les tuyaux. C'est l’usage des services qui est fondamental. Or, on a du mal à passer à l’acte 2 de l'open data : la réutilisation avec un modèle économique pérenne. Faute de massification, bien qu’il se soit produit des centaines de nouvelles d’applications autour du transport et du tourisme par exemple, aucune aujourd’hui n’est réellement pérenne », indique un intervenant dans la salle, qui a accompagné le projet d’Open data de la région PACA depuis 2010 (une des premières collectivités à sortir un portail de la data, avec notamment la particularité de l'approche territoriale globale : une quarantaine d’acteurs publics ont choisi d’ouvrir leurs données sur cette plateforme).

Gino Bontempelli, chef du service Smart région pour la région PACA se concentre pour sa part sur les avancées : « La stratégie autour des datas a été redynamisée ces derniers mois dans le cadre du projet général de « Smart région » et notamment par une délibération du 3 novembre dernier du Conseil régional qui définit les datas comme un des leviers primordiaux de concrétisation de ce projet avec les infrastructures très haut débit. Mais notre rôle reste de mettre seulement à disposition des données dans le cadre de licences disponibles : aux start-up de concevoir de nouveaux services, aux collectivités de s’en emparer pour améliorer leurs politiques publiques, au monde associatif de les exploiter à leur gré ».

Les acteurs publics semblent en effet attendre beaucoup des nouvelles capacités d'analyse et de traitement des données pour franchir une nouvelle étape. « Au-delà de la fulgurance de la donnée, ce à quoi on s’attache c’est la rendre intelligible », insiste le directeur de l’Agam. Et pour améliorer le pilotage des services urbains, il faut faire voler en éclat cette approche en silos et mutualiser, synthétise Christian Brunner, citant Luc Belot (le député du Maine-et-Loire a remis en mai dernier au gouvernement son rapport sur l’avenir de la « ville intelligente »).

Il est en effet souvent constaté qu’en matière de données, la logique de silos sans intégration et vision partagés prévaut encore entre les différentes administrations des collectivités locales.

Quel que soit le secteur, les données de tel ou tel ont a priori peu de valeur lorsqu’elles sont prises isolément, signifie Rémi Costantino, directeur de la stratégie et de la prospective à Euroméditerranée, le grand chantier urbain entrepris il y a plus d’une décennie et qui vient d’attaquer la reconfiguration d’un nouveau pan de ville.

« On plaide souvent pour la ville durable et intelligente avec l’usage au centre. Un est emblématique : la mobilité. Évidemment il y a plein de choses à faire du côté des infrastructures : on fait des routes et des véhicules de plus en plus propres mais surtout, ce qui nous apporter le plus de gain d’accessibilité et de qualité de services, c’est la couche servicielle de l’interopérabilité des différentes solutions : concrètement, la RTM aujourd’hui, et demain les compagnies de car interurbains qui vont venir se connecter sur nos pôles de transport, sont des producteurs de données. Être capable de les mettre toutes sur un seul point d’entrée numérique apporterait un gain énorme en termes de productivité, de mobilité et surtout de services rendus aux usagers ».

Capital data commun 

Christophe Suffys,cofondateur et dirigeant de l'entreprise aixoise Bittle ©DR

 

Et pour Christophe Suffys, la clef, c’est bien le partage.

« La valeur de la data, c’est effectivement la réutilisation. La collaboration publique/privée est fondamentale. Ce qui est important n’est pas tant d’ouvrir la donnée : c’est obligatoire, on le sait, pour toutes les communes de plus de 3 600 habitants ou organismes de 50 agents. Dans le cadre de la French Tech, on a lancé des expérimentations avec des villes de la région et on leur dit de profiter de cette obligation comme un levier de croissance. D'autant que, dans un contexte de raréfaction des dotations budgétaires, voilà autant de nouveaux services que les villes pourraient proposer à ses administrés à moindre coût, en permettant à des start-up de prendre en charge la conception et la réalisation. Pour les entreprises, c’est une mine de business ».

Avec sa plateforme DataRendezVous™, qui a fait l’objet d’une présentation commerciale en avril dernier, l'éditeur a une foulée d’avance en s’affirmant comme un « laboratoire collaboratif autour de la valorisation de la donnée ». La solution reprend les codes (réactualisés) des plateformes collaboratives : la création d’une data community : « nous sommes un site de rencontres entre producteurs, consommateurs et des professionnels qui ont des compétences autour de la data, lesquelles mettent à disposition, gracieusement ou pas, leurs services pour aider les entreprises et collectivités à valoriser leurs données », image le dirigeant.

 

Et mon « Vélodrome dans ma poche », cela donnerait quoi ?

« Cela fait des dizaines d’années que l’on travaille sur la donnée. Il faut beaucoup la travailler pour qu’elle ait du sens, raconte Christophe Guion directeur Projets innovants à la direction Sud -Est d’Orange. On se dirige de plus en plus vers de la connaissance en temps réel. Dans le tourisme, par exemple, on peut ainsi proposer des offres personnalisées à des fans du jazz qui passent d’Antibes à Aix au gré des festivals. C’est le début de l’intelligence marketing. Aussi, la "smart data" sur un grand chantier urbain, c’est arriver à croiser les nuisances générées avecle bruit des réseaux sociaux pour en déduire le degré d’agacement ou d’acceptabilité du chantier. Cela peut être utile à une ville pour sa politique de communication ».

Orange a notamment développé, dès 2013, avec la Ville de Nantes une application « intelligente », dans le sens où elle tient compte des lieux et des contextes. « On a construit ces microservices en croisant des données qui viennent des objets connectés, des systèmes d’informations des collectivités, des cantines, piscines…, pour créer « ma ville dans ma poche », qui fonctionne dans le cloud d’Orange et renseigne sur tous les services urbainsen s’adaptant au profil prédéfini sur son cloud ».

Pour Christophe Guion, la vraie rupture est à venir : « quand on sera en mesure d’incrémenter cette base de connaissances avec du machine learning, alors, les informations seront encore plus pertinentes ».

Et mon « Vélodrome dans ma poche », cela donnerait quoi ? « On est en réflexion avec Arema. Je ne peux pas être très précis sur les services mais on a travaillé sur l’avant, le pendant et l’après avec pour objectif… d’amener le supporter vers les espaces marchands, quel que soit le moment », garantit le dirigeant d’Orange.

 

La ville intelligente, opportunité pour les PME ?

À la question : la ville intelligente peut-elle représenter des opportunités, Nathalie Dumas, qui a travaillé pendant 20 ans à l’international pour les géants des télécoms comme Inte et Oracle…, par ailleurs conseil du président de la CCIMP sur la digitalisation, répondait à l’occasion du Club de l’Eco de la Provence : « encore faut-il qu’elles en aient une lisibilité pour se positionner ».

Kevin Polizzi estime, lui, que « le territoire est plutôt bien doté avec une petite vingtaine d’entreprises spécialisées sur ces questions. Comme Bittle, Net system digital (dirigé par Olivier Cazzulo, par ailleurs délégué régional PACA du Syntec numérique, Ndlr) et Effective Yellow dans la valorisation ».

L’entrepreneur pilote par ailleurs, pour le compte de Medinsoft, association représentant les entreprises informatiques, une commission sur l’open data, composé d’une trentaine d’entreprises : intégrateurs, éditeurs, start-up et fournisseurs de matériels, qui planche à la fois sur les opportunités de business mais aussi sur l’aspect réglementaire.

Il y a un sujet d’actualité car le nouveau règlement européen (General data protection regulation, GDPR), qui va s’appliquera dès 2018 à toute entreprise qui collecte, traite et stocke des données personnelles - autant dire 90 % des entreprises -, impose de nouvelles obligations. En cas de non-respect, cela pourra donner lieu à des amendes jusqu’à 4 % du chiffre d’affaires annuel ». Ce qui impose à l’entreprise de réaliser une cartographie des données et une analyse des incidents de sécurité.

 

Modèle économique ? « Je vous assure qu'il le vend très cher »

« Pensez qu’il n’y a pas de modèle économique de la donnée, c’est une mauvaise interprétation », conteste Fabrice Coquio, qui pilote Interxion France, la filiale française de l’un des leaders européens des Datacenter. « 2015 est une année charnière dans la mesure où la valeur des datas échangés dans le monde a été supérieure à celle des marchandises ».

Un de mes clients, McKay Brother a placé chez nous des machines pour alimenter les traders en haute fréquence (le trading à haute fréquence consiste à acheter et à vendre des actions extrêmement vite à la vitesse de millisecondes, Ndlr). Je vous assure que c’est de la donnée qu’il vend et très cher. Quand SFR achète les droits de la ligue des champions, il y a un sacrée monétisation pour diffuser ensuite sur les plateformes ADSL.

 

Des questions en suspens

 La culture de la donnée dans les entreprises françaises, peu enclines à partager le patrimoine informationnel, et la protection liée à la vie privée restent à ajuster. « En France, avec la forte présence de la CNIL, le respect de la vie privée relève pratiquement des droits de l’homme », se moquent les plus libéraux.

L'universitaire en sciences économiques Philippe Langevin, spécialiste de l’économie régionale, ne cache pas son inquiétude à l’égard de ce mélange de statistiques, d’analyse, d’optimisation et d’informatique XXL, qui pourrait faire de tout un chacun un être écrasé par les sollicitations permanentes et commercialisé en temps réel.

Cela doit être générationnel mais je n’ai pas tout compris. Quoi qu’il en soit, est-ce que la multiplication des données améliore l’efficacité des politiques publiques que l’on pourrait apprécier, par exemple, en termes de création d’emplois ou réduction des inégalités …Je ne vois pas à ce jour que ce système ait amélioré les performances économiques du territoire. Aussi, le système Orange annonce une société tellement déterministe que l’on risque de perdre beaucoup en innovation, poésie, en découverte… si l’on ne peut plus se perdre dans la ville. Je suis dubitatif et interrogatif quant à la donnée privée : va-t-elle améliorer ma qualité de vie ou me transformer en anonyme mesuré dans tous mes actes, mes gestes et mes comportements ? ».

« Si un citoyen accepte de différer son voyage, si 4 000 font de même, n’y aura-t-il pas un impact positif sur tous les échanges infra territoriaux, la mobilité des salariés, la fluidité des routes et in fine, l'efficacité économique ? Ne s’agit-il pas là d’impacts réels qui bénéficient au territoire ? lui répond Christian Brunner, faisant référence au télépéage positif. C’est dans cet esprit qu’il faut raisonner et pas forcément en avantages directs ».

Le débat est donc loin d’être …

 

Adeline Descamps

 

* L'open data - ouverture des données publiques - est une obligation pour toutes les collectivités locales de plus de 3 500 habitants depuis l'adoption de la loi pour une République Numérique (loi du 7 octobre 2016). La « loi Lemaire » a achevé un chapitre législatif intense autour de l'open data (loi Valtere, loi Macron...). La réutilisation des données publiques est un droit depuis 2005.

 

Le pouvoir pris par la data

 

Pour faire un bon « big data », il faut un combustible (la donnée), un stock (les systèmes d’informations des entreprises et les plateformes collaboratives), un réservoir (les Datacenters, cloud...), des tuyaux (les câbles sous-marins pour échanger si nécessaire), des outils de valorisation (les fameux algorithmes) et aussi un autre supercarburant : la confiance (celle l'utilisateur à travers ses recommandations sur des services qui ne sont pas tous naturels, comme le fait de prêter sa maison !)

Mais de quoi parle-t-on ? Le « big data » fait référence à l'explosion du volume des données produites par les particuliers, entreprises, collectivités… issus de sources multiples (capteurs, réseaux sociaux, signaux GPS de téléphones mobiles, images numériques et vidéos publiées en ligne, enregistrements transactionnels d'achats en ligne...). Tellement volumineux qu’il est devenu difficile de les travailler avec des outils classiques de gestion de bases de données si bien que de nouvelles technologies sont apparues pour les stocker (notamment cloud computing et sa capacité qui se mesure désormais en teraoctet (10 octets12) ou en petaoctet (10 octets15) et bientôt 40 zettaoctets (10 octets21) et surtout , les analyser (calculs d’analyses, modèles mathématiques avec les fameux algorithmes …).

Une réalité, un défi

« Chaque minute, environ 300 000 tweets, 15 millions de SMS, 200 millions de mails sont envoyés dans le monde, tandis que des dizaines d’heures de vidéo sont mises en ligne sur YouTube et 250 gigaoctets d’information sont archivés sur les serveurs de Facebook », écrivait déjà en 2015 Gilles Babinet, en introduction de son livre Big data, penser l’homme et le monde autrement (Le Passeur, 2015) et représentant numérique de la France auprès de la Commission européenne.

Le défi : tirer profit de ces énormes volumes de données pour créer de la valeur : nouveaux produits ou services ; meilleur ciblage ou adaptation de l’offre ; optimisation des process de l’entreprise, suivi de la chaîne logistique, détection d’erreurs, maintenance prédictive, amélioration du process de livraison …

Rapport de forces

Dans la compétition mondiale, les États-Unis et leurs GAFA (Google, Apple, Facebook, Amazon) dominent largement le marché des solutions.

La France (cf. étude Technologies clés 2020 – Préparer l’industrie du futur, pilotée par la Direction générale des entreprises (DGE) a fait de la valorisation et l’intelligence des données massives l’une des 47 technologies clés pour la compétitivité et l’attractivité de la France. Gageant sur « le positionnement d’acteurs français (Atos, Thales, Criteo, Orange, Dataiku…) » et « un système académique performant (Télécom ParisTech, ENSAE, CNRS, INRIA, CEA…) tout en notant ainsi que « le retard des entreprises françaises dans l’intégration du Big Data ».

De la montée des capacités d'analyse et de traitement des données, dépendraient bien de nouveaux marchés … tant pour les villes que pour les entreprises et des emplois : 130 000 emplois en France d’ici à cinq ans selon une étude récente, le big data étant aussi une clé d’entrée pour l’Internet des objets, l’intelligence artificielle et la robotique.

Selon un sondage réalisé auprès de 592 membres du Club Décision DSI entre le 15 mars et le 15 avril 2017, près de 15 % des moyennes et grandes entreprises basées en France sont désormais équipées d'une plateforme pour assurer le traitement de gros volumes de données, contre 8 % en 2016.

Emergence d'un nouveau monde

Data scientists, chief data officer, chief data quality officer, digital data officer, data protection Officer, data miner, ou encore au master data manager, people Analytics, marketers data, business marketers … on ne compte plus le nombre de nouveaux profils qui apparaissent. Selon Le monde, il y aurait une quarantaine de formations (initiale ou continue) actuelles visant à outiller les organisations, collectivités, entreprises en compétences adaptées.

Illustration supplémentaire, s’il en fallait du pouvoir pris la data, qui a désormais un salon. Le Big Data Paris organisé au Palais des Congrès de Paris s’est imposé en quelques années dans le secteur IT en France avec plus de 10 000 participants revendiqués en 2016.

Trois grandes familles d'acteurs

L'offre professionnelle est en pleine structuration autour des technologies de l'information (IT) et de l'analytique (éditeurs de software en business intelligence, fournisseurs spécialisés...). Parmi ceux-ci :

Equipementiers/infrastructures : HP, Hitachi Data Systems, Dataiku, Hortonworks, IBM, Keyrus, Microsoft, Oracle, Teradata, Thales...

Software, business intelligence, data management, dataviz : Actuate, AID, Amazon Web Services, Bime Analytics, Bittle, Captain Dash, Cloudera, Conexance, Criteo, Dassault Systèmes, Datastax, Dataiku, Deloitte, Ekimetrics, EY, Hortonworks, HP, Hitachi Data Systems, IBM, Keyrus, Microsoft, Neo Technology, Pentaho, Pivotal, Qlik, Salesforce, SAP, SAS, Scinetik, Semdee, Sinequa, Splunk, Syncsort, Tableau Software, Talend, Teradata, Thales, Tibco, Viseo...

Conseil/SSII/Intégrateurs : AID, Bluestone, Business&Decision, Capgemini, Cloudera, CSC, Dassault Systèmes, Dataiku, Deloitte, Edis, EY, GFI Informatique, HP, IBM, Keyrus, Micropole, Microsoft, Oracle, SAS, Sentelis, Scinetik, Talend, Thales ...

A.D