2015: la révolution du bigdata le bigdata, c’est comme le sexe chez les adolescents : tout le monde en parle, personne ne sait vraiment comment le faire, tout le monde pense que tout le monde le fait, donc tout le monde prétend le faire» cette citation de dan ariely, professeur de psychologie et d’économie comportementale, est bien le reflet du flou qui entoure aujourd’hui ce concept de bigdata. nathalie lucas huriau, digital business manager, responsable du pôle stratégie digitale de mediaveille, s’est rendue pour nous au salon big data à paris. voici son débrief. si le bigdata est annoncé comme le changement technologique des années à venir, force est de constater que nous n’en sommes encore qu’aux prémices. le bigdata est pour beaucoup d’entreprises difficile appréhender tant en terme d’impact sur l’organisation, que de roi ou d’identification des compétences nécessaires pour le mettre en œuvre. logo_bd15_logoheader définition du bigdata : les 3 v puis les 5 v la définition officielle du bigdata est « données structurées ou non dont le très grand volume requiert des outils d’analyse adaptés. le bigdata a été caractérisé dans un premier temps par les 3 v: volume, variété, vélocité analyser de gros volumes de données, d’une grande variété de formats et de sources et qui peuvent être traitées très rapidement voire même en temps réel. c’est ce volume important de données, le plus grand nombre de sources et la vitesse de traitement qui font la différence avec le traitement classique de données. avec l’avènement d’internet, chaque individu produit un nombre important de données, que ce soit sur les blogs, les forums, les réseaux sociaux ou les messageries. a cela vient s’ajouter la multiplication des devices utilisés parfois simultanément, desktop, mobile, tablettes et téléviseur qui accroit le nombre d’informations liées à la navigation que l’on peut remonter (pages consultées, produits achetés). on peut également intégrer toutes les données publiques ou privées disponible en open data. ce flot de données – structurées, semistructurées ou non structurées – et leur exploitation constituent le bigdata. on peut aujourd’hui ajouter les 2 v : valeur et véracité disposer de données fiables, pertinentes et significatives pour donner du sens et de l’intérêt aux analyses menées dans la prise de décision. les secteurs les plus sensibilisés aujourd’hui aux problématiques big data sont les tmt (technologies, medias et télécommunications) et les banques. quelques chiffres pour mesurer les enjeux * chaque jour on produit dans le monde environ 2.5 milliards d’octets d’informations. de 2013 à 2020, la masse de données de l’univers digital va doubler tous les deux ans. * 80% des données des entreprises sont non structurées et seulement 6% sont exploitées (idc markesslnt 2015) * 17% des entreprises françaises sont matures dans l’exploitation de leurs données clients d’après la dernière étude réalisée par ernst & young sur le bigdata des champs d’application très vastes si le gouvernement américain a été précurseur dans la mise en œuvre de projets bigdata grâce notamment à un budget de 200 millions de $ pour un fond de recherche dans ce domaine, il existe aujourd’hui des retours d’expériences d’entreprises françaises. logo sncf * la sncf a créé une nouvelle application qui s’adapte au profil du client : en enregistrant son voyage en train, le client peut être accompagné tout au long de son trajet et être informé sur les correspondances possibles, les numéros de quais, les retards, les services disponibles en gare. toutes ces données sont envoyées sous forme de notification push sur mobile. * pour le secteur humanitaire, les mots clés tapés dans les moteurs de recherche et l’analyse des verbatims sur les réseaux sociaux sont une mine d’informations car ils peuvent révéler l’état d’avancement d’une épidémie ou l’ampleur que prennent les mouvements sociaux. l’observation au niveau mondial de certains sujets fournit ainsi aux nations unies un état des lieu en temps réel et leur permet d’adapter et d’améliorer le déploiement des projets humanitaires. * une compagnie d’assurances (progressive) propose un système d’assurance évolutive qui a mis en place une prime d’assurance pay as you drive. l’assuré ne paie pas en fonction des critères classique (puissance du moteur, km, modèle, âge, nombre d’années de permis) mais en fonction du respect du code de la route (limitations de vitesse, feu, stop, ….) et de sa localisation (s’il est dans les bars ….) à condition d’accepter l’installation de capteurs et d système de tracking dans sa voiture. un projet bigdata se construit en 3 étapes * 1ère étape : la définition de l’infrastructure qui va permettre la collecte, l’analyse et la segmentation des données disponibles . cette action centralise les données auparavant gérées d’une manière séparée en s’appuyant sur des technologies et des infrastructures et est réalisée bien souvent dans l’optique de réduction des coûts it. * 2ème étape : le traitement des données consiste à « transformer » les données brutes en données exploitables grâce à l’utilisation d’algorithmes mathématiques autoapprenants. * 3ème étape : l’exploitation des données, notamment dans le domaine du marketing digital. un des domaines d’application les plus répandus : le data marketing le bigdata apporte des informations supplémentaires dans la connaissance des clients grâce à l’utilisation du machine learning qui permet de déduire des tendances à partir de l’analyse du passé. la segmentation en temps réel et plus fine des bdd conduit à mettre en place des actions marketing personnalisées en fonction du parcours client. ces informations qualitatives, qui ne sont pas présentes dans un outil classique de crm sont pertinentes pour la mise en place d’un marketing prédictif. les premiers usages sont la personnalisation en ligne de contenus éditoriaux ou de messages et la publicité en temps réel via le rtb. pour rendre ces données exploitables et compréhensibles par les décideurs, il est ensuite nécessaire de mettre en place une data visualisation pertinente car audelà de l’interprétation des données qui permet de déterminer des tendances, cette représentation constitue un outil puissant d’aide à la décision pour la direction générale de l’entreprise. le data marketing crée également de nouveaux business modèles comme la data monetization, qui consiste à « vendre » ses données anonymisées ou la data sharing qui permet à des acteurs de s’allier en partageant leurs données pour mieux comprendre ses clients. une compagnie aérienne a par exemple partagé des données avec une chaîne hôtelière. en identifiant que dans leur processus de réservation de vacances les femmes réservaient d’abord un hôtel puis un vol et les hommes l’inverse, ces acteurs ont pu mettre en place une communication différenciée hf en s’adressant à leurs prospects. par audrey dufour, le 13/10/2015 à 14h56 le google data center de douglas (état de géorgie). ces centres stockant des données numériques sont parfois grands comme des villes. un pétaoctet, un zettaoctet, un yottaoctet… ces unités ne vous évoquent rien ? c’est pourtant grâce à elles qu’est mesurée la quantité de données produites par l’homme désormais. un zetta, par exemple, vaut 10^21 , un zettaoctet représente donc 1 000 000 000 000 000 000 000 octets. cela fait beaucoup ? pourtant c’est à peine une fraction de la quantité d’informations, numériques ou non, produites autour du globe cette année. avec ces chiffres astronomiques, l’homme est entré dans le domaine du «bigdata», les données massives. «les spécialistes sont obligés d’inventer des unités de mesure au fur et à mesure, et même eux n’arrivent pas à se souvenir de la quantité représentée», s’amuse olivier cappé, directeur du laboratoire traitement et communication de l’information (ltci). la gestion de quantité de données dépassant l’entendement n’est pourtant pas un problème nouveau. le recensement américain de 1880 a nécessité sept ans de travail ; le temps que les données soient publiées, elles étaient devenues obsolètes. pour le recensement de 1890, il aurait fallu plus d’une dizaine d’années en se basant sur les méthodes traditionnelles. seule l’invention par herman hollerith d’une tabulatrice, ancêtre de l’ordinateur fonctionnant avec des cartes perforées, a permis de remédier au problème. depuis, collecte massive de données et progrès technologiques pour les analyser progressent de pair, par bonds réguliers. avec le développement d’internet, du numérique et des objets connectés, le problème du «bigdata» est de retour : les capacités de traitement sont pour l’instant à la traîne derrière les capacités de collecte. «depuis 2008, la production de données dépasse et va plus vite que nos capacités de stockage et de traitement», explique dan vodislav, chercheur au laboratoire équipes traitement de l’information et systèmes (etis). pour les scientifiques, le problème peut se résumer par la règle des «3v» : un volume important, une grande variété de données, et une vitesse décisive. à ces trois caractéristiques peuvent parfois être ajoutés d’autres «v» : la véracité des données, la valeur ajoutée produite, etc. le premier problème, celui du volume important, est le plus facile appréhender. chaque minute, une centaine d’heures de vidéos est mise en ligne sur youtube. la majorité d’entre elles n’est jamais vue par personne et ne présente qu’un intérêt très limité. mais comment faire le tri dans la masse ? cette incapacité à observer l’intégralité des informations a conduit les chercheurs à changer de paradigme. «le bigdata a changé la façon d’utiliser les données, explique olivier cappé. avant, les analystes avaient une idée a priori de ce qu’ils cherchaient et la vérifiaient grâce aux données, maintenant ils espèrent extraire des connaissances sans les imaginer par avance.» jusqu’à présent, les modèles décrivaient les données, désormais les données écrivent les modèles. deuxième problème, la variété de données soulève des questions plus techniques : comment une machine peutelle analyser du texte, des images, de la vidéo, du son ? «le problème est le même que pour les êtres humains, poursuit le directeur du ltci. dans un groupe de personnes, chacun pourra décrire la même image de façon complètement différente.» comment faire pour que des ordinateurs voient tous un océan et non pas une mer, une étendue d’eau ou un lac? «nous avons besoin de référentiels, de bases de données reconnues par tous», répond dan vodislav. ces référentiels contribuent aussi à assurer la valeur des connaissances extraites des données. dans le cas de la bourse par exemple, les codes associés aux entreprises permettent de les identifier, même si plusieurs sociétés ont le même nom. ce référentiel, cette base de données, facilite les échanges ultrarapides qui agitent les places boursières. ce qui amène au troisième problème: la vitesse et ses enjeux économiques. en effet, un moteur de recherche qui mettrait dix minutes à afficher un résultat deviendrait aussi pratique qu’une encyclopédie en huit tomes. pour pouvoir traiter efficacement les requêtes, les entreprises numériques ont donc besoin de structures réactives, qu’il s’agisse de «supercalculateurs» ou de gigantesques «data centers». plusieurs avancées techniques ont permis le développement de ces infrastructures. ainsi, la finesse de gravure des plus récents microprocesseurs avoisine les 14 nanomètres, quatre fois moins qu’il y a dix ans. «les gravures sont plus fines, donc les microprocesseurs plus petits», résume jeanphilippe nominé, chargé de mission sur les calculs haute performance au cea. grâce à la miniaturisation, il est possible de faire plus sur un espace identique. par ailleurs, les informaticiens ont développé des architectures de calcul distribué. le parallélisme permet ainsi de découper un problème en petits morceaux, qui seront résolus par différentes machines, l’image d’un fordisme informatique. ces nouvelles architectures ont permis le développement du «cloud», l’informatique en nuage. les petites et moyennes entreprises n’ont en effet pas les moyens de s’offrir les infrastructures nécessaires pour une performance comparable aux poids lourds du numérique. elles font alors appel aux centres de données et à la puissance de calcul des grandes sociétés, qui mettent de l’espace dans ce cloud disposition. «le cloud est flexible, il permet de répondre à une requête ponctuelle très gourmande grâce à la mise en commun des ressources», explique dan vodislav. avec, in fine, le problème récurrent de l’utilisation des données et des législations nationales. prenons un acheteur français sur un site de commerce en ligne allemand, qui paye grâce à un système développé par une compagnie privée américaine dont les serveurs sont hébergés en islande. quelle juridiction est compétente en cas d’utilisation frauduleuse du numéro de carte bancaire ? qui fait loi concernant le délai de conservation de ces données ? voilà un problème politique auquel les progrès techniques n’apporteront aucune solution. google lance une plateforme cloud pour l'analytics orientée bigdata lors de son événement français next ce 13 octobre, l'américain dévoile un environnement cloud d'exploration et de visualisation de données. il est taillé pour tirer parti de google bigquery. a l'occasion de son événement français next qui a lieu ce 13 octobre paris, l'équipe de google cloud platform annonce l'ouverture mondiale d'un nouveau service : google cloud datalab. il s'agit d'un environnement interactif d'exploration et de visualisation de données pour les data scientists, explique greg demichillie, directeur produit management de google cloud platform, avant de préciser : nous n'avons pas pour vocation, avec ce service, de concurrencer les éditeurs d'outils de data visualisation comme tableau. a la différence des solutions paquagées de visualisation de données, google cloud datalab est en effet plutôt taillé pour les profils de développeur. il repose sur ipython notebook : un shell pyhon. ipython notebook permet de réaliser des traitements au sein des données bigquery, puis de les restituer visuellement, sous forme de graphiques par exemple. ces notebooks peuvent ensuite être partagés au sein de votre entreprise, détaille greg demichillie. un outil compatible avec hadoop ou spark google cloud datalab peut aussi aller puiser dans des données stockées sur google cloud storage, ainsi que dans d'autres écosystèmes technologiques, orientés bigdata, comme hadoop ou spark. l'ensemble de ces sources peuvent même être combinées par la solution au sein d'un unique pipeline de données (combinant exploration, transformation et visualisation). avec la possibilité d'associer plusieurs langages (python, sql et bigquery udf), google cloud datalab permet enfin de définir et de déployer des modèles de machine learning. interface de google cloud datalab. © google les 10 commandements pour se lancer dans les bigdata directeurs marketing, directeurs des systèmes d'information, directeurs des données : tous s'accordent à dire que la culture « data » gagne les entreprises, portées par des perspectives de gains, financiers, qualitatifs et compétitifs. reste à savoir comment s'y prendre. 1. vos objectifs vous clarifierez les gains et valeurs délivrés par les données étant inconnus au départ du projet, les premières initiatives doivent être guidées par des objectifs métiers clairs, en réponse à des questions simples : qu’estce que je veux apprendre des données ? quels bénéfices pourraisje tirer des données à ma disposition ? quels nouveaux produits et services pourraisje proposer ? 2. la politique des petits pas, vous appliquerez la démarche progressive et modeste a deux vertus : sa facilité mobiliser des acteurs en délivrant rapidement des enseignements et sa capacité à démontrer très tôt le bienfondé des investissements, au travers des gains générés, afin de convaincre la direction générale de continuer à investir. 3. de quelles données parleton ? vous saurez ! les entreprises ont tendance à sousestimer les données à leur disposition. une des premières étapes à réaliser est la cartographie des données internes et externes disponibles et leurs qualifications, afin de : affiner les cas d’usage en les priorisant, classer les expérimentations à réaliser en fonction des contraintes, identifier les données externes utiles, identifier très tôt les passerelles à construire. 4. une architecture orientée vers les utilisateurs vous concevrez audelà de l’intervention indispensable d’architectes techniques, notre conviction est que les utilisateurs des données côté métier devraient être associés dès le départ à ces réflexions, en raison de leurs impacts sur la création de valeur. 5. l'opportunité pour développer le collaboratif vous saisirez la valeur de la donnée tient dans son croisement avec d’autres données et son analyse via le prisme de plusieurs métiers. la donnée doit se mélanger, s’enrichir, se diffuser pour générer de nouveaux cas d’usage et des opportunités. le développement des initiatives bigdata est l’occasion d’intensifier les collaborations internes et le recours aux compétences externes pour favoriser l’innovation et la créativité. le mode collaboratif n’est toutefois pas totalement naturel, et il convient de pérenniser un mode d’organisation transverse : décloisonner les fonctions de l’entreprise, construire les projets autour d’équipes pluridisciplinaires, organiser la mobilité interne permettant de diffuser des cultures différentes, créer des directions digitales qui fédèrent. 6. la donnée vous l'organiserez il est important de conserver ou de faire émerger un gardien du temple qui va garantir l’unicité des référentiels avec lesquels les données vont être accrochées. ce gardien va gérer la cohérence du sourcing, valider la qualité/l’intégrité des données produites et orchestrer la diffusion des résultats. 7. l'équilibre entre externalisation et internalisation des compétences vous trouverez a la rareté des ressources compétentes dans le domaine du traitement de la donnée s’ajoute la nécessité de rassembler des expertises variées et complémentaires. deux difficultés qui incitent à faire appel dans un premier temps à des ressources externes, qui permettent d’avancer vite et de capter de l’expérience. 8. un agenda data qui couvre toute l’entreprise vous prévoirez faire travailler la dsi avec les directions métiers est un facteur essentiel, mais insuffisant pour garantir le succès ; c’est toute l’entreprise qui doit se mettre en mouvement et se préparer aux enjeux de la donnée. cela passe par la capacité à maîtriser les nouvelles compétences, les nouveaux métiers du numérique et de la data et savoir recruter de nouveaux profils. le service juridique doit, par exemple, être un facilitateur des expérimentations et initiatives dans le respect du cadre réglementaire. cet agenda sera facile à exécuter si la direction générale en est un promoteur actif. 9. a l'écosystème vous vous ouvrirez l’écosystème autour de la data est en pleine expansion et innove. il est indispensable pour l’entreprise de s’ouvrir à cette richesse, sous peine d’être concurrencée par de nouveaux entrants. les entreprises ont potentiellement des modèles complémentaires qui peuvent s’enrichir afin d’inventer de nouvelles offres, de nouveaux produits au service des clients. les exemples abondent d’utilisation croisée de données, que ce soit dans les transports, dans l’énergie ou la santé. 10. la dimension culturelle vous prendrez en compte le rapport à la donnée, au même titre que le rapport au digital dans son ensemble, est aussi une question de culture. en france, la donnée est synonyme de pouvoir et ne se partage pas facilement, ou est ignorée. il est crucial pour les entreprises de faire évoluer ce volet culturel. par marc sailly, pdg d'axys consultants dell, futur géant mondial du «bigdata» par jeanchristophe féraud — 12 octobre 2015 à 18:26 le géant américain de l'informatique dell a annoncé ce lundi l'une des plus grosses acquisitions de l'histoire du secteur des technologies, avec le rachat pour 67 milliards de dollars du poids lourd du stockage de données emc le géant américain de l'informatique dell a annoncé ce lundi l'une des plus grosses acquisitions de l'histoire du secteur des technologies, avec le rachat pour 67 milliards de dollars du poids lourd du stockage de données emc photo justin sullivan.afp délaissant le marché déclinant des pc pour celui en pleine expansion des serveurs, l'américain dell va racheter son compatriote emc, poids lourd du stockage de données informatiques. ensemble, les deux groupes veulent devenir incontournables pour les entreprises. * dell, futur géant mondial du «bigdata» «big» est toujours plus «beautiful» au pays des géants de l’informatique. deux ans à peine après avoir repris le contrôle direct de son groupe en rachetant toutes ses actions cotées à wall street, michael dell frappe un grand coup : le milliardaire texan a annoncé ce lundi l’acquisition de son compatriote emc, poids lourd mondial du stockage de données, pour la somme record de 67 milliards de dollars (59 milliards d’euros). c’est le fonds d’investissement silver lake, qui avait déjà aidé le fondateur de dell à reprendre le contrôle son groupe en 2013, qui financera en grande partie l’opération avec le concours d’un autre fonds (msd partners). ce deal impressionne par son montant, mais sa finalité – créer le numéro 1 mondial du big data – est peutêtre encore plus spectaculaire. explications. que fabriquent dell et emc ? en 1984, le jeune michael dell, encore étudiant, a l’idée de vendre des ordinateurs par correspondance, en dehors de tout circuit de distribution. ou comment garder dans sa poche la marge du commerçant. a l’époque internet n’existe pas, l’idée est révolutionnaire. le roi de la vente directe de matériel informatique est né. le concept va notamment séduire le juteux marché des entreprises, et la société dell inc, basée à round rock, au texas, va se hisser au premier rang mondial des fabricants de pc dès la fin des années 90. mais depuis l’avènement de l’internet mobile, le marché de l’ordinateur familial est en constant recul au profit des tablettes et des smartphones. et dell n’est plus que le numéro trois du pc, derrière le chinois lenovo et l’américain hp. sentant le vent tourner, michael dell a largement recentré son groupe sur le marché en plein boom des serveurs : ces armoires de stockage de données qui s’alignent par milliers dans les fameux «data centers», où l’on garde toutes nos traces numériques. le stockage informatique et les logiciels d’extraction et de traitement de données qui vont avec, c’est précisément le métier d’emc corporation (emc² en abrégé, en clin d’oeil à la formule d’einstein) depuis la création de l’entreprise dans le massachusetts en 1979. un géant du «bigdata», oui, mais pour quoi faire ? «la combinaison de dell et emc va créer le groupe de technologie détenu par des intérêts privés le plus important au monde», claironne le communiqué de dell. ensemble, les deux entreprises afficheront plus de 80 milliards de dollars de chiffre d’affaires et 150 000 salariés (avant, du moins, les inévitables «synergies», qui, dans ce type d’opérations, se traduisent en général par des milliers de suppressions de postes). au pays des «entreprises agiles», la taille n’est de toute façon pas une fin en soi. alors quand on met 67 milliards de dollars sur la table, essentiellement en cash et avec le concours de son principal actionnaire (silver lake), mieux vaut savoir où l’on va. c’est manifestement le cas de michael dell, qui veut donner naissance un mastodonte en mesure de dominer le marché mondial du stockage de données informatiques, devenu le principal enjeu de l’ère numérique. pourquoi un montant aussi pharaonique ? avec 67 milliards de dollars sur la table, cette acquisition est l’une des plus importantes jamais observée dans le secteur de la hightech, si l’on met de côté les 180 milliards de dollars de la fusion aoltime warner, emblématique des excès de la bulle internet. en 2001, le mariage des deux fabricants informatiques hpcompaq s’était conclu pour 33 milliards de dollars «seulement». mais ce montant n’est pas si élevé, quand on sait qu’emc, qui est une entreprise cotée à wall street, valait déjà 54 milliards de dollars avant l’annonce de l’opération. pour emporter l’adhésion des actionnaires de l’entreprise, l’acquéreur dell offre une belle prime (33 dollars par action au lieu de 27 dollars à la dernière cotation) qui valorise donc l’entreprise à 67 milliards. opération séduction réussie : le conseil d’administration d’emc a immédiatement approuvé l’offre et recommandé aux actionnaires de l’accepter. l’opération estelle risquée ? «dell can’t lose» («dell ne peut pas perdre») : michael dell, qui n’a jamais douté de rien, a fait la une du magazine forbes en 2013 avec cette affirmation. et aujourd’hui, il est persuadé que le nouvel ensemble dellemc sera «leader» dans les serveurs, le stockage et «cloud computing»… bref tout ce qui permet aux entreprises d’externaliser leurs données et de réussir leur «digital transformation». un eldorado du numérique englobant désormais toutes les technologies de l’information, que le texan évalue «2 000 milliards de dollars»… parmi les atouts d’emc, sa filiale vmware, spécialisée dans la «virtualisation» – une technologie clé pour l’externalisation informatique des entreprises – qui restera cotée en bourse. oui, mais il y a déjà du monde au balcon : outre les autres cadors de l’informatique comme ibm, hp ou microsoft, le marché du big data est devenu un terrain de jeu pour les géants de la silicon valley : google, apple, facebook, amazon offrent tous des services de cloud aux particuliers et aux entreprises pour stocker leurs données. et tous ces «gafa» (initiales des quatre entreprises) ont une force de frappe financière bien supérieure à celle de dell, qui a choisi de se retirer de la bourse pour ne plus subir la pression des investisseurs et être libre de ses mouvements. a lui seul, google – pardon, alphabet, le nouveau nom de l’entité – pèse 450 milliards de dollars à wall street… le rachat d’emc est donc avant tout une opération de survie de la part de dell, qui semble mettre en application le vieil adage «too big to fail» («trop gros pour couler»). en tout état de cause, désormais seul maître à bord de son groupe, michael dell n’a pas le droit à l’erreur : 15^e fortune mondiale, selon le dernier classement forbes, il risque, à 50 ans, la quasitotalité de son bas de laine (19,5 milliards de dollars) dans cette affaire… jeanchristophe féraud bigdata, réseaux sociaux, mobilité… comment le digital peut transformer la banque à papa ! il y a quelques jours, la société générale faisait la une de la presse nationale en annonçant la suppression de 20% de ses agences d’ici 2020. ces fermetures programmées par le groupe bancaire français, rappellent que la désertion s’est imposée comme le nouveau mal des agences bancaires. une étude réalisée par wincor nixdorf révélait que seuls 17% des français se rendent à leurs guichets plus d’une fois par mois… contre 62% il y a seulement cinq ans ! des chiffres surprenants ? pas vraiment. notre époque est celle de l’immédiateté. qu’il s’agisse d’acheter de la musique, de chercher une information ou d’acheter un livre, désormais tout est digitalisé, instantané et réalisable depuis n’importe où: c’est le fameux anytime anywhere anydevice (atawad) ! la banque ne fait pas exception. tout ce qui relève du « daily banking », (consultation des comptes, réalisation des virements, commande de chéquiers, …) est donc réalisé à distance via le smartphone. le rôle prégnant joué par la digitalisation et les applications mobiles dans la désertion des agences bancaires a logiquement abouti à la fermeture de plus de 2 000 d’entre elles durant les dernières années. dans ce contexte, doiton en déduire que la disparition de l’agence bancaire est inéluctable ? pas du tout. la transformation digitale pour séduire (à nouveau) les clients a la faveur du conseiller, l’agence bancaire demeure un facteur de réassurance nécessaire pour les clients. elle constitue d’ailleurs le premier signe visible de la banque. la qualité du suivi et la richesse des services apportés par un professionnel connaissant personnellement son client restent fondamentales. alors que faire ? adapter la grammaire de l’agence celle de ses clients en réinventant la proposition de services et les modes d’interaction. autrement dit prendre le virage de la transformation digitale ! pour cela, la banque doit agir sur deux fronts afin de se « réconcilier » voire « regagner » avec ses clients. premièrement, accroître sa capacité à répondre à chaque client sur tout sujet, à tout moment et depuis n’importe où. pour ce faire, il est crucial d’investir dans les solutions technologiques répondant à ses attentes et capables de proposer une approche omnicanale dans laquelle le client bénéficie d’une continuité d’expérience. deuxièmement, inscrire l’agence dans ce dispositif omnicanal en proposant surplace des services innovants, notamment sur l’automate, qui justifieront le retour des clients. d’ailleurs la nécessité de se digitaliser s’étend également à ceux qui incarnent la banque : les conseillers bancaires. ces derniers ont impérativement besoin d’outils leur permettant d’interagir librement au sein de l’agence avec les clients. ceci étant dit comment opérer cette transformation digitale ? les données, l’omnicanal et l’innovation : le socle de la transformation de l’agence bancaire tout d’abord, en exploitant intelligemment les données clients. récemment la banque espagnole bbva déclarait par la voix de son ceo, francisco gonzalez, que « la richesse de l’expérience utilisateur sera nourrie par l’apparition de nouvelles applications capables d’utiliser et de croiser des données clients ». même son de cloche du côté d’ing, où le bigdata est considéré comme une « technologie indispensable à la survie de la banque ». rien que ça. pour donner corps à la pensée de francisco gonzalez, on peut imaginer une banque proposant à un certain nombre d’enseignes de partager avec elles les transactions bancaires de leurs clients (de façon anonyme). les distributeurs seraient en mesure d’améliorer le ciblage de leurs actions marketing tandis que les consommateurs ciblés profiteraient d’offres promotionnelles en échange de leur autorisation d’exploiter leurs données. ensuite, en mettant au point des solutions nativement omnicanales. grâce à l’omnicanal, la banque profite des différents canaux numériques existant pour étendre sa présence en ligne, augmenter le nombre d’interactions avec ses clients et suivre leurs parcours. cette interaction enrichie pourrait prendre les formes suivantes par exemple : · la préparation d’un retrait à distance sur le dab de son choix via une application mobile · la sollicitation d’un client lorsque ce dernier se trouve proximité d’une agence du réseau · l’investissement des réseaux sociaux. aujourd’hui, 30 millions de français disposent d’un compte facebook, 7 millions d’un compte linkedin et 2,3 millions d’un compte twitter. or dans leur ensemble les agences bancaires usent trop rarement (voire jamais) de ces canaux pour établir une relation personnalisée et en temps réel avec leurs clients. estce bien raisonnable ? pourquoi ne pas installer les réseaux sociaux au cœur d’un dispositif visant à ramener les clients vers leur agence bancaire ? outre les trois leviers précités, de multiples solutions à haute valeur ajoutée contribueraient à créer la banque de demain. nombre d’entre elles existent déjà : · l’installation de microagences sans personnel avec la possibilité de réaliser des entretiens par visioconférence dans les lieux reculés et/ou les espaces restreints · le paiement des factures sur l’automate · le couponing sur automate avec les commerçants du quartier ayant domicilié leurs comptes bancaires dans l’agence · la mobilité du client dans l’agence en l’équipant de terminaux digitaux les idées proposées dans cette tribune ne sont pas révolutionnaires. et c’est justement là que réside leur force car elles sont accessibles toutes les agences bancaires conscientes de l’urgence de transformer la banque à papa sous peine de voir s’élever, année après année, leur taux de désertion. mickaël cabrol, ceo fondateur d'easyrecrue revient sur la technique du recrutement prédictif. les techniques et outils de recrutement sont en pleine mutation. depuis l’arrivée du bigdata dans les politiques rh, on ne cesse de lui trouver de nouvelles applications. la dernière en date : le recrutement prédictif. une méthode innovante permettant aux recruteurs de « prédire » de manière encore plus poussée leurs futurs besoins en personnel, et d’identifier les candidats les plus à même de devenir leurs talents. ici, l’étude du potentiel et de la personnalité prime sur les connaissances et compétences, le but étant de récolter toujours plus d’informations afin d’anticiper leur bonne intégration dans l’entreprise. créativité, gestion du stress, leadership ou encore optimisme sont alors évalués : des données pour évaluer la pérennité de la collaboration. mais pas seulement. exploitées correctement, ces data permettront de combler les manques de l'équipe actuelle, d’estimer les performances de la nouvelle, et par conséquent d’envisager sereinement la compétitivité de l’entreprise. cohésion et esprit d’équipe pour générer une énergie positive si le talent recruté enthousiasme sa hiérarchie, ses qualités ne pourront prendre toute leur envergure sans la bienveillance de chacun des individus qui compose le service qu’il intègre. dans un climat de tension, rien de bon ne peut émerger. une équipe ne nait pas « équipe », elle le devient. ce sont les objectifs, mais également les problèmes qui, mis en commun créent une unité et une cohésion en mesure de tous les motiver individuellement. pour que cela fonctionne, il faut arriver à ce que chaque collaborateur trouve sa place, qu’il soit impliqué personnellement, qu’il se sente responsable et solidaire de la réussite de l’équipe en tant que membre de celleci et non en tant qu’individu. une bonne ambiance de travail prend alors tout son sens et devient primordiale pour mener à bien n’importe quel projet. selon une étude opinion way, pour les salariés français, elle est même plus importante que le salaire. l’on aurait alors tort de sousestimer les conséquences d’une mauvaise ambiance. l’effort devient plus difficile, l’engagement moins marqué, et l’entreprise en ressort mécaniquement fragilisée. 87 % des salariés français estiment qu’une bonne qualité de vie au travail profite à la fois aux salariés et aux entreprises[1]. jouer collectif pour gagner en performance la performance d'une équipe dépend aussi de l'équilibre des rôles tenus par chacun de ses membres. selon le psychosociologue et psychopédagogue français roger mucchielli « une trop grande hétérogénéité d'un groupe peut nuire à sa réussite, devenir rapidement source de tensions, avec des personnalités très affirmées, opposées, voire antagonistes. » a l’instar de la méthode agile, invitant chacun des métiers à se réunir autour d’une même table pour travailler un projet, il conviendrait de penser une équipe dans son ensemble, de la construire intelligemment pour qu’elle ne soit constituée que de personnalités et potentiels complémentaires. en favorisant dans un premier temps le travail multigénérationnel : un sénior est davantage enclin au partage de savoir, un junior quant à lui plus motivé apprendre. plus globalement, il serait opportun de mixer les personnalités, de les faire cohabiter judicieusement, en appliquant la méthode belbin au recrutement. la construction de l’équipe reposant sur 3 rôles essentiels : réflexion (soit un priseur, un concepteur, un expert), action (soit un organisateur, un propulseur, un perfectionneur) et relation (soit un promoteur, un coordinateur, un soutien). bigdata et recrutement prédictif pour une équipe optimale c’est ici que le bigdata devient incontournable. car cette approche est aujourd’hui réaliste et réalisable, notamment grâce à la confrontation entre données internes et informations candidat tirées du recrutement prédictif (tests de personnalité, analyses prédictives et études de cas). ce dernier est un formidable outil pour préparer l’embauche d’un nouveau talent : en étudiant les personnalités en poste pour identifier celle qui manque, on peut orienter le choix de la nouvelle recrue. la richesse des informations recueillies durant la batterie de tests, mais aussi via les réseaux sociaux, permet de cerner le postulant dans son ensemble et aide ainsi à faire « le bon choix ». celui qui permettra de pallier les lacunes de l’équipe en poste. in fine, il n’existe pas de « bon » ou « mauvais » collaborateur, mais uniquement des talents performants intégrés intelligemment dans la bonne équipe. celle qui aura su reconnaître ses qualités, n’exploitera que ses forces et compensera naturellement ses faiblesses. la réussite dépend avant tout de la synergie des individus, et non d’une personne isolée. par mickaël cabrol, ceo fondateur d'easyrecrue, éditeurs de solutions logicielles destinées aux professionnels du recrutement. bigdata : la voie des achats intelligents publié le 12/10/2015 par mathieu neu les outils eachats se perfectionnent, au point d'automatiser des décisions stratégiques relatives aux achats. à la clé, d'importantes baisses des dépenses et une optimisation des budgets. cdiscount dévoile les résultats du challenge « bigdata » publié le 12 octobre 2015 cdiscount et la plateforme francophone de challenges big data datascience.net annoncent le palmarès du challenge « bigdata » sur le thème de la catégorisation produit, lancé en mai 2015. a travers ce concours, cdiscount a souhaité proposer à de jeunes scientifiques de participer à l’amélioration de l’expérience client sur le site. l’objectif de ce concours était de créer un système automatique de catégorisation des produits à partir de leur description et de leur image. en effet, la catégorisation des produits est un enjeu clé pour optimiser la navigation du site et permettre aux visiteurs de trouver le plus rapidement possible le produit qu’ils recherchent. ccomptetenu des volumes de données et des combinaisons possibles, seul un système automatique conçu à partir d’algorithmes prédictifs est à même de répondre à cette problématique. au total 833 scientifiques ont participé à ce concours, ce qui constitue un record en france pour ce type d’événement. le classement final a été dévoilé au numa, à paris le 8 octobre 2015 au cours d’une cérémonie de remise des prix, en présence d’un jury d’exception composé de scientifiques et de représentants du monde de l’entreprise et du numérique. les membres du jury : pierre alquier (professeur de statistique à l’ensae), matthieu cornec (chief data scientist de cdiscount), jérémie jakubowicz (maître de conférences, télécom sudparis), xavier lazarus (partner chez elaia partners), romain niccoli (cofondateur et cto de criteo). les 5 finalistes se sont partagés au total 15 000€ de récompenses : romain ayres 9 000€ nicolas gaude 4 000€ arnaud de myttenaere 1 000€ joachim zentici 500€ florian laroumagne 250€ pierre nowak 250€ après un master en intelligence artificielle obtenu à l’upmc en 2014, romain est data scientist chez octo (cabinet de conseil it) depuis 1 an. passionné de «machine learning », il consacre la majeure partie de son temps libre à des compétitions en ligne (kaggle, datascience.net) approfondir ses connaissances et à tester de nouvelles approches. nicolas gaudeest ingénieur physicien de formation et développeur en herbe. il démarre sa carrière dans les médias numériques chez canal plus, technicolor et cisco. il y a 3 ans, il se passionne pour le « machine learning » et le calcul distribué. il dirige actuellement le lab bigdata chez bouygues telecom. arnaud de myttenaere est diplômé de l'ensae paristech et de l'ens cachan en 2013 avec une spécialisation en « machine learning ». il est en dernière année de thèse cifre en mathématiques à l'université paris 1. dans le cadre de sa thèse, il s'intéresse aux algorithmes de recommandations et aux méthodes théoriques permettant de les évaluer. en tant que data scientist, il travaille également sur des sujets plus appliqués comme la mise en place d'un système de recommandations. joachim zentici est diplômé de l'ecole centrale. il a effectué des recherches dans le domaine de l'imagerie médicale pour siemens, l'université d'oxford et à l'inria. il est aujourd'hui ingénieur r&d dataiku ou il est impliqué dans tous les aspects du développement produit. il est également enseignant associé à l'ecole centrale et étudie la sociologie en tant qu'auditeur libre à l'ehess. florian laroumagne et pierre nowak ont intégré l'ensiie après une prépa mpsi/mp. pierre a obtenu un double diplôme en mathématiques financières avec l'université d'evry val d'essonne. florian est le parrain de promotion de pierre. florian est analyste bi pour edf commerce. pierre vient d'obtenir une mission à edf r&d pour y faire de la classification de texte grâce notamment à ses bons résultats sur le concours. contactez cette société ou un revendeur de ces produits. la réflexion sur le bigdata et l’ubérisation doit structurer la campagne de 2017 délits d’opinion : « près d’un an après la déclaration de maurice levy sur l’ubérisation, doiton considérer ce concept comme un facteur de changement majeur ? gaspard koenig : « le premier constat c’est l’entrée du terme dans le langage courant. pourtant, le mot « ubérisation » est en réalité l’expression d’un phénomène plus profond causé par l’émergence du big data. comme l’indiquait françois ewald, la rationalité occidentale tend à catégoriser chaque chose et chaque donnée de la sensibilité sous des concepts génériques. or, le bigdata va exactement à l’encontre de ce système catégoriel. ce faisant, il va à l’encontre de notre idée de la rationalité car le bigdata permet d’affecter non seulement une singularité à chaque chose mais aussi de lier ces singularités entre elles. partant de cette analyse, il n’est ainsi pas étonnant d’observer que les intermédiaires disparaissent et avec eux le système de catégorisation. la mise en relation singulière rendue possible va donc accélérer et faciliter l’échange, notamment marchand. plus globalement, cette évolution va progressivement interroger la valeurajouté de ces fonctions d’intermédiaires pour ne conserver que celles qui seront jugées indispensables. l’impact est donc appelé être extrêmement puissant dans nos sociétés ce qui implique de revoir notre manière de penser l’organisation sociale dans son ensemble ». délits d’opinion : l’ubérisation semble être née sous une bonne étoile mais on note une recrudescence des critiques, notamment sociales. comment expliquezvous ce glissement dans l’opinion ? gaspard koenig : « tout d’abord je ne suis pas persuadé qu’il s’agisse d’un glissement. tout au plus d’une prise de conscience du phénomène dans sa globalité. ainsi, le consommateur qui a découvert avec envie les vtc et l’économie collaborative prend désormais conscience que son emploi est sans doute « ubérisable » demain. on observe en effet de plus en plus de séminaires internes dans les entreprises traditionnelles afin de savoir si leur secteur est le prochain à se voir ubériser. comme s’il s’agissait d’une épidémie. ces éléments démontrent cependant que la france est plutôt en avance sur ce sujet et que le débat commence à se structurer, dans la société civile et dans le monde de l’entreprise, des startup aux grands groupes. le principal problème qui pèse reste celui d’une remise en cause d’un système social auquel les français sont très attachés. sur ce sujet il sera pourtant difficile de rapprocher le temps de la société et celui du politique. il est frappant que la seule frange de la société qui demeure hermétique à ce débat est justement celle qui est en charge des lois et de l’évolution de notre modèle de société. malgré les efforts faits sur le numérique, force est de constater que le personnel politique est de plus en plus déconnecté de la société et qu’il ne mesure pas le changement qu’implique le bigdata dans notre manière de revoir son organisation. très souvent, les députés ne sont pas les utilisateurs de ces services qu’ils jugent encore comme un artifice numérique ». délits d’opinion : où et par quoi doit commencer la refonte de notre modèle de société pour intégrer positivement ce changement de paradigme ? gaspard koenig : « cette nouvelle donne confirme qu’une société d’individus autonomes est possible et que la société peut s’organiser en ce sens. ce qui est frappant c’est qu’en france les responsables politiques n’en fassent pas un axe de campagne, comme c’est par exemple le cas aux etatsunis avec hillary clinton. les sujets à traiter en priorité sont les piliers de la structure sociale : la solidarité, le droit du travail et l’assurance. * la solidarité devrait ainsi supprimer les nombreuses allocations spécifiques et les remplacer par un revenu universel. * le droit du travail devrait être remplacé par un statut de l’actif ce qui permettrait de regrouper toutes les formes du travail, et notamment le travail indépendant. pour faire cela il faut donc créer des droits à cette frange de la population dont les effectifs ont vocation à dépasser ceux des salariés traditionnels. * enfin, sur l’assurance, il faudrait aller vers la portabilité des droits avec notamment un compte à points librement utilisable ». délits d’opinion : pourquoi les politiques refusentils d’aborder ce thème ? gaspard koenig : « les responsables politiques et certaines élites sont déconnectés du pays ce qui ne leur permet pas de prendre conscience de la mutation en cours. ils sont encore trop nombreux à patienter au lieu de se saisir du sujet pour en faire un axe structurant de leur discours. c’est le cas des leaders politiques mais aussi des élus locaux qui sont nés et n’évoluent qu’au sein des partis, ne prenant pas conscience que ces formations sont, ellesaussi, appelées à se réinventer. cet éloignement visàvis des français est également renforcé par le facteur générationnel qui apparait là encore comme un frein au changement. la teneur des débats sur la nouvelle économie et les secteurs sujets à l’ubérisation démontre que ces questions sont analysées au prisme d’un vieux schéma au lieu de s’interroger sur le modèle à fonder pour accompagner ces changements ». délits d’opinion : cette position d’attentisme vatelle fragiliser la classe politique et permettre son ubérisation ? gaspard koenig : « parmi tous les intermédiaires que compte notre société, les élus locaux seront sans doute ceux qui tiendront le plus longtemps. en effet, le récent rapport bartolonewinock est, à ce titre, symptomatique de l’absence de réflexion sur l’évolution des modes d’organisation de la vie démocratique et du mode de gouvernement à l’aune de la révolution du bigdata. face à ces décideurs sourds au changement numérique il y a une population dont la vitalité démocratique est en réalité très forte. le monde associatif et la société civile dans son ensemble aspirent à un renouveau et cela se retrouve dans tous les sondages. l’ubérisation du politique c’est donc la suppression du système représentatif qui, pendant un temps, a permis d’unifier le territoire. désormais, le numérique permet d’informer, de consulter et de mobiliser les citoyens directement. il est prioritaire de rapprocher les principes constitutionnels qui font notre modèle démocratique et le désir de proximité « réelle » qui émerge dans la population. l’exemple democratech illustre le potentiel dans la perspective des élections de 2017 ». les cabinets de conseil plongent dans le bigdata peutêtre estce la peur de se faire « uberiser », c’estàdire dépasser soudain par un concurrent surgi de nulle part, comme dans le cas des taxis avec uber. pour ne pas être en retard d’une révolution technologique, de plus en plus d’entreprises investissent dans le bigdata, le traitement des données de masse. après les assureurs, les cabinets de conseil se lancent dans l’aventure. témoin, l’acquisition annoncée mardi 6 octobre par ey, l’exernst & young. le groupe, un des quatre poids lourds mondiaux de l’audit financier, prend le contrôle de bluestone consulting, un cabinet français spécialisé qui a réalisé 9 millions d’euros de chiffre d’affaires en 2014. « avec leurs 120 experts et les 10 nôtres, nous allons constituer une équipe de plus de 130 personnes dans ce métier des données, ce qui n’a pas d’équivalent en france », se réjouit eric mouchous, l’un des patrons d’ey dans l’hexagone. lire aussi : bigdata : le mobile prend le pouls des foules a ses yeux, l’acquisition est stratégique. les cabinets de conseil ont traditionnellement deux types de compétences, expliquetil. ils connaissent d’une part le marketing, la finance, etc., d’autre part les secteurs de leurs clients, comme l’automobile ou la banque. « demain, on ne pourra plus faire du conseil sans disposer en plus de compétences dans le traitement des données de masse, juge m. mouchous. c’est ce que nous apporte bluestone. » un considérable gisement de données l’incroyable essor d’internet et la multiplication des capteurs ont entraîné depuis quelques années un changement d’échelle en matière de données. chaque seconde, 50 000 recherches sont effectuées sur google. chaque minute, 350 000 tweets s’ajoutent aux milliards déjà publiés. chaque jour, 38 millions d’internautes fréquentent les sites d’amazon. un gisement de données considérable, en pleine expansion, et loin d’être exploité comme il pourrait l’être. lire aussi : santé, industrie : les vertiges du bigdata moins de 1 % des données produites dans le monde seraient analysées, selon certaines estimations. mais les entreprises se montrent de plus en plus avides de ces informations, et le marché du traitement des données décolle. dans le monde, ce marché de services pourrait passer de 1,8 milliard de dollars (1,6 milliard d’euros) en 2015 à 7 milliards de dollars en 2020, soit une impressionnante croissance de 31 % par an, selon une étude publiée en septembre par le cabinet markets and markets. de quoi pousser les leaders du conseil à l’action. « l’explosion du big data ne va pas nous faire disparaître, mais transforme notre métier », confirme marc chemin, de capgemini. ceux qui viennent du monde de l’informatique, comme ibm, partent avec une longueur d’avance. le français capgemini affirme ainsi compter dès à présent dans ses rangs 10 000 professionnels des données. d’autres procèdent par acquisition, à l’image d’ey ou encore de mckinsey, qui vient de mettre la main sur 4tree, une startup allemande qui triture les informations de la grande distribution. un emballement depuis trois ans bluestone, la société reprise par ey, a été créée en 1996 par deux étudiants tout juste sortis de la meilleure école française de statistiques, l’ensae. « nous étions jeunes, nous voulions être libres et indépendants », se souvient arnaud laroche, l’actuel patron. le duo était persuadé que la modélisation, le chiffre, le traitement des données pouvaient présenter de l’intérêt pour les entreprises. mais l’époque, nul ne parlait de « bigdata », et les débuts ont été rudes. « pendant de longues années, le marché restait très mou, relate m. laroche. quand on parlait d’algorithmes prédictifs, les clients nous répondaient au mieux qu’ils voulaient un tableau de bord pour le contrôle de gestion. » la demande n’a commencé à frémir qu’en 2005, pour s’emballer vraiment depuis trois ans. lire aussi : les données, nouvelle devise des entreprises aujourd’hui, la pme travaille pour des clients comme engie, edf ou orange. elle exploite par exemple les données fournies par les capteurs placés dans des moteurs d’avions. objectif : détecter des éléments atypiques annonciateurs de pannes, tels que des vibrations anormales. cela permet d’intervenir avant que le problème ne se concrétise. autre type de contrat, la création d’algorithmes pour fixer les prix des chambres d’hôtels ou repérer des fraudes parmi des milliers d’opérations bancaires. autant de services qu’ey entend proposer, demain, à ses clients pour enrichir son offre. et ne pas risquer de se retrouver un jour exclu du jeu. * * * * bigdata : jcdecaux passe à la vitesse supérieure par pierre manière | 10/10/2015, 13:21 | 772 mots jcdecaux va installer des écrans publicitaires dans tous les abribus de la très commerçante oxford street. jcdecaux va installer des écrans publicitaires dans tous les abribus de la très commerçante oxford street. (crédits : reuters) en parallèle du prochain déploiement de 1000 écrans digitaux dans les abribus londoniens, le géant de la publicité urbaine a dévoilé mercredi un nouveau logiciel d’analyse et de ciblage publicitaire. basé sur l’analyse des données des individus et sur l’écoute des médias sociaux, l’outil vise à améliorer l’efficacité des campagnes, et à ferrer de nouveaux annonceurs. l'affichage aussi fait sa mue sa digitale, et jcdecaux n'échappe pas cette vague. ce mercredi, le numéro un mondial de la communication extérieure a annoncé le déploiement de 1.000 écrans digitaux dans les abribus de londres, dont il a obtenu la gestion cet été. d'une taille de plus de 2,10 mètres, ceuxci émailleront la capitale britannique partir du 1er janvier prochain. jcdecaux a ciblé en priorité les quartiers les plus commerçants et les plus touristiques, à l'instar des très cotés kensington ou westminster. aux dires du groupe, « 20% des dépenses des consommateurs britanniques » s'effectuent dans les zones couvertes. mais disposer de grands écrans est une chose, les exploiter efficacement en est une autre. pour ce faire, jcdecaux a jeté son dévolu sur le « bigdata », ou l'analyse et l'exploitation des « mégadonnées » disponibles sur son terrain de chasse. grâce à un nouveau logiciel, baptisé smartbrics, la société peut, en quelques clics, formuler et maximiser des scénarios de campagnes publicitaires en fonction des desiderata des annonceurs. si, par exemple, une marque de luxe dispose d'un budget arrêté pour communiquer sur des chaussures destinées à de jeunes femmes actives et aisées, il est possible de déterminer les zones et les périodes les plus propices pour diffuser sa réclame. dans ce cas, les écrans des abribus de la très chic et huppée oxford street seront probablement privilégiés par rapport à ceux d'autres quartiers plus populaires et excentrés. des commerciaux proactifs pour livrer son verdict, le logiciel dissèque, compile et croise quantité d'études économiques, sociologiques et démographiques. cellesci proviennent d'organisme publics et privées. d'après jcdecaux, les informations liées aux dépenses des individus émanent par exemple de caci, une agence britannique spécialisée dans le ciblage publicitaire. pour gagner en efficacité et cerner en temps réel le comportement des consommateurs, le groupe table aussi sur l'écoute des médias sociaux. cela permettra à jcdecaux de se montrer proactif et de gagner en réactivité. en clair, si un produit devient subitement à la mode, ses commerciaux pourront d'emblée avertir les marques concernées, et leur proposer des campagnes surmesure. un levier sur lequel jcdecaux mise beaucoup. en témoigne le lancement prochain de l'initiative « connected london ». en un rien de temps, celleci permettra, d'après le groupe, d'interroger un panel de 5.000 habitants « sur leur état d'esprit, leur attitude, leurs marques préférées et leur style de vie ». avec ses nouveaux abribus digitaux et son logiciel, jeanfrançois decaux, le président du directoire du mastodonte de la publicité, se targue donc de pouvoir « envoyer le bon message, au bon endroit et à la bonne heure pour toucher la bonne personne ». « répliquer le modèle britannique dans le monde » surtout, cela doit permettre au groupe d'étoffer son portefeuille de clients. jeanfrançois decaux cite son réseau d'écran à l'entrée des magasins tesco. lancé l'an dernier au royaumeuni, il couvre 400 points de vente. avec cette initiative qui a servi de modèle à celle des abribus , « unilever [le géant des biens de grande consommation, ndlr] est devenu notre premier annonceur sur ce réseau », dit le patron. pourquoi ? parce que d'après lui, le ticket d'entrée est devenu abordable pour les petites marques. cellesci peuvent désormais vanter leurs produits en ciblant les magasins qui les intéressent, ce qui n'était pas négociable auparavant. locomotive du numérique au sein du groupe, l'angleterre n'en demeure pas moins une exception. jeanfrançois decaux précise ainsi qu'avec ses nouveaux écrans et son logiciel, le digital pèsera plus de 50% du chiffre d'affaires du groupe dans le pays, contre 9% au niveau mondial. « l'idée, c'est bien sûr de répliquer le modèle britannique dans le monde », se projettetil. dans l'hexagone, smartbrics sera intégré courant 2016, diton chez jcdecaux. le logiciel ne servira pas piloter les campagnes publicitaires pour les abribus parisiens. et pour cause : le groupe n'est pas autorisé à y déployer des écrans comme londres. en revanche, il permettra d'optimiser la communication externe des aéroports, déjà largement digitalisés. « l'affichage papier restera » même si la montée en puissance du numérique semble inéluctable, jeanfrançois decaux se garde bien d'enterrer le papier. « il a encore de belles années devant lui. il restera. l'affichage papier permet toujours de toucher énormément de gens sur un temps très court. c'est sa force. beaucoup d'annonceurs y sont attachés », insiste le président du directoire du groupe. pierre manière les technologies bigdata se multiplient, les algorithmes prédictifs sont de plus en plus puissants et la responsabilité entourant l’exploitation de la donnée pèse lourd sur les épaules des entreprises. quelle démarche adopter afin de ne pas franchir des limites incertaines tout en maintenant son processus d’innovation ? le quotidien bigdata en entreprise la formule 1 de la bi les bigdata (comprendre ici les technologies de traitement des gros volumes de données) sont avant tout une boite à outils destinée accompagner une entreprise dans sa prise de décision, à affiner la perception qu’elle a de ses clients, de leurs choix et comportements d’achat et à disposer d’informations essentielles pour mieux marketer et positionner ses produits et services. les solutions bigdata répondent au besoin d’une plus grande interactivité et l’accès à une meilleure compréhension de la donnée disponible. en pratique, l’expérience montre que les demandes bigdata portent principalement d’une part sur les données internes de l’entreprise, et d’autre part, sur les difficultés de traitement de la donnée. ces difficultés, depuis longtemps identifiées par les métiers en charge de la bi, les directions marketing, les chefs de produits…, relèvent de problématiques de chargement, de compilation et de restitution des données ou sont liées à la recherche d’une granularité plus fine des reportings. les solutions bigdata ont permis de répondre à ce besoin en offrant une plus grande réactivité dans le traitement et l’intégration de la donnée, ainsi qu’une perception affinée des process et du marché. elles ne règlent pour autant pas la question des données personnelles ou confidentielles ou nominatives, dont l’exploitation, par l’effet des algorithmes, peut aboutir à des résultats surprenants. l’ingénierie algorithmique repose sur des choix humains, dont les conséquences seront la résultante des bigdata de demain. la définition de son besoin bigdata d’une contrainte technique à la préservation de la vie privée les modèles d’apprentissage algorithmique, (ou machine learning) reposent sur la soumission d’un contexte et d’un certain nombre de probabilités en fonction desquels la machine répondra avec plus ou moins de pertinence à une question spécifique, en fonction des données fournies. le caractère prédictif des technologies bigdata est guidé par la recherche précise d’une réponse à une question donnée. une autre méthode, voire un autre discours, consiste à s’appuyer sur des algorithmes autoapprenants, susceptibles d’intervenir quand l’entreprise ne sait pas précisément ce qu’elle cherche. l’objectif ici relève de l’expérimentation, voire la validation d’hypothèses, qui, par l’effet des cooccurrences découvertes à cette occasion, permettront de dégager de nouvelles pistes de réflexion. cette démarche est principalement adoptée par les entreprises disposant d’équipes digitales ou innovation assez mâtures sur l’usage des technologies bigdata pour projeter dans ces corrélations de nouveaux use cases. le principal écueil de la méthode repose sur l’absence de maîtrise de la donnée utilisée et du but à atteindre. dans cette recherche de corrélation, la machine fournira un résultat qui peut ne correspondre ni à la stratégie de l’entreprise, ni à ses valeurs, ni aux règles en vigueur au regard de la protection des données caractère confidentiel. depuis juillet 2015, les entreprises sont fortement incitées par la cnil à identifier les risques engendrés par leurs traitements. la démarche d’étude d’impact débute par une étude du contexte, visant décrire les traitements et leurs enjeux. dans le cas d’une recherche générale de corrélations, l’impact sera évidemment très variable selon que l’entreprise intervient par exemple dans la métallurgie, cherchant à améliorer ses processus de production ou intervient dans le domaine bancaire, souhaitant disposer de modèles élaborés pour appuyer, par exemple, ses décisions d’octroi de prêt. dans les deux cas les données internes sont utilisées. dans les deux cas, la recherche repose sur une demande métier d’amélioration des processus. mais dans un seul de ces cas, a priori, l’impact décisionnel peut avoir des conséquences à large spectre, dont la maîtrise n’est pas garantie. l’approche par la définition du contexte et des enjeux via la formulation de la question et la définition du modèle de réponse, offrent en revanche le cadre exigé pour la réalisation d’une étude d’impact sur la vie privée (le cas échéant), puisque le contexte est contrôlé dès l’origine par l’entreprise. c’est en outre une démarche adaptée aux entreprises débutant dans le bigdata. sécurisant, le processus s’appuie en général sur les compétences d’un intégrateur qui assurera le transfert de compétence. egalement plus pragmatique, au fort potentiel de croissance, elle permet de trouver rapidement de nouveaux axes de travail en réponse aux besoins métiers identifiés de longue date. quel avenir donner aux bigdata ? une responsabilité entre les mains des entreprises pour être exploitables, les résultats doivent avant tout s’appuyer sur une donnée de qualité, qu’il aura fallu correctement qualifier. a ce titre, les technologies bigdata ne changent pas la façon dont les entreprises abordent leurs différentes problématiques mais le panel de solutions disponibles est autrement plus important. les enjeux se sont déjà déplacés, tant les progrès technologiques ont dépassé le cadre actuel de l’usage et de la protection des données personnelles. des algorithmes à visée prédictive très puissants existent déjà. il s’agit plutôt de s’interroger sur ce que feront les entreprises des données dont elles disposent. ayant en leur possession des informations très diverses, nominatives et confidentielles ou non, techniquement aujourd’hui, rien n’empêche leur exploitation et seule la réflexion en amont sera gage de pratiques éthiques et rationnelles. un des gardefous potentiels de demain sera peutêtre le contrôle par l’individu luimême de ses données. en attendant de lui en donner les moyens, les entreprises sont finalement les seules en charge de cette protection. concrètement, elles n’en seront capables qu’en avançant par étape, en commençant par s’interroger sur la qualité des données dont elles disposent mais également sur leur propriété. la donnée est chose précieuse. c’est aux entreprises qu’il appartient de démontrer qu’elles comprennent l’usage qu’elles peuvent en faire et surtout, leur capacité à en fixer les limites. elles ne maîtriseront la véritable signification de l’exploitation des données numériques qu’en naviguant suffisamment près des frontières. il y a nécessairement une gestion du paradoxe à effectuer. progresser pour ne pas se laisser distancer par ses concurrents tout en maintenant sous surveillance les limites à ne pas franchir, c’est un exercice de haute voltige. c’est pourquoi la banalisation des technologies bigdata ne doit pas intervenir trop tôt, n’en déplaisent aux pourvoyeurs de solutions toutenun. les mégadonnées ont une grande valeur socioéconomique et peuvent profiter à toute la société. illustration: benoît gougeon. depuis 2003, nous produisons plus de données en deux jours que ce qu'a fait l'humanité depuis ses débuts. créées par une multitude innombrable d'organisations, ces données (dans les technologies de l'information (ti), une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction d'affaire, d'un événement, etc.) massives bigdata sont quasiment impossibles à traiter avec des outils classiques de gestion de base de données (en informatique, une base de données (abr. : « bd » ou « bdd ») est un lot d'informations stockées dans un...). ces mégadonnées ont une grande valeur socioéconomique et peuvent profiter à toute la société : on considère même qu'elles seront le ravitaillement d'une économie du savoir, le nouveau pétrole (le pétrole est une roche liquide carbonée, ou huile minérale. l'exploitation de cette énergie fossile est l’un des piliers de...) du 21e siècle (un siècle est maintenant une période de cent années. le mot vient du latin saeculum, i, qui signifiait race, génération. il a ensuite indiqué la durée d'une génération...), affirme valérie bécaert, responsable de l'institut (un institut est une organisation permanente créée dans un certain but. c'est habituellement une institution de recherche. par exemple, le perimeter institute for theoretical physics est un tel institut.) de valorisation des données. mais quel lien y atil entre la recherche (la recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de développer les connaissances scientifiques. par extension métonymique, la recherche...) en intelligence artificielle (l'intelligence artificielle ou informatique cognitive est la « recherche de moyens susceptibles de doter les systèmes informatiques de...) et celle sur les données massives ? ce qui fait le pont (un pont est une construction qui permet de franchir une dépression ou un obstacle (cours d'eau, voie de communication, vallée, etc.) en passant pardessus cette séparation. le franchissement supporte le passage d'hommes et de...), c'est l'apprentissage (l’apprentissage est l'acquisition de savoirfaire, c'estàdire le processus d’acquisition de pratiques, de connaissances, compétences, d'attitudes ou de valeurs culturelles, par...) automatique (l'automatique fait partie des sciences de l'ingénieur. cette discipline traite de la modélisation, de l'analyse, de la commande et, de la régulation des systèmes dynamiques....), dont l'apprentissage profond, précise le professeur andrea lodi, titulaire de la chaire d'excellence en recherche du canada sur la science (la science (latin scientia, « connaissance ») est, d'après le dictionnaire le robert, « ce que l'on sait pour l'avoir appris, ce que l'on tient pour vrai au sens large. l'ensemble de...) des données concernant la prise de décision en temps (le temps est un concept développé par l'être humain pour appréhender le changement dans le monde.) réel, qui regroupe des chercheurs de polytechnique montréal (montréal est à la fois région administrative et métropole du québec[2]. cette grande agglomération canadienne constitue un centre majeur du commerce, de l'industrie,...), l'université (une université est un établissement d'enseignement supérieur dont l'objectif est la production du savoir (recherche), sa conservation et sa transmission (études...) de montréal et hec montréal. avec cette chaire, on vise à mettre au point (graphie) de nouvelles méthodes d'utilisation des mégadonnées, en recourant notamment à l'apprentissage profond, afin que l'ordinateur (un ordinateur est une machine dotée d'une unité de traitement lui permettant d'exécuter des programmes enregistrés. c'est un ensemble de circuits électroniques permettant de manipuler des données sous forme...) soit en mesure de prendre les meilleures décisions en temps réel. le défi consiste à apprendre de ces données et à résoudre les problèmes qu'elles posent à l'aide de nouveaux algorithmes, ajoute m. lodi. pour y arriver, nous devons adopter une approche appliquée et être en relation avec ceux qui disposent de telles données comme les hôpitaux, les municipalités, les producteurs et distributeurs d'énergie (dans le sens commun l'énergie désigne tout ce qui permet d'effectuer un travail, fabriquer de la chaleur, de la lumière, de produire un mouvement.), de même que plusieurs entreprises de haute technologie (le mot technologie possède deux acceptions de fait :). des exemples d'applications futures pour le transport le transport devrait être l'un des grands secteurs qui bénéficieront du mariage entre l'intelligence artificielle et les mégadonnées. il sera bientôt possible de mieux planifier la livraison de marchandises en optimisant le transport par camion (le camion est un véhicule routier de plus de 3,5 tonnes, destiné à transporter des marchandises. le camion se distingue du véhicule léger sur le plan technique (charge à l'essieu...), en traitant les données relatives aux routes que chacun des chauffeurs emprunte habituellement pour livrer tel ou tel type de marchandise (une marchandise est un produit de l'activité humaine, direct ou indirect, essentiellement déterminé à être un support à la forme d'échange qu'on nomme achat (ou corrélativement, vente).) afin de déterminer quels chemins il peut prendre et aussi de quelle façon l'intermodalité peut être utilisée, illustre bernard gendron, professeur et directeur du centre interuniversitaire de recherche sur les réseaux d'entreprise, la logistique (la logistique est l'activité qui a pour objet de gérer les flux physiques d'une organisation, mettant ainsi à disposition des ressources correspondant aux besoins, aux conditions...) et le transport (cirrelt). le trafic routier (la circulation routière (anglicisme: trafic routier) est le déplacement de véhicules automobiles sur une route.) aux heures (l'heure est une unité de mesure :) de pointe pourrait être allégé. les feux de circulation (la circulation routière (anglicisme: trafic routier) est le déplacement de véhicules automobiles sur une route.) sont actuellement synchronisés en fonction de la circulation de proximité, mais, en utilisant les mégadonnées, nous pourrions modifier la synchronisation des feux sur l'ensemble (en théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut...) du territoire (la notion de territoire a pris une importance croissante en géographie et notamment en géographie humaine et politique, même si ce concept est utilisé par d'autres...) en temps réel, dit emma frejinger, professeure et membre du cirrelt. même chose pour le transport intermodal et le covoiturage : il serait possible de savoir s'il y a un stationnement (le stationnement tout comme l’arrêt d’un véhicule consiste en une immobilisation de ce dernier.) ou un vélo bixi disponibles en ville (une ville est une unité urbaine (un « établissement humain » pour l'onu) étendue et fortement peuplée (dont les habitations doivent être...), en temps réel, ou encore on pourrait faciliter le transport de marchandises (le transport de marchandises est une activité économique réglementée, à la fois par chaque pays et au niveau international.) en sachant que quelqu'un peut prendre mon colis dans son véhicule (un véhicule est un engin mobile, qui permet de déplacer des personnes ou des charges d'un point à un autre.) pour le transporter de montréal à québec par exemple. par ailleurs, plusieurs constructeurs automobiles se sont lancés dans la course (course : ce mot a plusieurs sens, ayant tous un rapport avec le mouvement.) au véhicule autoguidé, capable d'aller chercher seul un passager et de le mener à destination. la cohabitation sur la route (le mot « route » dérive du latin (via) rupta, littéralement « voie brisée », c'estàdire creusée dans la roche, pour ouvrir le chemin.) de ces voitures (une automobile, ou voiture, est un véhicule terrestre se propulsant luimême à l'aide d'un moteur. ce véhicule est conçu pour le transport terrestre de personnes ou de marchandises, elle...) avec les autres nécessitera une période d'adaptation, mais on anticipe que l'introduction de véhicules autoguidés réduira le nombre (la notion de nombre en linguistique est traitée à l’article « nombre grammatical ».) d'accidents ainsi que la pollution (la pollution est définie comme ce qui rend un milieu malsain. la définition varie selon le contexte, selon le milieu considéré et selon ce que l'on peut entendre par malsain [1].), puisque grâce à leur système de communication (la communication concerne aussi bien l'homme (communication intrapsychique, interpersonnelle, groupale...) que l'animal (communication intra ou inter espèces) ou la machine (télécommunications, nouvelles...) en temps réel ils pourront s'organiser afin de désengorger les réseaux routiers, avance mme frejinger. faire voyager l'information... à l'énergie solaire la foule de données à traiter et sa gestion requièrent des serveurs actuellement très énergivores. on estime que la production de gaz (un gaz est un ensemble d'atomes ou de molécules très faiblement liés et quasiindépendants. dans l’état gazeux, la matière n'a pas de forme...) à effet de serre (l'effet de serre est un processus naturel qui, pour une absorption donnée d'énergie électromagnétique, provenant du soleil (dans le cas des corps du système...) liée au domaine du stockage et du traitement de l'information en informatique (l´informatique contraction d´information et automatique est le domaine d'activité scientifique, technique et industriel en rapport avec le...) a dépassé celle de l'industrie de l'aviation (l'aviation est une activité aérienne définie par l'ensemble des acteurs, technologies et règlements qui permettent d'utiliser un aéronef dans un but particulier. ces diverses activités peuvent être...), spécifie valérie bécaert, de l'institut de valorisation des données, une initiative de l'université de montréal, polytechnique montréal et hec montréal qui réunit 900 chercheurs en recherche opérationnelle (la recherche opérationnelle (aussi appelée aide à la décision) peut être définie comme l'ensemble des méthodes et techniques rationnelles d'analyse et de synthèse des phénomènes...) et en sciences des données sur le campus (un campus (du mot latin désignant un champ) désigne l'espace rassemblant les bâtiments et l'infrastructure d'une université ou d'une école située hors d'une ville. ce terme inclut ainsi les...). ainsi, l'une des solutions sur laquelle des chercheurs planchent consiste à valider la capacité de transférer l'information contenue dans les serveurs du monde (le mot monde peut désigner :) entier vers d'autres alimentés par énergie solaire. on vise ni plus ni moins à faire voyager les mégadonnées autour (autour est le nom que la nomenclature aviaire en langue française (mise à jour) donne à 31 espèces d'oiseaux qui, soit appartiennent au genre accipiter, soit constituent...) de la terre (la terre est la troisième planète du système solaire par ordre de distance croissante au soleil, et la quatrième par taille et par masse croissantes. c'est la plus grande et la...) en temps réel, au fur (fur est une petite île danoise dans le limfjord. fur compte environ 900 hab. . l'île couvre une superficie de 22 km². elle est située dans la municipalité de skive.) et à mesure que la journée avance (en fonction des périodes d'ensoleillement) afin de réduire la quantité (la quantité est un terme générique de la métrologie (compte, montant) ; un scalaire, vecteur, nombre d’objets ou d’une autre manière de dénommer la valeur...) d'énergie requise pour les héberger! bigdata : à qui profitent vos données personnelles ? à l’origine, les traces il est plus simple de prévoir les comportements humains que la météo. stéphane grumbach nous rappelle la révolution qui se trame aujourd’hui dans les bureaux de google, apple, facebook ou amazon (les gafa), mais aussi dans de nombreuses autres entreprises, pays ou administrations. tous les jours, nous laissons des traces numériques qu’il est possible de collecter et recouper pour ensuite nous proposer des publicités toujours plus ciblées, des produits que nous voudrions sans le savoir, améliorer les flux routiers dans une ville, voire prédire le futur. l’utilisation de ces données est regroupée sous l’appellation “bigdata. les marques et états n’ont pas attendu l’ère numérique pour récolter des données, mais internet leur a permis d’augmenter la masse des informations reçues, les obligeant à mettre en place de nouveaux outils pour les traiter. inconsciemment, les citoyens travaillent pour ces géants et fournissent chaque jour des centaines voire des milliers de données. il y a les vecteurs de récolte évidents : la navigation sur internet, l’utilisation des réseaux sociaux, les photos envoyées en ligne où les visages sont automatiquement reconnus, la montre intelligente récupérant nos données de santé comme le rythme cardiaque. et il y a les plus discrets : le smartphone et son gps capables de traquer tous nos déplacements. et puis il y a ceux qu’on ignore, tels les capteurs placés dans les routes, les caméras de vidéosurveillance, la balise dans une boutique qui repère les mobiles qui passent à proximité… demain, les lunettes connectées type google glass “pourront mettre sur le net les images que l’on voit, c’est la bascule du monde réel dans le monde virtuel, pour stéphane grumbach. une accélération grâce aux objets connectés d’ici à 2020, il devrait y avoir 80 milliards d’objets connectés dans les maisons du monde entier, dont 5 milliards rien qu’en france. ampoule, thermostat intelligent, table de chevet qui recharge le téléphone sans fil, avec sa lampe capable de s’éclairer en fonction des cycles du sommeil, seront autant d’objets pouvant amasser de nouvelles données. le bigdata pourra aller plus loin dans notre intimité et les géants nous vendront des usages qui feront passer la pilule : économie d’énergie, meilleure santé, efficacité dans l’organisation de nos journées, jusqu’au fantasme de sciencefiction de l’assistant de maison, majordome 2.0 dirigeant tout grâce à des automatismes et les ordres vocaux de ses maîtres. tel pourrait être notre quotidien en 2020. un nouvel enjeu sera alors au cœur des débats : comment protéger ces données, notamment celles relatives à la santé, et faire en sorte qu’elles ne se retrouvent pas en libre circulation sur la toile ? allonsnous voir l’apparition de cyberrançons, qu’il faudra payer pour récupérer ses données et éviter qu’elles ne soient diffusées, comme c’est déjà le cas aujourd’hui avec des vidéos coquines volées sur des smartphones ? et comment empêcher les assurances, mutuelles et autres organismes de crédit d’accéder à ces données et d’éventuellement refuser un contrat sous prétexte que votre patrimoine génétique vous prédispose à tel type de cancer ? les usages seront infinis, tout comme les futures polémiques. le mythe de l’anonymat l’adage moderne veut que, lorsqu’un service est gratuit, c’est souvent le consommateur luimême qui est le produit. en mettant en place des logiques de “bigdata, et les investissements qui en découlent, les gafa veulent pouvoir exploiter de la donnée fiable rattachée à la véritable identité des fournisseurs, qu’ils soient simples citoyens, entreprises ou collectivités. dans ce contexte, l’anonymat sur le net devient un mythe difficile atteindre, même lorsque l’on choisit de ne pas s’inscrire sur les réseaux sociaux. un rapport commandé par l’équivalent belge de la cnil, publié début 2015, tend à prouver que facebook surveillerait tous les internautes, même ceux qui n’ont pas de compte sur le réseau social ou qui se sont déconnectés. les chercheurs expliquent comment facebook traquerait tous les internautes l’aide des boutons “j’aime qui ont été placés quasiment sur tous les sites internet. facebook a réagi à ces accusations en précisant que les données récupérées n’étaient pas utilisées à des fins publicitaires, mais pour la sécurité de son site. facebook peut dans tous les cas récolter des informations sur autrui quand elles sont partagées par ses connaissances : numéro de téléphone, photos, données personnelles. pour sébastien nedjar, “à cause des recoupements d’infos, aucune méthode ne garantit à 100 % l’anonymisation des données sur les réseaux sociaux. même lorsque l’usager tente de se protéger en utilisant les méthodes les plus efficaces (réseaux cryptés, ou déportés), les géants ont déjà la parade : reconnaître un internaute grâce à la manière dont il utilise son clavier, les mouvements de sa souris, la nature de son matériel informatique ou l’enchaînement des sites qu’il visite. telles des empreintes digitales, nous avons tous nos habitudes qui, recoupées, correspondent à une identité unique. tous fichés : estil trop tard pour se protéger ? le fichage est une réalité, l’exploitation des données aussi. impossible de faire machine arrière face aux gafa, il est difficile de faire valoir un droit sur l’effacement de ses données. stéphane grumbach rappelle la situation : “la protection des données tourne à vide, car les data dépendent des lois américaines – car google, facebook et les autres sont américains. pour valérie peugeot, les textes juridiques français se basent sur des lois “anténumériques : “la valeur d’usage de ces données est détenue par ces services plateformes et non par l’utilisateur qui les produit. elle préconise une solution simple : “remettre le citoyen au cœur des bigdata et, si l’on souhaite ne pas tout laisser aux américains, “il faudra proposer des entreprises alternatives européennes fortes. pour la loi, un règlement européen est en cours de réalisation et va renforcer la protection des données personnelles. si cela ne suffit pas, valérie peugeot imagine déjà la création d’un “droit collectif, avec la possibilité d’actions de groupe en matière de données. des propositions qui ne vont pas dans le sens du lobbying des géants, qui militent de leur côté pour le droit de changer d’identité numérique. en 2010, le pdg de google, eric schmidt, imaginait déjà un futur où les jeunes auraient le droit de changer de nom à l’âge adulte, pouvant ainsi repartir sur de nouvelles bases et oublier les erreurs du passé postées sur les réseaux sociaux. audelà de cette utopie, surtout marketing, grâce au big data et au recoupement, même changer d’identité ne servira à rien. sur internet, les géants savent qui vous étiez hier, qui vous êtes aujourd’hui, mais aussi qui vous serez demain. prédire le futur… forts de bases de données qui grossissent chaque jour, les gafa ainsi que certaines startup imaginent déjà pouvoir prédire le futur. durant la coupe du monde de football 2014, cortana, l’assistant personnel de microsoft, a été capable de dire quelle serait l’équipe victorieuse pour quinze des derniers matchs sur seize. mais la capacité de voir le futur peut être plus globale encore. en israël, la jeune kira radinsky, 28 ans, travaille sur un logiciel capable de prédire l’avenir. kira radinsky est l’incarnation même de la formule qui veut que l’histoire se répète. en recoupant des événements qui se sont déroulés dans le passé avec des statistiques et en les comparant avec des milliards de données actuelles, elle affirme pouvoir dire si des événements peuvent se reproduire et quand. dans une interview donnée à canal+, kira radinsky s’amuse même de pouvoir prédire qui seront ses “concurrents demain. enfin, prédire le crime avant qu’il n’arrive n’est plus de l’ordre du fantasme. le scénario du roman et du film minority report n’est pas loin. en france, la loi sur le renseignement, censée faciliter le travail des services antiterroristes, permettra l’installation de boîtes noires chez les opérateurs. grâce à un algorithme dont on ignore la nature, il sera possible de “détecter les comportements suspects et de “révéler une menace terroriste avant qu’elle ne se produise. reste la question de cet algorithme et de ceux qui sont chargés de le rédiger. difficile de savoir ce qu’est réellement un “comportement suspect. avec des boîtes noires qui analysent tous les flux, le risque de faux positif se fait plus fort. en matière de big data, “cequi a changé ces dernières années, selon stéphane grumbach, c’est la capacité de calcul par rapport à la masse de data. cela se fait au détriment de la précision du résultat. … ou les maladies avant qu’elles n’arrivent ? de son côté, grâce à la somme des informations déjà récoltées, google imagine déjà prédire le cancer ou les avc. le géant américain a publié des outils permettant de suivre des épidémies, souvent en avance sur ceux des gouvernements. pour y parvenir, il recoupe les requêtes sur son moteur de recherche correspondant aux symptômes d’une maladie. la santé est l’un des grands chantiers du bigdata, et les capteurs du type bracelets sportifs ou montres connectées sont chargés de récolter les données nécessaires. prochaine étape : convaincre les citoyens d’envoyer des prélèvements adn à l’un des gafa, actuel ou futur, pour qu’il réalise un séquençage et indique les prédispositions à certaines maladies ou cancers. tout est “donnée aujourd’hui, même le corps humain. juste un fantasme ? prédire le futur, réalité ou fiction ? certains y croient déjà. pour valérie peugeot, “notre fascination pour la donnée vient du fait qu’elle a une dimension prédictive pour les déplacements, maladies, conflits. cependant, cette dimension prédictive ne se vérifie pas pour le moment. un sentiment partagé par sébastien nedjar : “la data est loin d’avoir des capacités prédictives fiables. dans notre monde, tout ne serait donc pas que data, parfois des petits éléments anodins échappant à la collecte peuvent tout chambouler, telle l’explication imaginée de la théorie du chaos qui veut qu’un papillon battant des ailes à tokyo entraîne un orage à new york. les oracles du bigdata ne comptent pas se laisser décourager. pour eux, la théorie du chaos n’est qu’une donnée à rajouter dans leur algorithme. ce compte rendu du débat du 28 avril est extrait de notre mensuel de juin 2015 (lyon capitale 745). la valeur n'est pas dans le bigdata : la donnée est muette les projets bigdata commencent seulement à se déployer véritablement dans les entreprises. elles qui en outre doivent aussi opérer leur transformation numérique. mais voilà qu'il leur faut déjà réfléchir la prochaine étape. l'entreprise algorithmique est là clame peter sondergaard, le directeur de recherche de gartner dont le discours a ouvert la conférence du symposium itxpo qui se tient actuellement à orlando. sans algorithmes, la donnée n'est rien peter sondergaard appelle les dsi à mettre le bigdata en perspective. car selon lui le ce n'est pas dans le bigdata que réside la valeur. où dans ce cas ? l'algorithme, c'est là où se situe la valeur réelle. c'est dans les algorithmes que réside l'action. les données sont muettes. les algorithmes définissent la façon dont le monde fonctionne assure le directeur de recherche. pour lui un véritable marché des algorithmes est amené à émerger. sondergaard encourage dans ce contexte les entreprises à faire l'inventaire de leurs algorithmes, à en attribuer la supervision à des décideurs et à les classifier : privés, publics ou négociés. l'avenir selon le responsable de la recherche de gartner, ce sont des entreprises qui s'appuieront sur des plateformes basées sur des algorithmes. et des outils comme cortana, siri et les autres ne sont que les précurseurs des changements qui s'annoncent. des fournisseurs technologiques comme microsoft pourraient ainsi ne plus fournir d'applications, mais des algorithmes et de l'analytique. des perspectives éminemment réjouissantes ? c'est sans doute aller un peu vite en besogne. d'abord, la qualité des algorithmes dépendra toujours de la capacité des humains à les produire et à les rendre efficaces. des techquisitions pour booster les activités traditionnelles les fournisseurs it vont vanter la magie de leurs algorithmes ? c'est une chose d'évaluer les interfaces utilisateur, le logiciel, les processus et l'intégration. c'en est une tout autre de plonger dans la science des données, la data science, afin de valider les affirmations d'un vendeur. [gartnerkeynotesymposium2015.jpg] pour faire un parallèle, le bigdata tend de plus en plus vers un sujet de plomberie. mais si la science des données n'identifie pas les bons signaux et le véritable usage métier, tout ce que vous obtiendrez en définitive, c'est un vaste lac de données. rendre réelle cette entreprise algorithmique ne sera pas une mince affaire. les sociétés auront besoin de nouveaux fournisseurs, moyens d'investissement et d'autres approches de l'innovation. pour peter sondergaard, les entreprises doivent en matière de technologie s'inspirer des capitalrisqueurs. le porteparole de gartner invente un néologisme pour l'occasion : les techquisitions, c'estàdire les acquisitions de sociétés it capables de stimuler les activités traditionnelles. la création, par exemple, d'incubateurs par des banques participe sans doute de cette philosophie.  « le bigdata donne naissance à de nouveaux mythes » sapiens yuval harari vous expliquez très bien dans votre livre que la révolution industrielle, loin de se limiter à des aspects techniques, a bouleversé de nombreux aspects des sociétés humaines. en faisant passer de la rareté à l’abondance, elle a conduit à une révolution éthique, en valorisant le consumérisme aux dépends de la frugalité ; elle a également provoqué une révolution dans la conception et l’usage du temps, en synchronisant les activités humaines et en les soumettant un nouveau rythme (celui des usines) ; elle a, par ailleurs, affaibli les communautés traditionnelles en les dépossédant d’un certain nombre de prérogatives au profit du marché et/ou de l’état (travail, soins, emprunts, gestion des conflits,…). par rapport à ce phénomène, que vous inspire la notion de « révolution numérique » ? s’agitil selon vous d’une révolution comparable ? yuval noah harari : la révolution numérique a le potentiel de transformer nos vies encore plus fondamentalement que la révolution industrielle. au xx^e siècle, chaque être humain avait de la valeur, car chaque être humain était utile en tant que soldat dans l'armée ou en tant que travailleur à l'usine ou dans un bureau. les algorithmes informatiques sont cependant en train de rattraper les humains dans des domaines cognitifs de plus en plus nombreux. on s'attend à ce que, dans les décennies à venir, les ordinateurs et autres robots deviennent plus performants que nous dans toujours plus de tâches et que, ce faisant, ils nous remplacent dans toujours plus de travaux. cela a d'ores et déjà commencé dans les armées, qui se passent désormais de nombreux humains. une étude de 2013 menée par carl benedikt frey et michael osborne, de l'université d'oxford, a estimé que 47 % des emplois sur le marché du travail américain seront vraisemblablement automatisés au cours des 20 prochaines années. cela ne veut pas dire que les ordinateurs vont devenir pareils à des humains. ce serait de la sciencefiction. les ordinateurs ne sont pas près de développer une conscience, des émotions et des sentiments comparables à ceux des humains. cependant, pour prendre la place des humains dans l'économie, les ordinateurs n'ont pas besoin d'avoir une conscience. ils ont seulement besoin d'intelligence. tout au long de l'histoire, l'intelligence est toujours allée de pair avec la conscience. les seules entités intelligentes étaient des entités conscientes. les seules capables de jouer aux échecs, de conduire des véhicules, d'aller à la guerre et de diagnostiquer des maladies étaient des humains doués d'une conscience. mais l'intelligence est désormais en train de se dissocier de la conscience. dès que les automobiles automatisées et les robots médicaux seront plus performants que les conducteurs et les médecins humains, des millions de conducteurs et de médecins perdront leur travail dans le monde entier, même si les automobiles automatisées et les robots médicaux n'ont pas de conscience. quelle utilité auront les humains dans un tel monde ? que feronsnous des milliards d'humains sans utilité économique ? nous l'ignorons. nous ne disposons d'aucun modèle économique pour une telle situation. en considérant l’histoire de l’humanité dans sa globalité, celleci vous semble orientée vers une direction : l'unité (toutes les sociétés humaines ou presque sont désormais connectées). vous identifiez trois facteurs qui ont concouru à cette tendance : la religion, les empires et, last but not least, l’argent. quel rôle jouent selon vous les médias dans ce processus ? vous attribuez à la radio et à la télévision deux propriétés jouant en faveur de l'unification : la synchronisation des sociétés (à travers les horaires des programmes par exemple) et la diffusion de l’éthique consumériste. pourriezvous expliquez votre point de vue ? la personnalisation de l’accès à l’information (via twitter ou facebook) vous paraîtelle jouer en sens inverse ? yuval noah harari : il convient de ne pas confondre unité et similitude. tout comme il existe de nombreux organes très variés dans un seul et même corps, il existe aussi des individus aux goûts, aux habitudes et aux opinions variés dans un même réseau. d'ailleurs, les corps complexes et les réseaux complexes s'appuient presque toujours sur une division du travail. pour autant, peu importe que vous préfériez twitter ou facebook, vous faites partie d'un réseau unique unifié et mondial. peu importe que vous préfériez twitter ou facebook, vous faites partie d'un réseau unique unifié et mondial ce réseau unifié mondial est le résultat de milliers d'années d'histoire. il y a eu au cours de l'histoire de nombreuses guerres et de nombreuses révolutions, mais dans l'ensemble la tendance générale a été de se rapprocher toujours de l'unité. il y a 10 000 ans, l'humanité était divisée en de nombreuses tribus. chaque tribu avait sa propre culture, sa propre religion et vivait relativement isolée des autres tribus. la terre constituait une véritable galaxie de mondes humains distincts. désormais, tous les humains font partie d'un réseau économique et politique unique et ils partagent tous la même culture et la même perception élémentaire du monde. il existe certes des désaccords politiques et religieux, mais les similarités sont bien plus importantes. il y a mille ans, les médecins en europe, au proche orient, en inde, en chine et dans les amériques avaient des conceptions de la nature, du corps humain et de la médecine radicalement différentes les unes des autres. de nos jours, les médecins du monde entier partagent des conceptions de la nature, du corps humain et de la médecine très similaires les unes aux autres. si vous deviez souffrir d'une crise cardiaque à copenhague, à jérusalem, à téhéran ou à tokyo, vous seriez probablement emmené d'urgence vers le même genre d'hôpital et vous recevriez le même genre de traitement selon le même genre de protocole médical. les iraniens, les israéliens et les américains ont chacun leurs différences, sans aucun doute, mais lorsqu'il s'agit de comprendre la réalité, ils croient tous en la physique. sinon, pourquoi les israéliens et les américains se préoccuperaientils tant du programme nucléaire iranien ? en 1999, le pdg de sun microsystem déclarait « vous n’avez plus de vie privée, il faut tourner la page ». depuis, des gens comme mark zuckerberg, pdg de facebook (« la nouvelle norme, c’est la vie en public ») ou vint cerf, un des pères fondateurs d'internet (« la vie privée est sans doute une anomalie »), ont défendu la même idée. la vie privée atelle jamais existé ? que vous inspire cette hypothèse de la fin de la vie privée ? yuval noah harari : d'autres formes de vie privée ont certainement existé par le passé. mais la vie privée telle que nous l'avons connue en occident à la fin du vingtième siècle est un phénomène historique spécifique à un lieu et à un moment très particuliers et non une constante universelle. durant d'innombrables générations, les familles et les communautés tribales intimes ont été les unités élémentaires de la société humaine. la structure sociale changeait de temps à autre, mais une forme de famille ou de tribu servait toujours de fondement non seulement à la vie émotionnelle des gens, mais aussi à l'économie et la politique. dans de telles conditions, les humains n'étaient pas des individus disposant d'un espace privé sûr, mais plutôt des membres d'une famille et d'une communauté disposant de très peu d'intimité. au moyen âge, les adolescents étaient exposés à des humiliations bien plus graves que celles qui ont cours sur facebook par exemple, très peu de gens avaient des chambres isolées. même les riches n'avaient pas d'intimité. les châteaux médiévaux possédaient rarement des chambres isolées. le fils adolescent d'un baron du moyen âge n'avait pas sa propre chambre au premier étage dans le château, avec des posters de richard cœur de lion et du roi arthur aux murs et une porte fermée que ses parents n'avaient pas le droit d'ouvrir. il dormait avec de nombreux autres jeunes dans une grande salle. il était toujours exposé et il devait toujours prendre en compte ce que voyaient et disaient les autres. quelqu'un qui avait grandi dans de telles conditions en arrivait naturellement à la conclusion que la réelle valeur d'un homme était déterminée par sa place dans la hiérarchie sociale et par ce que les autres disaient de lui. au moyen âge, les adolescents étaient exposés à des humiliations bien plus graves que celles qui ont cours sur facebook. au cours des 200 dernières années, l'état et le marché ont repris leur compte la plupart des fonctions traditionnelles de la famille et de la tribu, comme la fourniture de retraites et de soins, ou l'organisation de l'éducation et de la sécurité. cela a mené à la désintégration de la plupart des tribus et des communautés intimes, ainsi qu'à l'affaiblissement de la famille. c'est ce qui a changé les humains en individus et fait de la vie privée une valeur aussi importante. ça peut sembler paradoxal, mais c'est l'état et le marché qui ont favorisé l'individualisme et la vie privée en démantelant les communautés traditionnelles. il n'y a donc rien de naturel dans notre conception actuelle de l'individualisme et de la vie privée. selon vous, l’homme poursuit une quête, que vous surnommez le « projet gilgamesh » : celle de vaincre la mort et la maladie. mais nos sociétés numériques n’ontelles pas fait naître un nouveau mythe : celui de l’omniscience. avec le bigdata, n’avonsnous pas l’ambition de tout mesurer et de tout prévoir (bien que, comme vous l’expliquez, « une révolution prévisible ne se produit jamais ») ? yuval noah harari : oui, le bigdata transforme notre regard sur le monde et donne naissance à de nouveaux mythes et même à de nouvelles religions. malgré tout ce qui se dit sur l'extrémisme islamiste et sur l'intégrisme chrétien, le lieu le plus intéressant au monde d'un point de vue religieux n'est ni la syrie ni la bible belt, mais la silicon valley. c'est là que des gourous hitech nous concoctent de toutes nouvelles religions qui n'ont que peu de choses à voir avec dieu et qui ont tout à voir avec la technologie. le dieu toutpuissant et omniscient des religions traditionnelles est remplacé par des algorithmes toutpuissants et omniscients ils nous promettent toutes les récompenses habituelles – le bonheur, la paix, la justice et la vie éternelle au paradis – mais ici sur terre grâce à la technologie et non après la mort grâce à des êtres surnaturels. le dieu toutpuissant et omniscient des religions traditionnelles est remplacé par des algorithmes toutpuissants et omniscients. lors d’une conférence chez google, vous avez récemment comparé la silicon valley au vatican du xiii^e siècle. pourriezvous préciser cette idée ? yuval noah harari : j'évoquais l'histoire de l'église chrétienne et d'autres religions traditionnelles plutôt que celle de la silicon valley. je cherchais à expliquer pourquoi les religions traditionnelles, de forces de création, deviennent des forces de réaction. par le passé, le christianisme et l'islam étaient des forces créatives. par exemple, dans l'europe médiévale, l'église catholique a été responsable de nombreuses réformes sociales et éthiques, ainsi que d'innovations économiques et technologiques. l'église a fondé nombre des premières universités européennes ; ses monastères expérimentaient des méthodes économiques inédites ; cela a d'ailleurs ouvert la voie aux techniques de traitement des données (comme la création d'archives et de catalogues). tout roi ou tout prince qui voulait avoir une administration efficace se tournait vers les prêtres et les moines pour bénéficier de leurs compétences dans le traitement des données. en ce sens, le vatican était dans l'europe du treizième siècle ce qui se rapprochait le plus de la silicon valley. pourtant, à la fin de l'ère moderne, le christianisme et l'islam sont devenus en grande partie des forces de réaction. posezvous la question : « quelle a été la découverte, l'invention ou la création la plus importante du xx^e siècle ? » difficile de répondre, tant la liste est longue, avec des découvertes scientifiques comme les antibiotiques, des inventions technologiques comme les ordinateurs, ou des créations idéologiques comme le féminisme. à présent, demandezvous : « quelle a été au xx^e siècle la découverte, invention ou création la plus importante due à des religions ? » là aussi, difficile de répondre, tant la liste est courte. qu'ont découvert les prêtres, les rabbins et les mollahs au xx^e siècle et que l'on pourrait mentionner dans la même phrase que les antibiotiques, les ordinateurs ou le féminisme ? après avoir réfléchi à ces deux questions, d'où pensezvous que les grands changements du xxi^e siècle émergeront : de l'état islamique ou de google ? c'est vrai, isis sait poster des vidéos sur youtube. bravo. mais hormis dans l'industrie de la torture, combien de nouvelles startups syriennes ou irakiennes se sont fait connaître ces derniers temps ? traduit de l’anglais par patrice piquionne l’internet des objets et les bigdata au service de l'esanté chronique de laurent bride dans un contexte d’augmentation du coût, de démographie médicale complexe et de multiplicité des compétences impliquées, l’esanté véhicule la promesse d’une meilleure maîtrise des dépenses de santé et d’une prise en charge plus efficace des maladies. englobant à la fois l’ensemble des applications et technologies numériques au service de l’offre de soins, la télésanté et la télémédecine, la « esanté » est aujourd’hui une priorité des gouvernements. multiplicité des acteurs, des applications et des dispositifs de santé la « esanté » est un domaine complexe car touchant plusieurs marchés et acteurs (généralistes, spécialistes, pharmaciens, institutions, etc.) et de multiples domaines d’application, tous assujettis à des réglementations plus ou moins adaptées à la réalité d’aujourd’hui, surtout à mesure qu’apparaissent de nouveaux dispositifs connectés, permettant aux patients de prendre, en temps réel, le contrôle de leur propre santé. les nouvelles technologies de l’information et de la communication sont au cœur de l’évolution de notre système de santé et facilitent la circulation d’informations entre les différents acteurs. les bigdata et l’internet des objets ouvrent des perspectives inédites de gains d’efficacité, que cela soit dans les domaines de la recherche, de la prévention, de la compréhension des maladies ou de l’efficacité des médicaments. l’analyse des données collectées – par les médecins, l’hôpital ou par les patients euxmêmes via des objets connectés – permet de les contextualiser et leur croisement contribue à forger une image plus précise de la problématique analysée. les progrès de ces nouvelles technologies (spark et spark streaming) permettent aujourd’hui de traiter en temps réel des volumes de plus en plus importants de données, mais également de les exploiter plus rapidement grâce à l’utilisation de méthodes de calculs parallèles, distribués et en mémoire , ouvrant ainsi la porte à de nouveaux cas d’usage et créant de la valeur. par exemple, il est aujourd’hui possible de croiser des jeux de données décrivant l’historique de prise de médicaments par un patient et les effets constatés en temps réel de ces mêmes médicaments sur un échantillon de patients du même âge et présentant le même type d’antécédents. vers une médecine personnalisée et prédictive en combinant l’analytique à d’autres techniques, comme le machine learning, on peut imaginer aisément d’autres nouvelles applications apportant une forte valeur ajoutée. par exemple, la médecine prédictive. si jusqu’ici, la prise en charge du patient consistait passer d’une logique curative à préventive (dépistage, campagnes de sensibilisation, vaccination, hygiène…), la multiplication des objets connectés et l’analyse croisée des données de santé permettent aujourd’hui d’adopter une logique prédictive : à partir de l’étude des données de tension artérielle une dizaine d’heures avant une crise cardiaque, on peut par exemple dresser des tendances facilitant la localisation d’éléments de risque. le machine learning, permettant d’enrichir, avec le temps, les modèles d’analyse. il est donc possible d’imaginer à terme la création d’un système d’alerte automatique informant, en temps réel, le médecin de la probabilité d’une crise cardiaque avant qu’elle se concrétise. l’autre domaine est la médecine personnalisée. il est aujourd’hui possible d’individualiser les traitements en fonction de la typologie des patients : d’une part des capteurs (disposés soit sur le patient luimême par le biais d’objets connectés comme un bracelet, soit proximité, par exemple sur des lits d’hôpitaux intelligents) collectent des données sur une base régulière. d’autre part, ces informations sont croisées et intégrées avec d’autres données – par exemple de recherche clinique – au sein d’applications décisionnelles pour améliorer l’efficacité des traitements. combinée à l’impression 3d, la médecine personnalisée offre des perspectives encore plus séduisantes. le nerf de la guerre, ici, est la donnée. la capacité à la collecter, la stocker, à la traiter rapidement et à la restituer est fondamentale. outre l’évolution phénoménale des technologies d’exploitation intelligente de ces données, les protocoles de communication des objets connectés ont également largement progressé les rendant plus légers (mqtt par exemple). nous disposons aujourd’hui des moyens permettant de favoriser l’interopérabilité des données (afin de garantir leur partage) et d’en tirer le meilleur parti pour rendre les traitements plus efficaces. c’est tout l’enjeu de la loi sur la modernisation du système de santé actuellement en discussion au parlement français. si de nombreux aspects doivent encore être éclaircis, le partage des données de santé va dans le sens d’une amélioration qu’appellent de leurs vœux tous les professionnels de la santé. télécom paristech : trois retours d’expérience bigdata décortiqués xavier biseul, 6 octobre 2015, 17:43 bigdata paristech 3 7 6 189 maintenance prédictive (sncf), détection des clients surendettés (bpce), remplissage optimisé des chambres d’hôtels (accorhotels), le bigdata devient un vrai levier de transformation. premier bilan pour la chaire de recherche « bigdata & market insights » de télécom paristech créée en juin 2014 avec le soutien de deloitte, du groupe yves rocher et de voyagessncf.com. dans ses locaux, l’école d’ingénieurs organisait, vendredi 2 octobre, une table ronde sur le bigdata, en tant que levier de la transformation des entreprises. voici le retour d’expérience de trois entreprises « data driven ». accor : lutter à armes égales avec les « barbares » du web comment remplir au meilleur prix quelque 495 000 chambres d’hôtels dans le monde entier ? c’est l’équation que doit résoudre accorhotels 365 jours par an. un enjeu d’importance pour le groupe hôtelier qui fait vivre quatorze marques dont sofitel, pullman, novotel, mercure ou ibis dans 92 pays. « en termes de volume de données et de complexité, le secteur du voyage a des besoins en traitements informatiques aussi importants que celui des transports ou de la grande distribution », avance vivek badrinath, directeur général adjoint d’accorhotels. « le groupe ouvre un hôtel tous les deux jours et, à chaque fois, c’est un modèle économique particulier en fonction de l’environnement, de la typologie de voyageurs. autrefois, le marketing identifiait un segment de population à qui il adressait des messages. aujourd’hui, avec le numérique, cette démarche vole en éclats.» une stratégie client d’autant plus sensible que les pure players du web sont venus « désintermédier » les acteurs traditionnels en trois vagues : les agences en ligne avec le duopole booking et expedia, les comparateurs de tarifs (skyscanner, kayak) et les plateformes de locations privées (airbnb, homeaway). « si ces pure players ont fait grossir le gâteau, ils exigent aussi une commission pour la mise en relation client supérieure aux 10 % réclamée jadis par les agences de voyages. ils viennent capter de la marge et de la valeur », s’insurge vivek badrinath. des « barbares » du web dont les robots « scrawlent » en continu la base de données d’accorhotels afin de savoir combien de chambres sont disponibles et à quel prix, établissement par établissement. sa plateforme web enregistre ainsi 35 millions de consultations chaque jour venant des quatre coins de la planète mais ne fait « que » 150 000 réservations quotidiennes en direct. accorhotels : « 50 % de nos profits viennent de 5 % de clients » « si le secteur hôtelier n’a pas été actif sur ces 3 vagues, il faut désormais anticiper la prochaine. » accorhotels s’en donne les moyens en plus que doublant son budget dévolu au numérique avec une enveloppe 225 millions d’euros sur cinq ans. le bigdata fait partie des huit programmes clés identifiés dont la relationclient et la mobilité. plus qu’une question d’outillage avec l’adoption de haddop ou nosql (« nous avons trouvé l’adoption des nouvelles technologies plutôt aisée »), le changement a surtout été organisationnel. il a fallu casser les silos – chaque base données était pensée pour une entité avec un format particulier – et les chapelles. les équipes data du marketing et de la distribution ont fusionné sachant qu’un peu plus de mille personnes passent l’essentiel de leur temps sur l’analyse de données. la fonction de chief data officer a été aussi créée en janvier dernier, occupée par fabrice otaño, et un business data lab a été monté. vivekbadrinathorangeaccor une nouvelle configuration qui donne déj des résultats, notamment en termes de fidélisation client. sachant que le data lake mis en place contient les données de 14 millions de clients. « 50 % de nos profits viennent de 5 % de clients. il n’est pas idiot de s’intéresser à eux », s’amuse vivek badrinath (photo), « sachant que booking ne capte, lui, que les clients qui viennent chez nous pour la première fois ». le bigdata a permis de trouver des caractéristiques communes à ces bons clients audelà des images d’épinal sur le voyage d’affaires. il a aussi permis de pousser sur le web davantage d’offres personnalisées, permettant de tripler le taux reconversion, en évitant d’envoyer des photos de plage à un amateur de ski. désormais, le groupe peut aussi s’appuyer sur sa propre place de marché : pour la réservation de chambres d’hôtels, accorhotels.com s’ouvre aux pros indépendants, après le rachat de fastbooking. accorhotels se défend de faire de l’ip tracking et parle plutôt de « smart pricing » en positionnant les tarifs en fonction de la zone de la chalandise, de la concurrence locale, de l’affluence dans la ville. sachant que, par principe, le groupe récompense ceux qui réservent tôt. pour ajuster sa tarification, accorhotels analyse les réservations, les navigations sur son site mais aussi la météo et les médias sociaux. vivek badrinath entend aussi intégrer des facteurs exogènes comme l’actualité, des grèves…. en ce qui concerne les avis des consommateurs, le groupe a noué un partenariat avec tripadvisor. « on peut faire des requêtes. si beaucoup de clients se plaignent de la climatisation dans une région donnée, il faut peutêtre envisager de remplacer le fournisseur. » tous ces algorithmes doivent in fine aider le directeur d’hôtel prendre les meilleures décisions (tarifs, promotions…) sur la base de recommandations. « il reconnaît luimême qu’il y a trop de variables prendre en compte. » scnf : prédire une panne 30 mn avant le départ a la sncf, le bigdata a une vocation à la fois interne et externe. côté clients, le groupe ferroviaire, avec voyagessncf.com, estime avoir une bonne connaissance des parcours clients. « nous sommes en mesure de proposer les meilleurs produits aux meilleurs tarifs tout en conservant une interface simple », avance sébastien pialloux, en charge du programme bigdata à la sncf. a bord, l’internet des objets pourrait améliorer l’expérience client. en juin dernier, guillaume pepy, président de l’entreprise publique estimait que l’on pouvait mettre des capteurs partout. « par exemple, sur les 500 sièges d’un tgv. si une tablette est cassée, on le saura à l’arrivée du train et non pas dans une semaine ». ayant équipé 128 de ses gares en wifi gratuit et illimité, la sncf pourrait utiliser les données anonymisées des consultations afin de voir comment se déplacent les voyageurs. et, audelà delà, en déduire la valeur des différents baux commerciaux en fonction de leur emplacement. en interne, le grand chantier porte sur la maintenance de son réseau, tout particulièrement depuis le drame de bretignysurorge. la sncf utilise notamment des drones pour surveiller ses voies ferrées et repérer les éventuels obstacles et notamment la végétation environnante qui pourrait envahir les rails. la maintenance prédictive concerne aussi les rames grâce à une armada de capteurs. « nous sommes en mesure de prédire une partie des pannes 30 minutes avant un départ », se réjouit sebastien pialloux. avec le risque de faire des « faux positifs » les modèles offrant toujours une marge d’erreur. un transilien peut être ainsi détourné, tort, vers un atelier de maintenance situé à 200 km du sud de paris. bpce : le bigdata pour prévenir le surendettement pour les banques, le bigdata est une opportunité pour renouer avec forme d’intimité avec leurs clients. « avant, le client venait en agence, on l’avait sous les yeux », se souvent philippe poirot, directeur du développement digital, transformation et qualité du groupe bpce (banque populaire caisse d’epargne). mais le numérique est arrivé par là. la fréquentation en agence baisse de 10 % par an au profit d’autres canaux (web, mobile, centre d’appel). et, c’est le paradoxe. si le français déserte son agence, il n’a jamais autant multiplié les contacts avec sa banque, avec 250 interactions par an et par client à la bpce et 7 millions de consultations de sa plateforme web par mois. « nous sommes passés du face à face à une gestion à distance ». le bigdata doit aider à mieux fidéliser les clients mais aussi reprendre l’initiative face à des fintech qui courtcircuitent le banquier de ses clients. a l’image de l’application de la startup française bankin’. venant se greffer sur les comptes bancaires, elle alerte son détenteur des mouvements importants, classe ses dépenses par catégorie (nourriture, transports, loisirs…). bpce veut proposer en direct ce même type de services mais aussi « une gestion prédictive des comptes ». en jouant sur son rôle de tiers de confiance garantissant la confidentialité des données personnelles. le bigdata peut, enfin, aider une banque à valoriser son rôle de conseil. les étudiants de paristech ont ainsi travaillé sur un modèle de détection à 6 mois du risque de surendettement. améliorant de 14 points le taux de prédiction pour le porter à 94 %. un enjeu de taille sachant que 20 % des clients risquent le surendettement, soit 40 000 pour le groupe. pour prévenir ce type de situation de banqueroute, il faut déceler divers signaux faibles. « généralement, la banque est informée au dernier moment. tout se passait bien jusqu’ici avec elle, le surendetté dissimulant sa situation en multipliant les prêts extérieurs. » plus maintenant avec le bigdata ! de gauche à droite : sébastien pialloux (sncf), philippe poirot (bpce), michel elmaleh (deloitte), alain monzat (yves rocher) de gauche droite : sébastien pialloux (sncf), philippe poirot (bpce), michel elmaleh (deloitte), alain monzat (yves rocher)  fautil avoir peur du bigdata ? enseignantchercheur à télécom paristech, stephen clémençon est responsable du mastère spécialisé bigdata et titulaire de la chaire machine learning for bigdata. l’évocation du terme bigdata provoque bien souvent une réaction ambivalente. un engouement certain pour ce que les masses de données aujourd’hui disponibles, combinées à des sciences et technologies de l’information en plein essor, pourraient permettre d’accomplir dans de nombreux secteurs ( science, médecine, commerce, transports, communication, sécurité), à l’instar des progrès réalisés ces vingt dernières années dans le domaine de l’internet. mais aussi une crainte, fondée parfois sur des dangers bien réels: une automatisation des processus de décision pouvant s’accompagner d’une perte de contrôle, l’impact sur l’emploi, la dépendance de certaines activités à l’égard des systèmes d’information et la disparition de la vie privée. s’il est encore aujourd’hui difficile de percevoir précisément comment organiser une régulation efficace sans pour autant brider les avancées promises, la maîtrise de ces risques passe en partie par l’éducation et la formation, une plus grande diffusion d’une «culture des données et des algorithmes». les peurs suscitées par l’automatisation ne sont pas nouvelles. dans le cas du traitement des masses d’information numérisées, cette automatisation est pourtant inévitable et souhaitable. perçue à tort comme une discipline visant à remplacer l’expertise d’un opérateur humain par des machines réalisant des tâches automatisées définies par des données, l’apprentissage statistique (machinelearning) a au contraire pour objectif de nous aider à exploiter les données brutes collectées par les capteurs modernes ( téléscope spatial, spectromètre de masse, téléphones mobiles), portant une information complexe qu’il nous est absolument impossible d’embrasser sans un traitement mathématique adéquat, mis en œuvre au moyen de programmes informatiques dédiés. il est aujourd’hui à l’œuvre dans de nombreux domaines et s’incarne avec succès dans des applications telles que la vidéosurveillance, la maintenance prédictive des grands systèmes et infrastructures ou les moteurs de recommandation sur le web par exemple. un contrôle indispensable on peut anticiper que ce corpus de connaissances et techniques l’interface des mathématiques et de l’informatique, en progrès constant depuis quelques décennies, sera encore à l’origine de nombreuses innovations à fort impact sociétal, économique ou scientifique pour peu que son potentiel soit compris par un public de plus en plus large, qu’il soit maîtrisé par un nombre croissant d’ingénieurs et de cadres techniques et qu’il se confronte aux enjeux de la société moderne. le véritable danger de l’automatisation du traitement des données massives résiderait au contraire dans une pénurie d’expertise et de compétences permettant de vérifier les conditions dans lesquelles les données sont collectées, d’assurer leur véracité et le bien fondé des modèles statistiques sur lesquels reposent les applications modernes et d’interpréter les résultats. si le bigdata correspond à une sorte de nirvana pour la statistique, dont les méthodes sont d’autant plus fiables qu’elles sont fondées sur l’observation d’expériences «en grand nombre», le contrôle des conditions d’acquisition des données et des hypothèses de validité des algorithmes prédictifs est indispensable au succès des modèles calculés par les machines. la culture probabiliste et statistique devrait ainsi prendre une place de plus en plus importante dans la plupart des cursus universitaires, et pas seulement celui de ces nouveaux spécialistes des statistiques algorithmiques, les «data scientists». sa diffusion accrue ferait en particulier s’évanouir la crainte d’un monde où le bigdata permettrait de prédire sans erreur nos comportements, la date de notre mort... les «grands nombres» permettant d’estimer la performance prédictive des modèles, d’évaluer les risques avec précision et d’optimiser les décisions en univers incertain mais pas de réduire le caractère intrinsèquement aléatoire de certains phénomènes. service: » trouvez la formation qui révélera vos talents à lire aussi * «il faut former aussi les jeunes à l’intrapreneuriat» * pour un enseignement total de la créativité dans les écoles de management * «il faut faciliter la vie aux étudiants qui veulent entreprendre» * figaro étudiant sur facebook * figaro étudiant sur twitter réagir à cet article * [nophoto.jpg] comme toute introduction d'une sphère d'innovation celleci relativement pointue dans le domaine des technologies et systèmes d'information, il y aura une période plus floue. en anglais nous utilisons souvent l'acronyme vuca ou vica en français volatilité, incertitude, (uncertainty) complexité et ambiguïté lorsque nous sommes dans cette situation. en effet, il émerge présentement une phase plus d'adaptative pour les utilisateurs, les développeurs, et le personnel du monde académique, de l'apprentissage professionnel inhérent au secteur de cette branche de l'informatique et son interrelation dans le développement des connaissances dans son ensemble. au fur et à mesure de cette évolution toutefois nous deviendrons collectivement plus confortables avec les forces, faiblesses, opportunités et menaces (swot en anglais originaire de l'université standford) et le cerveau humain apportera sa valeur au sein de du ''bigdata''. par sylvie t. leduc, le 21/09/2015 à 18:12 signaler un abus * [avatar29.jpg] @anonymoushuman . dans la météo, l'évolution des variables descriptives repose sur des modèles dynamiques et déterministes ... on fixe les conditions initiales des variables (température, pression, vent, etc) à un moment donné et les formules mathématiques du modèle évaluent l'évolution des variables dans le temps. la taille des modèles (nombre de variables et d'équations mathématiques dans le modèle) est tellement monstrueuse que la résolution est approximée et la qualité des simulations se dégradent quand l'horizon de temps grandit. . ce n'est pas la même logique que le machine learning où l'on se base sur un historique de données pour prédire l'avenir selon un % de vraisemblance. . par exemple, vous avez une base de donnée avec 300 photos : certaines avec des chats, d'autres sans chats. vous présentez une nouvelle photo en demandant : ya t'il un chat sur cette nouvelle photo ? l'algorithme va regarder les photos avec chat, puis les photos sans chat et vous répondre que la nouvelle photo ressemble selon x% à une photos sans chat (0% = il y a un chat, 100% = il n'y a pas de chat, 40% = il semble qu'il y ait un chat, mais ce n'est pas sur, etc). par snoop lenrage, le 21/09/2015 à 15:04 signaler un abus * [avatar30.jpg] un système dynamique comme la prévision météo n'est pas fiable a plus de 10 jours , est c'est pour cela que les plus gros calculateurs de la planète sont mobilises sauf erreur. ça donne une idée des limites de 'big data' en terme de prédiction. avec une différence de taille , la météo sait quelle données collecter pour faire la prévision. par anonymoushuman, le 21/09/2015 à 13:43 signaler un abus * [nophoto.jpg] pour le bigdata comme pour toutes les technologies humaines ce qui est important c'est qu'on en fait. la découverte du fer à été très utile du point de vue de l'outillage mais terriblement nocive du point de vue de la dangerosité des armes... il faut donc se méfier du bigdata tout particulièrement dans les possibilités qu'il offre aux pouvoirs économiques, politiques et policiers d'espionnage et de contrôle des populations. des parefeux législatifs doivent urgemment être mis en place, peutêtre même dans les constitutions des nations. il est par contre bien évident que cette technologie permet de nombreux progrès dans un tas de domaines et qu'il faut l'utiliser autant qu'on peut pour améliorer notre vie... sans empiéter sur notre vie privée et nos libertés individuelles ! par bentiens, le 21/09/2015 à 11:56 signaler un abus * [avatar46.jpg] nous remercions humblement ce monsieur de nous expliquer ce que nous devons penser, bien qu'il le fasse en utilisant un jargon très classique : on peut anticiper que ce corpus de connaissances et techniques l’interface des mathématiques et de l’informatique, en progrès constant depuis quelques décennies, sera encore à l’origine de nombreuses innovations à fort impact sociétal, économique ou scientifique pour peu que son potentiel soit compris par un public de plus en plus large, qu’il soit maîtrisé par un nombre croissant d’ingénieurs et de cadres techniques et qu’il se confronte aux enjeux de la société moderne. ce n'est pas parce qu'un corpus de données s’agrandit qu'il est en progrès constant ... ce raisonnement est d'ailleurs à un moment donné , la négation même de la statistique! encore faudraitil que le corpus de données soit pertinent ( disons exact pour faire simple ) .. ce qui est loin d'être le cas aujourd'hui, pour une foule de raisons, entre autre le fait qu'un nombre indéfini d'utilisateurs informatique mentionnent n'importe quoi dans nombre de formulaire internet. par pascapple, le 21/09/2015 à 10:34 signaler un abus quand la big pharma rencontre le bigdata françoise ménager pour « les echos » a l'instar du partenariat noué ce moisci entre sanofi et google, de plus en plus de passerelles existent entre les grands noms du net et de la pharmacie. ces derniers commencent seulement à percevoir le potentiel des données collectées auprès des patients. par catherine ducruet journaliste au service industrie au début du mois, sanofi et la division sciences de la vie de google annonçaient la mise en place d'une collaboration « pour améliorer la prise en charge et les résultats cliniques des personnes atteintes de diabète ». l'idée était de combiner les compétences « de sanofi en matière de traitements et de dispositifs médicaux à l'expertise de google en matière d'analyse de données, d'électronique miniaturisée » pour « développer de nouveaux outils de gestion du diabète et permettre de nouveaux types d'intervention », de la mesure de la glycémie sanguine à la collecte d'informations rapportées par les patients, en passant par le suivi de l'observance des traitements. sanofi n'est pas le premier laboratoire pharmaceutique à passer un accord avec google. en janvier dernier, biogen s'était déjà associé lui pour étudier les déterminants biologiques et environnementaux de la sclérose en plaques maladie phare pour biogen , afin de mieux guider la prescription des médicaments et d'en développer de nouveaux. dans le même esprit, abbvie s'était aussi engagé, il y a un an, dans une collaboration à 1,5 milliard de dollars sur dix ans, avec calico, société de biotech filiale de google, pour travailler à la mise au point de molécules, en particulier contre les maladies neurodégénératives et le cancer. l'intérêt des big pharmas pour le bigdata n'est pas réellement une nouveauté. la recherche de nouvelles molécules nécessite, depuis plusieurs décennies déjà, la manipulation de masses importantes de données, même si on a vraiment changé d'échelle, notamment avec l'essor des « omique » (génomique, protéomique, métabolomique, etc.). la principale limitation est ici financière. ce qui est, en revanche, plus nouveau, c'est l'irruption du bigdata dans le diagnostic des maladies à partir des données de séquençage ou de multiples biomarqueurs. « cela va de pair avec la possibilité de mieux sélectionner les patients inclus dans les essais cliniques », explique patrick biecheler, associé du cabinet de conseil roland berger. l'approche du cancer a ainsi été complètement transformée par l'identification de mutations génétiques que l'on tente de neutraliser grâce aux traitements dits « ciblés ». désormais, il est possible par exemple de n'inclure dans un essai clinique qui teste une molécule que des patients porteurs de la mutation visée. mais ce qui est absolument inédit, c'est l'exploitation de données pour mieux comprendre le marché des médicaments. pourquoi un médicament très efficace dans les essais cliniques n'amélioretil pas l'état des patients « dans la vraie vie » ? pourquoi les patients ne suiventils pas un traitement ? pourquoi voiton apparaître des effets secondaires qui n'avaient pas été détectés pendant les essais cliniques ? etc. pour ce nouvel usage dont les laboratoires pharmaceutiques perçoivent bien l'intérêt notamment pour obtenir des prix rémunérateurs face à des autorités de santé de plus en plus exigeantes , la question de la collecte et de l'accès aux données, ainsi que celle de leur exploitation se posent de façon particulièrement aiguë. en effet, « dans de nombreux pays dont la france, les laboratoires pharmaceutiques ne peuvent accé der directement aux informations sur les patients, mais seulement en passant par un intermédiaire », explique patrick biecheler. d'où l'attrait des google, apple et autres facebook, passés maîtres dans la collecte et l'exploitation des données. des géants du net qui ont encore beaucoup à apprendre en la matière : « ces acteurs sont assez novices dans le domaine de la santé, où les obligations légales et les exigences en termes de fiabilité des données fournies sont particulièrement importantes », observe eric bonnel, associé du cabinet de conseil square. ainsi l'idée de récolter gratuitement des données sur l'évolution de l'épidémie de grippe saisonnière auprès des internautes dans google flu trends s'estelle avérée finalement mauvaise, faute de pouvoir faire un diagnostic fiable de la maladie. l'image erronée de l'épidémie qui en résultait était susceptible de nuire aux actions de santé publique. google a finalement arrêté cette année. a l'inverse, la cohorte hepather créée en france en 2012 par l'anrs en association avec des laboratoires comme par exemple abbvie, bms, gilead ou janssen pour collecter les informations sur 25.000 patients atteints d'hépatites démontre la pertinence de certaines initiatives. elle doit permettre sur dix ans de mieux connaître ces maladies et d'évaluer les traitements développés par les différents laboratoires, y compris dans la « vraie vie ». « clairement, toutes les données n'ont pas la même valeur », résume eric bonnel. en fait, à l'usage, et au gré des expérimentations, la fiabilité des données relevées auprès des patients apparaît plus grande lorsque la collecte est automatique (transmission automatique du taux de glucose ou nombre de fois où l'inhalateur a été utilisé en cas d'asthme). là, les google et autres apple peuvent jouer pleinement un rôle d'intégrateur. « mais ces solutions n'ont un véritable intérêt médical et économique que pour les 10 à 15 % de la population gravement atteints de pathologies chroniques, comme l'asthme, l'insuffisance cardiaque ou le diabète, qui doivent absolument respecter leur traitement », prévient patrick biecheler. catherine ducruet journaliste au service industrie les points à retenir l'intérêt des big pharmas pour le bigdata n'est pas neuf, mais l'irruption des données dans le diagnostic des maladies ouvre de nouveaux horizons. l'exploitation des données devrait aussi permettre de mieux mesurer l'efficacité des traitements. des chaussures connectées au bigdata, la santé de demain se dessine à tokyo commenter (1) partager tweeter une poignée de capteurs intégrés à la semelle d'une chaussure permettraientils d'améliorer significativement la vie de ceux qui la portent ? au ceatec de tokyo, l'industrie montre comment des capteurs au traitement massif des données, la santé gagnerait à être connectée. dans cette semelle transparente, fujitsu cache un capteur de pression, un accéléromètre et un module capable de mesurer la torsion. le tout communique avec un petit boîtier luimême connecté au téléphone de l'utilisateur, qui se chargera de répercuter ces informations vers un serveur distant. aujourd'hui, il faut une batterie avec recharge sans fil pour alimenter l'ensemble, mais il fonctionnera demain de façon autonome, grâce à un film piézoélectrique qui convertira l'énergie de la marche en électricité. d'un coût marginal l'équivalent de quelques dizaines d'euros ce petit dispositif sait donc mesurer l'activité physique de son porteur avec précision. couplé au gps du smartphone, il peut aussi suivre sa position en temps réel, et livrer en fin de journée un état des lieux complets : endroits visités, temps consacré à la marche, vitesse de déplacement, etc. chaussures connectées fujitsu mais que faire de ces données ? au ceatec de tokyo, fujitsu invite les acteurs du secteur de la santé connectée à dépasser la mesure de soi individuelle, domaine déjà bien couvert par les innombrables applications dédiées aux bracelets ou montres connectés du marché. pour ce faire, l'antienne est déjà bien connue : il faut croiser les données. dans un premier temps, il propose de les enrichir d'une couche supplémentaire d'informations personnelles liées au porteur, qui pourrait renseigner sa condition physique, ses éventuels soucis de santé ou ses objectifs en termes de bienêtre. nourri des statistiques émanant de la base installée, le service construit sur cette base saurait alors prodiguer des conseils adaptés et personnalisés. « think global, act local » fujitsu file la logique un cran plus loin, en imaginant que ces données soient aussi associées à des informations publiques, de nature démographique par exemple, situées dans le champ de l'open data, de façon à ce que les traitements informatiques effectués sur la base des remontées individuelles accouchent d'analyses valables au niveau collectif. de quoi mieux comprendre les déplacements des piétons en ville ou mieux cerner les habitudes d'une population en termes d'activité physique. rencontré à tokyo, l'industriel japonais se contente d'avancer des pistes de réflexion mais ne prétend pas fournir luimême les réponses. il envoie en revanche régulièrement ses ingénieurs participer à des hackathons dans lesquels des équipes planchent sur les différentes façons possibles d'exploiter les données remontées par les capteurs liés à la mesure de soi. vers une médecine du travail connectée ? d'autres avancent une proposition de valeur plus concrète. son compatriote kyocera, par exemple, dessine un scénario pensé pour l'entreprise. chaque employé porte un petit tracker d'activité capable de garder une trace de toute l'activité physique de la journée. pour ceux qui sont en surpoids, une application mobile permet de mesurer rapidement le tour de taille en faisant glisser un smartphone à la surface du ventre. elle délivre instantanément une analyse approximative de la masse graisseuse associée. en parallèle, kyocera propose d'exploiter une application photo intelligente sachant reconnaître les aliments présents dans l'assiette, pour que chacun puisse suivre sa consommation calorique au quotidien. mesure de soi kyocera mesure de soi kyocera le smartphone permet de mesurer le tour de taille, puis délivre une estimation de l'état de forme du patient l'ensemble servirait le collaborateur, en lui permettant de suivre au quotidien sa forme physique. il pourrait aussi donner naissance à une médecine du travail « connectée », capable demain d'aménager l'emploi du temps d'une personne en particulier pour lui faire prendre un peu d'exercice. les médecins auraient aussi la possibilité de surveiller les indicateurs de forme au niveau global, de façon à prodiguer conseils ou actions spécifiques à une population d'employés donnée, affectée par un phénomène commun (sédentarité excessive par exemple). quel intérêt pour ces deux acteurs ? chacun à son niveau, ils ambitionnent de se positionner comme celui qui fournira la technologie soustendant les futurs services à venir : serveurs et plateforme de développement pour fujitsu, capteurs et solutions matérielles pour le spécialiste du composant kyocera. randstad : le bigdata pour gommer le paradoxe du marché de l’emploi des millions de chômeurs et des pénuries sur certains postes. pour résoudre ce paradoxe, et améliorer son efficacité commerciale, le spécialiste de l’intérim randstad mise sur hadoop et des technologies de machine learning. le bigdata au service de l’emploi ? l’idée n’est pas vraiment nouvelle, mais randstad (3 600 personnes en france, 2,7 milliards d’euros de chiffre d’affaires en 2014) a le mérite de pousser le concept assez loin, grâce à l’exploitation de technologies avancées de machine learning. « la solution que nous avons développée vise répondre au paradoxe de l’emploi en france, martèle d’emblée le président du spécialiste de l’intérim dans l’hexagone, françois béharel (en photo). le pays compte 4 à 5 millions de chômeurs et des acteurs de l’emploi comme nous ont du mal à servir les commandes des entreprises ». avec des pénuries sur certains profils (comme les soudeurs) et/ou sur certains bassins d’emploi particuliers. selon le dirigeant, randstad ne parvient ainsi pas à satisfaire 1 commande sur 2 ou sur 2 ½, un ratio qui varie en fonction de la saison et des profils. c’est sur la base de ce constat que la société s’est lancée, il y a trois ans, dans un projet de bigdata. avec la volonté de dépasser le simple outil de mise en correspondance, via analyse sémantique, des offres et des cv disponibles. au total, la solution développée par capgemini gère quelques 1 000 qualifications, mais surtout 11 000 compétences différentes. « en cas de pénurie sur une qualification, on peut ainsi zoomer sur les compétences nécessaires pour élargir la recherche et trouver des passerelles entre les métiers », illustre françois béharel. une piste permettant, par exemple, de proposer une formation à un métallier afin de le muer en soudeur. hadoop + spark basé sur l’exploitation des 3 millions de cv que possède le spécialiste de l’intérim et des 12 millions d’annonces d’emploi publiées par an que la société récupère auprès de partenaires (pôle emploi mais aussi les jobboards), l’outil repose sur des technologies d’analyse sémantique et sur un arbre de décision permettant d’identifier les compétences acquises (dans les cv) ou attendues (dans les offres), ainsi que leur poids (correspondant, par exemple, au nombre d’années correspondantes dans le cv). c’est ici que sont intervenues les technologies de machine learning, mais également l’expertise des équipes de randstad sur le sujet. « c’était, avec l’acquisition de données, le gros morceau sur ce projet », dit valérie perhirin, qui dirige les activités bigdata et analytics de capgemini france. démarrés en 2013, les développements reposent sur hadoop (un cluster de 100 to sur base de distribution cloudera), un développement spark – aujourd’hui le framework star pour le système de gestion de données open source – et sur une infrastructure oracle. efficacité commerciale et nouveaux marchés christophe montagnon christophe montagnon centré au départ sur l’algorithme de rapprochement des compétences et des profils – le volet qui doit avoir un impact direct sur l’efficacité commerciale des consultants randstad , le projet s’est peu à peu enrichi d’autres services, tournés vers les collectivités territoriales ou la direction des entreprises. de facto, l’outil, présenté ce matin par le dsio (directeur de l’organisation et des systèmes d’information) du groupe, christophe montagnon, propose des scénarios d’usage très divers. certains tournés vers les candidats (orientation, entrée sur le marché du travail, anticipation des reconversions), d’autres vers les recruteurs (disponibilité de compétences sur leur bassin d’emploi, élargissement de la recherche en cas de pénurie). mais l’outil offre aussi une vision stratégique aux entreprises (disponibilité de compétences dans le temps sur un bassin d’emploi afin de cibler une implantation, concurrents sur un bassin d’emploi en terme d’attractivité sur un métier donné) mais aussi aux collectivités ou l’etat (attractivité des territoires, bonne utilisation de l’argent public). christophe montagnon a ainsi présenté une carte permettant de mesurer, département par département et qualification par qualification, la tension entre l’offre et la demande. en somme, randstad voit dans sa solution bigdata un outil permettant de se différencier de ses concurrents, tant en améliorant l’efficacité de ses commerciaux qu’en le positionnant sur de nouvelles problématiques. aujourd’hui testé au sein d’un projet pilote auprès d’une population experte, l’outil doit prochainement être amené aux 2 000 à 2 500 consultants de randstad, déjà équipés de tablettes. christophe montagnon explique que ces utilisateurs, qui ne bénéficieront que d’une partie des visualisations que permet l’outil, seront équipés en octobre. randstad entend par la suite enrichir son outil de modèles prédictifs et envisage aussi d’y agréger la base de cv détenue par pole emploi. une version publique, accessible à tous, est également l’étude. cette dernière devrait proposer une vision statistique, françois béharel ayant clairement indiqué sa volonté de « ne pas brader cet outil » en donnant accès à tous au savoirfaire de son groupe, « commencer par la passerelle entre métiers et compétences ». mise à jour le 16/09 à 12h40 selon oracle, la taille du cluster hadoop atteint 100 to et non 10 to comme nous l’avions écrit (cette donnée a été corrigée dans l’article). la solution repose sur une appliance bigdata de l’éditeur américain intégrant la distribution cloudera. le cluster est lié aux bases de données de randstad fonctionnant sur oracle exadata. bigdata, data science : ey acquiert bluestone consulting ey acquiert bluestone consulting et crée ainsi une équipe de plus de 130 experts de la donnée au service de la « data revolution » bluestone consulting, cabinet de conseil en data science, rejoint ey pour constituer une équipe de plus de 130 experts de la donnée au service des projets de transformation des entreprises et du secteur public. ey acquiert bluestone consulting, cabinet de conseil en data science cabinet de conseil spécialisé en data science, créé en 1996, bluestone consulting a développé des compétences uniques dans l’exploitation stratégique de l’information (ingénierie statistique, bigdata, recherche opérationnelle, data visualisation, …) appliquée aux besoins de ses clients dans les domaines du marketing, des opérations, de la finance et des risques. ey et bluestone consulting constituent une équipe de taille inégalée sur le marché français pour répondre aux besoins croissants en data science de leurs clients, entreprises privées ou secteur public les collaborateurs de bluestone consulting, issus des meilleures formations en data science (ensae, ensai, x, centrale, télécom paristech, …), rejoignent ainsi ey pour constituer une équipe de plus de 130 experts de la donnée – équipe dont la taille est inégalée sur le marché français. afin de répondre aux multiples enjeux de l’exploitation de la donnée, l’équipe interviendra auprès des entreprises, en france et au sein de la zone emeia[1], pour améliorer leur performance commerciale et financière, optimiser leur outil industriel et anticiper leurs risques. cette équipe mettra également son expertise au service des clients du secteur public (transformation du système de santé, villes et réseaux intelligents, efficience des politiques publiques…). ces compétences en data science et en analytics seront intégrées dans les missions de conseil délivrées par ey ; elles seront également utilisées dans ses métiers de l’audit, de la transaction et du conseil juridique et fiscal. avec cette opération, ey devient l’acteur de référence en france en termes de conseil en data science et bigdata. cette équipe sera pilotée par 4 associés : les 3 exdirigeants de bluestone consulting (arnaud laroche, xavier de boissieu et pierre capelle) ainsi que par karim ben djemiaa, associé ey. création d’un « data science lab » ey annonce également la création d’un « data science lab », lieu de cocréation et d’innovation, dont l’objectif est de rechercher, tester des technologies et méthodes innovantes et de développer des nouvelles solutions pour ses clients. jeanpierre letartre, président d’ey en france et ceo pour la france, le luxembourg et le maghreb, salue cette opération : « c’est une acquisition stratégique qui va nous permettre d’accélérer notre développement et notre offre en analytics. cette opération va également nous permettre de transformer nos métiers afin de proposer à nos clients des offres uniques et innovantes dans les domaines de l’audit et du conseil. » eric mouchous, associé ey, responsable de l'activité conseil d'ey pour la france, le luxembourg et le maghreb, ajoute : « aujourd’hui, le développement d’ey sur le marché du conseil se poursuit avec l’acquisition de bluestone consulting, cabinet spécialisé en data science, un domaine qui constitue, à notre sens, un gisement sousexploité de croissance et de création de valeur pour les entreprises. cette opération s’inscrit pleinement dans notre volonté de maîtriser les savoirfaire et technologies les plus innovants pour donner à nos clients le rythme et les clefs pour se transformer. » arnaud laroche, ceo de bluestone consulting, et karim ben djemiaa, associé ey, commentent : « ce rapprochement est le fruit d’une ambition commune : accélérer la croissance et améliorer la performance de nos clients respectifs, en mobilisant pour cela tout le potentiel du digital et du bigdata. en rapprochant l’excellence et la pluridisciplinarité du réseau international d’ey, avec l’expertise scientifique et technologique reconnue de bluestone consulting, nous prenons aujourd’hui un temps d’avance significatif sur le marché. au bénéfice de nos clients. et de nos collaborateurs. » a propos de bluestone consulting cabinet de conseil spécialisé en data science créé en 1996, bluestone consulting a développé des compétences analytiques uniques appliquées aux besoins de ses clients dans les domaines du marketing, des opérations, de la finance et de la prévention des risques. fort d’une équipe dont les compétences couvrent l’intégralité du spectre d’intervention requis pour accompagner les entreprises dans leur « data revolution », le cabinet a connu une croissance à deux chiffres au cours des derniers exercices et atteint un chiffre d’affaires de 9 millions d’euros en 2014. a propos d’ey ey est un des leaders mondiaux de l’audit, du conseil, de la fiscalité et du droit, des transactions. partout dans le monde, notre expertise et la qualité de nos services contribuent à créer les conditions de la confiance dans l'économie et les marchés financiers. nous faisons grandir les talents afin qu'ensemble, ils accompagnent les organisations vers une croissance pérenne. c’est ainsi que nous jouons un rôle actif dans la construction d'un monde plus juste et plus équilibré pour nos équipes, nos clients et la société dans son ensemble. le bigdata thème central de la journée mtourisme le bigdata, nouvelle opportunité pour le tourisme : c'est le thème central de la 5e journée mtourisme de telecom valley, mardi 13 octobre de 9 à 18 heures au centre universitaire méditerranéen à nice. après avoir abordé l’open data et le smart tourisme, l'association se concentre cette année sur le phénomène du bigdata, un sujet sur lequel s’interrogent de nombreux professionnels du secteur et sur lequel des entreprises du numérique travaillent depuis quelques années. des présentations de projets internationaux, notamment espagnols (retransmission en direct depuis les baléares), ou d'outils innovants sont prévues sur ce thème le matin. l’aprèsmidi sera consacrée à la prospective sur le bigdata et le tourisme avec, à l'occasion de tables rondes, les regards croisés d’intervenants experts : milanamos, amadeus, la direction générale des entreprises (dge), tm forum, umih et le groupe bigdata du pôle scs. suivront des interventions de deux géants du secteur, ibm et amadeus, sous forme de tech tracks. pour terminer la journée, daniel griseri et jeanbernard titz, président de la commission mtourisme de telecom valley, dévoileront le livre blanc bigdata for tourism de la commission mtourisme de telecom valley. une avantpremière avant sa diffusion. le bigdata des banques sous l'oeil des régulateurs européens les algorithmes de recommandation pourraient aussi se parer « dune fausse objectivité ». les régulateurs financiers de l'ue s'intéressent à l'usage des données bigdata par les banques et assureurs européennes. leur enquête pourrait déboucher sur des règles plus strictes. l'usage des algorithmes par ces institutions est également concerné. dans un communiqué conjoint publié hier par l'autorité européenne des marchés financiers, l'autorité bancaire européenne et l'autorité européenne des assurances et des pensions professionnelles, la nouvelle enquête doit déterminer si, au regard des « opportunités et défis » associés au bigdata, il est nécessaire de prendre de nouvelles mesures réglementaires ou de surveillance. en particulier, l’enquête va s’intéresser à l'utilisation, par les institutions financières, des données personnelles des consommateurs à des fins de profilage ou pour identifier des modes de consommation afin de promouvoir des offres ciblées. ces activités « soulèvent des questions sur le comportement et les obligations globales que l’on peut attendre des entreprises », a indiqué le groupe. cette enquête parachèvera des travaux initiés plus tôt cette année par le comité mixte sur l’usage des algorithmes, qui seront poursuivis en 2016. l'objectif est d'évaluer « le phénomène croissant de substitution des algorithmes à l’interaction humaine entre consommateurs et institutions financières pour délivrer des conseils ou d'autres formes de recommandations », et en particulier d’en estimer les risques et les avantages, d’étudier la nécessité d'une réglementation ou de considérer d'autres actions. les résultats de cette enquête sur les algorithmes seront inclus au document de travail à paraître cet automne, les recommandations politiques étant attendues pour 2016. la transparence des algorithmes est une illusion plus tôt cette année, le bureau de la protection des consommateurs, un organe de la federal trade commission américaine, a assigné à son nouveau bureau de recherche et d'investigation technologique la mission de vérifier, entre autres choses, la transparence des algorithmes. « aujourd’hui déjà, il est clair pour la plupart d’entre nous que notre banquier est un robot, et ce serait peut être bien de savoir si ces institutions fonctionnent de façon uniforme en vertu de règles équitables et transparentes », a déclaré christian sandvig, professeur à la school of information de l'université du michigan. cependant, cette équité et cette transparence sont loin d'être garanties. « le risque de substituer l’homme par un algorithme pour le conseil financier et bancaire est sérieux. le problème, c’est d’être sûr que ces robots agissent de la bonne façon », a déclaré christian sandvig. « les algorithmes d'apprentissage automatique alimentés par les données bigdata produisent souvent des résultats inattendus, et leur fonctionnement peut même échapper à ceux qui les ont conçus ». « par exemple, l’estimation de la solvabilité d’un client pour une demande de crédit, une procédure quasi universellement acceptée comme un standard du système financier, a été en partie développée pour rendre plus opaque des décisions financières discriminatoires », a encore déclaré le professeur de la school of information de l'université du michigan. « à une époque plus ancienne, avant d’accorder un prêt hypothécaire, les banquiers embauchaient des détectives privés pour savoir si leur client potentiel était ou non homosexuel ou communiste », atil ajouté. « l’enquête financière de solvabilité sert en partie à masquer un processus secret ». les algorithmes de recommandation pourraient aussi se parer « d’une fausse objectivité », atil mis en garde. « la société doit se donner les moyens d’évaluer systématiquement l’impact de ces systèmes algorithmiques », a déclaré christian sandvig. « cette initiative est une première étape, mais le chemin est encore long ». article de katherine noyes/idg ns (adaptation jean elyan) ce que le bigdata et les analytics changent sur le marché de l'emploi publié le 07/10/2015 les acteurs du marché de l’emploi opèrent depuis plusieurs années une nécessaire révolution digitale. tout particulièrement, ils intègrent une approche et des technologies bigdata & analytics pour amplifier la visibilité de leurs annonces et optimiser le travail de sourcing des recruteurs. le manque de temps, de ressources et de lisibilité du marché incite ces acteurs à innover pour plus d’efficacité. petit point sur les tendances. la multidiffusion d’offres d’emploi caractérise bien la pertinence du recours au bigdata. de nombreux acteurs (multiposting, indeed, jobijoba) agrègent des milliers d’annonces grâce à des technologies effectuant des recherches sur des centaines de sites spécialisés dans l’emploi et d’afficher en une seule fois l’ensemble des résultats coordonnés. les algorithmes de ces applications vont comprendre sémantiquement les offres, les indexer et supprimer les doublons. l’objectif est simple : faciliter la démarche des chercheurs d’emploi qui trouvent sur une seule plateforme un nombre plus important d’annonces. faire matcher l’offre et la demande le bigdata n’est pas seulement une affaire d’analyse ou d’agrégation de données, c’est aussi et surtout une opportunité de simplifier et optimiser la recherche d’un nouveau poste. certaines technologies mettent en résonance les offres d’emploi disponibles et les millions de cv circulant sur internet. ainsi, randstad utilise un logiciel qui fait matcher ces deux familles de données. depuis une sorte de moteur de recherche multicritères, le candidat cible des offres pertinentes par rapport à son profil et une entreprise peut, par exemple, choisir où s’implanter en fonction de l’état du marché de l’emploi. du côté des jobboards, on peut citer l’application kudoz, qui s’inspire du service de rencontre tinder. le candidat se connecte sur la plateforme via linkedin, renseigne quelques informations, et le moteur de recommandation lui propose les offres d’emploi qui correspondent à son profil. d’un geste du doigt (swipe), il les consulte et manifeste son intérêt ou les rejette. simple et intuitif ! personnaliser l’expérience candidat cette année, la plateforme jobijoba a lancé le « conseiller emploi virtuel ». a partir de l’analyse de millions de données du marché de l’emploi, cet outil est en mesure d’offrir un accompagnement personnalisé à chaque profil en fonction de ses compétences et de son parcours. plus largement, les technologies digitales sont censées optimiser l’expérience candidat. l’absence de réponses à un candidat qui a postulé représente un risque fort pour la marque employeur d’une entreprise. certains joboards proposent ainsi des services « réponses garanties » (enjoyb). faciliter le travail des recruteurs une étude réalisée en 2014 par monster montre que les recruteurs manquent de temps pour gérer leurs recrutements, tout en éprouvant des difficultés pour cibler les sources de candidatures. dans ce contexte, le jobboard a lancé sa solution seemore, basée sur une technologie de recherche sémantique. « les recruteurs peuvent centraliser l’ensemble des cv de leurs bases de données (internes et externes) sur une interface unique et ainsi piloter plus efficacement leur vivier de talents » explique gilles cavalari, directeur général monster. il précise que « les algorithmes opèrent le tri parmi tous les cv. ainsi, le recruteur se concentre sur sa mission principale : passer du temps avec les candidats ». bigdata : la famille mulliez (auchan) investit 5 millions dans ysance le but est officiellement de faire de la plateforme saas analytique bigdata d'ysance un champion européen. officieusement, elle montre l'énorme intérêt de la grande distribution pour l'analyse statistique et le prévisionnel. la famille mulliez a investi 5 millions d'euros dans ysance, la société française spécialiste de l'analytique et du bigdata. si la somme apparait modeste au regard de la fortune considérable des créateurs du groupe auchan (évaluée à plus de 50 milliards), elle symbolise mieux que n'importe quel exemple l'attrait grandissant de la grande distribution pour l'analyse des données clients. l'opération a été réalisée par le biais de la creadev, la société d’investissement entrepreneuriale de la famille du nord, qui a pris des parts dans ysance pour officiellement développer la r&d et la commercialisation de la plateforme analytique en mode cloud de la société de conseil parisienne, baptise « digital data factory ». ysance a en effet commencé son activité en 2005 dans le service it (marketing, crm, etc.) avant de proposer, comme bon nombre de ssii et de sociétés de conseils, ses propres outils en mode saas le passage au modèle par abonnement et à la demande réduisant considérablement les besoins de déploiement et d'intégration. lancée début 2014, en mode saas donc, la digital data factory est une dmp (digital management platform). concrètement, elle vise à collecter, organiser et analyser les comportements en ligne et hors ligne du consommateur pour accroitre la connaissance client. elle s'adresse donc potentiellement, et assez largement, à toutes les entreprises amenées interagir avec des prospects et des clients (web marchands, presse et médias, banques et assurances, grandes enseignes de distribution, etc.). techniquement, la digital data factory se revendique particulièrement ouverte dans le sens où elle « permet l’intégration de solutions tierces à forte valeur ajoutée ». audelà de cette plateforme saas certes prometteuse mais sur un marché où se trouvent déjà des géants comme microsoft (powerbi) ou salesforce (avec wave analytics), on peut raisonnablement penser que les créateurs d'auchan voient aussi dans cet investissement un moyen de créer une relation plus intime avec un acteur reconnu du bigdata, et donc avec des experts dont les fameux mouton à cinq pattes que sont les data scientists qu'il est encore bien difficile de trouver et de recruter. le communiqué officiel côté creadev / mulliez / auchan est d'ailleurs assez clair sur cette dimension compétences. « nous avons été séduits par la qualité de l’équipe de management d’ysance », explique en premier lieu florent thomann, directeur chez creadev. ceci étant, celuici ne nie pas l'intérêt pour la plateforme ellemême. il évoque ainsi après la qualité des hommes en place « la pertinence du positionnement de la digital data factory d’ysance ». un des points caractéristiques de cet outil saas selon ysance est de pouvoir intégrer en temps réel les données issues de systèmes internes à l’entreprise (dîtes « first party ») et celles provenant de partenaires privilégiés (dîtes « second party ») là où beaucoup de ses concurrents traiteraient uniquement des données tiers, de régies publicitaires ou autre (dîtes « third party »). très axée marketing, la plateforme cloud d'analytique bigdata d'ysance peut donc aussi concerner d'autres applications métiers et business. « la digital data factory nous est apparue comme la dmp du marché la mieux à même de devenir un leader européen et un acteur clé dans la transformation numérique de toutes les entreprises », analyse ainsi florent thomann. aujourd'hui, ysance emploie 110 personnes dans sept métiers clefs (marketing digital, business intelligence, data management, ecommerce, crm, cloud et bigdata). cette levée de 5 millions d'euros devrait lui permettre d'embaucher plus de 50 nouveaux collaborateurs dans les prochains mois avec comme objectif stratégique final la conquête de l'international pour sa digital management platform. et pour la famille mulliez, une place en première dans le train du big data appliqué à la grande distribution. bigdata : linux, hdfs et sql s’invitent sur azure data lake des clusters linux, des entrepôts de données compatibles hdfs et une nouvelle solution d’analytique boostée par usql sont ajoutés à l’offre bigdata dans le cloud de microsoft, azure data lake. microsoft renforce aujourd’hui son arsenal dans le secteur de l’analytique bigdata en mode cloud, via l’offre azure data lake. la firme de redmond y ajoute tout d’abord la mouture définitive de hdinsight en version linux. hdinsight permet de créer des clusters hadoop sur azure data lake. une technologie qui est dorénavant accessible sous windows server et sous ubuntu linux. une même pile hadoop est employée, que les utilisateurs aient opté pour un cluster windows ou linux. spark est bien entendu de la partie sur les clusters hadoop. « les clusters hdinsight linux peuvent être gérés par apache ambari. ambari offre la possibilité de personnaliser les paramètres de configuration de votre cluster hadoop tout en vous donnant une vue unifiée de la performance et de l’état de votre cluster, et en proposant des services de surveillance et d’alerte au sein du cluster hdinsight », explique scott guthrie, viceprésident exécutif cloud and enterprise chez microsoft. les fonctionnalités sont communes aux offres windows et linux : élasticité, support des réseaux virtuels, possibilité de scripter les nœuds, etc. sous linux, les utilisateurs ne seront pas dépaysés : l’accès ssh est proposé et les scripts utiliseront bash. microsoft signale également qu’il est possible de créer des bases de données nosql hbase ou storm sur les clusters linux. un dépôt hdfs microsoft livre aussi la version de test privée d’azure data lake store, un système de stockage compatible hdfs, qui permettra de gérer de larges volumes de données. cette solution pourra aussi être connectée à un annuaire azure active directory. capable de monter jusqu’à des exaoctets de données, un référentiel de données data lake store se veut aussi bien adapté aux workloads classiques qu’aux technologies émergentes, comme l’internet des objets. azure data lake analytics azure data lake analytics dernière annonce de la journée, la présentation (en version de test privée là aussi) d’azure data lake analytics, un service cloud d’analytique bigdata, qui se veut simple d’utilisation et pourra interagir avec des sources de données azure data lake store ou azure sql database. cette solution s’appuie usql, une technologie adaptée spécifiquement au bigdata. les utilisateurs pourront mettre à profit leurs connaissances de mssql et de la plateforme .net, qui sont reprises par usql. « usql vous permet de définir des tâches bigdata, et de facilement y inclure votre propre code », résume scott guthrie. une offre utilisée précédemment en interne par la firme sur des jeux de données de plusieurs exaoctets. microsoft livre des outils permettant de déboguer et optimiser des tâches usql depuis visual studio. un élément essentiel, puisqu’une requête bien optimisée consommera moins de ressources et coûtera donc moins cher lors de son lancement sur le cloud azure.  le bigdata, une solution pour les transports de demain en france la semaine dernière a eu lieu le 22ème congrès annuel sur les systèmes de transports intelligents à bordeaux, l'its world congress. un événement mondial qui a réuni près de 12 000 participants. le coeur du débat portait sur le meilleur moyen de passer de l’étape du design et du développement de ces nouveaux moyens de transports à leur mise en place au quotidien et à l’acceptation générale des citoyens. un élément important, quand on sait qu’aujourd’hui, on passe en moyenne 53 heures par an dans les transports et que ce chiffre devrait s’élever 106 heures annuelles par personne d’ici 2050. parmi toutes les innovations présentées à l'its, de nombreuses entreprises se concentraient sur des platesformes de données de plus en plus avancées pour mettre en place la smart city de demain. le bon choix pour la france ? les données au coeur des transports connectés le urbanomics mobility project de la société cubic transportation systems transmet des informations aux urbanistes et aux développeurs commerciaux sur la façon dont les gens se déplacent en ville et les achats qu’ils réalisent durant leur parcours. cela permettra notamment d'affiner les stratégies de croissance de certains commerces pour savoir où se positionner dans la ville pour toucher au mieux leurs clients et aussi aux consommateurs d’avoir un meilleur service l’endroit où ils le souhaitent. la grande avancée de ce genre de systèmes et d’utiliser à la fois les données publiques des utilisateurs des transports communs alliées aux données privées lorsque le client réalise un achat avec sa carte bancaire. cellesci sont bien sûr anonymes et protégées. l’utilisation de technologies de l’espace, comme les satellites, pour avoir accès à plus de données et ce plus rapidement est aussi une tendance actuelle majeure. les systèmes de gps font notamment beaucoup appel aux satellites. ceuxci permettent aussi de repérer les routes encombrées pour en conseiller d’autres et réduire les embouteillages par exemple. ils permettent en plus une plus grande personnalisation de l’envoi d’informations selon le positionnement précis du véhicule. en france, une nécessaire alliance entre secteur public et secteur privé selon gabrielle gauthey, directrice de l’investissement et du développement local à la caisse des dépôts: “dans les cinq années venir, les infrastructures routières vont devoir s’adapter à tous ces changements pour répondre aux besoins des utilisateurs. cela ne pourra pas se faire sans une collaboration entre secteur public et secteur privé. a paris, la demande en transport devrait augmenter de 20% dans les dix années à venir alors que la ville n’est prête qu’à une croissance de 9% de son réseau. c’est un immense challenge pour les municipalités qui vont devoir faire preuve d’audace et d’innovation pour combler cet écart. pour désengorger les grandes villes aux heures de pointe, la france pourrait s’inspirer d’amsterdam et rotterdam qui proposent des réductions fiscales à ceux qui n’utilisent pas leurs véhicules aux moments les plus critiques. plutôt que de faire payer les utilisateurs, gabrielle gauthey croit plus en un système d’incitations et de récompenses. on peut aussi envisager de décaler les horaires des universités ou de certaines entreprises pour répartir les flux de transports sur la journée comme le propose florence forzyraffard, directrice internationale des affaires publiques et de la communication chez keolis. les tiers lieux, ces nouveaux espaces de travail qui ne sont ni le domicile ni le bureau, pourraient aussi réduire les flux de transports en favorisant la recherche d’un lieu de proximité pour travailler. avec 12% de la consommation d’énergie mondiale qui est due aux transports urbains et la prévision d’avoir deux tiers des habitants de la planète habitant en ville en 2050, il devient en effet urgent de penser non seulement à optimiser les transports mais aussi à diminuer autant que possible leur utilisation. stockage de données et bigdata : ibm met la main sur cleversafe ibm vient de jeter son dévolu sur cleversafe, une société américaine spécialisée dans le stockage, dans l’objectif de peaufiner sa stratégie cloud. ibm vient de mettre la main sur cleversafe, spécialiste du stockage des données. les termes de la transaction n’ont pas été divulgués. basée à chicago dans l’illinois et créée en 2004 par s. christopher gladwin, cet éditeur dispose d’une offre de stockage baptisée dispersed storage network (dsnet). dans son panel de clients et partenaires, on trouve seagate, hp, symantec, shutterfly et sky… les 210 salariés de cleversafe devraient intégrer la division cloud d’ibm. sur son site, cleversafe précise avoir pris le virage du bigdata. dans cette optique, elle a mis au point une technologie qui repose sur 350 brevets. » la société utilise des algorithmes uniques pour découper les données en morceaux et remonter l’information à partir d’un seul exemplaire, plutôt que de simplement faire des copies multiples des données, ce qui est la façon dont le stockage est traditionnellement réalisé. en conséquence, cleversafe peut stocker des données de manière significative à un moindre prix et avec une plus grande sécurité », selon un communiqué publié par ibm. les solutions de stockage de cleversafe ciblant les données non structurées viendront compléter les offres spectrum storage (couche logicielle adossée à xiv, son appliance de stockage haut de gamme) de big blue. elles devraient aussi venir épauler l’offre saas (software as a service) de big blue avec softlayer et bluemix. ibm accentue ainsi également ses efforts portés vers le cloud hybride. ibm propose en effet des serveurs cloud et des systèmes de stockage la fois sécurisés et évolutifs pour des infrastructures de cloud privé ou bien de cloud hybride (regroupant cloud privé et cloud public dans ce dernier cas). mais, au final, cette acquisition devrait permettre à ibm d’accompagner l’essor du bigdata. selon idc, 80% des nouvelles applications cloud feront un usage intensif du bigdata et le marché du stockage objet devrait atteindre 28 milliards de dollars d’ici 2018. rappelons qu’associé à des métadonnées, le stockage objet regroupe des données non structurées contenues dans un conteneur ou bucket (et non une arborescence et des répertoires comme pour les données structurées). l’offre de stockage de cleversafe ainsi que sa technologie pourraient également alimenter la solution de messagerie verse lancée début avril dernier. ibm a d’ores et déjà prévu de lui associer les capacités d’analyse de son supercalculateur watson. une composante assurant le stockage des données non structurées (photos, vidéos…) permettrait encore plus de peaufiner l’offre face aux outils concurrents, tels que ceux d’office 365. et si le bigdata faisait émerger « un marché du travail qui s’ignore » ? françois béharel, le président de randstad france. françois béharel, le président de randstad france. (crédits : reuters) pour mieux faire coïncider les besoins des employeurs avec les compétences de ses candidats, randstad dévoile une solution basée sur l’analyse des « mégadonnées ». d’après le spécialiste de services en ressources humaines, ce type d’outil constitue une avancée pour « fluidifier » davantage le marché du travail. et pourquoi pas, faire enfin baisser le chômage. explications. françois béharel n'est pas du genre à tourner autour du pot. lors de la présentation d'une solution maison visant à aider ses candidats trouver plus facilement du travail, le président de randstad france finit par lâcher une bombe : « soudeur, en soi, ça ne veut rien dire ! » pourquoi ? parce qu'aux yeux du patron de la filiale française du géant mondial des services en ressources humaines, le temps de la segmentation du travail par métiers a vécu. l'important, au fond, ce sont les compétences des individus. et in fine, elles seules intéressent vraiment les entreprises qui embauchent. derrière ce postulat se cache surtout une opportunité. de fait, s'il est possible de définir un poste par un éventail précis de compétences, alors on démultiplie le nombre de candidats potentiels, audelà du seul et réducteur périmètre « métier », comme c'est le cas actuellement. « si une entreprise cherche des soudeurs et qu'il n'y en a pas ou trop peu sur son bassin d'emploi, on peut faire une recherche par compétences », illustre françois béharel. ce faisant, il affirme qu'on peut trouver, par exemple, « des métalliers » ou « des tuyauteurs » disponibles et parfaitement capables de répondre aux besoins de la société. ou qui peuvent l'être rapidement, moyennant une courte formation. en créant des passerelles entre les métiers, randstad veut donc profiter d'une « fluidification » du marché du travail, grippé depuis plusieurs années. un outil « d'aide à la décision » mais si la logique fait sens, comment la mettre en œuvre ? grâce au big data. au numa, l'un des incubateurs de startups les plus côtés de paris, randstad a dévoilé mardi un nouveau logiciel. celuici utilise les « mégadonnées » pour faire coïncider les compétences recherchées par ses clients avec celles de ses candidats. pour ce faire, le géant des services rh a donc croisé sa base « de 3 millions de cv » (qui comprend quelques « 1.000 qualifications et 11.000 compétences ») avec les 12 millions d'annonces récoltées chaque années sur la toile, et les données du marché du travail disponibles via des organismes publics comme l'insee ou pôle emploi. destiné pour l'heure à un usage interne, le logiciel n'a pas été façonné comme « les outils classiques de 'matching' », précise randstad, égratinant sans les citer les réseaux sociaux professionnels linkedin et viadeo. aux yeux du groupe, il s'agit là davantage d'un « outil stratégique d'aide à la décision » pour les entreprises et les candidats. rien de moins. décortiquer un bassin d'emploi une fois lancé, le logiciel affiche carte de france interactive, où peut lancer différents types de recherches. pour un bassin d'emploi donné (une ville ou un département), une entreprise peut visualiser en temps réel quels sont les métiers et compétences, donc actuellement disponibles chez randstad. il est aussi possible de remonter dans le temps, pour voir si une main d'œuvre spécifique se tarit. ou au contraire, si elle a le vent en poupe. mieux, l'entreprise pourra glaner des informations sur ses concurrents qui lorgnent les mêmes talents qu'elle... grâce à ces informations, un grand groupe sera, d'après ranstdad, mieux armé pour recruter ses troupes, en privilégiant au besoin les compétences plutôt qu'un métier en particulier. en parallèle, l'employeur pourra utiliser ces connaissances locales pour mieux préparer une implantation. ou même anticiper, dans certains cas, le reclassement de ses salariés. côté candidat, la démarche est similaire. après avoir passé au crible les compétences d'un demandeur d'emploi, cellesci sont passées au révélateur du bassin d'emploi concerné. le logiciel mouline. et lâche son verdict. « on fait office de conseiller d'orientation », indique françois béharel. lequel se glisse dans la peau d'un candidat : « je souhaite exercer un métier, mais estce possible au vu des offres d'emploi disponibles ? quels sont mes chances de succès sur ce marché ? quel est le niveau de salaire ? ne devraisje pas réviser un peu l'image que j'ai de mon avenir en fonction de ces données ? si j'anticipe des difficultés dans mon bassin d'emploi, que doisje faire pour contourner ce problème ? » a ses yeux, l'outil sera précieux pour inciter un candidat dans l'impasse à se remettre en question. et pourquoi pas le convaincre de suivre une formation dont les compétences sont prisées non loin de chezlui... ouvrir les données publiques mais randstad ne veut pas en rester là. pour le groupe, nul doute que son innovation intéressera les organismes publics, privés et les collectivités pour « gagner en compétitivité ». en faisant l'inventaire des compétences rares sur leur territoire, ils pourraient convaincre certains employeurs de venir chezeux, affirme françois béharel. a l'échelle d'une ville, d'un département ou d'une région, les « mégadonnées » pourraient aussi s'avérer précieuses pour piloter finement les politiques d'emploi et de formation. comment ? en identifiant les compétences « manquantes au bon développement d'une industrie », fait valoir randstad. or sur ce front, une telle avancée ne serait pas du luxe, dit en substance françois béharel. très critique sur les « 38 milliards d'euros dédiés à la formation » dépensés chaque année dans l'hexagone, il voit dans son outil un moyen de mieux cibler les besoins. et, en clair, de ne plus jeter les deniers publics par la fenêtre. pour le patron de randstad france, il ne s'agit là que d'un début. « la prochaine étape, c'est le prédictif », assuretil. en anticipant l'arrivée de nouveaux métiers sur un bassin d'emploi, on pourrait, très en amont, conseiller un candidat sur son devenir professionnel. mais si les possibilités paraissent presque infinies, encore fautil disposer de suffisamment de données pour les faire éclore. or la solution de randstad ne tourne qu'avec sa propre base de cv. elle gagnerait donc beaucoup en efficacité si elle fonctionnait avec tous les candidats français. bref, « il faut rendre ces infos publiques », plaide françois béharel. pour lui, l'enjeu est énorme : il s'agit « de faire émerger un marché du travail qui s'ignore », alors que la france compte toujours 3,8 millions de chômeurs. le gouvernement et pôle emploi sont prévenus. pierre manière pierre manière @pmaniere du même auteur * pourquoi martin bouygues a sollicité orange pour un mariage... * etatsunis : obama passe par amazon video pour se faire... * 10 milliards d’euros : le pactole des télécoms... abonnezvous à partir de 1€ sur le même sujet * clavier numérique visuel sur tableau de bois par teemu mäntynen le droit du travail, lui aussi, doit faire sa révolution... * le foll pret a discuter du contrat de travail, rebsamen reserve quel nouveau modèle pour le travail à l'ère numérique ? * copass comment le numérique est en train de révolutionner... réagir ____________________ ____________________ ____________________________________________________________ ____________________________________________________________ ____________________________________________________________ ____________________________________________________________ ____________________________________________________________ [ ] recevoir un email si quelqu'un répond à mon commentaire. (button) envoyer commentaire votre email ne sera pas affiché publiquement tous les champs sont obligatoires commentaires bleck a écrit le 19/09/2015 à 15:18 : c'est assez exactement ce qu'est censé faire un service de ressources humaines. il faudrait peutêtre s'interroger sur les raisons qui conduisent à ce que travail ne soit pas fait et à ce que les directions s'en accommodent. tant qu'on demandera aux rh de rechercher des copies conformes et de tester la servilité (pardon loyauté) des personnes qui passent à travers le tamis, elles feront ce qu'on attend d'elles même si les dirigeant n'ont pas le courage de le dire explicitement (et encore moins de l'écrire). sinon, elles savent qu'elles risquent la faute professionnelle si elles recrutent une personne non calibrée. idem pour de nombreux recruteurs : le client préfère s'entendre dire que le marché est très tendu que de se voir proposer une candidature qui lui demande de réfléchir, de remettre en cause ses a priori… principe commercial de base du service : la bonne solution est celle qui plait. l'efficacité, c'est trop compliqué ! à part ça, l'idée de partir des compétences et des potentiels des personnes est évidemment intéressante. s'il faut en passer par la vérité algorithmique du bigdata pour convaincre un patronat archaïque d'abandonner ses préjugés, c'est dommage. mais en la matière, l'état culturel des organisations est (très majoritairement) tellement exécrable que tout artifice est bon à prendre. (button) répondre (suivre) suivre signaler un contenu abusif pour être alerté par email d'une réaction à ce commentaire, merci de renseigner votre adresse email cidessous : ____________________ suivre geo a écrit le 18/09/2015 à 23:53 : oui, de la bigdata...pour remplacer pôle emploi qui est bigrement daté. (button) répondre (suivre) suivre signaler un contenu abusif pour être alerté par email d'une réaction à ce commentaire, merci de renseigner votre adresse email cidessous : ____________________ suivre yokikon a écrit le 18/09/2015 à 20:01 : faire du numérique tordant les réalités pour composer un ensemble fictif ne changera pas la raison de fait pour laquelle la france a un tel manque de compétences alors que l'allemagne a toujours dans l'histoire et aujourd'hui soigné la formation sur le tas et tout au long des carrières professionnelles. il vaudrait mieux éviter l'illusion des balivernes. (button) répondre (suivre) suivre signaler un contenu abusif pour être alerté par email d'une réaction à ce commentaire, merci de renseigner votre adresse email cidessous : ____________________ suivre dingo a écrit le 18/09/2015 à 10:24 : c'est toujours la même logique biaisé qui est utilisée pour justifier une nouvelle méthode de gestion des ressources humaines. qui va établir le profil de la personne à recruter et garantir sa réelle adéquation ? car si on se trompe de profil, on aura forcément le mauvais candidat. le seul bon profil, c'est le diplôme qui le garanti. il faut se rendre compte que les métiers sont de plus en plus techniques, et nécessitent des temps de formation long, avec des normes complexes à maîtriser (c'est pour cela qu'on fait des études). si je prends l'exemple des métiers de l'informatique, j'ai vu de nombreux candidats autoproclamés autodidactes recrutés. ces derniers maîtrisant pourtant la technique, ne connaissaient pas les normes en vigueurs. cela a abouti à des applications impossibles à maintenir et faire évoluer, sans parler des bugs qu'un informaticien diplômé aurait éviter à l'aide des méthodes et normes de développement professionnels. les entreprise trouvaient que les autodidactes allaient plus vite et étaient plus efficaces : c'est facile quand on se passe des méthodes et normes professionnelles indispensables à la qualité finale, sauf quand on est un soustraitant peu scrupuleux... je n'ai pas non plus parlé de la difficulté de dialogue entre un professionnel diplômé et un autodidacte qui ne comprends que certains aspect du métiers. le recyclage de main d'oeuvre doit impérativement passer par une formation académique adaptée. (button) répondre (suivre) suivre signaler un contenu abusif pour être alerté par email d'une réaction à ce commentaire, merci de renseigner votre adresse email cidessous : ____________________ suivre réponse de stranger le 21/09/2015 à 16:45 : le seul bon profil, c'est le diplôme qui le garanti. j'ai bien ri merci ! je pourrai te donner des exemples avec des collègues, j'ai vue des bac+2 mieux s'en sortir que des +5 et des jeunes qui n'ont même pas 18 ans être très performants (domaine : informatique) ... le diplôme ne fait pas tout et la communication est un domaine à lui seul. signaler un contenu abusif réponse de dingo @ stranger le 23/09/2015 à 16:42 : quand on a un diplôme, cela veut dire qu'on connait les normes. on imagine pas son avocat ne pas avoir un diplôme de droit. c'est pareil pour les autres métiers. un autodidacte peut très bien paraître meilleur car il va plus vite sans se préoccuper des règles de l'art. faire une analyse informatique exhaustive prend du temps et c'est pourquoi un ingénieur paraîtra moins rapide, mais le résultat final sera professionnel. j'ai vu un autodidacte qui assure remplacer un informaticien professionnel. il a fait sauter toutes les sécurités du réseau informatique pour satisfaire les utilisateurs. il est considéré meilleurs que son collègue car plus permissif, mais il a commis une très grave erreur que son patron risque de regretter amèrement un jour... bigdata : mythes et réalités audelà des algorithmes analytiques et prédictifs, on définit souvent le bigdata par les 3 ou 5 v : volume, variété, vitesse, véracité et valeur. même s’ils fleurent bon le marketing, ces termes recèlent quelques enseignements précieux. tout a commencé avec les 3 v : volume, variété, vitesse. trois mots censés résumer les problématiques posées par la gestion de l’information et démontrer l’incapacité des outils d’analyse en place de traiter de tels volumes, aussi variés et à grande vitesse. les 3 v originaux du bigdata l’objectif des 3 v visait aussi, et surtout, à prouver l’intérêt de recourir aux technologies bigdata pour remédier à ces situations face auxquelles les solutions de datawarehouse ou datamarts classiques se révèlent impuissantes ou très onéreuses. volume emails, documents bureautiques, transactions commerciales ou dans les erp, tweets, photos, senseurs et capteurs : combien d’informations sont produites chaque seconde ? selon une étude de l’institut ims research, il y aura plus de 22 milliards d’appareils connectés à internet d’ici 5 ans et ces derniers généreront près de 3 trillions d’octets d’information par jour. les entreprises ne parlent plus en gigaoctets, mais déjà en téraoctets, voire en pétaoctets. concrètement, comment tirer des enseignements sur une marque ou un produit en analysant plusieurs téraoctets de tweets produits chaque jour et en quelques minutes ? comment analyser plusieurs dizaines de millions compteurs électriques en temps réel pour anticiper une panne ? c’est ce type de questions auxquelles s’attaquent les technologies big data. et les datawarehouses traditionnels ne sont pas conçus pour ce type d’analyse. variété traditionnellement, l’informatique analytique traite les données structurées issues des bases de données. or, plus de 80 % des informations produites sont dites non structurées : textes, images, vidéos, voix, capteurs, etc. le bigdata se propose d’effectuer des analyses sur l’ensemble des informations, structurées ou non. corréler toutes ces informations permet de prendre de meilleures décisions et de fiabiliser les tendances en analyse prédictive. voici quelques exemples des bénéfices de la corrélation de ces informations : analyser les comportements d’achat en temps réel pour mieux conseiller et augmenter le volume de transactions, améliorer sa relation client sur tous les canaux, dégager les tendances pour définir des modèles statistiques et améliorer ses produits ou services, ou profiler anonymement ses consommateurs… vitesse lorsqu’il s’agit de détecter de la fraude au niveau international ou de proposer la meilleure offre au client selon son profil au moment même de son achat, attendre deux minutes est souvent intolérable. la vitesse est donc l’une des caractéristiques du bigdata qui utilise des technologies de pointe éprouvées pour obtenir des performances inédites : traitement massivement parallèle, inmemory, clustering, etc. au départ réservé aux traitements différés de gros volumes de données en mode batch, le bigdata intègre aujourd’hui le streaming de données et le temps réel, y compris avec la possibilité de ne rien stocker. ainsi, il devient possible d’analyser des millions de transactions commerciales par jour pour détecter d’éventuelles fraudes. ou encore de corréler en temps réel les informations issues des réseaux sociaux et du crm (logiciel de gestion de la relation client) pour qualifier précisément un client. deux nouveaux v : objectif business les premiers projets bigdata ont souvent bluffé leurs initiateurs par leurs performances et leur capacité à effectivement intégrer de grands volumes de données très variées. mais ils ont aussi mis en lumière deux autres v, l’un pour la qualité de l’information, l’autre pour la valeur intrinsèque apportée à l’entreprise. bref : la fin de l’expérimentation pour ouvrir la voie à la l’opérationnalisation. véracité à quoi bon analyser un grand volume de données s’il l’on ne peut s’assurer de la fiabilité de l’information ? des mécanismes de vérification de la véracité et de la qualité des données sont donc intégrés aux processus bigdata, impliquant généralement les utilisateurs finaux, pour mériter la confiance des utilisateurs métiers. une grande rigueur dans la sélection des sources de données, leur collecte, leurs recoupements et leur enrichissement, s’avère cruciale. sans oublier les obligations légales selon le secteur de l’entreprise. valeur ce dernier v est certainement celui qui devrait arriver en tête lors du lancement d’un projet bigdata. quelle valeur cette application apporteratelle à l’entreprise ou à l’activité pour laquelle elle est développée ? la création de valeur pour l’entreprise et ses clients est effectivement au cœur du sujet bigdata. néanmoins, la capacité de ces technologies à dévoiler des résultats ou des tendances inattendus ou inédits contribue fortement à son succès auprès des utilisateurs qui sont de plus en plus demandeurs. et n’estce pas là une preuve de la valeur créée ? exemple avec l’analyse en temps réel des opérations informatiques. celleci permet de détecter instantanément les pannes et même de les anticiper, via des outils de supervision avec alertes. non seulement les incidents sont détectés, mais bien souvent leur origine probable est aussi mentionnée. système informatique optimisé, productivité améliorée : forte valeur ajoutée. #bigdata : eulerian technologies, la startup qui permet aux marques de se constituer un patrimoine data 392 6 octobre 2015 par etienne portais dans startup avec 1commentaire eulerian tweet basée à paris, eulerian technologies est une entreprise innovante française qui a, depuis 2002, construit une technologie de collecte de data emarketing, qui permet d’analyser en temps réel des milliards de données. un sujet intéressant à l’heure d’une économie émergente baptisée « bigdata » puis « smart data », qui transforme les opérations marketing des marques. l’objectif ? permettre aux clients de se constituer un patrimoine data et de l’exploiter efficacement. a l’origine de la technologie profile4you (qui avait notamment levé un total 75 millions de francs en 2000 et 2001), guillaume fougnies et mathieu jondet ont créé eulerian technologies en 2002. l’infrastructure et les algorithmes d’eulerian technologies ont fait l’objet de quatre années de recherche et développement. en effet, les deux cofondateurs se sont plongés au cours de cette période sur le développement des briques technologiques temps réel, qui font le succès commercial d’eulerian technologies aujourd’hui. sans avoir effectué de levée de fonds, la startup revendique avoir dépassé son premier million de chiffre d’affaires en 2011, et vise plus de 5 millions en 2015. « depuis le début de l’aventure, nous construisons nousmêmes nos infrastructures et répondons aux 2 principaux problèmes de nos clients : la mesure de l’efficacité des investissements marketing et la centralisation des données issues de ces campagnes », explique emmanuel brunet, ceo de eulerian technologies depuis 2012 et aussi membre de 50 partners. 25 milliards d’actions marketing analysées tous les mois en temps réel aujourd’hui, des marques comme sarenza, rue du commerce, carrefour, voyagessncf, fnac, galeries lafayette, melia hoteles ou encore sfr font confiance aux indicateurs délivrés par la plateforme eulerian technologies. une confiance qui a d’ailleurs poussé les équipes de la société, à développer une suite dédiée au data marketing. cette dernière permet de répondre aux principaux besoins emarketing des annonceurs en temps réel, comme les webanalytics, l’attribution crossdevice, les dmp, l’activation de données, tms et bien d’autres solutions. depuis juin 2015, la société a d’ailleurs dépassé la barre « symbolique » de 25 milliards d’actions marketing analysées tous les mois en temps réel. un marché important attend d’ailleurs les dirigeants d’eulerian technologies, qui enregistrent une croissance de 30 à 40% par an depuis 2010. en effet, le marché du bigdata devrait atteindre 25 milliards de dollars d’ici fin 2016 et des plateformes comme eulerian technologies pourraient devenir incontournables. c’est justement pour cela que l’internationalisation des équipes (39 personnes à ce jour), a déj commencé à madrid et montréal. « la nouvelle suite que nous annonçons regroupe une brique de data collection pour collecter les datas on et off à travers l’ensemble des terminaux. sur ces données collectées, reposent deux familles de fonctionnalités : attribution & analytics au sein de la data decision platform, et la data management platform permettant d’activer la donnée en temps réel », conclut emmanuel brunet. et si le bigdata était l'arme capable de sauver la planète de la famine ? loin de n'avoir que des applications abstraites, le bigdata permet de nombreux exploits. parmi eux, la lutte contre la faim dans le monde. pour qui sait utiliser ces technologies, la plupart des problèmes semblent plus simple à résoudre. et pour cause : le bigdata permet une vision plus globale de la situation, et donc la réalisation d'une meilleure organisation, d'une meilleure anticipation... un problème de mathématiques... publié le 24 septembre 2015 mis à jour le 25 septembre 2015 et si le bigdata était l'arme capable de sauver la planète de la famine ? les bigdata aideront d’ici une vingtaine d’années à rationaliser la production agricole et la distribution d’alimentation afin de nourrir les neuf milliards d’individus que comptera l’espèce humaine. crédit bigdata atlantico : d'ici 2050, l'humanité devrait atteindre le nombre critique d'environ 9 milliards d'individus. aujourd'hui, en 2015 et avec environ un tiers de moins de gens à nourrir, on peine à résoudre le problème de la faim dans le monde. dans quelle mesure la bigdata pourraitelle nous aider lutter contre les famines et les disettes ? jeangabriel ganascia : beaucoup espèrent aujourd’hui que les masses de données, ce que l’on appelle les bigdata en anglais, aideront d’ici une vingtaine d’années à rationaliser la production agricole et la distribution d’alimentation afin de nourrir les neuf milliards d’individus que comptera l’espèce humaine. sous peu, les technologies de l’information devraient faciliter la tâche des ingénieurs agronomes et leur permettre non seulement de planifier plus efficacement la production, mais aussi de diagnostiquer le plus précocement possible des maladies des plantes, pour les soigner et éviter la propagation d’épidémies, et d’anticiper au mieux les besoins alimentaires de la planète pour satisfaire tout le monde et mettre fin au gaspillage. selon des experts en agriculture, la quantité d’aliments produits ne serait pas limitée par un manque de ressources, mais par une mauvaise organisation humaine que l’on peut tenter d’améliorer en tirant parti de l’expérience passée. des capteurs permettent d’engranger d’immenses masses de données portant sur les conditions de production des denrées, sur la météo, sur les zones infestées par des parasites, etc. a partir de ces données, on détecte soit des corrélations qui aident à anticiper ce qui va se produire, soit des exceptions aux règles usuelles qui laissent présager des anomalies. cela permet de détecter des facteurs de risque, de prévenir des épidémies et d’agir. fondamentalement, audelà des données collectées, quelles sont les applications concrètes qu'on peut imaginer aux bigdata dans le cadre de l'agriculture ? peuton imaginer une surveillance de zones inaccessibles aux producteurs, ou un rassemblement de données visant à optimiser les différentes cultures ? les applications des techniques d’exploitation des masses de données servent à prévenir les catastrophes naturelles immémoriales qui annihilent les récoltes et à y parer. songeons aux dix plaies d’egypte infligées en châtiment par dieu pour contraindre pharaon à libérer les hébreux : eaux infestées, grenouilles, moustiques, mouches, sauterelles, grêle, ténèbres, mort des troupeaux,... elles demeurent identiques aujourd’hui : pollution, parasites, maladies, climat, etc. et, beaucoup affectent l’agriculture ou l’élevage. or, la plupart peuvent être anticipées par des techniques modernes de surveillances corrélées à l’analyse des données passées. cependant, pour les mettre en œuvre, il convient d’être vigilant et d’opérer une surveillance, plus ou moins continue, dans des zones difficiles d’accès, et sur de très grandes surfaces. aujourd’hui, on songe aux drones, qui, pour un coût relativement modique, peuvent aider à assurer cette veille. l encore, les technologies de l’information qui permettent de piloter automatiquement ces drones jouent un rôle crucial. en retour, les données ainsi collationnées s’agrègeront aux masses de données existantes seront utilisées par des algorithmes. toutes ces applications, en dépit de leur qualité, présententelles des limites ? lesquelles ? contrairement à une idée couramment répandue, les technologies ne se substituent pas aux hommes. elles n’automatiseront pas la production et la distribution d’un coup de baguette magique. l’agriculture ne sera pas « pressebouton ». les dispositifs de veille et de traitement d’information, informeront et aideront les hommes à interpréter les données et à agir, mais ils ne les remplaceront pas. ceci signifie que le succès d’une agriculture intégrant des hautes technologies tient l’organisation sociale qui répercute ces données, leur donne sens et prend les décisions d’action requises. les limites proviennent de la difficulté à mettre en place des organisations sociales crédibles et fonctionnant correctement. outre les limites (financières, par exemple), de nombreuses craintes existent visàvis des bigdata, notamment en raison des failles. y'atil un danger permettre une collecte de données aussi massive, quand bien même elle se fait pour le bien de l'humanité ? les masses de données contribueront à résoudre certains problèmes, mais pas tous. elles aideront à diagnostiquer des maladies, à anticiper des changements climatiques ou des intempéries, à détecter certaines pollutions, etc. mais elles ne diront pas comment guérir les maladies, comment faire face aux modifications climatiques ou aux orages de grêle, comment régler les effets de la pollution, etc. leur rôle demeure partiel. en faisant excessivement confiance à ces technologies, on risque d’être rapidement déçu et de nourrir par la suite une méfiance outrancière vis à vis d’elles. de même, les risques ne doivent pas être ignorés. comment ne pas craindre la manipulation ou le détournement de l’information au profit d’acteurs mal intentionnés, par exemple de groupes terroristes ou de réseaux maffieux qui feraient peser des menaces. ceci étant, là encore, ce sont des hommes et des organisations sociales qui seront responsables. en conclusion, la confiance, comme la défiance dans les masses de données doit demeurée mesurée, même si face à des quantités de données démesurées au regard de ce que l’on connaissait dans le passé. en quelques clics, sur les sites des villes ou des agglomérations, vous pourrez bientôt trouver toutes les offres disponibles tout près de chez vous. toutes. petite révolution dans la recherche d'emplois : en quelques clics, on va bientôt pouvoir visualiser sur le site d'une ville ou d'une agglomération toutes les offres disponibles sur le territoire d'une ville ou d'une agglo. vous habitez à toulouse, par exemple, et vous cherchez un emploi de chef de rayon. et bien vous pourrez, d'ici à la fin de l'année, aller sur le site de l'agglomération de toulouse, taper chef de rayon, toulouse centre et en quelques secondes, vous verrez toutes les offres de chef de rayon qui existent dans les zones que vous avez délimitées. mieux que pôle emploi. jusqu'à présent, seul pôle emploi proposait ce service. mais ce dernier ne propose que les offres de… pôle emploi, et elles ne représentent qu'un petit quart des offres totales existantes. cette fois, vous allez pouvoir trouver en un clic les offres de pôle emploi, mais aussi de l'apec, de monster, de keljob, de régions job, de cadr'emploi ou même celles directement déposées par les entreprises. ces offres seront, en outre, réactualisées pas moins de six fois par jour. un test dans sept villes. dans un premier temps, sept villes vont relever ce défi grâce à la technologie du bigdata, qui permet un balayage systématique de toutes les offres d'emploi disponibles l'instant t. selon les informations d'europe 1, toulouse ou encore pessac vont expérimenter le dispositif, qui a vocation à se généraliser. en fait, on peut déjà le faire. tout se passera sur le site de la collectivité. le but est de se servir du site des villes ou des collectivités pour attirer le plus de monde possible. mais derrière, c'est la même startup qui est aux manettes : le site jobijoba. ce dernier utilise un mégamoteurderecherche, présenté comme le google de la recherche d'emploi. cette société basée à pessac, près de bordeaux, est en train de conclure des accords avec toute une série d'agglomérations en france. mais en attendant, les demandeurs d'emploi peuvent déjà se rendre sur le site de la petite société girondine, qui se targue de proposer plus d'1,1 million d'offres. grâce au bigdata, lelaps introduit le recrutement ciblé en s’inspirant des outils de l’ecommerce, la startup lelaps a développé une solution de recrutement ciblé, construite à partir d’un algorithme capable d’élaborer, par typologie de métier, le profil d’un candidat puis de le cibler. comment ? en exploitant les capacités prédictives du bigdata. zoom sur un outil qui ne laissera pas les recruteurs indifférents... qui cible bien recrute mieux ! est l’une des maximes préférées des recruteurs. c’est aussi celle de la startup lelaps, qui l’incarne au travers de la solution qu’elle a récemment lancée. aujourd’hui, puisque les candidats envoient leur cv en masse, les recruteurs rencontrent des difficultés à recevoir des candidatures qualifiées. pour aider ces professionnels rh à se rapprocher des profils qui correspondent le plus à leurs critères, nous avons transposé, au recrutement, une méthodologie de ciblage propre au ecommerce, amorce etienne blum, marketing manager chez lelaps. concrètement, la startup de cinq personnes, qui tire son nom du chien de chasse d’actéon muni d’une lance qui ne manquait jamais sa cible, a développé, en interne, un algorithme innovant qui permet non seulement de dresser, par métier, le profil type d’un candidat idéal mais aussi de cibler les individus actifs et surtout passifs qui se rapprochent le plus de ce portrait robot. en d’autres termes, la solution propose aux professionnels rh devant gérer de gros volumes d’embauche, de diffuser une campagne de recrutement d’une vingtaine de jours aux bons candidats, aux bons moments et aux bons endroits, résumetil. et d’être visibles là où les candidats se trouvent véritablement. une promesse rendue possible grâce à la technologie du bigdata et à sa capacité à traiter un nombre considérable de données et à trouver des corrélations entre elles. des millions de données analysées par l’algorithme l’intervention de lelaps se déroule en plusieurs étapes. la première consiste à faire intervenir un comportementaliste au sein de l’entreprise. au cours de son audit, il décrypte les comportements des collaborateurs d’un même métier et définit le profil type du candidat idéal en analysant sa formation, sa fonction, ses centres d’intérêts… et en croisant ces données avec les critères du recruteur, détaille etienne blum. a partir de ces informations, une publicité rh est créée. cette bannière, qui comporte un message ciblé, est ensuite diffusé sur des millions de sites : réseaux sociaux, jobboards, médias… c’est lors de la troisième étape qu’intervient l’algorithme de lelaps. son rôle est alors de comparer le profil type dressé par le comportementaliste avec les informations des 160 millions d’internautes. puis, de cibler les candidats les plus en affinités avec le métier recherché, en les trackant en temps réel. a ce stade, un vaste ensemble d’indicateurs est pris en compte, notamment les habitudes de navigation sur internet. a l’issue de cette étape, l’algorithme identifie et achète les espaces publicitaires les plus pertinents sur internet et intercepte enfin les candidatures générées par les personnes ciblées. déjà plébiscité par 30 entreprises (deloitte, disney, axa…), cet outil réserve quelques surprises. pour une campagne de vendeurs, notre algorithme a décidé de diffuser la publicité sur le site de l’equipe. plus de 200 candidatures qualifiées ont été récoltées en deux semaines, illustretil. par aurélie tachot airbnb acquiert vamo : du bigdata dans l’expérience voyageur l’américain vamo, spécialisé dans l’exploitation de données pour la planification de circuits touristiques, passe dans le giron d’airbnb. « par où vaisje passer ? », « combien de temps vaisje rester ? », « comment je me rends à ma prochaine destination en prenant en compte la disponibilité des hôtels et les prix variables de certains moyens de transport ? ». autant de questions que sont susceptibles de se poser les voyageurs qui préparent des circuits avec des étapes dans plusieurs villes ou plusieurs pays. il y a près de trois ans, ari steinberg, alors ingénieur chez facebook, décide de quitter le navire pour lancer sa startup vamo. il crée un service mêlant bigdata et machine learning pour faciliter la planification des itinéraires et la réservation d’hébergements. l’aventure prend aujourd’hui fin. dans une communication du 11 septembre 2015, le dirigeant annonce l’acquisition de son entreprise… par airbnb. conséquence de cet accord, le service n’accepte plus de nouveaux utilisateurs. il restera actif jusqu’à fin septembre pour ceux qui sont en train de planifier un voyage. vamo recommande de se reporter sur rome2rio, sur lequel sa solution « est basée » pour le calcul des itinéraires, hors trajets en avion. vamo avait véritablement commencé à développer son activité en 2013, après une levée de fonds de 1,6 million de dollars auprès d’une vingtaine de business angels (source crunchbase). airbnb* reste discret sur la manière dont les technologies de la jeune pousse pourraient être intégrées dans son offre. techcrunch croit savoir que ce ne sont pas tant ces actifs qui intéressent l’acquéreur, mais plutôt les compétences d’ari steinberg et de ses collaborateurs. le dirigeant entretenait déjà des liens avec airbnb via brian chesky, cofondateur de la plateforme de mise en relation de particuliers pour l’hébergement temporaire. les deux hommes se sont côtoyés lorsque steinberg travaillait pour l’antenne de facebook basée à seattle. pour airbnb, il s’agira surtout de mettre à profit ce rachat pour renforcer « l’expérience du voyageur ». laquelle inclut, audelà du logement, la communication avec les hôtes ou encore les déplacements, plus encore dans le cas de circuits touristiques. airbnb vient de publier le bilan de sa saison estivale. a retenir : 17 millions de voyageurs gérés dans le monde entre fin mai et début septembre, 1 million de réservations la nuit du 8 août… et une valorisation autour des 25 milliards de dollars, soit plus que certaines chaînes hôtelières comme marriott. vidéo les rendezvous de l'it : bigdata et innovation : quelle est la recette ? avenir de l'it : l'analytics et le bigdata peuvent être deux leviers majeurs d'innovation dans les entreprises. françois guérin, consultant chez hp et denis oblin, consultant en data marketing citent des exemples et donnent quelques pistes en compagnie de frédéric bascuñana, la rédaction de zdnet.fr par la rédaction de zdnet.fr | vendredi 09 octobre 2015 suivre @zdnetfr comment utiliser le bigdata et l'analytics pour accélérer l'innovation dans l'entreprise ? dans un premier temps, il s'agit de bien comprendre l'écosystème des acteurs du bigdata, particulièrement riche et étendu, selon françois guérin, consultant avantvente hp. les éditeurs, les fournisseurs d'infrastructure, ou encore les prestataires de service sont autant d'entités qui permettent de mettre en oeuvre des projets. iframe: wcsifrmplayer mais rien de mieux qu'un bon exemple pour comprendre comment le big data transforme les entreprises, mais aussi les secteurs d'activité. le cas de blablacar dans ce domaine illustre toute la puissance que l'analytics apporte en matière de gestion d'un service de covoiturage. la startup à la valorisation record a comme avantage selon françois guérin de ne pas avoir eu a effectuer de conduite de changement pour mettre en oeuvre les nouvelles solutions d'analytics. au coeur de la philosophie de blablacar, la volonté de rendre les utilisateurs métiers des données le plus agiles possible assure françois guérin. open innovation et datalabs, deux moteurs de l'innovation c'est aussi la grande simplicité de l'organisation de la startup autour de l'analytics qui est notable selon françois guérin. au delà de l'analyse de cohorte ou de l'a/b testing, le travail de blablacar sur le bigdata consiste à de l'analyse de comportement des utilisateur, de l'optimisation d'interface, de campagne ; et tout cela est assez simple à mettre en place côté projet bigdata. au de là de l'exemple de cette formidable licorne, denis oblin, consultant en data marketing, mentionne quelques pistes pour innover avec les données. l'open innovation consiste à prendre des jeux de données, la mettre à disposition de la communauté de data scientist et leur dire 'aidezmoi, que je vois ce que l'on peut faire avec'. mais la donnée peut également être ouverte et partagée à l'intérieur de l'entreprise. l'idée ? que le marketing communique ses données au département risques, juridique, ou encore à la compta. mais pour faire cela, il faut considérer que le bigdata n'est pas (que) un projet si ou de spécialistes de la donnée. et de citer le cas d'amazon, qui fut un des premiers à créer des hackathons sur le sujet. cela passe également par la mise en place de datalabs évoque françois guérin. ces infrastructures et outils partagés ne sont pas encore très fréquents, mais l'idée est intéressante, à condition que l'infrastructure soit au niveau, et scalable. tendances cloud d’ici à 2018 : sécurisation, conteneurisation, analytics et bigdata avenir de l'it : les développements en matière de cloud computing ne tarissent pas : renforcement de la sécurité, accélération des offres paas, et ‘mesh cloud’ pour le saas conteneurisation. les tendances sont très diverses et confirment la floraison des offres pour le futur du cloud computing. la rédaction de zdnet.fr par la rédaction de zdnet.fr | lundi 28 septembre 2015 suivre @zdnetfr que fautil attendre pour les mois qui viennent en matière de cloud computing? des enrichissements des offres existantes, mais également de réelles innovations, y compris celles que l’on ignore aujourd’hui et qui ne manqueront de nous surprendre ne seraitce que du fait de leur combinaison. conteneurisation des solutions innovantes continuent de se développer, notamment autour d'options telles que docker sur des cloud privés car, même si les orientations en faveur du cloud public continuent de s'affirmer, surtout pour des applications nouvelles. cette offre va contribuer au lancement de nouveaux développements. d'une manière générale, le déplacement des 'workloads' sur les infrastructures cloud va s'accélérer. de fait, beaucoup de données vont continuer à être portées sur le cloud – comme les applications de 'search' pour l'entreprise (recherche sur le web), le contrôle des données (file auditing), les dispositifs antivirus, etc. la portabilité par le cloud va donc devenir une réalité, y compris sur plusieurs cloud publics différents. l'infrastructure sousjacente tend à devenir une « commodité ». ceci suppose que les plateformes de développements soient « agnostiques », indépendantes, par rapport à des orientations d'éditeurs propriétaires. pour ces mises en place, la standardisation des environnements va devenir encore plus nécessaire / impérative, notamment autour de stratégies de développement dont la conteneurisation fait partie. des développements réalisés à partir de simples pc portables sont portés sur le cloud public de plus en plus facilement. cette option de conteneurisation est notamment utilisée pour condenser les tests de développement, pour asseoir l'assurance qualité, structurer et fluidifier les cycles de production it la poussée des microservices ces solutions de conteneurisation, de mieux en mieux établies, vont notamment servir à packager, de façon plus sûre, des applications appelées ‘microservices’ avec une meilleure portabilité entre différentes infrastructures. pour les déploiements, la conteneurisation va s'affirmer comme une alternative intéressante à la prolifération des vm. cette approche recourant à des conteneurs et à des bibliothèques d'api, dans un contexte cloud, permet de proposer très vite ces microapplications, apportant autant de fonctionnalités que nécessaires, l'ensemble étant capable de prendre le relais d'applications anciennes monolithiques. l’hybridation du cloud en marche les infrastructures vont devoir être toujours plus flexibles. certaines applications 'legacy' vont venir progressivement vers le cloud, grâce aux architectures cloud hybrides. le cloud hybride va s'affirmer comme la passerelle utile entre les applications 'legacy' existantes sur site et leur future architecture, intégrant des services sur le cloud public, notamment pour des applications en contexte de mobilité avec mises à jour et synchronisation constante. il pourra également s'agir de compléter des applications erp, avec des outils en ligne pour l'analyse, le planning, etc. dont le déploiement sur des sites disparates, éloignés est ainsi très facilité. cela dit, l'ensemble devra rester cohérent, « manageable » de façon centralisée. openstack toujours – et l’orchestration du côté des cloud privés, le recours à la pile openstack va s'accentuer, ce qui n'interdit pas de faire appel aussi aux offres de cloud public pour des services d'infrastructure (iaas, infrastructure as a service). pour les solutions d'orchestration, là aussi, les diverses options se confirment, et pourraient cohabiter: soit celles reposant sur des technologies de vm comme cloudformations d'amazon, ou openstack heat; soit celles fondées sur la conteneurisation telles que kubernetes ou docker compose. cela dit, les développeurs vont devoir veiller à la convergence, ou du moins, à la portabilité en matière de technologies d'orchestration, portabilité des spécifications sur divers systèmes d'orchestration. car le but ultime visé par les organisations reste que les applications écrites et développées une fois puissent fonctionner partout. selon divers analystes, openstack va encore gagner du terrain dans les projets de cloud privé, du fait de sa flexibilité et d'une multitude de 'drivers' et de composants en option. offres paas sur cloudfoundry l'option cloud foundry va continuer d'être soutenue par beaucoup d'acteurs, dont cisco, emc, hp, ibm, intel, vmware...) en particulier pour le déploiement de plateformes dites 'open paas'. mais des alternatives open source vont également s'affirmer. d'une manière générale, les plateformes de développements sur le cloud vont proliférer. les entreprises ne savent pas toujours, ou pas encore clairement, quelle plateforme répondra le mieux à leurs différents besoins. en fait, elles attendent des services cloud spécifiques qui puissent directement s'intégrer à leurs applications existantes, ce qui supposent de disposer des interfaces api adéquates. analytics sur le cloud et bigdata précisément, les outils d'analytics sur le cloud vont certainement rencontrer un succès grandissant, du fait d'une mise en œuvre très rapide pour des applications de monitoring, avec tableaux de bord, analyses bi de premier niveau ou plus sophistiquées, etc. le recours à des systèmes décisionnels sur le cloud (ou décisionnel sur le cloud) va croître fortement, passant de 19% en 2015 à 73% en 2018 (source : enquête talend, 2015). de même, le recours aux outils big data, dont hadoop, va se confirmer dans les mois et les années qui viennent. sécurité du cloud : encore prioritaire ? la lutte contre les malwares reste une priorité, y compris dans le domaine du cloud. les développeurs ne peuvent pas faire d'impasse en la matière. il s'agit notamment de veiller à une identification la plus rapide possible des accès non autorisés ou la détection de comportements suspects ou ‘anormaux’. les systèmes de backup sécurisés vont devoir être encore plus performants, avec des capacités de reprise des applications sur d'autres systèmes relais ('fail over') en cas d'incidents sérieux. les nouvelles architectures sont également attendues là comme alternative. au passage, beaucoup d'analystes soutiennent désormais que les clouds publics, managés très professionnellement, s'avèrent plus sécurisés que ceux sur sites privés... dans ce contexte cloud, la sécurité sera de plus en plus 'softwaredriven', donc tirée par le logiciel, et liée aux usages. et là aussi, de façon logique, le modèle du paiement à l'usage pourrait bien s'appliquer. la démarche devops soutenue par le cloud en parallèle, l'approche devops visant à la synergie entre développeurs et équipes d'exploitation it va être de plus en plus soutenue et encouragée par les fournisseurs d'offres cloud, lesquelles sont de plus en plus compétitives. selon certains analytiques, cette approche, non maîtrisée dans certaines grandes organisations, pourrait déjà conduire à créer une vague de 'shadow ops', sortes de services parallèles non officiels, qu'il va falloir encadrer. ceci suppose, en autres initiatives, de repréciser les outils standard de monotoring et de contrôle au sein de l'entreprise, notamment dans un contexte itil toujours souhaitable. il en va de la logique du suivi des investissements cloud et de l'engagement à évaluer un roi (retour sur investissement). les 'mesh clouds' distribués enfin, certains analystes constatent qu'il est désormais possible de multiplier les applications saas utilisables à partir d'un simple navigateur web. donc quantité de serveurs deviennent inutiles. et comme toutes ces applications, reposant typiquement sur du javascript et webrtc, peuvent être distribuées et déployées à un coût zéro ou minime, un nouveau modèle de cloud pourrait s'installer dit 'distributed mesh cloud'. il pourrait se substituer au cloud connu jusqu'ici. voilà un point à surveiller et à confirmer… lors de l'annonce, en juin 2014, du gros calculateur « the machine » par hp, il avait été précisé que ce gros calculateur pouvait être combiné au distributed mesh cloud (dmc), un « nouveau concept » développé par les hp labs. « un réseau mesh est une topologie de réseau où les noeuds (mesh nodes) échangent entre eux des données permettant un traitement distribué des données fort utile pour le bigdata, par exempl sur le réseau » , explique christian verstraete, un expert de hp. cette technique est transposable sur le cloud: « un ensemble de traitements peut être distribué sur autant de machines attachées au cloud que nécessaire, depuis la périphérie (edges) jusqu'au coeur du cloud. en périphérie, s'effectuent la collecte et le stockage des données brutes: un premier niveau d'agrégation et d'analyse est réalisé, dont le résultat, résumé, est transmis aux noeuds vers le centre du cloud.» on peut ainsi partir d'informations globales pour ensuite zoomer sur des données particulières, stockées sur différentes machines interconnectées, les noeuds jouant le rôle d'agrégateurs. « pour l'utilisateur, ces requêtes en cascade ou en arborescence s'effectuent de façon transparente » , précise l'expert. dans le domaine de la recherche, à l'international, signalons aussi l'initiative open cloud mesh. elle a été lancée en janvier 2015 par l'association geant, qui, depuis 2012, régit le réseau à très haut débit de grands établissements de recherche dans le monde (dont, pour l'europe, le cern, le desy (deutsches elektronensynchrotron), l'ercis (european research center for information systems), l'eth de zürich, l'université de vienne, la tu de berlin...). le projet consiste construire un «cloud fédérateur», ou « interconnected mesh of clouds » , partageant diverses interfaces api (d'origine oncloud) et un protocole d'accès fichiers universel, permettant d'accéder depuis tous postes de travail (windows, mac os x ou linux, ou smartphones ios ou android). bigdata : à quoi sert le traitement des signaux faibles ? avenir de l'it : les économistes et les spécialistes des data connaissent le concept de signal faible. mais que leur apporte le big data ? juste quelques réflexions nouvelles ? ou l’ambition de lancer des projets innovants très concrets ? la rédaction de zdnet.fr par la rédaction de zdnet.fr | mardi 22 septembre 2015 suivre @zdnetfr un récent rapport de l'institut imdr (institut pour la maitrise de risques, regroupant le cea, edf, gdfsuez, irsn, ratp) sur l’analyse de risques (*) cite la définition donnée, en 1975, par l'économiste russoaméricain igor ansoff : un signal faible (weak signal) est « une information d’alerte précoce, de faible intensité, pouvant être annonciatrice d’une tendance ou d’un événement important ». il peut s’agir d’un fait technique, humain ou organisationnel, ou encore d’une remontée d’expérience sur le terrain. [bigdatasignal600.jpg] or, comme l'explique erik gendreruel, directeur de l'innovation de groupama, à propos d'un livre de philippe cahen sur ce sujet (**), les signaux faibles présentent au moins une difficulté : ils sont « surabondants ». et donc, il faut procéder à « une sorte de tri, en se fiant à l’intuition plus qu'à la raison ». l'avènement du big dat ail changé la donne ? « on est aujourd’hui capable avec les nouvelles technologies d’analyser et d’exploiter la totalité des données disponibles avec une granularité extrêmement fine. on peut alors en extraire les informations les plus pertinentes ainsi que les signaux faibles, qui permettent d’identifier de nouveaux comportements, de nouveaux types de consommateurs, de nouveaux critères de segmentation, etc. », explique alexis meilland, consultant bigdata entré, jeune diplômé chez autonomy en 2012 (acquis par hp). part d'intuition et saut dans l’inconnu admettons donc que les bigdata permettent de tirer parti des signaux faibles. citant des réflexions de philippe cahen, spécialiste du 'marketing de l'incertain', un livre blanc de business & decision (« du bigdata au big business », paris, déc. 2014) relève que la détection des signaux faibles n'est effectivement pas un sujet nouveau. on sait mieux aujourd'hui quel impact ils peuvent avoir, par exemple, sur le marketing ou sur une stratégie dans le domaine des soins ou des services. pourquoi ? « un signal faible, c'est une information paradoxale de réflexion. (...) ce n'est pas un petit fait porteur d'avenir. ce serait trop simple, voire naïf, d'imaginer que l'on trouve tout crues des informations sur l'avenir ». mais alors qu'elle est la bonne démarche ? une large part des travaux doit être laissée à l'intuition, « phase indispensable pour déceler puis interpréter les signaux faibles », soutient philippe cahen. « le futur est un saut dans l'inconnu, un inconnu allant du sympathique rassurant à l'intolérable que l'on voudrait fuir. il est en effet particulièrement rare de vivre ce qui a été prévu. l'inverse est plutôt la règle ». autour de ces signaux faibles, le bigdata devient un moyen d'alimenter la réflexion et l'action. il suffit, selon l’auteur, de partir d'hypothèses que l'on va ensuite vérifier « en multipliant les croisements entre les données et les comportements ». réseaux sociaux et temps réel rien que sur les réseaux sociaux, on constate la profusion de données externes, publiques ou non. ce sont potentiellement autant de sources d'informations pour les entreprises soucieuses de suivre leur réputation exposée au grand jour, qu'il s'agisse de produits de consommation courante, agroalimentaire, luxe, distribution, assurance... pour l’essentiel, ces données sont nonstructurées : elles sont textuelles et peuvent contenir également de la vidéo, des illustrations, des photos. mais abondance ne signifie pas pertinence. au contraire. la plupart de ces informations (intégrant des avis, commentaires du type like) ont un intérêt très relatif. donc, les signaux faibles ainsi repérés n'obtiennent leurs vraies valeurs que s’ils sont croisés à d'autres données, de sources diverses. d'où la nécessité de multiplier et d'accélérer les croisements de données, puisque les signaux faibles induisent le traitement de très gros volumes. c'est ce qui constitue un des arguments de l'efficacité du bigdata. « plus on pourra recroiser la pertinence d'une donnée de ce type avec d'autres données de même type, meilleure sera la qualité de l'information produite ». mais une autre logique d'efficacité veut que l'on cherche à réduire considérablement le temps nécessaire à ces traitements pour se rapprocher du temps réel. application dans le domaine de la sûreté l'étude de institut imdr, citée plus haut (*), conclut que le travail sur un signal faible nécessite sa détection, son analyse pour évaluer sa pertinence, son amplification, pour le distinguer du « bruit », son traitement pour éviter qu’il ne se propage et dégénère en sinistre grave. tout cela peut « permettre d’anticiper et d’éviter des catastrophes ou des événements graves en intervenant à temps dans la 'période d’incubation' ». par ailleurs, lorsque l’on traite le retour d’expériences, on constate la récurrence d’un nombre important de situations potentiellement néfastes, de faible amplitude, aux conséquences minimes, ayant peu ou pas d’impact sur le système à l’origine du signal et sur son environnement. la plupart de ces situations sont d’une importance limitée. « pourtant, quelques situations potentiellement néfastes nécessitent un traitement, une analyse et des mesures de prévention ou de protection pour éviter un événement plus grave ». d'où l'exploitation des signaux faibles. [terminologieassocieeauxsignauxfaiblessourceimdr2014.jpg] terminologie associée aux signaux faibles. source imdr (10_2014) dans ce contexte, il est fait appel au bigdata, rangé dans les méthodes de traitement statistique des données. un premier constat porte sur le flou relatif : les signaux faibles sont difficilement interprétables, informels, improbables mais souvent annonciateur d’un évènement futur. l'étude a examiné quatre accidents remarquables dans divers secteurs (crash du concorde en 2000, crash d'air moorea en 2007, catastrophe de la centrale nucléaire three mile island en 1979, et collision ferroviaire de paddington en 1999). pour chaque cas, les experts ont découvert des relations qui n’étaient pas connues, ni spécialement visibles. il s’agissait donc bien là de signaux faibles. « dans l'analyse, explique le rapport de l’imdr, le fait de réinterroger le modèle de défaillance et de rapprocher les deux référentiels (fonctionnement et risque) afin de confirmer la pertinence des scenarii, issus des étapes précédentes, a permis de faire passer le signal de faible à fort ». ce qui a conduit à repenser les indicateurs de suivi de risques. ainsi, on comprend mieux ce que peut apporter le bigdata « il permet d’aborder le problème général de la fouille de données par apprentissage », constate un expert. « il ne s’agit pas nécessairement d’automatiser des process ou des décisions par des algorithmes, mais d’en améliorer la qualité par des analyses portant sur des masses considérables de données et non plus d’échantillons appréhendables seulement à l’échelle d’un spécialiste ». dans le domaine des soins depuis quelques mois, l'école polytechnique et la cnamts (caisse nationale d'assurance maladie des travailleurs salariés) ont démarré un partenariat bigdata. il s'agit de développer des algorithmes sur des enjeux de santé publique, en puisant dans le millier de teraoctets dont dispose la caisse nationale. l’objectif, c’est la détection de signaux faibles ou anomalies en pharmacoépidémiologie, l'identification de facteurs utiles pour mieux analyser les parcours de soins, la lutte contre les abus et la fraude. encore un vaste programme, où, faute de solutions bigdata, il aurait fallu plusieurs mois ou années avant d’obtenir les premières lignes directrices fiables ! ici en quelques semaines, plusieurs pistes pertinentes vont déjà pouvoir être explorées. (*) détection et pertinence d’un signal faible dans le traitement d’un retour d’expérience, imdr, n° p121 (**) préface de l'ouvrage de philippe cahen « prospective signaux faibles, mode d'emploi. déceler les tendances, anticiper les ruptures », editions eyrolles. bigdata : quel intérêt pour l’analyse prédictive ? avenir de l'it : l'analyse prédictive nécessite d'importantes ressources de calcul. les solutions récentes du bigdata, portées par de nouvelles technologies le inmemory, hadoop, distributed r, etc. ouvrent des perspectives accessibles à tous. ou presque. la rédaction de zdnet.fr par la rédaction de zdnet.fr | jeudi 10 septembre 2015 suivre @zdnetfr [analytiquedata250.jpg] dans une récente étude, le cabinet forrester research a entrepris de comparer 13 solutions (*). il montre que, grâce au bigdata, les solutions d'analyse prédictive (predictive analytics) n'ont jamais été aussi pertinentes et faciles à utiliser que maintenant. ayant interrogé un panel d'entreprises représentatif du marché, le cabinet d’études révèle deux grandes tendances sur le bigdata : * 89% des dirigeants métier estiment que le bigdata va révolutionner les opérations métier au même titre qu'internet * 83% déclarent avoir entrepris des projets bigdata afin d'en obtenir un avantage compétitif commentaire du consultant : « les réussites les plus visibles du big data s'observent dans des entreprises qui ont exprimé le besoin de se libérer de contraintes les empêchant d'être plus réactives vis à vis de leurs clients ou consommateurs ». l’efficacité des modèles prédictifs le bigdata et l'imposante puissance de calcul associée, intégrés divers nouveaux outils, rendent les modèles prédictifs plus efficaces, plus précis. ces derniers sont également devenus plus accessibles aux entreprises, « y compris chez celles qui disposent de peu de compétences particulières en la matière », constate forrester. les entreprises devraient gagner en capacité prédictive, grâce au big data, selon trois axes : * l'apport de vues et de données nouvelles sur les clients et les process métiers : tableaux de bord et reportings deviennent des applications courantes en matière d'analyse prédictive au sein des organisations. on obtient quantités d’informations sur l’impact possible de certaines situations et sur des projections à court ou moyen terme grâce à des modèles prédictifs simples. mais il y manque souvent le lien vers le décisionnel métier, l'optimisation de process ou encore l'expérience utilisateur, constate forrester. * le rajout d'interactions avec les utilisateurs et les clients jusque dans les process métier. si l'organisation n'utilise pas d'outil prédictif pour anticiper l'avenir, elle risque d'employer des spécialistes des data scientists à ne rien faire ! aujourd'hui, les nouveaux outils de prédiction analytique permettent de déployer des modèles pertinents et d'activer des moteurs d'analyse dans les applications, là où l'on a besoin de perspicacité. « les organisations tendent à utiliser le prédictif pour améliorer leurs process métiers, par exemple en permettant deprévenir la fraude sur un service », explique le cabinet d’études. * la réimplication du client ou consommateur est rendue possible grâce à de nouveaux services numériques. le recours aux analyses prédictives ouvre de nouveaux horizons dans les entreprises. l'élaboration de nouveaux modèles permet aux développeurs d'applications d'intégrer de nouvelles fonctionnalités et de les déployer rapidement. les six étapes clés de l'analyse prédictive l'étude met en exergue un cycle de six étapes clés dans l'élaboration de solutions prédictives grâce au bigdata : 1. identifier les données utiles en évaluant diverses sources possibles 2. triturer les data, les agréger, les compléter, etc. 3. construire un modèle prédictif, à partir d'algorithmes statistiques et de 'machinelearning' 4. evaluer l'efficacité et la précision du modèle prédictif 5. utiliser le modèle prédictif pour orienter des décisions métiers 6. assurer un suivi de l'application et de l'efficacité du modèle prédictif [6etapesdespredictiveanalytics_forresterresearch2015.jpg] les six étapesclés du predictive analytics, source forrester research (04/2015) l'apport des technologies bigdata pour mener de tels travaux sur des données à grande échelle, les technologies bigdata apportent une contribution indéniable, comme le montrent de récents développements chez hp, par exemple, reposant sur le langage open source 'r'. l'offre 'haven predictive analytics' utilise la technologie 'distributed r', une extension qui est le fruit d'une coopération entre les hp labs et hp software. elle tire notamment parti de la distribution de tâches de calculs sur plusieurs nœuds de traitement à grande capacité. il devient ainsi possible d'élaborer des modèles d'analyse à partir de consoles open source 'r' (comme rstudio) capables de travailler sur des milliards d'enregistrements. en clair, ce serait un changement radical d'échelle, comme en témoigne cerner corp. qui a testé la solution. ce spécialiste it du secteur de la santé a constaté que cette possibilité d’enrichir ses modèles prédictifs à l’échelle d’un traitement mondial des chiffres existants, permet de réduire considérablement le nombre des fauxpositifs dans les diagnostics médicaux – ce qui signifie une réduction significative des interventions médicales inutiles. voiture connectée : volvo et mercedes repoussent l'intégration du carplay d'apple à 2015 la data est en centre de la stratégie de transformation digitale de volvo. le constructeur automobile suédois, propriété du chinois geely, met la dernière main à une plateforme bigdata fournie par teradata. cet investissement s’inscrit dans un projet de plusieurs millions d’euros visant à diffuser l’analyse des données dans tous les départements de l’entreprise, de la r&d au service aprèsvente, en passant par le marketing, la conception ou encore la production. depuis 2007, volvo s’appuie sur un entrepôt de données et une solution d'analytique de teradata pour le diagnostic des pannes, la gestion de la qualité, l’optimisation de la conception ou encore l’amélioration de la fabrication. avec le projet bigdata, le constructeur veut aller plus loin en exploitant les données de ses voitures connectées et des interactions via le web pour mieux connaître ses clients et les conditions d’utilisation de ses véhicules. leçons à tirer de la voiture autonome l’industrie automobile fondait jusqu’ici son approche client sur des campagnes de publicité et de communication, explique jan wassén, directeur business analytics. le digital est en train de tout changer. nous devons être présents sur les réseaux sociaux, nous intéresser aux activités de nos clients sur le web et suivre à travers la connectivité l’utilisation de nos véhicules. la voiture autonome nous impose de revoir notre façon de concevoir pour créer dans l’avenir des voitures plus simples à conduire. près de 90% des voitures vendues par volvo sont connectées. cette connectivité se limite aujourd’hui à des services télématiques, d’appel d’urgence ou de localisation. volvo veut l’exploiter pour récolter des données sur le comportement du conducteur et le fonctionnement réel de la voiture. le constructeur s’intéresse également aux données de connexion des clients au web. selon jan wassén, 90% des configurations de voitures achetées sont réalisées en ligne. 2 défis à relever basée sur le standard hadoop, la plateforme bigdata fournie par teradata se destine à recueillir ces données et les préparer pour être analysées dans les différents départements de l’entreprise. une équipe d’analystes et de data scientists soutiendra les utilisateurs. elle compte aujourd’hui trois spécialistes, mais l’objectif est de l’étoffer, ce qui est un défi selon jan wassén, car ces profils sont rares sur le marché. un autre défi est de rapprocher le système de gestion sap du nouvel entrepôt de données, ce qui n’est pas simple, notetil. aujourd’hui, ces deux systèmes ne se parlent pas. le projet est mené en partenariat avec ericsson pour la connectivité du véhicule et celebrus pour la connectivité web. jan wassén s’attend à ce que l’utilisation de la plateforme bigdata monte rapidement en puissance. et la connaissance de ce qui se passe dans la voiture ouvre à volvo l’opportunité d’imaginer des services à fournir au conducteur. ridha loukil et si c'était les services publics qui tiraient le bigdata en france... et si c'était les services publics qui tiraient le bigdata en france... c’est un rendezvous crucial pour teradata. la 30e édition de teradata partners, qui réunit quelques 3000 personnes parmi ses clients et partenaires à anaheim, en californie, du 18 au 22 octobre 2015, se déroule à un moment critique de son histoire. comme tous les acteurs historiques de l’informatique, nous sommes confrontés à de grands challenges, admet hermann wimmer, président de data & analytics, l’une des deux divisions de la société aux cotés de celle des applications marketing. changement des comportements d'achat depuis trois ans, teradata est bousculé par les changements des comportements d’achat dans les entrepôts de données, une activité traditionnelle dont il revendique la position de leader mondial, devant oracle et ibm. les clients préfèrent maintenant étaler leurs investissements avec des achats de plus faible montant, explique le pdg michael koehler lors de la présentation des comptes financiers du deuxième trimestre 2015. et ceci se ressent de plus en plus dans les résultats. l’année 2015 s’annonce particulièrement difficile. sur le premier semestre, le chiffre d’affaires est en chute de 8% à 1,2 milliard de dollars et la perte atteint 243 millions de dollars. la baisse frappe plus durement la vente de produits (13%) que celle des services associés (3%). sur l’ensemble de l’année, la société, qui emploie 11 500 personnes dans le monde, devrait, selon thomson reuters, subir un recul de 5% de son revenu à 2,6 milliards de dollars et enregistrer une perte nette d’environ 50 millions de dollars. reconversion à hadoop dans le bigdata pour sortir du marasme, teradata multiple les initiatives. premier axe de développement : le bigdata. après avoir joué la carte propriétaire, la société s’est reconvertie à la technologie open source hadoop. elle propose désormais des appliances, solutions intégrées matériellogiciel, supportant les distributions hadoop de deux des trois acteurs du marché : hortonworks et cloudera (mapr n’est pas encore supporté). de nouveaux produits sont annoncés dans ce domaine en ouverture de l’évènement teradata partners 2015. deuxième axe d’expansion : le cloud. teradata propose la plupart de ses solutions d’analytique et de marketing en tant que services en ligne sur sa propre infrastructure cloud. cette année, elle franchit une étape importante en les rendant aussi disponibles sur la plateforme d’amazon web services. et il est prévu d’en faire de même auprès d’autres opérateurs de cloud public, dont microsoft, mais aussi des opérateurs locaux d’informatique à la demande, comme orange en france. notre objectif est de faciliter le déploiement de nos solutions auprès de clients préoccupés par les coûts d’investissement ou des question de timetomarket, explique hermann wimmer. nous voulons également capter des utilisateurs que nous ne pouvons pas toucher par nos solutions traditionnelles et notre propre cloud. solutions en logiciel seulement aujourd’hui, les solutions traditionnelles d’entrepôts de données et d’analytique de teradata se présentent comme des platesformes intégrées combinant matériel et logiciel. pour donner davantage de flexibilité au marché, la société travaille à les proposer aussi sous forme de logiciel seulement (software only) à intégrer par les entreprises dans leurs cloud privés. cette option sera disponible en version béta en 2016 et en production en 2017. là encore, nous voulons donner plus de choix aux clients et étendre ainsi nos opportunités de vente, martèle hermann wimmer. autre domaine d’action : l’internet des objets. teradata veut profiter de sa présence sur le cloud pour capter les énormes flux de données générés dans ce domaine, les ingérer et les analyser. avec pour maître mot : l’intégration de ses solutions d’analytique et de marketing avec les plateformes d’internet des objets des opérateurs de cloud public. une grande marge de progression la transformation de teradata n’en est qu’à ses débuts. nous ne dévoilons pas nos chiffres relatifs au bigdata ou au cloud, confie hermann wimmer. ces activités ne représentent aujourd’hui qu’un faible pourcentage de nos revenus. mais elles jouissent de fortes croissances : +50% pour le bigdata et +80% pour le cloud au deuxième trimestre 2015, selon michael koehler, qui promet de renouer avec la croissance dès 2016. téradata a besoin de ce résultat pour rassurer les investisseurs inquiets sur son avenir comme en témoigne la perte de près de 30% de la valeur de l’action en bourse depuis deux ans. ridha loukil dirigée par un français, la startup suisse sophia genetics aide les hôpitaux analyser les données génétiques générées par le séquençage de l’adn des patients. elle espère bouleverser le monde du diagnostic, en misant sur le partage des savoirfaire. bigdata : sophia genetics s'appuie sur les séquençages adn des hôpitaux pour mieux diagnostiquer le cancer bigdata : sophia genetics s'appuie sur les séquençages adn des hôpitaux pour mieux diagnostiquer le cancer © d.r. on connaissait foundation medicine, cette entreprise américaine qui étudie le profil génétique des cancers grâce au séquençage de l’adn et au bigdata. une pépite aux yeux du géant pharmaceutique roche, qui en a pris, en début d’année, 57% du capital pour un milliard de dollars. moins connue, une startup européenne se distingue aussi parmi les acteurs en devenir de la médecine connectée et personnalisée. sophia genetics est suisse, mais dirigée par un jeune français (37 ans), jurgi camblong. grâce à ses algorithmes, l’entreprise analyse les données génétiques générées par des hôpitaux du monde entier. elle les aide ensuite à formuler des diagnostics précis. avec une petite centaine d’institutions clientes, sophia genetics fait déjà mieux que foundation medicine au même âge, s’amuse jurgi camblong. la france, utilisatrice à la pointe de ces technologies cet entrepreneur, salué par françois hollande lors de sa visite officielle en suisse en mai dernier, pensait initialement travailler dans la recherche fondamentale en génétique moléculaire, après un postdoctorat à genève puis à l’université d’oxford. mais il réalise la difficulté qu’ont les hôpitaux à interpréter la masse de données générées par le séquençage adn du génome des patients. il retourne en suisse (à saintsulpice, près de lausanne) où il s'appuie sur son réseau pour cofonder sophia genetics en 2011. il découvre alors non sans surprise que la france est l'un des marchés les plus avancés dans l’utilisation de ces technologies. les raisons ? des budgets des hôpitaux limités qui se doivent de faire appel à des expertises externes et la pression positive exercée par l’institut nationale de lutte contre le cancer pour réduire le temps de traitement entre l’échantillon à l’analyse. avec notre solution, on obtient en cinq jours ce qui leur prenait jusqu’à neuf mois !, assure le jeune patron. aujourd’hui, la startup travaille ainsi avec les chu de nancy, chu de dijon, hôpital saintantoine à paris... maîtriser le cancer d’ici cinq à dix ans il avance également que son service est moins onéreux et plus performant que les solutions sur le marché, souvent déployées par les fabricants de séquenceurs. surtout, il mise sur le machine learning pour faire avancer le temps de délivrance d'un diagnostic. les données que lui fournissent les hôpitaux sont confidentielles et sécurisées par sophia genetics. mais, via sa plateforme ouverte, les spécialistes sont incités à partager leurs savoirs dans le pronostic ou dans l’interprétation d’une altération. le diagnostic de pathologies potentiellement d’origine génétique, telles que le cancer, peut ainsi être fourni plus rapidement en comparant successivement différents génomes. avec ces outils, je suis convaincu que dans cinq à dix ans le cancer sera une maladie maîtrisée, estime jurgi camblong. son concept séduit. depuis sa création, sophia genetics a déjà mené trois levées de fonds, récoltant 18 millions de dollars. l'entreprise n’exclut pas un prochain tour de table avec des géants de la santé et du numérique. elle compte désormais une quarantaine de salariés. son chiffre d’affaires est confidentiel, mais elle pourrait être rentable dès 2017 ou 2018 et passer de 20 000 à 65 000 patients l’an prochain. prochaine étape : proposer ses services dans le cadre des essais cliniques de médicaments. mais face aux initiatives lancées par google ou d’autres consortiums privés pour mutualiser les données, jurgi camblong appelle à la vigilance : il y a un côté noble de mutualiser l’information pour la recherche, mais il faut qu’il y ait un débat autour de cela qui résulte sur des garde fous. cette information ne doit pas été utilisée contre les individus. gaëlle fleitour retour aux sources de la bigdata : la collecte de données digitales quelque soit votre métier ou votre industrie, votre plateforme bigdata regroupe des données de sources multiples et fondamentalement hétérogènes dont notamment vos bases de données transactionnelles, crm et autres sources en provenance du marketing digital (analytics, campagnes, targeting etc.) c’est cette composante marketing de la donnée qui a la vedette depuis quelques années, notamment grâce aux dmp (data management platforms). c’est justement sur la capture et la qualité des données en provenance du digital que nous nous penchons aujourd’hui. marquage hub scan bigdata la promesse d’une dmp est de traiter des données d’acquisition de trafic payant (liens sponsorisés, bannières) et de les relier avec des données comportementales issues des digital analytics afin d’optimiser les budgets d’acquisition et de proposer la meilleure offre au meilleure moment à la bonne audience. le saint graal du marketing en somme. le seul souci dans cette méthodologie de traitement de la donnée c’est qu’on fait peu ou pas attention à comment les données sont collectées ou transformées : la qualité est très (trop?) souvent le parent pauvre d’un projet bigdata. un plan de marquage pour qualifier ses données à la source ce problème se retrouve évidemment démultiplié par le nombre de sources et par le volume de données. on envisage mal de pouvoir faire confiance aux données pour prendre des décisions stratégiques ou opérationnelles – et encore moins les laisser soumises à des algorithmes d’attribution dynamique ou d’achat automatique d’espaces publicitaires en ligne. prenons un exemple classique lié aux digital analytics, où un annonceur utilise un outil de marquage (tracking) tel que google analytics, adobe analytics, at internet ou webtrends (pour n’en citer que certains) pour mesurer le trafic sur un site web et la conversion des visiteurs en acheteurs. ces outils sont devenus en 15 ans de réelles plateformes de collecte de données qui rivalisent avec les acteurs majeurs du monde de la business intelligence conventionnelle, et avec des interfaces plus attrayantes soit dit en passant. dans le monde des digital analytics, la collecte de données s’effectue dans plus de 90% des cas avec du marquage javascript : un code de suivi se déclenche à chaque fois qu’un internaute consulte une page web ou interagit avec la page, en cliquant sur un bouton par exemple. marquage des pages web ce marquage, ou « tag » peut être très basique : 4 à 5 lignes de code javascript qui doivent être insérées dans le code html de chaque page d’un site web. ça ne ressemble pas de prime abord de la physique quantique, n’estce pas? après tout, javascript est une technologie qui date de 1995, on devrait la maîtriser 20 ans après. eh bien pourtant, de nombreux annonceurs n’arrivent pas à mettre en place ce marquage de base, ce qui veut dire qu’ils se privent d’une visibilité sur le comportement des internautes sur les pages nonmarquées. si on compare cela à un annonceur dans le milieu des médias qui monétise son site à la page vue et qui “oublie de marquer 10% de ses pages, c’est tout à coup un manque à gagner énorme en revenus publicitaires si ses marqueurs ne se déclenchent pas, car absents. c’est pourquoi tout digital marketer qui se respecte se doit d’avoir un plan de marquage : concrètement, un document excel qui spécifie les marqueurs à intégrer, par type de page et par usage. le plan de marquage est devenu le nerf de la guerre digitale car de nouvelles solutions de marketing sortent chaque jour, chacun y allant de son marqueur. un plan de marquage le plan de marquage doit devenir la bible de la collecte de données pour le marketing digital la multiplicité des marqueurs et l’évolution trop rapide des sites fait que le marquage est trop souvent négligé – même dans sa forme basique. voici quelques retours que nous avons reçu par le passé et que nous continuons de rencontrer : « l’intégrateur précédent a perdu le plan de marquage » « on a oublié de mettre google analytics sur le nouveau minisite, c’est grave ? » « ah, il fallait traquer la conversion sur le formulaire ? » « on bien a changé les modèles de page mais on ne savait pas où mettre le tracking » « ah, il fallait vérifier le marquage sur toutes les pages du site ? »… et la liste est encore longue. malheureusement, ces retours nous montrent le manque d’éducation qui persiste encore en 2015 quand il s’agit de marquage. des solutions de marquage pour en simplifier la gestion et favoriser son utilisation si les mentalités commencent à évoluer grâce à l’arrivée depuis 2010 de solutions de “tag management qui permettent de centraliser et de fluidifier la mise en place de marquages, on n’a toujours pas le réflexe de valider le plan de marquage de manière exhaustive. si on procède à de l’échantillonnage (examen manuel de quelques pages seulement), on finira toujours avec une vision tronquée de la partie émergée de l’iceberg. sauf qu’en réalité, on procède à de l’échantillonnage car on sait très bien que pour les gros sites, l’assurance qualité du marquage (même basique) est une activité hautement chronophage se chiffrant en jours et en semaines/homme. ces délais d’assurance qualité explosent dès lors qu’on passe à des plans de marquage avancés, qui permettent une grande richesse de capture de données, impliquant des dizaines (voire des centaines) de variables contenant des valeurs métier qui doivent être validées par rapport des jeux de valeurs autorisées. en somme, il faut s’assurer qu’on capture la bonne donnée dans le bon format au bon moment – d’où l’importance suprême d’un plan de marquage. hub'scan la promesse d'un roi optimisé c’est justement pour répondre à cette problématique de qualité de données que la solution saas hub’scan a été développée, afin d’automatiser les taches d’assurance qualité du marquage des différentes solutions de marketing digital reposant sur des marqueurs javascript. hub’scan permet de créer des processus de validation qui permettent aux annonceurs de valider les données collectées sur leurs sites web et via leurs campagnes. en validant cette collecte de données avec hub’scan, on assure que les briques digitales d’une dmp ou d’une plateforme bigdata ont des données certifiées conformes aux attentes. on peut donc avoir l’esprit tranquille en sachant que ses kpis sont alimentés par des données cohérentes. on sait que le ciblage sera effectué sur base des bons paramètres visiteur. on n’a pas non plus s’inquiéter de qualité de taux de conversion qui ferait changer le prix des publicités. pour résumer, si vous ne voulez pas que « bigdata » soit synonyme de « bad data » préoccupez vous vite de votre qualité de données ! mythes et fantasmes de la « bigdata » la chose est entendue, l’économie numérique crée de la valeur. par conséquent… nous n’en parlerons pas. cette tribune pose une autre question : qu’estce qui peut ralentir, stopper voire même inverser ce mouvement ? dans ce contexte fantasmatique et mythique de la « bigdata », de quels écueils et de quelles naïvetés fautil être averti ? car tout cela se prête facilement à la futurologie, à ces discours qui nous promettent d’avoir des voitures volantes pour l’an 2000. l’engouement que ces discours suscitent, en particulier auprès des jeunes générations, si promptes à suivre les bannières flottant à l’horizon, est un élément de vitalité évident. mais une bannière, cela peut aussi servir à brasser de l’air, ou dissimuler le fait que les choses ne sont pas toujours réalisées sérieusement. nous commentons ciaprès sept points, sur un mode impressionniste. « la vérité est dans le code ». phrase de développeur et grand fantasme de l’automatisme. la fascination pour le déterminisme humain, pour l’analyse neurobiologique du cerveau, est du même ordre ; elles sont une opinion politique. gödel, cantor et turing par leurs résultats sur l’incomplétude, l’indécidabilité et l’inconsistance de tout système algorithmique prédisent l’échec de cette ambition. sur un autre plan, le phénomène du vieillissement du code mérite également de l’attention. les lettres d’un programme ne s’érodent pas, bien sûr, mais c’est son environnement qui évolue. les demandes adressées au code changent. il devient obsolète grâce aux caprices de la demande. la vérité n’est donc pas dans le code, ni théoriquement, ni pratiquement. « big brother ». la question est ici composite. elle présente deux versants. le premier est constitué par des questions légitimes en termes d’éthique, de liberté individuelle, mais aussi d’ajustement des offres commerciales à une demande qui peut vite se lasser si la proposition est trop insistante. le second versant est la réalité du fantasme de contrôle. ce fantasme existe. de par son ambivalence, il se rattache au fantasme du « complot ». « il n’y a pas d’algorithmes, il n’y a que des modèles ». les mystérieux algorithmes… mais il n’y a pas d’algorithmes, il n’y a que des modèles. le vocabulaire n’a ici rien d’anodin. le discours sur les algorithmes tend à exclure l’homme, mais en pratique il ne fait qu’essayer de le dissimuler. le modèle, la modélisation, de par la connotation de relativité qu’ils portent, témoignent, au minimum, de leur origine humaine, voire ils la revendiquent. le modèle est le travail du modélisateur. l’algorithme prétend exister sans son « algorithmicien »… « les développeurs et le marketing ». « les spécifications étaient mal écrites ! » : symptôme des développeurs qui ne prennent pas en compte la demande et ses caprices, symptôme du marketing qui ne prend pas la mesure des possibilités des nouvelles technologies et ne les considère que comme un outil. notons que la question est très « genrée ». les développeurs sont très souvent des hommes, et l’on trouve une majorité de femmes dans les fonctions marketing… « stocker n’est pas exploité ». il existe un fantasme industriel, une croyance un peu naïve, que la profitabilité jaillit toute seule de la base de données, qu’il n’y a qu’à se baisser pour la ramasser. rien n’est plus faux. le stockage, le raffinage et la modélisation représentent un travail conséquent. il est fréquemment sousestimé. « l’usine à gaz ». mais ce travail peut aussi être mal fait et c’est alors la redoutable… usine à gaz. les entreprises, qui en voulant assigner de trop grands objectifs, ou des objectifs mal réfléchis, ou encore stéréotypés, à leur système de crm (customer relationship management), et qui ont douloureusement échoué, ne sont pas rares… le crm est emblématique des risques de l’économie numérique. il s’agit d’une tendance néoadministrative qui veut s’épargner le travail de faire émerger de l’activité de l’entreprise et de son marché des conceptualisations convenables. or on ne peut jamais faire d’économies sur la réflexion. la 8e édition des jéco de lyon les journées de l’économie (jéco) ont lieu cette année du 13 au 15 octobre, à lyon. au programme : environ 40 conférences et plus de 200 personnalités réunies pour échanger et partager leurs analyses autour du thème « qu’attendonsnous… pour agir ? ». l’objectif de ces journées est de rendre accessible l’analyse économique au plus grand nombre. elles sont organisées chaque année depuis 2008 par la fondation pour l’université de lyon sous la direction de pascal le merrer, professeur d’économie internationale à l’ecole normale supérieure (ens) de lyon, avec le soutien de l’ensemble des universités, des grandes écoles lyonnaises, des collectivités et organisations professionnelles locales et de plusieurs entreprises. au fil des ans, les jeco sont devenues le lieu et le moment où se croisent les différentes institutions et associations qui animent l’enseignement, la recherche et le débat économique en france. entrée libre. inscriptions obligatoires sur www.journeeseconomie.org. audelà des pertes financières, des déceptions, le plus redoutable dans le phénomène de l’usine à gaz est qu’il peut conduire les décideurs qui l’ont vécu à porter des jugements d’inutilité envers ces outils. ils resteront alors éloignés des transformations numériques, à tort, et finiront par être déclassés. « modernité ? ». enfin, il est important de remarquer que beaucoup des écueils dont on parle ne sont pas si nouveaux. une corrélation n’est pas plus une causalité aujourd’hui qu’hier. le risque d’une information trop étendue dans les assurances est une chose déjà bien connue, et le risque de surveillance des citoyens n’est pas non plus une innovation. l’économie numérique rencontre en fait beaucoup de problématiques anciennes. et cela n’est pas surprenant. car la question n’est pas tant de savoir comment elle remplace, mais comment elle transforme. or, aujourd’hui comme demain, si l’on ne traite pas correctement une question, l’échec est certain. arnaud simon est directeur scientifique de la société meilleursagents.com. on avait connu gilles babinet, très vulgarisateur, expliquant la révolution numérique qui se joue en ce moment au quotidien, dans l'ouvrage l'ère numérique, un nouvel âge de l'humanité paru l'an dernier. eh bien, voilà le digital champion, c'estàdire le représentant de la france pour le numérique à la commission européenne, qui revient avec un nouveau livre, baptisé bigdata, penser l'homme et le monde autrement (le passeur éditeur). aujourd'hui, le bigdata envahit tout : du choix d'un programme de télévision à celui d'une campagne publicitaire. mais la force de cet ouvrage est de multiplier les exemples. ainsi, du logiciel prepol, utilisé aux étatsunis, qui, en prenant compte toute une foule de données heures des sorties scolaires, taux d'inactivité par zone géographique, circulation... , réussit à mieux mobiliser ses troupes de police. cela permet, avec le même effectif policier, de réduire le taux de criminalité de 30 %. l'utilisation du bigdata peut aussi prévenir et donc enrayer la progression d'épidémies comme récemment ebola en afrique ou encore augmenter l'efficacité des engrais tout en limitant leur utilisation lorsque cela est vraiment nécessaire. reste que l'exploitation des données peut également se montrer explosive. en effet, explique babinet, qui fut, en avril 2011, le premier président du conseil national du numérique, dans le secteur de la santé par exemple, l'utilisation des données personnelles pourrait être utilisée pour les études épidémiologiques. actuellement, cela est tout à fait interdit, mais j'estime qu'il est légitime de demander leur avis aux citoyens sur ce sujet. cela permettrait de prévenir certaines maladies en amont. accédez à l’intégralité des contenus du point à partir de 1€ seulement bigdata : les données au service des ressources humaines accueil erse : la rse et le développement durable en démarches et exemples > enjeux de responsabilité d'entreprise > responsabilité sociale > conditions de travail > bigdata : les données au service des ressources humaines by clément fournier clément fournier partager twitter facebook août 27, 2015août 27, 2015 a a a+ bigdata recrutement ressources humaines avec la généralisation des smartphones, du cloud, et autres objets connectés, il est de plus en plus simple d’obtenir des données sur peu près tout. ces données peuvent notamment servir les entreprises que ce soit au niveau du recrutement mais aussi de l’optimisation de la performance et de la qualité de vie au travail. une entreprise a, à sa disposition, une quantité phénoménale de données : des données internes (performances, caractéristiques de ses salariés et de leur travail…) mais aussi des données externes comme les performances de ses concurrents, l’état du marché et du marché du travail. ces données existent et sont connues depuis longtemps mais depuis quelques années, on assiste à une vraie révolution. en effet, de plus en plus de données sont collectées : cv des postulants, navigation web des salariés, comportement digital des employés et du management… la question qui se pose désormais aux entreprises est de savoir comment les exploiter et les mettre au service de la performance. c’est par les ressources humaines que cette révolution commence dès aujourd’hui. le bigdata : l’outil de recrutement du futur ? recrutement dans les entreprises les plus dynamiques et innovantes du monde, les processus de recrutement traditionnels sont de plus en plus supplantés par l’analyse de données à grande échelle. tout d’abord, les données servent à anticiper les besoins en ressources humaines : en croisant les statistiques des départs d’employés, des recrutements et de la stratégie d’entreprise. il est plus simple de savoir quand et où l’entreprise aura besoin d’un salarié, à quel poste et pour quelle mission. les entreprises réduisent ainsi le risque de recrutements ratés de plus de 20% en moyenne lorsqu’elles utilisent le bigdata. via linkedin, viadeo, doyoubuzz et autres réseaux sociaux en ligne… les données sont aussi un excellent moyen de dénicher les talents. mais la tendance va encore plus loin : certaines entreprises tentent de recruter des talents non pas sur la base de leurs accomplissements scolaires ou professionnels, mais grâce aux données disponibles sur eux sur le web. c’est ce qui est arrivé à jade dominguez, 26 ans. sans diplôme, sorti du système scolaire très tôt, il décide de monter une entreprise d’impression sur tshirt. pour créer le site web de sa compagnie, il apprend à programmer, sans passer par la case université, tout simplement en échangeant avec d’autres internautes. c’est sur des sites de partage entre codeurs que cet autodidacte va commencer à se faire un nom. repéré par les algorithmes des recruteurs, il se voit offrir un emploi chez gild, une startup californienne. cette histoire révèle une vraie tendance : c’est désormais la ereputation qui permet à certaines entreprises de repérer des talents. on pourrait craindre que ce type de recrutement, très algorithmique et systématisé, rende encore plus froid le monde des rh. mais les spécialistes de ce type de recrutement travaillent pour donner à leurs calculs les dimensions nécessaires pour recruter des profils à la fois performants, mais aussi riches d’une diversité que l’entreprise d’aujourd’hui se doit de promouvoir pour être performante. les données et le bigdata au service de la performance et de la qualité de vie au travail qualité de vie bigdata les analystes montrent régulièrement qu’une équipe diverse (tant au niveau du genre que des origines socioculturelles et de la personnalité) est globalement plus performante que celles qui le sont moins. le bigdata peut aussi être un outil de management des ressources humaines en interne : en comparant les données sur la façon dont les salariés réagissent à telle ou telle stratégie de management, à tel ou tel cadre de travail, on peut déduire quelles sont les meilleures stratégies à adopter pour l’ensemble de l’entreprise. il est également possible d’analyser les données sur la performance de ses salariés ou sur leur productivité pour transformer les stratégies de management. par exemple, certaines entreprises proposent à leurs clients d’analyser le comportement de leurs salariés sur internet pour en déduire des méthodes de management. ils peuvent ainsi déplacer les meetings pour qu’ils n’empiètent pas sur des périodes où les employés sont les plus productifs, réorganiser le temps de travail en libérant les employés ou en leur assignant des tâches annexes aux moments où ils sont statistiquement moins performants. grâce à ces données, les entreprises se rendent compte que l’équilibre entre vie professionnelle et vie privée est un facteur important de la productivité d’un salarié, et cela les incite à penser des horaires ou des stratégies de travail plus souples. l’avenir du bigdata dans les rh a l’heure actuelle, le bigdata n’en est qu’à ses balbutiements dans le rôle qu’il peut jouer dans les ressources humaines d’une entreprise. certains craignent que le phénomène se transforme rapidement en « big brother » et que les employeurs utilisent ces données pour contrôler encore plus leurs salariés. le bigdata pose aussi la question du respect de la vie privée, et de la façon dont l’utilisation de ces données vont s’articuler avec la contexte règlementaire. le champ est encore à construire, et il faudra que les entreprises sachent utiliser ces données dans le respect des salariés. mais c’est justement là que se situe la clé pour que le bigdata soit un outil efficace de rh : une utilisation souple, en partenariat et en confiance avec les employés, pour améliorer à la fois la performance et la qualité de vie. les données issues du bigdata enregistrent une croissance exponentielle. véritable source d’opportunités business, le bigdata permet aussi d’apporter des améliorations au quotidien des consommateurs. vouchercloud, spécialiste du coupon et de l’offre de réduction géolocalisés, publie une infographie, comme une photo de la réalité du bigdata aujourd’hui. le bigdata, cette nouvelle monnaie née de l’ère du web conversationnel, est un sujet surveillé comme le lait sur le feu. véritable buzzword il y a quelques années, le bigdata est depuis devenu un « or noir » sur lequel tout le monde veut mettre la main, sans toujours bien savoir comment. porteur de multiples opportunités business, le marché du bigdata devrait attendre 46 milliards de dollars en 2018 (étude du cabinet marketsandmarkets). un déluge informationnel… véritable « déluge informationnel » aux multiples applications, le sujet est donc tout sauf une tarte à la crème. 90% des données existant actuellement ont en effet été produites ces deux dernières années seulement, nous apprend l’infographie. chaque jour, nous produisons ainsi à travers le monde plus de 2,5 quintillions octets de données, soit de quoi remplir dix millions de disques bluray, qui empilés atteindraient la taille de quatre tour eiffel. problème, 90% de ces données sont non structurées, ce sont des images, des tweets, de l’historique d’achat des clients etc. des données qui ont leur importance, à condition d’avoir les bons outils, et les talents, qui permettent de correctement les analyser et de transformer ainsi ce « big » data en « smart » data, facilement utilisable par l’entreprise. dans la limite, bien sûr, du respect des données personnelles. … au service des marques mais aussi des consommateurs côté consommateur, le bigdata influe de bien des manières sur la vie quotidienne et l’infographie n’oublie rien : que l’on parle de développement économique, de santé, d’amélioration de services publics… les applications du bigdata sont de plus en plus poussées. que ce soit pour recevoir des offres toujours plus personnalisées, tracker sa forme physique ou améliorer les services publics, comme les transports, en analysant le trafic et réglant les frictions, le bigdata semble être la solution miracle à tout. mais cette boite noire ne pouvait rester dans l’ombre trop longtemps et c’est ainsi qu’une frange de consommateurs, qui comprend bien la mine d’or que sont les données, entend remettre la main sur ce pétrole qui profite pour le moment aux marques et aux google, facebook et autres acteurs qui en font commerce. a quand une infographie sur la réalité du vrm (vendor relationship management), ce renversement du pouvoir qui redonne les clés de la relation commerciale aux consommateurs euxmêmes ?