En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d’intérêts.
Pour en savoir plus et paramétrer les cookies… Fermer

publicité

Big data : quel intérêt pour l’analyse prédictive ?

Avenir de l'IT : L'analyse prédictive nécessite d'importantes ressources de calcul. Les solutions récentes du Big data, portées par de nouvelles technologies - le In-memory, Hadoop, Distributed R, etc. - ouvrent des perspectives accessibles à tous. Ou presque.

Dans une récente étude, le cabinet Forrester Research a entrepris de comparer 13 solutions (*). Il montre que, grâce au Big data, les solutions d'analyse prédictive (Predictive analytics) n'ont jamais été aussi pertinentes et faciles à utiliser que maintenant.

Ayant interrogé un panel d'entreprises représentatif du marché, le cabinet d’études révèle deux grandes tendances sur le Big data :

  • 89% des dirigeants métier estiment que le Big Data va révolutionner les opérations métier au même titre qu'Internet
  • 83% déclarent avoir entrepris des projets Big Data afin d'en obtenir un avantage compétitif

Commentaire du consultant : « Les réussites les plus visibles du Big Data s'observent dans des entreprises qui ont exprimé le besoin de se libérer de contraintes les empêchant d'être plus réactives vis à vis de leurs clients ou consommateurs ».

L’efficacité des modèles prédictifs

Le Big data et l'imposante puissance de calcul associée, intégrés à divers nouveaux outils, rendent les modèles prédictifs plus efficaces, plus précis. Ces derniers sont également devenus plus accessibles aux entreprises, « y compris chez celles qui disposent de peu de compétences particulières en la matière », constate Forrester.

Les entreprises devraient gagner en capacité prédictive, grâce au Big data, selon trois axes

  • L'apport de vues et de données nouvelles sur les clients et les process métiers : tableaux de bord et reportings deviennent des applications courantes en matière d'analyse prédictive au sein des organisations.

On obtient quantités d’informations sur l’impact possible de certaines situations et sur des projections à court ou moyen terme grâce à des modèles prédictifs simples. Mais il y manque souvent le lien vers le décisionnel métier, l'optimisation de process ou encore l'expérience utilisateur, constate Forrester.

  • Le rajout d'interactions avec les utilisateurs et les clients jusque dans les process métier.

Si l'organisation n'utilise pas d'outil prédictif pour anticiper l'avenir, elle risque d'employer des spécialistes - des data scientists - à ne rien faire !

Aujourd'hui, les nouveaux outils de prédiction analytique permettent de déployer des modèles pertinents et d'activer des moteurs d'analyse dans les applications, là où l'on a besoin de perspicacité. « Les organisations tendent à utiliser le prédictif pour améliorer leurs process métiers, par exemple en permettant deprévenir la fraude sur un service », explique le cabinet d’études.

  • La ré-implication du client ou consommateur est rendue possible grâce à de nouveaux services numériques. Le recours aux analyses prédictives ouvre de nouveaux horizons dans les entreprises. L'élaboration de nouveaux modèles permet aux développeurs d'applications d'intégrer de nouvelles fonctionnalités et de les déployer rapidement.

Les six étapes clés de l'analyse prédictive

L'étude met en exergue un cycle de six étapes clés dans l'élaboration de solutions prédictives grâce au Big data :

  1. Identifier les données utiles en évaluant diverses sources possibles
  2. Triturer les data, les agréger, les compléter, etc.
  3. Construire un modèle prédictif, à partir d'algorithmes statistiques et de 'machine-learning'
  4. Evaluer l'efficacité et la précision du modèle prédictif
  5. Utiliser le modèle prédictif pour orienter des décisions métiers
  6. Assurer un suivi de l'application et de l'efficacité du modèle prédictif

 

Les six étapes-clés du Predictive Analytics, source Forrester Research (04/2015)

L'apport des technologies Big data

Pour mener de tels travaux sur des données à grande échelle, les technologies Big data apportent une contribution indéniable, comme le montrent de récents développements chez HP, par exemple, reposant sur le langage Open source 'R'. L'offre 'Haven Predictive Analytics' utilise la technologie 'Distributed R', une extension qui est le fruit d'une coopération entre les HP Labs et HP Software. Elle tire notamment parti de la distribution de tâches de calculs sur plusieurs nœuds de traitement à grande capacité. Il devient ainsi possible d'élaborer des modèles d'analyse à partir de consoles Open Source 'R' (comme RStudio) capables de travailler sur des milliards d'enregistrements.

En clair, ce serait un changement radical d'échelle, comme en témoigne Cerner Corp. qui a testé la solution. Ce spécialiste IT du secteur de la santé a constaté que cette possibilité d’enrichir ses modèles prédictifs à l’échelle d’un traitement mondial des chiffres existants, permet de réduire considérablement le nombre des faux-positifs dans les diagnostics médicaux – ce qui signifie une réduction significative des interventions médicales inutiles.

___

(*) The ForresterWave: Big Data PredictiveAnalytics Solutions (04/2015)

Pour aller plus loin :

3 questions pour comprendre le Big Data, avec Gilles Babinet

Nous vous recommandons

Contenus partenaires

Réagissez à l'article

Connectez vous ou Enregistrez-vous pour commencer la discussion
publicité