Le prédictif avec Weka et PDI

0

Modèles prédictifs avec Weka et Pdi

Ce billet à pour but de mettre en place des solutions à partir d’une modélisation statistique (modèles prédictifs avec Weka et Pdi) afin de les industrialiser  et  permettre la prédiction des événements  diverses et variées.

Pourquoi déployer un modèles prédictif avec Weka et Pdi ?

Quelques Problématiques

  • La concurrence rude, les clients volatils amènent les entreprises à mieux connaître les clients et prédire leurs comportements

  • La croissance de la volumétrie des données structurées et non structurées à traiter

  • Etc…

Quelques  Solutions

  • Mettre en oeuvre, déployer et industrialiser un ensemble de modèles prédictif au sein d’un SI

  • Permettre de prédire un évènement et de suivre son évolution dans le temps

  • Etc…

Quelques  Finalités

  • Individualiser les actions de promotion et de communication marketing en fonction des attentes de chaque client ou prospect

  • Segmentation des clients pour des opérations Marketing ciblées (fidélisation ,up-sell, cross-sell, …)

  • Etc…

Études de cas

Données du crédit d’une banque allemande: La banque allemande dispose 700 bons emprunteurs et 300 mauvais emprunteurs.

Elle  utilise ses données pour construire une méthode de notation de crédit. Ses données ont 21 attributs et 1000 observations et un mauvais taux de 30%.

But : Prédire le (bon et mauvais emprunteurs) de la variable crédit en fonction des caractéristiques des personnes (Statut du compte courant existant, durée en mois, les antécédents de crédit, la raison, le montant du crédit, l’ancienneté, ….).

Source de données : UCI Machine Learning repository

Voir description : Description des données avec Weka (version 3.7.9)

Descriptifs des données

german data

descriptif des données

german data

L’apprentissage statistique est l’étape la plus importante pour sélectionner le meilleur modèle.

L’apprentissage est effectué sur un échantillon de 400 clients  (40% de l’échantillon global)  pris au hasard.

Évaluer un second échantillon test pour une validation croisée et permettre la sélection du meilleur modèle

Modèle TreeRandomForest

Modèle treeRandom Foreste

Modèle LMT

Random TREE                                                                    Modèle LMT

Optimisation de cible

Simulation d’une campagne sur la cible des bons emprunteurs en minimisant le coût et en maximisant le bénéfice.

Ex: coût d’octroi du crédit pour un mauvais payeurs (-40) et pour le bon payeurs (20).

Un bénéfice de 20×248- 40×46 soit 31120.

Le gain est la différence du bénéfice généré aléatoirement et et le bénéfice calculé.

Industrialisation avec PDI:

Cette transformation nécessite la prise en compte de l’ ensemble des données sur le fichier csv (autre sources de données pourraient être prise en compte)

Appliquer le modèle via le plugin wekascoring pour produire la variable prédite et les probabilités de prédiction.

Pour chaque modalité de la variable à prédire il existe une variable de probabilité.

Les options du plugin permettent d’afficher les attributs des données et leurs caractéristiques.

Le plugin permet de reconnaitre le modèle et l’adapter à un esemble de données plus vaste.

Pour un premier apprentissage sur 400 clients, le modèle final déployé sur 1000 clients montre un taux de classification correcte de 77% et un taux de classification incorrecte de 23%.

Suivant l’arrivée des nouveaux clients, le modèle peux être suivi en vu d’améliorer ses performances.

Les principales variables  produites par le modèles peuvent être intégrées dans un système d’information décisionnelle pour une vision plus large des clients de cette banque allemande.

Cette étude de cas a été présentée lors du  Pentaho Community Meetup France le 6 Décembre 2013

Cette rencontre a eu un grand succès et la salle était pleine. Y étaient présents  Pedro Alves, Jan Aertsen et Matt Casters.

Merci à toute l’équipe organisatrice.

La présentation Modèle prédictifs avec  Weka & pdi est disponible 

Pour plus de détails voir : La Rencontre de la Communauté Pentaho France

RFM Simulation 1

Scoring RFM

0

Le scoring RFM

Le scoring RFM est une technique qui permet d’identifier les clients les plus ou moins rentables afin de réaliser des campagnes marketing de prospection ou de  fidélisation.

Le scoring RFM est mis en place à partir de l’historique de la transaction des clients suivant:

  • la Récence: Établir un score de récence qui caractérise les clients en fonction des dates de transaction.
  • La Fréquence: Identifier les groupes de clients en fonction de leur fréquence de visites/d’achat etc….
  • Le Montant : Est le montant qui caractérise une transaction pour un client donné.

Le but du scoring RFM est de classer les scores Récence, Fréquence et Montant par ordre croissant et détecter les clients homogènes qui répondent à une catégorie de score.

Il permet la sélection des cibles selon le besoin des opérations Marketing.

  • Les clients qui réalisent plus de chiffres d’affaires ( exemple: Identification de 20% des clients qui réalisent 80 % du CA ).
  • Les clients qui reviennent plus souvent mais qui achètent moins afin de leur proposer des ventes additionnelles.

Le scoring RFM peut être un véritable outil de pilotage de l’entreprise s’il est mis en place dans le cadre d’une stratégie d’entreprise.

Il est important que les indicateurs issues du scoring RFM soient déployés dans le système d’information afin de permettre le suivi du cycle de vie des clients.

Il constituera un  indicateur important parmi les facteurs qui caractérisent les clients (age, csp, situation géographique, visite etc…) afin de permettre une segmentation pointue pour réduire les coûts des campagnes marketing.

Mise en œuvre du scoring RFM

Ce tutoriel montre la mise en oeuvre du scoring RFM à partir du logiciel statistique R.

scoring RFM

Scoring RFM

Les données sont générées et tous les scores sont intégrés à la table de données pour permettre de caractériser les clients en fonction du score RFM.

Les graphiques ci dessus caractérisent les clients homogènes en fonction des  intervalles de score définis. Une segmentation en 5 classes pour la récence, la fréquence et le montant.

Scoring RFM
install.packages('ggplot2')
library('ggplot2')
install.packages('gregmisc')
library('gregmisc')
install.packages('gridBase')
library('gridBase')
## Programation du score RFM  avec R

### Génération des données

ventes=data.frame(sample(1000:1999,replace=TRUE,size=10000),abs(round(rnorm(10000,28,10))))
summary(ventes)

names(ventes)=c("Idclient","Chiffre d'affaire")

### génération de date sur 3 ans de 01/01/2010 au 31/12/2012 )

dates.ventes <- as.Date("2010/1/1") + 365*3*sort(stats::runif(10000))
ventes=cbind(ventes,dates.ventes)

ventes$Recence=round(as.numeric(difftime(Sys.Date(),ventes[,3],units="days")) )

##str(ventes)
##dim(ventes)
##ventes

#### Scoring RFM

## Affecfectation du score de recence dans la table de donnée ventes

###Score CA

Montant=aggregate(ventes[,2],list(ventes$Idclient),sum)

names(Montant)=c("Idclient","Montant")

Frequence=aggregate(ventes[,2],list(ventes$Idclient),length)

names(Frequence)=c("Idclient","Frequence")

Recence=aggregate(ventes[,4],list(ventes$Idclient),min)

names(Recence) = c("Idclient","Recence")

###names(ventes)
###summary(ventes)

RF=merge(Frequence, Recence,'Idclient')

RFM=merge(Montant,RF,'Idclient')

##summary(RFM)
##par(mfrow=c(1,3))
###hist (RFM$Recence,col = '#84D41D', xlab='Recence',ylab='Frequence',main='Recense')
##hist(RFM$Frequence,col = 'gold', xlab='Frequence',ylab='Frequence',main='Frequence')
##hist(RFM$Montant,col = '8', xlab='Montant',ylab='Frequence',main='Montant')</pre>
 

##Création des scores : scores sur 5 niveaux

RFM$scoreR=cut(RFM$Recence, 5,labels=F) #score recence 1-5 du plus recent au plus ancien

RFM$scoreF=cut(RFM$Frequence, 5,labels=F)#score Frequence 1-5 du moins fréquent au plus fréquent

RFM$scoreM=cut(RFM$Montant, 5,labels=F)#score 1-5 Montant du plus petit au plus grand montant

## Ajout des intervalles de scores
 RFM$intervalle.R=cut(RFM$Recence, 5)  #segmentation d'intervalle de recencese

RFM$intervalle.F=cut(RFM$Frequence, 5) #segmentation d'intervalle de Frequence

RFM$intervalle.M=cut(RFM$Montant, 5) #segmentation d'intervalle de Montant

str(RFM)
 summary(RFM)

table(RFM[,5:6])

table(RFM[,6:7])
 table(RFM[,5:7])

grid.newpage()

pushViewport(viewport(layout = grid.layout(1, 2)))
 g1=print(ggplot(RFM, aes(x=RFM$scoreR, y=RFM$scoreF, fill=RFM$Montant)) +
 geom_tile()+theme_bw(), vp = viewport(layout.pos.row = 1, layout.pos.col =1))
 g2=print(ggplot(RFM, aes(x=RFM$intervalle.R, y=RFM$intervalle.F, fill=RFM$Montant)) +
 geom_tile()+theme_bw(), vp = viewport(layout.pos.row = 1, layout.pos.col = 2))

###Table de données sur laquelle il faut effectuer les actions de ciblage
       Idclient Montant Frequence Recence scoreR scoreF scoreM   intervalle.R intervalle.F intervalle.M
 1        1000     238         8     439      3      2      2    (429,559]     (4.99,9]    (137,250]
 2        1001     259         7     320      2      2      3    (299,429]     (4.99,9]    (250,364]
 3        1002     190         7     217      1      2      2    (169,299]     (4.99,9]    (137,250]
 4        1003     241         8     386      2      2      2    (299,429]     (4.99,9]    (137,250]
 5        1004     343        12     385      2      3      3    (299,429]       (9,13]    (250,364]
 6        1005     202         6     360      2      2      2    (299,429]     (4.99,9]    (137,250]
 -        ----     ---         -     ---      -      -      -     --------      -------    ---------
 998      1997     170         7     342      2      2      2    (299,429]     (4.99,9]    (137,250]
 999      1998     356        13     235      1      3      3    (169,299]       (9,13]    (250,364]
 1000     1999     405        14     307      2      4      4    (299,429]      (13,17]    (364,477]

library(foreign)
 write.csv(RFM,file="/Users/test/RFM.csv")  

Articles qui pourraient vous intéresser :
Modèle prédictifs.

Rapports interactif avec R et google visualisation

Courbes Roc

Modèles prédictifs

0

Ce billet à pour but d’évaluer un ensemble de  modèles prédictifs réalisés avec le logiciel open source R afin de mettre en place un processus d’industrialisation.

Les données sur lesquelles l’étude de cas a été effectuée est data iris.

Le but est d’industrialiser un modèle data mining retenu parmi tant d’autre avec R (logiciel statistique open source).

Sur cet ensemble de données quatre modèles seront testés:

Le modèle de régression logistique, le modèle d’arbre de décision, le modèle d’analyse discriminante linéaire (LDA), le modèle réseau de neurone.

La performance des modèles sera évaluée sur une courbe ROC.

Le  modèle enregistré au format XML ou PMML  sera repris pour l’industrialisation dans PDI (pentaho data intégration) via le plugin wekascoring.

L’accent est mis sur l’industrialisation et non l’interprétation des modèles data mining.

PMML

Predictive Model Markup Language (PMML) est un système de balises en  langage XML pour décrire des modèles data mining.

Un groupe actif le maintien via data mining groupe dmg. Il est utilisé pour une grande variété d’applications, notamment des applications en finance, e-business, le marketing direct, de la fabrication et de la défense.

Le PMML est généré par des outils statistiques comme R, WEKA, KNIME, SAS, SPSS, RAPIDMINER, etc… afin d’inter-opérer avec des systèmes et outils  qui déploient des modèles PMML pour le scoring des modèles prédictifs.

Les outils comme PDI sont en mesure d’industrialiser le modèle à partir du plugin weka scoring en utilisant des données plus volumineuses (big data)  avec les modules Big data de PDI (Pentaho Data Intégration).

Modèles prédictifs avec R et PMML

Échantillonnage

set.seed(1234)
 id = sample(2, nrow(iris), replace=TRUE, prob=c(0.7, 0.3))
 E1 = iris[id==1,] # E1 Échantillon d'apprentissage
 E2 =iris[id==2,] # Échantillon de test

Création de la variable à prédire

Elle consiste à catégoriser le  facteur species de 3 modalités en 2 modalités (TRUE Si Species =Versicolor , FAlSE dans les deux autre cas ).

Ce choix est motivé par le fait de vouloir évaluer plusieurs modèles.

Versi = E1$Species == "versicolor" ### TRUE Si Species =Versicolor , FAlSE dans les deux autres cas
## Rajout de la variable Versi (True Fasse) dans la table de données
E1$Versi=Versi
### Library requises
library(ROCR)
library(rpart)
library(nnet)

Régression logistique

logistic.model = glm(Versi ~ E1$Sepal.Length + E1$Sepal.Width + E1$Petal.Length + E1$Petal.Width,  family = binomial())
logistic.scores = predict(logistic.model, type = "response")
logistic.rocr = prediction(logistic.scores, Versi)

Arbre de décision

modele.rpart = rpart(Versi ~ E1$Sepal.Length + E1$Sepal.Width + E1$Petal.Length + E1$Petal.Width,cp = 0.001, method = "class")
### Probabilité de prédire versicolor se trouve sur la seconde colonne
rpart.scores = predict(modele.rpart, type = "prob")[, 2]
rpart.rocr = prediction(rpart.scores, Versi)

Analyse discriminante linéaire (LDA)

modele.lda = lda(E1$Species ~  E1$Sepal.Length + E1$Sepal.Width + E1$Petal.Length + E1$Petal.Width)
lda.scores = predict(modele.lda)$posterior[, 2]
lda.rocr = prediction(lda.scores, Versi)

Réseau de Neurone

modele_nnet = nnet(Versi ~.,data=E1,size=2)
nnet.scores = predict(modele_nnet)
nnet.rocr = prediction(nnet.scores, Versi)

Performance des modèles

###Performance des modèles prédictifs
### Sens=tpr True positive rate et fpr=false positive rate
plot(performance(logistic.rocr, "tpr", "fpr"), main="Courbe ROC", col="magenta",type="l")
plot(performance(rpart.rocr, "tpr", "fpr"), col = "blue", add = TRUE,type="l")
plot(performance(lda.rocr, "tpr", "fpr"), col = "green", add = TRUE)
plot(performance(nnet.rocr, "tpr", "fpr"),add=TRUE,col="gold")
##abline(a = 0, b = 1, col = "slateblue")
legend("bottomright", legend=c("nnet","glm", "rpart","lda"),lty=c(1,1,1,1),
col =c("yellow","magenta", "blue","green","gold"),text.col = "forestgreen")

performance(nnet.rocr, "auc") ## "y.values"=1
performance(lda.rocr, "auc") ## "y.values"= 0.9975107
performance(logistic.rocr, "auc") ## "y.values"=0.8428165
performance(rpart.rocr, "auc") ## "y.values"=0.9736842

D’après les deux mesures de la performance des modèles, le modèle réseau de neurone semble plus intéressant  avec l’aire sous la courbe =1.

Industrialisation des modèles prédictifs

Ce processus à pour but d’adapter le modèle à un jeux de données différent de l’échantillon d’apprentissage.

Production de modèles prédictifs en PMML avec R

Enregistrer les modèles prédictifs PMML(Predictive Model Markup Language) pour l’industrialisation.

library(pmml)
library(XML)
### Répertoire où nous somme getwd() , setwd(dir) répertoire où on veux placer le fichier
### Export en  pmml
### 1  Endroit où enregistrer le fichier
depotmondelefichier='/Users/test/modele_nnet.xml'

###2 Enregistrement du modèle PMML
saveXML(pmml(modele_nnet, model.name = "Modele Neural Networks ", app.name = "RR/PMML", dataset = E1), file = depotmodelefichier)
saveXML(pmml(modele.rpart, model.name = "Modele arbre ", app.name = "RR/PMML", dataset = E1), file = '/Users/test/modele_rpart.xml')

Enregistrement de l’ensemble des données pour déploiement des modèles prédictifs pour industrialisation.

###E1 échantillon d'apprentissage  dim(E1) ==>112   6
###-----Ajout de la variable Versi dans l'échantillon complet
Versi = iris$Species == "versicolor"
iris$Versi=Versi
#### dim(iris)  150 6

####---  Sepal.Length Sepal.Width Petal.Length Petal.Width    Species Versi
#1            5.1         3.5          1.4         0.2     setosa FALSE
#2            4.9         3.0          1.4         0.2     setosa FALSE
#3            4.7         3.2          1.3         0.2     setosa FALSE
#4            4.6         3.1          1.5         0.2     setosa FALSE
#6            5.4         3.9          1.7         0.4     setosa FALSE
#-            ---         ---          ---         ---     -----  ----
#150          5.9         3.0          5.1         1.8  virginica FALSE
library(foreign)
write.csv(iris,file="/Users/test/iris.csv")

Production de modèles prédictifs en PMML avec KNIME

Le test d’automatisation des modèles prédictifs sera effectué sur les données iris où on cherche à predir la variable versi qui est issue de la catégorisation du facteur Species en 2 modalités.

Le test est effectué sur un échantillon d’apprentissage de 56 individus sélectionnés aléatoirement.

Ce workflow permet d’enregistrer le modèle et d’afficher l’arbre de décision.

Que ça soit R ou KNIME ou WEKA qui génère le fichier standard PMML, PDI est en mesure d’industrialiser le modèle.

Ce modèle peut être piloté automatiquement dans un système d’information décisionnel, ou permettre d’optimiser des campagnes marketing pour les cibles qui ont un score significatif.

Ci dessous le modèle généré en xml : Modèle prédictif généré en xml.

Le plugin wekascoring

Ce plugin disponible sur pentaho permet de charger les modèles au format defini par weka,au format pmml et xml. Le format pmml généré est quasi identique au format xml.

Le plugin est disponible avec la version: WekaScoring (Weka 3.6 or 3.7.0)  à télécharger WekaScoring.

Pour l’installer avec la version PDI-CE 4.4, il faut le dézipper dans data_integration 4.4/plugins/seps/Wekascoring PDI4.x_Weka3.7.5 puis dans WekaScorinDeployer mettre weka.jar

Selon l’option choisie dans le plugin pour faire apparaître les probabilités prédites ou la variable prédite des différentes modalités.

L’option de choix ici est de ne pas sélectionner l’option affichage de probabilité ce qui permet d’afficher le variable Versi prédite.

Dataviz-R

0

Les utilisateurs finaux sont de plus en plus exigeants sur la nature et la qualité des supports (Dataviz, rapports,etc..) afin de prendre des décisions imminentes.

Les volumétries de données qui ne cessent de croître (phénomène big data), les présentations en temps réel avec des supports multiples et dynamiques, les données en visualisation (dataviz) sont de plus en plus sollicitées par les consommateurs d’informations.

L’information en temps réel  présente de nos jour une importance cruciale dans la prise de décision et la stratégie des dirigeants.

D’ où l’utilité de la BI, L’OSBI et de l’outil d’analyse statistiques (R) qui sont facilement intégrables dans les SID.

Une illustration sur la visualisation des données avec les indicateurs de développement.
Les données proviennent de la banque mondiale (Indicateurs en version anglaise).
Projet initié par

Quelques sources importantes  sur la présentation , la dataviz  et la diffusion de la donnée.

La BI au service des sondages

5

Les Sondages sur les élections présidentielles 2012 et La BI.

La maturité de la Business intelligences (BI) open source est de plus en plus perçue pour être utilisé dans les instituts.

Quelle place occupe la BI dans les instituts de sondages ?

Aujourd’hui il existe des outils innovent permettant aux instituts de suivre leurs sondages sur le cycle de l’ événement.

Les élections présidentielles en sont une illustration où les instituts rivalisent d’ardeurs et de  méthodologies.

Un graphique multidimensionnel qui montre les évolutions des sondages depuis le 30/11/2010 jusqu’au 04/02/2012.Des périodes de rupture sont observées entre les deux dates par manque d’informations.

Source de données: Parti de Gauche midi-Pyrénées
IPSOS,BVA,TNS SOFRES,CSA,LH2,IFOP,HARRIS,OPINIONWAY
 

presentation-cloud-computing

Le cloud au service de la BI

1

Le cloud au service de la business intelligence

Selon Gartner, les entreprises vont recourir au cloud en matière de BI pour des raisons de temps, de coûts et d’expertise.

Selon un sondage effectué par Gartner auprès de 1364 responsables IT, un tiers d’entre eux emploient ou prévoient d’employer dans l’année des offres cloud/SaaS pour augmenter leurs capacités en matière de business intelligence. «Les entreprises sont frustrées par les cycles de déploiement, les coûts, les processus de mise à jour et les infrastructures des solutions de BI installées», explique James Richardson, directeur de recherche chez Gartner. Si les entreprises voient l’intérêt des offres BI hébergées comme alternative, elles ne sont en revanche pas au clair sur ces solutions et leurs possibilités, avertit l’analyste.

Gartner estime que trois facteurs vont stimuler l’adoption de solutions de business intelligence délivrées depuis le cloud:

1. Temps: les solutions SaaS se déploient plus rapidement, dans un contexte où les ressources humaines et budgétaires limitées de l’IT ne lui permettent pas de répondre aux besoins des métiers.

2. Coûts: Si les SaaS ne sont pas nécessairement moins chers, ils permettent de réduire les investissements et les coûts de support.

3. Manque d’expertise: Les applications d’analyse en mode cloud intègrent d’emblée des connaissances qui permettent de contourner le problème du manque de compétences internes.

Pour Gartner, le scénario de déploiement le plus probable est que les offres SaaS ne viennent pas déranger les plateformes actuelles, mais soient utilisées pour de nouvelles opportunités d’utilisation. «Si leurs applications opérationnelles sont déjà dans le cloud, les entreprises devraient penser à recourir à des solutions cloud pour ces domaines», ajoute James Richardson.

Installation de Pentaho BI serveur 3.6

1

Tutoriel d’installation de Pentaho BI Server 3.5 et + avec les bases MySQL, PostgreSQL et Oracle pour Windows & Linux.
Une excellente documentation réalisée et révisée par Prashant Raju.

 

OS Bases de Données Voir ou Traduire SQL Pack Notes
Windows Microsoft SQL Server 2005+ Voir ou Traduire Télécharger Mise à jour le 14 Dec, 2010
MySQL 5.x Voir ou Traduire Télécharger Mise à jour le 14 Dec, 2010
PostgreSQL 8.x.x Voir ou Traduire Télécharger Mise à jour le 14 Dec, 2010
Oracle XE, 10g & 11g Voir ou Traduire Télécharger Mise à jour le Dec, 2010
Linux MySQL 5.x Voir ou Traduire Télécharger Mise à jour le 14 Dec, 2010
PostgreSQL 8.x.x Voir ou Traduire Télécharger Mise à jour le 14 Dec, 2010
Oracle XE, 10g & 11g Voir ou Traduire Télécharger Mise à jour le 14 Dec, 2010

Graphique interactif

2

Graphique interactif

La combinaison de l’api google avec le logiciel R est une véritable révolution pour les développeurs BI .
Il est possible avec ces outils d’apporter une vraie valeur ajoutée au système décisionnel. Avec une production dynamique des tableaux de bord au profil des décisionnaires.
La connaissance du logiciel R et de l’api google motion charte est requise.

Exemples sur les évolutions des ventes et des dépenses




Le système décisionnel OSBI

0

Le système décisionnel OSBI
La Business Intelligence open source a pour objectif d’apporter l’aide à la décision dans l’entreprise. Optimiser et accélérer les prises de décision pour augmenter les ROI. L’architecture décisionnelle mise en place a pour but de rendre accessible les informations clés (indicateurs(KPIs) sous forme de tableaux de bord , de rapports dynamiques etc …) en fonction des différents pôles de l’entreprise. Ces informations,suivant des rôles sont rendus accessibles au managers et Directeurs pour des prises de décisions efficaces.
Le système décisionnel en image.

Extraire :
A partir des sources de données multiples et hétérogènes (fichiers palts,xml,csv,xls,web,rss,bases de données,fichier ldif,mondrian,acces,kettle,palo etc…) ,

l’extraction consiste à récupérer les données afin de les travailler selon les besoin du projet.

 

Transformer :

Les données brutes sont amenées à être modélisées (création de ratio dans les flux,duplication de colonnes,transposition,ajout de dimensions,ajout de constante,agrégats,Normalisation,dé-normalisation) afin de produire un modèle de données.

Dans l’étape de la transformation il est crucial de tenir compte du temps de traitement des différents flux.

Selon le modèle pr-établit , l’étape de la transformation tient compte du MCD .

 

Charger :

Elle est l’une des étapes importante de l’alimentation. Elle consiste à charger ,alimenter de fichiers,des bases de données,générer des flus RSS et ….

Ce chargement peut être planifié en temps reel ou par jour,weekend ,mois .

 

Distribuer :

A partir d’un serveur web ,récupérer les informations modélisées dans le système décisionnel afin de les rendre exploitable .

 

Exploiter & Décider :

Le serveur décisionnel fournit des informations utiles afin d’être  exploitées,analysées. Les analyses pourront être faites via un serveur OLAP,des rapports ad’hoc, tableaux de bord.

Les managers sont formés à l’utilisation de ces outils pour une prise de décision rapide et efficace.

 

 

Dashboard avec l’API googleVis et R

2

Comment utiliser l’API google Visualisation avec R ?

L’utilisation de l’APi google pour créer des graphiques interactifs avec le logiciel statistique open source « R ».

 


Source R-bologger : GoogleVis

 

Je reviendrai plus en détail pour compléter cet article (de la création à l’intégration ainsi que les codes sources R).

 

Haut de page