Plus rapide

In-memory: quand la vitesse devient décisive

| Mise à jour
par Rodolphe Koller

Dans un contexte où les entreprises sont toujours plus demandeuses d’analyses pour orienter leur activité, la technologie in-memory permet d’obtenir ces informations en temps record.

Chez Givaudan, l’entreprise genevoise leader mondial dans le domaine des parfums et des arômes, l’informatique côtoie les métiers les plus créatifs. Ainsi, les talents qui œuvrent à la création de nouvelles senteurs sont-ils tenus dans leur processus de création de vérifier si celles-ci sont conformes aux multiples conditions permettant leur vente future. Une kyrielle de règles changeantes imposées tant par les autorités règlementaires des divers pays, que par les clients eux-mêmes.

Cerise sur le gâteau, ces règles de conformité ne concernent pas seulement les composants eux-mêmes, mais aussi les innombrables combinaisons façonnées par les créateurs. On comprend dès lors aisément combien le recours à l’informatique est inévitable à l’heure de vérifier la conformité de chaque nouvelle idée de parfum. «Concrètement, le parfumeur doit régulièrement interrompre son travail de création pour tester la validité du parfum qu’il conçoit et attendre le résultat, parfois de longues minutes», explique Yves Courbot, responsable IT Demand, Product Compliance chez Givaudan.

Une somme de calculs qui pouvait par le passé durer de longues minutes, avec son lot d’insatisfaction et d’inefficience. Pour y remédier, la société a déployé l’an dernier une solution d’analyse de données in-memory, grâce à laquelle les créateurs obtiennent désormais leur réponse en quelques secondes. Cette même technologie permet aussi à Givaudan d’identifier rapidement les produits impactés par de nouvelles règles de conformité et d’en aviser sa clientèle de manière anticipée, notamment pour procéder à des changements d’étiquetage – avec à la clé un avantage marketing évident.

Plusieurs jours pour obtenir un rapport

Les créateurs de Givaudan ne sont pas les seuls à devoir attendre pour obtenir des rapports d’analyse de données. Les délais affectent toutes les branches et tous les départements, qu’il s’agisse de reporting financier, d’analyses marketing ad-hoc ou d’informations profondément imbriquées dans les processus et employées en continu.

Selon une enquête d’IDC, dans la moitié des cas il faut plus d’un jour pour que l’informatique prépare les données et les mette à disposition des utilisateurs. Des délais problématiques dans un contexte où les responsables métiers, de la logistique à la finance et du marketing à la R&D, sont toujours plus friands d’analyses de toutes sortes, pour monitorer, planifier et prédire le développement de leur activité. Outre le problème de la dépendance et du temps investi par le département informatique pour générer ces rapports, les décideurs risquent que leurs actions n’aient pas les effets escomptés, du fait qu’elles reposent sur des informations obsolètes. A la clé, de la frustration du côté de l’IT comme du business et des opportunités manquées.

L’explosion des volumes de données disponibles mise à part, l’origine du problème est en grande partie technique. L’analyse souffre notamment de la latence induite par l’accès aux données stockées sur les disques durs et repose sur des agrégats prédéfinis, peu propices aux requêtes ad-hoc et à l’exploration. La technologie in-memory, c’est-à-dire le chargement des données dans la mémoire système, vise précisément à répondre à ces problèmes, en offrant à la fois une vitesse démultipliée et une granularité élevée.

Une technologie plus abordable

Le concept d’in-memory computing regroupe de fait plusieurs techniques. Outre le chargement partiel ou total des données dans la mémoire vive du processeur, il fait appel à des bases de données structurées en colonne, plus appropriées aux recherches et aux requêtes analytiques, et à des outils d’optimisation et de compression. La diminution continue du prix des mémoires systèmes est, de l’avis des experts, le facteur principal qui conduit à l’essor récent de solutions in-memory, avec des serveurs offrant jusqu’à plusieurs téraoctets de RAM.

Employée depuis plusieurs années par quelques éditeurs de business intelligence, comme Qliktech et Tableau, la technologie in-memory est aujourd’hui proposée par la plupart des fournisseurs, soit sous la forme de solutions purement logicielles, soit sous la forme d’appliances, à l’instar d’Oracle Exalytics et de SAP HANA.

Selon les spécialistes de Gartner, 35% des moyennes et grandes entreprises recourront à la technologie in-memory d’ici 2015 (contre 10% en 2012). «Ces deux à trois prochaines années, l’in-memory va devenir un élément clé de la stratégie des entreprises qui cherchent à améliorer leur efficacité et leur croissance», soutient ainsi Massimo Pezzini, Vice President chez Gartner.

Utilisations ciblées

Bien que les prix des mémoires RAM aient fortement baissé ces dernières années, la technologie in memory n’en reste pas moins onéreuse. Et ce principalement à cause des licences logicielles dont les tarifs reposent notamment sur la taille de la mémoire vive exploitée. A cela s’ajoute que, même si les données sont compressées, la mémoire RAM doit jouir d’une dimension conséquente, puisqu’une partie de l’espace doit être réservée pour des tâches connexes. De plus, les gains potentiels en performance ne sont que rarement pleinement réalisés en raison d’autres facteurs de lenteur. Enfin, les travaux de modélisation des données ne doivent pas être négligés.

On comprend mieux pourquoi les entreprises font appel à la technologie in-memory de façon ciblée, là ou l’accélération de l’analyse apporte un retour sur investissement important. La Migros, qui emploie la solution SAP NetWeaver basée sur HANA pour les magasins Globus, se concentre par exemple sur les données de vente des produits.

Comme l’explique Alexander Weiss, Chef de Projet Processus & Business Warerehouse du géant orange: «Nous analysons les données relatives à la vente de certains produits, d’où la prise rapide de décisions sur la fixation des prix, les promotions ou les processus logistiques, qui peuvent engendrer une forte augmentation de la compétitivité. La vitesse accrue permet en outre la création de nouveaux processus commerciaux, notamment dans le domaine des analyses des données de caisse ou du traitement des articles mal vendus». L’emploi de la technologie est également répandu dans le domaine de l’analyse financière. «Peut-être parce que les CFO sont plus disposés à investir dans un projet dont ils sont les bénéficiaires directs», suggère Harald Bolbach spécialiste SAP chez IBM Suisse.

Aussi pour les données transactionnelles?

En début d’année, SAP a frappé un grand coup en annonçant que son ERP pouvait lui aussi tourner sur son appliance HANA. L’idée étant d’appliquer la technologie in memory non seulement aux tâches analytiques, mais aussi aux transactions elles-mêmes. Selon Dr Alexander Zeier, l’un des co-concepteurs de HANA, c’est même à cette condition que la solution déploie tous ses effets. On ne saurait nier que la manœuvre permet aussi à l’éditeur allemand de proposer une alternative aux bases de données concurrentes employées par la clientèle de son ERP.

Reste que l’idée de rassembler données et tâches analytiques et transactionnelles représente un changement notable. Dans un rapport sur ce concept, IDC rappelle qu’historiquement les environnements analytiques et transactionnels ont été séparés pour garantir la performance des transactions, avec pour conséquence une déconnexion entre l’analyse et la donnée source. Profiter de la technologie in memory pour les réunir à nouveau présente de nombreux atouts, de l’avis d’IDC. A commencer par offrir aux utilisateurs métiers d’effectuer leurs analyses sur les données actuelles dès qu’elles sont saisies, avec pour résultat des décisions plus rapides et pertinentes.

Par ailleurs, l’utilisation d’un environnement commun devrait simplifier le travail des départements informatiques. Enfin, une base unifiée devrait favoriser la création de processus et d’applications «intelligentes», exploitant en continu des résultats d’analyse pour décider d’actions à la volée. IDC prend pour exemple une application pour le commerce de détail modifiant dynamiquement les prix et les commandes de réapprovisionnement en fonction des schémas et tendances de consommation. Ou un applicatif financier ajustant automatiquement les positions des portefeuilles, en fonction de l’analyse des tendances du marché et de la stratégie d’investissement.

La technologie est donc prometteuse, mais les freins à son adoption sont tout aussi importants. Outre les coûts évoqués précédemment, les entreprises ne sont pas près de faire reposer leurs systèmes transactionnels critiques sur des données chargées dans le processeur. Contrairement à une tâche d’analyse, des transactions qui tombent sont lourdes de conséquence. Quelles que soient les garanties de sauvegarde fournies, il y a fort à parier que les entreprises préféreront confier encore pour un temps leurs données transactionnelles à de bons vieux disques magnétiques.

Kommentare

« Plus