in-memory

Alexander Zeier, Accenture: «On dispose au final d’une plateforme de traitement de données en temps réel»

| Mise à jour
par Interview: Rodolphe Koler

Entretien avec Alexander Zeier, aujourd’hui responsable des solutions in-memory chez Accenture, après avoir été la cheville ouvrière du développement de HANA.

Détenteur d’une dizaine de brevets sur la technologie in-memory et ses applications, Alexander Zeier a joué un rôle essentiel dans le développement de la solution HANA de SAP. (Quelle: Accenture)
Détenteur d’une dizaine de brevets sur la technologie in-memory et ses applications, Alexander Zeier a joué un rôle essentiel dans le développement de la solution HANA de SAP. (Quelle: Accenture)

Vous avez participé au développement de la technologie in-memory pour SAP. Comment ce projet est-il né?

Je suis actif dans l’informatique depuis une vingtaine d’années, principalement chez SAP. J’y ai été responsable de la solution APO (Advanced Planner & Optimizer) dans le domaine de la supply chain, qui est notamment utilisée par Apple. Au printemps 2006, Hasso Plattner, le fondateur de SAP, m’a proposé de démarrer pour son compte un projet de développement d’une nouvelle génération de systèmes, équivalente au passage à R3. L’idée était de concevoir une technologie réellement innovante out-of-the-box, de sorte qu’il a été décidé de réaliser ce développement à l’extérieur de la firme, au sein du Hasso Plattner Institute, qui est affilié à l’Université de Postdam. On a donc mis un bâtiment à ma disposition et j’ai engagé les collaborateurs pour ce projet qui s’appelait déjà HANA. Le projet a duré jusqu’en 2010, lorsqu’il a été remis à SAP en production.

Quelle était l’idée centrale de ce développement?

L’idée centrale consistait à réunir l’ensemble des données dans la mémoire vive et à les traiter de façon massivement parallèle, en profitant des dernières évolutions hardware. Nous avons d’ailleurs développé la solution en collaboration étroite avec Intel. Aujourd’hui, il est possible de réunir 80 cœurs sur un même blade et on disposera bientôt de 120 cœurs. Pour offrir un parallélisme massif, nous avons d’autre part développé une base de données orientée colonnes, par opposition à l’orientation en lignes, ainsi que plusieurs technologies complémentaires brevetées. Dans l’ensemble, le concept permet de mettre fin à la pratique qui consiste à séparer les mondes analytiques et opérationnels. Avec HANA, les données opérationnelles n’ont plus besoin d’être répliquées dans un système de business intelligence pour y être analysées, ce qui représente également un gain en temps et une simplification. On dispose au final d’une plateforme de traitement de données en temps réel.

Quelle différence par rapport aux bases de données traditionnelles et aux technologies en vogue dans le big data comme Hadoop?

Le big data, c’est-à-dire l’extraction d’informations utiles à partir d’énormes volumes de données est l’un des premiers objectifs de la plateforme in-memory. Le principal avantage par rapport à des solutions comme Hadoop ou Dynamo, c’est que HANA livre toujours la réponse exacte. Les autres solutions offrent ce que l’on appelle une temporary consistency, c’est-à-dire que la réponse fournie peut momentanément varier. Ce qui est acceptable lorsque l’on recherche un article sur Amazon ne l’est pas pour une solution de comptabilité avec des millions d’écritures. Quant aux bases de données traditionnelles, elles ont besoin d’aller chercher les données sur le disque pour les charger dans la mémoire vive et enfin les traiter. Avec in-memory, toutes les données sont dans la mémoire système et optimisées dans le cache du microprocesseur. On parle donc de nanosecondes plutôt que de millisecondes et, au final, la solution est 1000 fois plus rapide.

Qu’apporte concrètement cette vitesse aux entreprises?

Je peux citer le cas d’un très grand opérateur téléphonique qui a déployé HANA pour réduire le temps nécessaire à sa clôture mensuelle. La solution lui permet d’accélérer significativement l’établissement de ses rapports financiers et l’envoi des factures aux clients, avec pour conséquence des coûts d’intérêts réduits. Mais les exemples ne manquent pas dans la logistique ou dans le marketing. Lorsqu’une entreprise manufacturière est capable de calculer ses besoins en réapprovisionnement en quelques secondes plutôt qu’en quelques jours,. Ou lorsque les vendeurs d’une chaîne de distribution de matériel électronique peuvent accéder à toutes les informations des clients en magasin et leur faire des offres personnalisées en temps réel. A mon avis, les entreprises qui seront les premières à adopter cette technologie bénéficieront d’avantages décisifs sur leurs concurrents.

Qu’est-ce qui peut freiner l’adoption de la technologie in-memory?

L’investissement dans un nouveau système a pu paraître comme un frein lorsque HANA a été présentée, dans un premier temps, comme une solution de business intelligence. Cet obstacle disparaît dès lors que la plateforme est utilisée pour les applications centrales – c’est d’ailleurs à cette condition qu’elle déploie pleinement ses atouts. Sans compter que HANA tourne sur des équipements relativement standard et économiques. Bien sûr, la plateforme nécessite aussi une certaine adaptation et de nouvelles compétences dans les équipes informatiques, comme lorsque l’on est passé des gros calculateurs à des petits serveurs. Mais c’est aussi une chance pour l’IT d’être plus réactive aux besoins des métiers. Avant, lorsqu’un cadre demandait un rapport inédit, il fallait parfois des semaines pour créer un nouveau cube. Maintenant la réponse est à portée de main.


Kommentare

« Plus