Big Data

L’écosystème Hadoop se standardise

| Mise à jour

De nouveaux fournisseurs rejoignent l’organisation ODPi qui travaille à la standardisation de l’écosystème Big Data Hadoop.

(Quelle: Netzmedien-Archiv)
(Quelle: Netzmedien-Archiv)

La standardisation du framework Big Data Hadoop se poursuit. L’Open Data Platform Initiative (ODPi), l’organisation à but non lucratif visant à développer un ensemble de composants Hadoop standards, annonce la participation de nouveaux fournisseurs de solutions et d'applications, notamment IBM, Pivotal et SAS à son projet. Selon l’organisme, ce regroupement facilitera le choix et les décisions des entreprises dans leurs projets Hadoop. Parmi les fournisseurs déjà participants au programme d’ODPi figurent aussi Dell EMC, Hortonworks ou Splunk.

ODPi annonce également l’ajout des composants Apache Hive et Hadoop Compatible File System à la spécification ODPi Runtime Specification 2.0. Ces outils rejoignent ainsi les composants Yarn, HDFS et MapReduce. «En ajoutant Apache Hive et Hadoop Compatible File System à la spécification, le projet progresse vers l'interopérabilité de ces composants et rendra Hadoop plus attrayant aux organisations cherchant à faire avancer leurs projets Big Data», explique John L. Myers, Managing Research Director of Business Intelligence chez Enterprise Management Associates.

Webcode
9939

Kommentare

« Plus