Nov 17, 2016
La version 2.0.2 de Spark est sortie le 14 Novembre. Comme son numéro de version l’indique, il s’agit d’une maintenance release qui apporte principalement son lot de bug fixes. Cependant, elle inclut aussi l’intégration de Kafka 0.10 pour l’API alpha des Structured
Lire la suite...
Nov 08, 2016
Du 25 au 27 Octobre 2016 a eu lieu à Bruxelles, la conférence officielle européenne autour du framework Apache Spark : le Spark Summit Europe. Vous pourrez retrouver, dans cet article, un retour de cet évènement pour celles et ceux qui n’ont pas pu y prendre part. Les éléments à
Lire la suite...
Mar 14, 2016
Spark 1.6.1 est sorti mercredi dernier ! Il s’agit d’une Maintenance Release apportant son lot de “bug fixes”, notamment dans l’API expérimentale des DataSets. Il est fortement recommandé pour les utilisateurs de la 1.6.0 d’upgrader vers cette nouvelle version plus stable. Pour rappel,
Lire la suite...
Jan 05, 2016
Une nouvelle version de Spark vient de sortir hier. Elle apporte, notamment : l’API Dataset : proche de l’API RDD avec les avantages du moteur Spark SQL, des optimisations de performances pour les modules Core/SQL et Streaming, ainsi que de nouveaux algorithmes/modèles pour MLlib. l’API Dataset est
Lire la suite...
Oct 28, 2015
Le 1er Octobre, le dernier Meetup Hadoop s’est réuni dans un cadre sympathique (avec vue sur Notre-Dame pour le pot suivant les présentations) sur la péniche “La Nouvelle Seine”. Ce meetup était sponsorisé par Ippon Technologies. Un lien sera bientôt disponible pour vous permettre de visionner cette session. Pour
Lire la suite...
Jun 24, 2015
Apache Flume, un top-level project d’Apache, est disponible en version 1.6.0 depuis le 20 mai 2015. Tour d’horizon des nouvelles fonctionnalités. Petit rappel des faits Apache Flume est un service distribué et tolérant à la panne utilisable pour de la collecte et de l’agrégation de
Lire la suite...
Dec 30, 2014
Ce post découle d’une série de posts sur Apache Spark par Alexis Seigneurin et s’appuie sur celui de Florence Herrou sur Metrics de Dropwizard. Nous aborderons dans cet article comment procéder pour extraire des métriques métiers d’une application Java pour ensuite les traiter avec Spark. La théorie
Lire la suite...