API Days 2014 Paris – le compte rendu

La conférence API Days 2014 a cette année encore fait le plein de très bons speakers.

Des keynotes visionnaires et humanistes, des sujets couvrant tout le spectre des APIs, du business à la technique, avec en parallèle un speedhack et des workshops. De quoi satisfaire toutes les attentes.

Outre les keynotes, dont celle de Mike Amundsen, qui excelle toujours dans l’art de tisser des parallèles entre les enjeux autour des APIs et des faits historiques, je retiens principalement de ces deux jours :

“Discovering API and services in a containerized world” par Jérôme Petazzoni – Docker
Il y est présenté une approche, container centric forcément, pour s’abstraire des contextes d’exécution des applications. L’approche proposée est une véritable réponse au besoin de modularité et de ré-agencement des architectures pour s’adapter aux besoins. De l’environnement de développement jusqu’à un déploiement massif en production, le container et son application restent ainsi identiques. L’occasion de mettre en avant les facilités offertes par les Ambassadors dans Docker.

Beaucoup de sujets ont abordé l’aspect documentation et design des API, en revenant sur les différentes solutions (RAML, API Blueprint, IO Docs, Swagger, …), leurs caractéristiques et les initiatives en faveurs d’éditeurs, majoritairement web, pour produire ces artefacts. Voir les slides de la présentation d’Orlando Kalossakas – Mashape.

Un rappel de l’importance de sketcher avant même de chercher à réaliser le moindre prototype, présenté par Ronnie Mitra, de Computer Associate (“Disposable Design”) a été l’occasion de mettre en parallèle l’approche utilisée par les architectes (en batiment) afin de rapidement et à coût très réduit, arriver à matérialiser les principales caractéristiques d’un projet. Cette approche présente beaucoup d’avantages. Je pense qu’Alvin Berthelot saura reconnaître l’utilité de cette étape puisqu’il en fait les louanges lors de ses représentations “Let’s sketch together”.

Très bon talk aussi d’Ivo Jansh, présentant sa vision pragmatique de la modélisation d’une API : penser scénario pour définir les ressources exposées et rendre ainsi l’API “smart” et le client “dumb”. Il ne faut pas partir du modèle et l’exposer naïvement en pensant répondre ainsi aux besoins des utilisateurs. De quoi faire relativiser sur bon nombre d’approches qui vont dans ce sens et comprendre leurs limites. Les slides de sa présentation sont accessibles en ligne.

Développer un client pour une API est souvent délaissé. Cet aspect est pourtant important et la qualité d’un client conditionnera aussi le coût des modifications à apporter lorsque l’API s’enrichit de nouvelles fonctionnalités. Dans ce talk de Shelby Switzer (“The pursuit of APIness or Do yourself a favor, consume APIs better”), plusieurs aspects étaient évoqués : recourir à une couche de médiation si une API présente des entorses manifestes aux bonnes pratiques afin de corriger l’interface exposée, si possible et conserver ainsi un client plus pérenne. Les SDKs y étaient aussi présentés comme une fausse bonne idée, créant une adhérence forte (sans citer les contraintes techniques : dépendances, …) entre l’API et le client, ce qui va à l’encontre du principe même des API… L’investissement consenti dans le développement de ces SDKs et de leur documentation gagnerait à être réinjecté dans une modélisation optimale de l’API et une documentation riche et interactive.

Orange nous a crédité le second jour d’une présentation très intéressante sur l’usage des données, en particulier en provenance des objets connectés dont l’essor ne fait à peine que commencer, animée par Patrice Slupowski, VP Innovation. L’occasion aussi de présenter leur initiative autour de la donnée : la plate-forme Datavenue, permettant de croiser des données issues de sources diverses. Orange se positionne maintenant aussi comme un opérateur des données.

Twitter, représenté par Romain Huet, a présenté Fabric, leur plate forme modulaire permettant de réaliser des applications mobiles de qualité. Cette plate-forme propose des SDK permettant d’exploiter les différents services autour de la stabilité, la distribution, la monétisation et l’identification. Malheureusement, la plate-forme n’est pas ouverte, que cela soit les SDKs ou l’API elle-même. Même si cela n’a pas d’incidence sur la qualité et l’exhaustivité des services proposés, il en reste que l’initiative pourrait être poussée plus loin dans l’ouverture.

La sécurité était abordée, d’abord de façon très large en rappelant les conséquences immenses que peut engendrer l’exploitation de failles de sécurité, en citant pour exemple les déboires de Buffer il y a quelques mois (voir cet article sur ProgrammableWeb.com). Puis la focale a été mise sur OAuth2 et OpenId Connect, permettant de compléter le sujet (voir la vidéo de cette même présentation donnée par Travis Spencer)

Autre aspect intéressant, le “Machine Learning as a Service” ou les Prediction API. Plusieurs acteurs proposent des solutions permettant de constituer des modèles prédictifs sur la base de données ingérées, accessibles par des API Web afin de prédire des faits. Elles s’inscrivent dans la vague Big Data en apportant de la valeur à la donnée mais nécessitent un travail assez important pour préparer la donnée en amont, travail souvent négligé, voire oublié. Cette présentation, animée par Sam Bessalah, permettait, outre de présenter ces services faisant usage d’APIs pour être consommés, de présenter succinctement mais efficacement le Big Data et la chaîne de valeur associée, qui ne se limite pas à uniquement stocker de la donnée massivement…

En fin du second jour, la session des lightning talks m’a permis de présenter en quelques minutes une approche possible pour permettre aux API d’être résilientes dans un environnement cloud, en s’appuyant sur quelques projets open sourcés par Netflix. Les slides sont disponibles en ligne.

Cette session 2014 a été à nouveau l’occasion de prendre la mesure de l’importance des API Web lorsqu’il s’agit d’exposer des données et des services. L’écosystème monte progressivement en maturité et l’évangélisation commence à porter ses fruits quant à l’adoption des bonnes pratiques : respect des standards principalement et pertinence de l’adoption des relations hypermédias.

La prochaine occurrence française devrait donc avoir lieu dans un an. Gageons sur une participation en forte hausse.

Tweet about this on TwitterShare on FacebookGoogle+Share on LinkedIn
Blabla

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *


*