InfOsaurus

Aller au contenu | Aller au menu | Aller à la recherche

lundi 1 juillet 2013

TDD : un nécessaire retour aux sources ?

En parcourant les vidéos récemment sorties de la Norwegian Developers Conference 2013, j'ai été interpellé par une présentation de Ian Cooper portant ce titre curieux : "TDD, where did it all go wrong ?". Si l'intitulé est accrocheur, le contenu s'est révélé tout aussi intéressant.

Real (TDD) men don't fake


Ian affirme qu'il s'est produit un moment dans la pratique de Test Driven Development où la notion de test unitaire a perdu son sens initial. Selon lui, Kent Beck a toujours employé ce terme pour désigner un test isolé des autres tests et non pas un test où le module de code testé est pris isolément des autres modules.

(c) christgr http://www.sxc.hu/profile/christgr

En d'autres termes, on doit faire en sorte que l'exécution d'un test n'ait pas d'effet de bord sur les autres tests et que leur ordre d'exécution n'ait pas d'importance, mais il n'est généralement pas nécessaire de focaliser notre test sur un objet en le coupant de son environnement (c'est à dire en mockant ses dépendances). Bien au contraire, ce procédé nous contraindrait à entretenir une pléthore de test doubles tous plus fragiles les uns que les autres. Dès qu'on change quelque chose dans l'implémentation d'une classe, une dizaine de mocks très liés à cette implémentation risque de ne plus fonctionner.

Voici en résumé l'approche qu'il conseille d'adopter avec les tests :

  • On ne doit pas tester des détails d'implémentation mais des comportements. Ce n'est pas la volonté d'ajouter une nouvelle méthode ou une nouvelle classe à notre système qui doit déclencher l'écriture préalable d'un test, mais l'apparition d'un nouveau besoin, d'une nouvelle fonctionnalité.
  • Il est difficile pour notre cerveau de penser à la fois à résoudre un problème et à le résoudre avec une solution robuste. Les deux premières étapes du cycle de TDD (Red/Green) devraient être consacrées à trouver une implémentation qui fonctionne, même effrontément stupide et mal bâtie, et ce n'est pas avant l'étape de refactoring qu'on devrait songer à améliorer la qualité de cette implémentation, à appliquer des design patterns, à séparer les responsabilités.
  • On a tout de même le droit, parfois, de s'aider de tests unitaires très proches des détails d'implémentation pour chercher la juste conception (Cooper appelle cela "rétrograder"). Mais ces tests sont fragiles et il est sain de les supprimer une fois implémenté le code qui les fait passer.
  • La majorité des tests unitaires devrait se focaliser sur les use cases qui se situent, dans une hexagonal architecture, à la lisière du noyau applicatif.



Mocking on Heaven's Door


La critique portée par Ian Cooper sonne comme une charge contre l'abus de l'approche opposée, connue sous le nom de mockiste.

Par exemple, à l'extrême inverse de ce que propose la présentation de la NDC, Joe Rainsberger professe, pour tester un graphe d'objets, de vérifier la basic correctness de chacun d'entre eux en empêchant tout effet de bord extérieur grâce à une barricade d'interfaces toutes mockées.

(c) mterraza http://www.sxc.hu/profile/mterraza

Pour Joe, les bugs d'un système peuvent être détectés et éradiqués d'une manière très simple - tester au niveau micro la robustesse de chaque objet en vérifiant non seulement s'il communique de façon valide avec ses collaborateurs, mais aussi s'il satisfait son contrat lorsque ce sont ses voisins qui le sollicitent. Pour cela, il faut des tests vraiment atomiques collant au plus près à la conversation entre l'objet et ses pairs, et non pas des tests d'intégration qui ont tendance à être lents, fragiles, très complexes si on veut être exhaustif, bref, une arnaque.

Le courant mockiste est d'autre part historiquement représenté par Steve Freeman et Nat Pryce, tenants de la London School of TDD et connus pour leurs travaux sur le framework d'isolation JMock ou encore l'excellent Growing Object-Oriented Software, Guided By Tests. L'usage des mocks préconisé dans le livre est beaucoup plus large et fondamental que ce que recommande Cooper, puisqu'ils vont structurer une partie de l'approche outside-in où l'on avance en implémentant au fur et à mesure les interfaces mockées dans les tests précédents. Cependant, le livre invoque par endroits le même slogan "Unit test Behaviours, Not Methods" que Cooper utilise dans sa présentation, ce qui semble indiquer un brouillage des frontières sur certains points.

Where did it go wrong again ?


Qui a raison ? Est-ce encore une querelle de chapelle stérile, la bonne réponse se situant entre les deux ? Si l'intervention de Ian Cooper abonde en points valides et plein de bon sens (sur l'utilisation prématurée de design patterns, la fragilité de certaines suites de tests à forte teneur en mocks...), elle soulève aussi beaucoup de questions.

  • Quelle peut être l'étendue d'un refactoring sur lequel on ne pourra pas ajouter de tests ? Est-ce qu'on peut faire émerger tout un nouveau module voire une nouvelle couche applicative sans la tester ? Est-ce que cela signifie qu'avant de commencer à écrire les tests unitaires, notre architecture doit être connue, stable et fixée pour empêcher le refactoring de la remettre en cause ?
  • Peut-on renoncer à l'efficacité d'un test unitaire à maille très fine qui va pointer directement vers l'objet défectueux lorsqu'un bug se produit, et nous épargner une séance de debug ? Est-il possible de se contenter d'un échec de test haut niveau accompagné d'une trace applicative parfois cryptique ?
  • L'intervenant reste finalement très vague et général à propos de "don't test implementation details". Qu'est-ce qui est considéré comme un détail d'implémentation ? Une classe auxiliaire ajoutée pour séparer les responsabilités ? Un objet représentant une composante d'une règle métier dans notre couche Domaine ? Tout ce qui est "en-dessous" des objets de plus haut niveau dans un module donné ? Où se situe la limite ?
  • Les problèmes de tests épousant de trop près les contours du code de production sont-ils dûs à la nature même de l'approche mockiste, ou à des défauts liés à l'utilisation parfois maladroite et/ou la rigidité de ces doublures dans certains cas, à savoir : mocks stricts obligeant à les spécifier intégralement, tests remplis de détails non pertinents pour la vérification à effectuer ? Ceci n'est-il pas réparé avec les évolutions apparues récemment (automocking containers, nouveaux frameworks d'isolation plus souples...) ?
  • Et c'est une question annexe, mais comment Cooper peut-il être sûr de bien résumer ce que pense Kent Beck ? Certains passages de Test-Driven Development By Example paraissent conforter sa thèse mais d'autres propos sont plus nuancés :

"TDD is not a unit testing philosophy. I write tests at whatever scale I need them to be to help me make my next step progress. [...] 40% of the tests of JUnit work through the public API. 60% of them are working on lower-level objects. [...] Part of the skill of TDD is learning to move between scales." (vers 22:00)

(c) klsa12 http://www.sxc.hu/profile/klsa12
Un autre développeur, Jason Gorman, semble choisir une approche pragmatique similaire sur laquelle on pourrait conclure :

Our goal here is reliable code and good internal design, which means that both schools of TDD are at times necessary - the Classic school when we're focused on algorithms and the London school when we're focused on interactions.

dimanche 30 septembre 2012

Visual Studio 2012

La version finale de Visual Studio 2012 étant sortie très récemment, j'ai pu le prendre en main et le tester pendant quelques heures. Je vous propose une petite visite guidée et commentée de cette nouvelle mouture de l'IDE.


Look & feel

Quand le sage lui montre la lune, le fou regarde les majuscules


C'est probablement le sujet qui a fait le plus jaser à la sortie de la RC de Visual Studio 2012 il y a quelques mois. Beaucoup se sont d'abord indignés contre les menus tout en lettres capitales dans la barre du haut. Franchement, je trouve la controverse un peu surfaite - les menus sont un tout petit détail de l'IDE, personnellement je vais assez peu dedans et le passage en majuscules ne m'a pas du tout gêné une fois la surprise initiale passée.

Penchons-nous plutôt sur la charte graphique et l'aspect général de cette nouvelle version.

Je trouve la page de démarrage simple, claire et lisible. C'est grosso modo la même que VS 2010 avec des informations mieux organisées et plus de matière sur les nouveautés de l'IDE. L'onglet Vidéos contient notamment des tutoriels instructifs sur ces dernières.


Page de démarrage

Dans tout l'IDE, Microsoft a fait le choix d'une interface graphique de type "ligne claire" à fort contraste avec très peu de couleurs et des zones carrées à la Metro Style. Les bords et les espaces non remplis, autrefois de couleur foncée, sont maintenant sensiblement de la même couleur que toutes les autres zones (éditeur de texte, explorateurs...) c'est à dire blancs ou gris très clair dans la charte par défaut. J'avoue que j'ai du mal avec ce style très lumineux (high key dirait-on en photographie) qui m'éblouit un peu. Les petits icônes, généralement noirs ou très peu colorés, sont aussi souvent peu reconnaissables et mal choisis.


Thème clair

J'ai donc essayé le thème sombre également proposé de base et... c'est un peu l'excès inverse, je suis vite revenu à l'autre.


Thèeme sombre

Du côté des performances, j'ai constaté une amélioration nette par rapport à VS 2010, que ça soit au lancement ou en termes de réactivité globale de l'IDE. Je n'ai pas non plus fait l'expérience de crashes intempestifs comme avec son prédécesseur à sa sortie. Tout paraît plus fluide - grâce à l'interface allégée ? Cela reste néanmoins à vérifier dans un contexte d'utilisation intensive, avec de nombreux fichiers ouverts, des designers UI, des tests unitaires et des recherches qui tournent, etc.

Au final, en bon adepte du dépouillement, je salue l'effort des concepteurs de VS 2012 pour simplifier l'habillage de l'outil et se concentrer sur l'essentiel ("La perfection, ce n'est pas quand il n'y a plus rien à ajouter mais plus rien à enlever", disait quelqu'un). Il va juste falloir trouver un thème plus confortable pour les yeux sensibles.


Navigation et éditeur de texte

Le retour de la vengeance des pin's


Autant le dire tout de suite, comparé à VS 2010, les innovations ne sont pas énormes en matière de navigation et d'édition du code dans ce cru 2012. On y trouve :

  • Une fonction "preview" très pratique. Il suffit de simple-cliquer sur un fichier dans l'explorateur de solutions pour afficher celui-ci comme si on l'avait ouvert. Simplement, son affichage est temporaire, un fichier en preview chasse l'autre. L'onglet du fichier preview s'affiche à droite, pour le distinguer des fichiers déjà ouverts. C'est une excellente fonction que je me suis retrouvé à utiliser énormément.


Fonction Preview

  • L'épinglage de fichiers, plus anecdotique. Les fichiers épinglés restent de façon permanente à gauche de la rangée d'onglets et ne sont jamais masqués même lorsqu'on a énormément de fichiers ouverts en même temps.


Pin's !

  • Un icône "Tout réduire" est maintenant présent par défaut dans l'explorateur de solution pour replier complètement l'arbre de la solution. Ce n'est pas trop tôt, cette fonctionnalité quasi-obligatoire à mon avis devant auparavant être ajoutée via un add-in ou une macro.


  • Surlignage de la ligne actuelle : elle peut paraître mineure, mais cette fonction apporte un confort non négligeable en nous indiquant instantanément où le code va s'insérer si on continue à taper au clavier. En effet, lorsqu'on part se balader de part et d'autre dans le fichier on perd souvent ce repère et le curseur n'est pas toujours clairement distinguable. Dommage que la ligne surlignée soit assez peu visible en thème clair, et plutôt trop visible en thème foncé.


Il y a aussi la fameuse zone de Lancement rapide qui se présente comme un champ de recherche "environnemental" pour retrouver un menu, une action, un fichier récemment ouvert...


Lancement rapide

L'idée est bonne sur le papier mais 95% de mes actions dans l'IDE étant des tâches familières déclenchées par des raccourcis clavier, j'en ai eu très peu l'utilité. Pour chercher dans des fichiers, je préfère utiliser l'excellent Ctrl-virgule apparu dans VS 2010. L'avenir nous dira si cela change.

En revanche, les manques de fonctions de productivité déjà signalés dans la version 2010 (mais pourtant présents depuis longtemps dans des outils tiers comme Resharper) sont toujours là :

- Toujours pas de "add reference and use"
- Toujours pas de fermeture automatique d'accolades
- Pas de suggestion de noms de variable
- Pas de goto base/inheritor depuis l'éditeur de texte
- etc.

Cette absence d'évolution est particulièrement criante dans le domaine du refactoring où il faut vraiment chercher pour trouver une nouveauté, à part peut-être une entrée de menu pour chercher de la duplication de code sur le code actuellement sélectionné (baptisé de manière amusante rechercher les clones en français).
Pendant ce temps, JetBrains nous ajoute des refactos à la pelle, dont le fameux Extract Class -Resharper reste à des années-lumières de ce que l'environnement de Microsoft sait faire par défaut.


Tests unitaires

Un petit pas pour le Shim, un grand pas pour l'humanité


Selon l'aveu même de représentants de Microsoft, dans un exercice d'auto-critique assez rare pour être souligné, l'équipe de Visual Studio s'est rendu compte que l'environnement de tests de 2010 était orienté testeurs et très peu pratique pour les développeurs.
En effet, le même type de projet Visual Studio servait pour les tests qualité et les tests unitaires des développeurs. Le test runner de VS 2010 était tout sauf confortable car lent, avec une interface verbeuse et peu visuelle obligeant à raisonner selon une notion de "liste de tests" peu familière. Tout cela a été corrigé dans VS 2012 où on a maintenant :

Un test runner digne de ce nom.

Il s'inspire bien sûr fortement des runners déjà existants, que ça soit celui de TestDriven.net, celui de Resharper ou d'autres. On y retrouve l'habituelle barre rouge ou verte ainsi que des pastilles des mêmes couleurs pour chaque test. A noter qu'on peut enfin écrire de nouveau tests et relancer le runner directement, il les prendra en compte sans besoin de passer par une fastidieuse opération d'ajout de tests à la liste. VS 2012 va même plus loin avec quelques fonctionnalités supplémentaires à saluer :

  • Une option permettant d'exécuter automatiquement les tests après chaque build. On est "presque" dans le continuous testing.
  • Dans ce mode, les tests les plus susceptibles d'échouer (ceux qui étaient déjà rouges, etc.) sont réexécutés en premier et les tests qui étaient verts ne sont pas réexécutés si d'autres échouent. On est "presque" dans l'intelligent test running à la JUnit Max.
  • On peut analyser la couverture de code d'un ou plusieurs tests.
  • Des raccourcis clavier sont présents de base pour exécuter un ou tous les tests (d'ailleurs on ne peut pas lancer des tests en faisant un clic droit depuis l'explorateur de solutions, il faut forcément utiliser un raccourci ou le test runner, radical mais étrange pour du Visual Studio...)


Test Runner

Plusieurs types de projet de test au lieu d'un seul.

Les tests d'intégration "pour les testeurs" ont été séparés des tests unitaires automatisés "pour les développeurs". Le Projet de test unitaire est à privilégier lorsqu'on veut faire du TU avec MSTest. Mais la bonne nouvelle, c'est qu'il n'y a même pas besoin d'utiliser ce type de projet pour tirer parti du test runner de Visual Studio, une bonne vieille bibliothèque de classes suffit pour peu qu'on ajoute les références adéquates.

Une plateforme unifiée pour tous les frameworks de test :

la VS Unit Test Platform. Elle fournit une API pour que des adaptateurs pour les différents frameworks de test puissent être développés (ceux de XUnit et NUnit sont déjà disponibles). Cela veut dire que virtuellement n'importe quel framework de test peut maintenant fonctionner avec le test runner de base de Visual Studio, alors qu'auparavant on devait installer soit des runners spécifiques aux frameworks, soit des runners génériques tiers (Gallio, Resharper...)


Un autre gros morceau de l'environnement de tests de VS 2012 est le framework Microsoft Fakes. Cet ambitieux composant inspiré du travail de MS Research sur Pex & Moles n'est ni plus ni moins qu'un framework d'isolation intégré à Visual Studio. Il permet de générer deux types de doublures de test : les Stubs et les Shims. Les premiers sont l'équivalent des Mocks des frameworks déjà existants et peuvent seulement remplacer des interfaces ou des classes abstraites, et les seconds sont plus lents mais peuvent mimer des classes concrètes (MS Fakes marche ici sur les plates-bandes d'outils payants comme TypeMock Isolator). Les Stubs sont recommandés pour mocker des classes de son propre projet alors que les Shims sont utiles comme doublures de classes d'assemblies tiers. On peut ainsi modifier des classes comme DateTime pour simuler une date courante différente, etc.
Au passage, on peut se demander où les concepteurs du framework sont allés chercher le terme Shim ("cale"), signe que le champ lexical de la doublure de test commence à sérieusement s'épuiser. Ceux qui avaient déjà du mal avec les fakes, stubs, mocks, dummies, etc., et on peut les comprendre, seront probablement désormais totalement perdus avec les nouvelles dénominations à la Microsoft....


Techniquement, la mise en oeuvre de ces doublures est assez inédite bien qu'un peu contraignante. Pour pouvoir utiliser MS Fakes, il faut sélectionner une référence à un assembly dans le projet de test et "Ajouter un assembly Fakes" :


Ajout d'assembly Fake

Une nouvelle DLL va alors se rajouter à nos références ; à l'intérieur, tous les Stubs et Shims possibles pour les types de l'assembly de base auront été générés et sont prêts à être utilisés dans nos tests. Malgré le surcoût initial d'ajouter l'assembly fake, cette approche est intéressante puisqu'il y a des chances que ces classes déjà présentes à la compilation soient plus performantes que des proxies générés au runtime, comme dans les frameworks d'isolation actuels.
Le setup des fakes se fait avec une syntaxe classique utilisant des lambdas. Pas de dépaysement de ce côté-là, en revanche un gros point noir : le framework ne semble pas proposer les méthodes d'assertion avancées de ses concurrents -vérifications sur le nombre d'appels d'une méthode d'un Stub, vérification simple des paramètres passés à une méthode, syntaxe fluent, etc.


Utilisation d'un Stub


Application Lifecycle Management

Du pain et de l'Agile


Je n'ai pas pu tester la partie ALM de Visual Studio 2012 par manque de serveur Team Foundation, mais le remaniement a l'air assez considérable et Scrum semble plus que jamais la méthodologie par défaut promue par Microsoft. On sent que l'équipe TFS a mis le paquet pour que Visual Studio, dans ses versions supérieures, devienne un centre complet de gestion du cycle de vie d'un projet.

Parmi les nouveautés que j'ai pu voir,

  • Une nouvelle vue Backlog plus claire (et pas juste un résultat de query TFS)
  • Un Task Board électronique présent par défaut, avec drag & drop et autres joyeusetés.
  • Un écran de planification de sprint
  • Un écran "My Work" dans Team Explorer avec les tâches de l'utilisateur
  • Un cadre pour les revues de code
  • Un système de gestion de feedback utilisateur


Task Board

En parallèle de cela, on peut noter que Microsoft a fait des efforts pour rendre ses outils plus compatibles avec la philosophie agile -notamment après les mini-vagues d'indignation qui ont eu lieu lors de la sortie des premières version beta de VS 2012. On a toujours la possibilité d'assigner les tâches à chaque développeur (façon Waterfall/micro-management) dès le sprint planning, mais ce n'est plus obligatoire ni recommandé (dans l'exemple donné dans la documentation TFS, l'équipe ne le fait pas). De même, j'ai l'impression que la référence au diagramme de Gantt qui apparaissait dans l'écran de planification de sprint a été enlevée.


Conclusion

Ce soleil qui ne voulait pas devenir une Etoile noire


Il y aurait bien d'autres choses à dire sur Visual Studio 2012, qui est un univers à lui tout seul. Comme d'habitude, Microsoft court après son écosystème - une foule de fournisseurs d'add-in tiers innovants - dont il "officialise" dans VS 2012 quelques fonctionnalités, tout en prenant bien garde à le faire assez lentement pour ne jamais rattraper tout son retard sur ces satellites, de peur d'anéantir la galaxie.
Ainsi, l'accent est surtout mis dans cette nouvelle version sur l'expérience utilisateur, l'ergonomie et la gestion de projet, et moins sur des fonctionnalités de développement "de fond" (je ne parle pas ici de la plateforme .Net et de ses langages qui ont bien évolué avec la version 4.5 du framework).

Toutefois, l'intégration d'un test runner potable fait bien progresser l'IDE dans le domaine des tests unitaires. Elle rend Visual Studio "nu" enfin utilisable de façon à peu près correcte dans un contexte de développement agile piloté par les tests - il n'en demeure pas moins que si l'on veut une bonne productivité, un plugin tiers comme Resharper me parait encore indispensable.

mardi 21 août 2012

TDD et clean Architecture, partie 3

Retour au format article pour cette 3ème et dernière partie sur Clean Architecture. Je vous recommande au passage un très bon billet qu'Uncle Bob vient de publier et qui résume un peu tout ce qu'il a produit sur cette approche jusqu'à présent.

Pour rappel, les 3 principales couches dans ce type d'architecture sont les entités, les interacteurs et les bornes. La dernière fois, nous avons implémenté les interacteurs (use cases) pour notre application FigurineShop en utilisant TDD. Cette fois-ci nous allons nous intéresser aux bornes et à ce qu'il y a derrière.

Clean Architecture

Si vous vous rappelez bien, dans l'épisode précédent nous avions des tests de collaboration pour nos interacteurs qui ressemblaient à ceci :

[Test]
public void InteracteurPeutRetournerListeFigurinesContenueDansEntrepot()
{
    var listeFigurines = new List<Figurine>
                             {
                                 new Figurine("Tintin"),
                                 new Figurine("Milou"),
                                 new Figurine("Capitaine Haddock")
                             };
    doublureEntrepot.Setup(d => d.ToutesFigurines()).Returns(listeFigurines);
 
    Assert.AreEqual(listeFigurines, interacteur.Catalogue());
}

On avait laissé les dépendances des interacteurs (entrepôts...) à l'état purement abstrait et on les avait mockées pour pouvoir tester uniquement la collaboration des interacteurs avec ces dépendances et pas ces dépendances elles-mêmes.
Jusqu'alors nous avions donc uniquement des interfaces pour ces dépendances, ce sont les bornes. Comment compléter le puzzle et implémenter les parties noires sur le schéma ci-dessus ? Et bien il suffit juste de prendre chacune de ces interfaces qui existaient pour l'instant seulement à l'état de mock et de créer son ou ses implémentations concrètes.


Mais attention, nous sommes en TDD, il faut donc commencer par un test ! Lequel ?

En l'occurrence, une chose devrait nous frapper. Nous avons précédemment écrit des tests de collaboration pour vérifier que les interacteurs communiquaient bien avec leurs dépendances en supposant que les dépendances se comportaient d'une certaine manière, et nous avons programmé nos doublures pour qu'elles agissent de cette manière. Mais nous n'avons pas encore écrit de test exigeant que les implémentations concrètes de ces dépendances se comportent réellement ainsi ! C'est ce que nous allons faire en écrivant le reflet, le symétrique des tests de collaborations mais dans l'autre sens. En d'autres termes : nous avons testé que la classe A appelle correctement une méthode de la borne abstraite B avec certains paramètres et sait gérer ses réponses. Maintenant, il faut tester que chaque implémentation de B

  • Est bien capable de répondre aux sollicitations de A avec ces paramètres,
  • Et qu'elle se comporte de telle sorte qu'elle renvoie bien ces fameuses réponses.

Tests de collaboration et de contrat

Au passage, certains auront reconnu la notion de tests de contrat définie par J. B. Rainsberger dans "Integration tests are a Scam".

Miroir (c) wreckedm 2006 http://www.sxc.hu/photo/668894

Cela parait complexe et théorique, mais en réalité c'est très facile. Pour l'instant la seule borne mockée dans les tests des interacteurs était IEntrepotFigurines, la source de données dans lequel l'interacteur allait piocher ses figurines. On avait 3 tests de collaboration :

  • Un qui testait si la méthode ToutesFigurines() de l'entrepôt était appellée par l'interacteur,
  • Un qui vérifiait que l'interacteur se comportait comme atendu quand ToutesFigurines() retournait une liste vide,
  • Et un autre qui vérifiait qu l'interacteur se comportait comme atendu quand ToutesFigurines() retournait une liste remplie.

Le premier test ne nécessite pas de "test symétrique" côté entrepôt : la méthode ToutesFigurines() n'a pas de paramètre donc on se doute que l'entrepôt va accepter les appels à cette méthode dès lors qu'il implémente le contrat (ça aurait nécessité plus de vérifications si la méthode avait eu des paramètres, et notamment des paramètres qu'on peut mettre à null). Il reste deux tests symétriques à créer :

  • Un qui teste si l'entrepôt est capable de retourner une liste vide dans certaines circonstances (symétrique du 2è test),
  • Un qui teste si l'entrepôt peut retourner une liste pleine dans d'autres circonstances (symétrique du 3è test).

Pour plus de facilité, on va ici utiliser un entrepôt qui conserve les figurines en mémoire. Dans la vraie vie, on utiliserait évidemment un entrepôt qui les conserve dans un stockage persistant (base de données)...

[TestFixture]
public class EntrepotFigurinesMémoireTest
{
    [Test]
    public void RetourneListeVideQuandPasDeFigurinesDansLEntrepot()
    {
        IEntrepotFigurines entrepotFigurines = new EntrepotMémoireFigurines();
 
        Assert.That(entrepotFigurines.ToutesFigurines(), Is.Empty);
    }
 
    [Test]
    public void RetourneListeDeFigurinesContenuesDansLEntrepot()
    {
        var tintin = new Figurine("Tintin");
        var milou = new Figurine("Milou");
        var haddock = new Figurine("Haddock");
        var listeFigurines = new List<Figurine> { tintin, milou, haddock };
        IEntrepotFigurines entrepotFigurines = new EntrepotMémoireFigurines(listeFigurines);
 
        Assert.That(entrepotFigurines.ToutesFigurines(), Is.EqualTo(listeFigurines));
    }
}

Par bonheur, ces deux tests de contrat avec l'extérieur suffisent à définir ce que doit faire l'entrepôt tout entier. L'implémentation suivante fait passer les tests :

public class EntrepotMémoireFigurines : IEntrepotFigurines
{
    protected IList<Figurine> figurines = new List<Figurine>();
 
    public EntrepotMémoireFigurines(IList<Figurine> figurines)
    {
        this.figurines = figurines;
    }
 
    public IList<Figurine> ToutesFigurines()
    {
        return figurines;
    }
}

L'autre partie des bornes se trouve côté mécanisme d'acheminement, c'est à dire interface utilisateur.
Nous allons créer un Présenteur par action utilisateur (consulter le catalogue, consulter le panier et ajouter une figurine au panier) qui va appeler l'interacteur approprié et retourner le résultat. Les présenteurs manipulent en temps normal des structures de données adaptées au mécanisme d'acheminement mais par souci de simplicité nous utiliserons directement les entités métier (ce qui fait que nos présenteurs peuvent apparaître comme de simple passe-plats, ce qu'ils sont).

Voici les tests des présenteurs :

[TestFixture]
public class PresenteurCatalogueTest
{
    [Test]
    public void PresenteurCommuniqueAvecInteracteurCatalogue()
    {
        var interacteur = new Mock<IInteracteurCatalogue>();
        var presenteur = new PresenteurCatalogue(interacteur.Object);
 
        presenteur.Catalogue();
 
        interacteur.Verify(i => i.Catalogue(), Times.Once());
    }
 
    [Test]
    public void PresenteurRetourneCatalogueQueLuiADonnéInteracteur()
    {
        var interacteur = new Mock<IInteracteurCatalogue>();
        var presenteur = new PresenteurCatalogue(interacteur.Object);
 
        var figurines = new List<Figurine> { new Figurine("Tintin"), new Figurine("Milou"), new Figurine("Haddock") };
        interacteur.Setup(i => i.Catalogue()).Returns(figurines);
 
        Assert.AreEqual(figurines, presenteur.Catalogue());
    }
}
 
[TestFixture]
public class PresenteurAjoutFigurineTest
{
    [Test]
    public void PresenteurAjoutFigurineAppelleInteracteur()
    {
        var interacteur = new Mock<IInteracteurAjoutFigurine>();
        var presenteur = new PresenteurAjoutFigurine(interacteur.Object);
 
        var figurine = new Figurine("Tintin");
        presenteur.AjouterFigurine(figurine);
 
        interacteur.Verify(i => i.AjouterFigurine(figurine), Times.Once());
    }
}
 
[TestFixture]
public class PresenteurPanierTest
{
    [Test]
    public void PresenteurAppelleInteracteurPanier()
    {
        var interacteur = new Mock<IInteracteurConsultationPanier>();
        var presenteur = new PresenteurPanier(interacteur.Object);
 
        presenteur.Update();
 
        interacteur.Verify(i => i.ConsulterPanier(), Times.Once());
    }
 
    [Test]
    public void PresenteurContientLesBonnesDonnées()
    {
        var interacteur = new Mock<IInteracteurConsultationPanier>();
        var lignesPanier = new Dictionary<Figurine, int>()
                               {
                                   {new Figurine("Tintin"), 1},
                                   {new Figurine("Milou"), 2}
                               };
        var total = 32f;
        var reponse = new ModeleReponsePanier(lignesPanier, total);
        interacteur.Setup(i => i.ConsulterPanier()).Returns(reponse);
        var presenteur = new PresenteurPanier(interacteur.Object);
 
        presenteur.Update();
 
        Assert.AreEqual(lignesPanier, presenteur.LignesPanier);
        Assert.AreEqual(total, presenteur.MontantPanier);
    }
}

Enfin, il faut une interface graphique pour afficher l'application. J'ai choisi une application console mais cela pourrait être du web ou du client lourd en réutilisant les mêmes présenteurs.

L'application console contient :

  • La méthode Main() qui sert de point de départ et de Composition Root pour assembler les différentes classes entre elles.
  • Des méthodes pour afficher le menu et les différents "écrans"

class Program
{
    static void Main(string[] args)
    {
        var panier = new PanierFigurines();
        var entrepotFigurines = new EntrepotMémoireFigurinesDémo();
        var presenteurCatalogue = new PresenteurCatalogue(new InteracteurCatalogueFigurines(entrepotFigurines));
        var presenteurAjoutFigurine = new PresenteurAjoutFigurine(new InteracteurAjoutFigurinePanier(panier));
        var presenteurPanier = new PresenteurPanier(new InteracteurConsultationPanier(panier));
 
        AfficheMenu();
        var input = string.Empty;
        while ((input = Console.ReadLine()) != "4")
        {
            switch (input)
            {
                case "1":
                    AfficheCatalogue(presenteurCatalogue);
                    break;
                case "2":
                    AffichePanier(presenteurPanier);
                    break;
                case "3":
                    SaisieFigurine(presenteurAjoutFigurine, presenteurCatalogue);
                    break;
                default:
                    Console.WriteLine("Mauvaise saisie");
                    break;
            }
            AfficheMenu();
        }
    }
 
    private static void SaisieFigurine(PresenteurAjoutFigurine presenteurAjoutFigurine, PresenteurCatalogue presenteurCatalogue)
    {
        Console.Write("Numéro de la figurine dans le catalogue ? :");
        var numero = int.Parse(Console.ReadLine());
        if (numero < 1 || numero > presenteurCatalogue.Catalogue().Count)
        {
            Console.WriteLine("Saisie invalide.");
            return;
        }
        var figurine = presenteurCatalogue.Catalogue()[numero - 1];
        presenteurAjoutFigurine.AjouterFigurine(figurine);
        Console.WriteLine("Figurine ajoutée.");
    }
 
    private static void AffichePanier(PresenteurPanier presenteurPanier)
    {
        Console.WriteLine();
        presenteurPanier.Update();
        if (presenteurPanier.LignesPanier != null)
            foreach (var lignePanier in presenteurPanier.LignesPanier)
                Console.WriteLine(lignePanier.Key.Nom + " .................... " + lignePanier.Value);
        Console.WriteLine("---------------------------------");
        Console.WriteLine("Total : " + presenteurPanier.MontantPanier + " Euros");
        Console.WriteLine();
    }
 
    private static void AfficheCatalogue(PresenteurCatalogue presenteurCatalogue)
    {
        Console.WriteLine();
        foreach (var figurine in presenteurCatalogue.Catalogue())
            Console.WriteLine(presenteurCatalogue.Catalogue().IndexOf(figurine) + 1 + "." + figurine.Nom);
        Console.WriteLine();
    }
 
    private static void AfficheMenu()
    {
        Console.WriteLine("=================================");
        Console.WriteLine("1. Consulter le catalogue");
        Console.WriteLine("2. Consulter le panier");
        Console.WriteLine("3. Ajouter une figurine au panier");
        Console.WriteLine("4. Sortir");
        Console.WriteLine("=================================");
        Console.WriteLine();
        Console.Write("Choix ? : ");
    }
}

Comme d'habitude, vous pouvez retrouver tout le code de l'application et les tests sur Github : http://github.com/infosaurus/FigurineShop

dimanche 18 mars 2012

TDD et Clean Architecture, partie 1

Après le kata, 2è vidéo sur TDD avec une petite appli d'exemple et un focus sur un type d'architecture particulier :





  • Vous pouvez retrouver la présentation d'Uncle Bob ici

lundi 17 mai 2010

Bientôt l'été ! Quelques recettes pour faire mincir... ses TU

Régime

 

  1:  [Test]
  2:  public void GetTousLivres_Retourne_Tous_Livres()
  3:  {
  4:      EntrepotLivres entrepotLivres = new EntrepotLivres();
  5:      Auteur evans = new Auteur("Evans", "Eric");
  6:      CategorieLivre categorie = new CategorieLivre("Développement");
  7:      Adresse adresse = new Adresse("55 rue des Pommiers");
  8:      Librairie librairie = FabriqueLibrairie.Creer("Librairie la Pomme d'Or", adresse);
  9:      IList<Librairie> librairies = new List<Librairie>() { librairie };
 10:      Livre domainDrivenDesign = FabriqueLivre.Creer("Domain Driven Design", evans,
 11:          categorie, librairies);
 12:      Livre autreLivre = FabriqueLivre.Creer("autre livre", evans, categorie, librairies);
 13:      entrepotLivres.Ajouter(domainDrivenDesign);
 14:      entrepotLivres.Ajouter(autreLivre);
 15:   
 16:      IList<Livre> livresRetournes = entrepotLivres.GetTousLivres();
 17:   
 18:      Assert.AreEqual(2, livresRetournes.Count);
 19:      Assert.Contains(domainDrivenDesign, livresRetournes);
 20:      Assert.Contains(autreLivre, livresRetournes);
 21:  }

 

Mais que fait donc ce test unitaire ?

C'est la question que je me suis posée récemment en relisant un test du même genre.

Le titre peut nous donner une indication, mais le corps de ce test est lui-même peu lisible. Et même sans rentrer dans le détail du code, il y a fort à parier que la maintenabilité et la performance ne seront pas au rendez-vous avec ce gros bloc d'initialisation (le Arrange de Arrange Act Assert) qui plombe le test.

Le problème derrière tout ça, c'est que pour tester un comportement basique d'un objet (ici un Repository de livres), on est obligé de le remplir en initialisant toute une grappe d'autres objets (des livres, des auteurs, catégories...) assez complexes à construire. DDD ne nous facilite pas vraiment la tâche puisque si l'on veut assurer les invariants et garantir l'état valide du domaine, le seul point d'accès pour créer un objet complexe est normalement la Fabrique. Celle-ci va initialiser l'objet dans un état valide et demander beaucoup de paramètres, dont potentiellement d'autres objets qui doivent être construits eux aussi et... vous l'avez compris, le test devient rapidement surchargé.

 

Respectons l'esprit de TDD

 

Dans son livre XUnit Test Patterns et sur le site xunitpatterns.com, Gerard Meszaros met un nom sur ce genre de code smell : Obscure Test. Il propose une approche de l'écriture de tests fidèle aux principes de TDD pour éviter cet écueil :

« Ecrire les tests d'une manière "outside-in" peut nous éviter de produire des test obscurs qu'il faudrait ensuite refactorer. Dans cette approche, on commence par tracer les contours d'un Test à 4 Phases en utilisant des appels à des Méthodes Utilitaires de Tests non existantes.
Une fois qu'on est satisfait des tests, on peut commencer à écrire les méthodes utilitaires dont on a besoin pour les exécuter. En écrivant les tests d'abord, on obtient une meilleure compréhension de ce que les méthodes utilitaires doivent nous apporter pour rendre l'écriture des tests aussi simple que possible. »

En d'autres termes, on va créer le test le plus simple et le plus lisible possible dès le départ en s'aidant de méthodes utilitaires très expressives. Adieu la grappe d'objets, sa complexité sera cachée dans nos méthodes :

 

  1:  [Test]
  2:  public void GetTousLivres_Retourne_Tous_Livres()
  3:  {
  4:      Livre domainDrivenDesign = CreerLivre("Domain Driven Design");
  5:      Livre autreLivre = CreerLivre("Autre livre");
  6:      EntrepotLivres entrepotLivres = CreerEntrepotAvecDeuxLivres(domainDrivenDesign,
  7:          autreLivre);
  8:   
  9:      List<Livre> livresRetournes = entrepotLivres.GetTousLivres();
 10:   
 11:      Assert.AreEqual(2, livresRetournes.Count);
 12:      Assert.Contains(domainDrivenDesign, livresRetournes);
 13:      Assert.Contains(autreLivre, livresRetournes);
 14:  }

 

Et voici l'implémentation des méthodes utilitaires :

 

   1:  protected Livre CreerLivre(string titre)
   2:  {
   3:      Auteur auteur= new Auteur("Nom", "Prénom");
   4:      CategorieLivre categorie = new CategorieLivre("Une catégorie");
   5:      Adresse adresse = new Adresse("Une adresse");
   6:      Librairie librairie = FabriqueLibrairie.Creer("Une librairie", adresse);
   7:      IList<Librairie> librairies = new List<Librairie>() { librairie };
   8:      Livre livre = FabriqueLivre.Creer(titre, auteur, categorie, librairies);
   9:      return livre;
  10:  }
  11:   
  12:  protected EntrepotLivres CreerEntrepotAvecDeuxLivres(Livre livre1, Livre livre2)
  13:  {
  14:      EntrepotLivres entrepot = new EntrepotLivres();
  15:      entrepot.Ajouter(livre1);
  16:      entrepot.Ajouter(livre2);
  17:      return entrepot;
  18:  }

 

Coupons les cordons

 

Notre test est déjà beaucoup plus lisible, mais une autre question se profile à l'horizon. Est-il vraiment unitaire ? Peut-on dire qu'il est atomique alors qu'il s'appuie intensivement sur le bon fonctionnement d'objets externes, à savoir des Fabriques ?

Meszaros préconise de s'affranchir des dépendances aux objets annexes en recourant à des valeurs par défaut, ou en utilisant des Dummy Objects, des objets creux qui ne contiennent rien ou juste l'information nécessaire au test. Concrètement, on extrait une interface du vrai objet en question pour pouvoir créer des dummies sans contrainte de remplissage. Dans notre exemple c'est le Livre qui sera "dummifié" puisque l'Entrepot à tester contient directement des Livres :

 

   1:  public interface ILivre
   2:  {
   3:      ...
   4:  }
   5:   
   6:  public class DummyLivre : ILivre
   7:  {
   8:      //On construit un objet minimal
   9:      public DummyLivre(string titre)
  10:      {
  11:          this.titre = titre;
  12:      }
  13:  }
  14:   
  15:  //Nouvelle méthode du helper
  16:  protected DummyLivre CreerLivre(string titre)
  17:  {
  18:      return new DummyLivre(titre);
  19:  }

 

Cette solution ne me satisfait pas pleinement parce qu'il faut créer un interface ILivre et la faire implémenter à Livre, ce qui n'est pas forcément élégant au regard de la nécessité d'expressivité des classes du domaine dans DDD. A la place, on peut recourir à un framework d'isolation qui va instancier un proxy de notre Livre pour l'utiliser dans les tests sans besoin de recourir à une interface. Un exemple avec Moq :

 

   1:  protected Livre CreerLivre(string titre)
   2:  {
   3:      var mockLivre = new Mock<Livre>();
   4:      mockLivre.Setup(livre => livre.Titre).Returns(titre);
   5:      return mockLivre.Object;
   6:  }

 

NB : cela nécessite une petite modification de la classe Livre. Il faut rendre la property Titre virtual afin que Moq puisse la surcharger.

 

Stratégies d'extraction

 

Tout cela est très bien, mais nous avons toujours des méthodes utilitaires à l'intérieur de notre classe de test, ce qui n'est pas l'idéal pour la lisibilité et la réutilisabilité. Une solution pourrait être de rendre ces méthodes statiques et de les externaliser dans un Helper à part (on parle aussi de pattern ObjectMother) :

 

  1:  public static class LivreTestHelper
  2:  {
  3:      public static Livre CreerLivre(string titre) { ... }
  4:      public static EntrepotLivres CreerEntrepotAvecDeuxLivres(Livre livre1,
  5:          Livre livre2) { ... }
  6:  }

 

Voici maintenant à quoi ressemble le test :

 

  1:  [Test]
  2:  public void GetTousLivres_Retourne_Tous_Livres()
  3:  {
  4:      Livre domainDrivenDesign = LivreTestHelper.CreerLivre("Domain Driven Design");
  5:      Livre autreLivre = LivreTestHelper.CreerLivre("Autre livre");
  6:      EntrepotLivres entrepotLivres = LivreTestHelper.CreerEntrepotAvecDeuxLivres(
  7:          domainDrivenDesign, autreLivre);
  8:   
  9:      IList<Livre> livresRetournes = entrepotLivres.GetTousLivres();
 10:   
 11:      Assert.AreEqual(2, livresRetournes.Count);
 12:      Assert.Contains(domainDrivenDesign, livresRetournes);
 13:      Assert.Contains(autreLivre, livresRetournes);
 14:  }

 

Imaginons maintenant qu'on ait d'autres tests à écrire sur l'EntrepotLivres. Chacun va avoir besoin de son contexte d'initialisation particulier (livres avec une certaine catégorie, un certain auteur, un nombre de livres fixé...) Chaque test va ajouter ses méthodes au TestHelper et il y a fort à parier qu'on va vite se retrouver avec un helper obèse et beaucoup de duplication de code, chaque test ayant besoin d'un environnement légèrement différent des autres mais avec des choses communes.

C'est là que nous pouvons appeler le pattern Test Data Builder à la rescousse. Il va nous permettre de rendre modulaire la construction de notre contexte de test, sans trop nuire à la lisibilité.

Voici à quoi pourrait ressembler un test avec des DataBuilder :

 

   1:  [Test]
   2:  public void GetLivresParNomAuteur_Retourne_Bons_Livres()
   3:  {
   4:      Livre domainDrivenDesign = new LivreBuilder()
   5:          .AvecTitre("Domain Driven Design")
   6:          .AvecAuteur("Eric",  "Evans")
   7:          .Creer();
   8:   
   9:      Livre autreLivre = new LivreBuilder()
  10:          .AvecTitre("Autre titre")
  11:          .AvecAuteur("Autre", "Auteur")
  12:          .Creer();
  13:   
  14:      EntrepotLivres entrepotLivres = new EntrepotLivresBuilder()
  15:          .AvecLivre(domainDrivenDesign)
  16:          .AvecLivre(autreLivre)
  17:          .Creer();
  18:   
  19:      List<Livre> livresRetournes = entrepotLivres.GetLivresParNomAuteur("Evans");
  20:   
  21:      Assert.AreEqual(1, livresRetournes.Count);
  22:      Assert.Contains(domainDrivenDesign, livresRetournes);
  23:      Assert.IsFalse(livresRetournes.Contains(autreLivre));
  24:  }

 

Je ne sais pas ce que vous en pensez, mais je trouve ça plutôt agréable à l'oeil. Sous le capot, cela donne ça :

 

   1:  public class LivreBuilder
   2:  {
   3:      Mock<Livre> mockLivre = new Mock<Livre>();
   4:   
   5:     public LivreBuilder AvecTitre(string titre)
   6:      {
   7:          mockLivre.Setup(livre => livre.Titre).Returns(titre);
   8:          return this;
   9:      }
  10:   
  11:      public LivreBuilder AvecAuteur(string prenomAuteur, string nomAuteur)
  12:      {
  13:          var mockAuteur = new Mock<Auteur>();
  14:          mockAuteur.Setup(au => au.Prenom).Returns(prenomAuteur);
  15:          mockAuteur.Setup(au => au.Nom).Returns(nomAuteur);
  16:          mockLivre.Setup(livre => livre.Auteur).Returns(mockAuteur.Object);
  17:          return this;
  18:      }
  19:   
  20:      public Livre Creer()
  21:      {
  22:          return mockLivre.Object;
  23:      }
  24:  }
  25:   
  26:  public class EntrepotLivresBuilder
  27:  {
  28:      EntrepotLivres entrepotLivres = new EntrepotLivres();
  29:   
  30:      public EntrepotLivresBuilder AvecLivre(Livre livre)
  31:      {
  32:          entrepotLivres.Ajouter(livre);
  33:          return this;
  34:      }
  35:   
  36:      public EntrepotLivres Creer()
  37:      {
  38:          return entrepotLivres;
  39:      }
  40:  }

 

Un mot sur SetUp

 

On pourrait aussi être tenté d'instancier une partie du contexte des tests dans la méthode de SetUp de la classe de test (attribut [SetUp] avec NUnit).

Ce n'est pas forcément l'idéal en termes de lisibilité, et en tout cas on ne devrait construire dans cette méthode que les données qui sont le plus petit dénominateur commun entre tous les tests. En général, je préfère réserver le SetUp (et le TearDown) pour des opérations de plomberie générale des tests qui ne touchent pas au données, comme le démarrage et le rollback d'une transaction.

Dans ce sens, je suis assez d'accord avec Roy Osherove, auteur de The Art Of Unit Testing, qui écrit (p. 191) :

« Ma préférence personnelle est que chaque test crée ses propres mocks et stubs en appelant des méthodes de helpers dans le test lui-même, de façon à ce que le lecteur du test sache exactement ce qui se passe, sans avoir besoin de sauter du test au setup pour comprendre le tableau d'ensemble. »

Recette

Une alternative originale

 

Le Danois Mark Seemann propose une approche légèrement différente, qui fait partie d'un cortège de design patterns et conventions qu'il a appelé ZeroFriction TDD. Bien que je ne sois pas totalement persuadé par tous les patterns présentés (certains sont très orientés programmation défensive), un d'entre eux mérite qu'on s'y attarde : Fixture Object.

Seemann part du constat qu'en utilisant des helpers de tests statiques, on a forcément un contexte de test stateless, ce qui nous prive de certaines commodités. L'idée est de constituer un objet Fixture contenant l'état actuel des données de test et aussi la référence au système à tester (SUT). Ainsi le corps du test garde sa lisibilité et sa maintenabilité :

 

   1:  [Test]
   2:  public void GetTousLivres_Retourne_Tous_Livres()
   3:  {
   4:      EntrepotLivresFixture fixture = new EntrepotLivresFixture();
   5:   
   6:      fixture.AjouterPlusieursLivres();
   7:   
   8:      // System Under Test
   9:      EntrepotLivres sut = fixture.Sut;
  10:      List<Livre> resultats = sut.GetTousLivres();
  11:   
  12:      Assert.AreEqual(fixture.Livres, resultats);
  13:  }

 

On remarque que deux conventions de Zero Friction TDD censées reposer l'oeil et le cerveau du lecteur du test sont utilisées : Naming SUT Test Variables, qui préconise de nommer toujours de la même manière la variable de l'objet testé, et Naming Direct Output Variables, qui conseille la même chose pour le résultat qui va être asserté.

Voici l'implémentation du Fixture Object :

 

   1:  internal class EntrepotLivresFixture
   2:  {
   3:      public EntrepotLivresFixture()
   4:      {
   5:          Sut = new EntrepotLivres();
   6:          this.Livres = new List<Livre>();
   7:      }
   8:   
   9:      internal EntrepotLivres Sut { get; private set; }
  10:      internal IList<Livre> Livres { get; private set; }
  11:      internal int Plusieurs { get { return 3; } }
  12:      internal Livre PremierLivre { get { return Livres[0]; } }
  13:      internal Livre DeuxiemeLivre { get { return Livres[1]; } }
  14:   
  15:      internal void AjouterPlusieursLivres()
  16:      {
  17:          for (int i = 0; i < Plusieurs; i++)
  18:          {
  19:              Livre livre = new Mock<Livre>().Object;
  20:              Livres.Add(livre);
  21:              Sut.Ajouter(livre);
  22:          }
  23:      }
  24:  }

 

 

Voilà, ceci n'est qu'un échantillon des différentes stratégies de factorisation de tests imaginables. Il y a probablement des milliers de solutions possibles.

Et vous, quelle est votre régime minceur préféré pour vos tests ?