Par Aïshael Donata Laury PICARD
Résumé
Face aux ravages causés par les maladies dans les vergers haïtiens, l’agriculture numérique offre aujourd’hui des solutions prometteuses. Dans le cadre du projet Deep Farm, un système intelligent de détection automatique des maladies du manguier a été développé, s’appuyant sur des réseaux de neurones convolutionnels pour la vision par ordinateur. Ce dispositif permet d’identifier rapidement sept maladies foliaires et quatre maladies fruitières, avec des taux de précision atteignant 97 % sur les feuilles et 75 % sur les fruits. Intégré dans un système multi-agent accessible via smartphone, cet outil d’aide à la décision vise à réduire les pertes de récolte en permettant aux agriculteurs d’intervenir précocement. Au-delà de la mangue, cette approche modulaire constitue une base solide pour la surveillance phytosanitaire d’autres cultures tropicales, ouvrant la voie à une agriculture haïtienne plus résiliente et productive face aux défis climatiques et économiques.
Introduction
L’agriculture mondiale fait face à des défis sans précédent : nourrir une population qui atteindra 9,7 milliards d’habitants d’ici 2050, tout en réduisant l’empreinte environnementale d’un secteur responsable d’environ un tiers des émissions mondiales de gaz à effet de serre [1]. En Haïti, ces enjeux globaux se doublent de contraintes locales aiguës : vulnérabilité climatique accrue, exposition récurrente aux ouragans et sécheresses, fracture numérique limitant l’accès aux technologies modernes, et pertes post-récolte considérables liées à l’absence de détection précoce des maladies végétales.
La mangue, culture stratégique pour la sécurité alimentaire et l’économie haïtienne, illustre parfaitement cette problématique. L’anthracnose, maladie fongique redoutable, peut détruire jusqu’à 60 % des récoltes en l’absence d’intervention rapide. Or, les petits producteurs disposent rarement d’un accès immédiat à l’expertise phytosanitaire nécessaire pour identifier et traiter ces pathologies à temps. Comment, dans ce contexte, mettre l’intelligence artificielle au service des agriculteurs pour transformer la détection des maladies du manguier en un processus rapide, fiable et accessible ?
C’est précisément l’objectif du travail réalisé dans le cadre du projet Deep Farm, consortium international réunissant douze institutions dont l’École Supérieure des Technologies Industrielles Avancées (ESTIA) et l’École Supérieure d’Infotronique d’Haïti (ESIH). Ce stage de quatre mois visait à développer des modèles de vision par ordinateur capables de distinguer automatiquement les cas sains des cas pathologiques sur des images de feuilles et de fruits de manguier, puis à intégrer ces modèles dans un système intelligent d’aide à la décision destiné aux agriculteurs, étudiants et techniciens agricoles.
Méthodologie : une approche modulaire et robuste
Le système développé repose sur une architecture modulaire composée de trois modèles de réseaux de neurones convolutifs (CNN) spécialisés, chacun entraîné pour une tâche précise :
1. Un modèle de filtrage intelligent permet de distinguer les images pertinentes (feuilles et fruits de manguier) des images hors contexte (autres plantes, animaux, objets). Deux approches ont été explorées : une première version utilisant un CNN simple avec seuil de confiance, puis une seconde version plus robuste basée sur ResNet-50 pré-entraîné sur ImageNet, intégrant explicitement une troisième classe « Non-mangue » pour améliorer la capacité de rejet des images inappropriées [2].
2. Un modèle foliaire identifie huit classes de pathologies ou d’états : sept maladies (anthracnose, chancre bactérien, charançon coupeur, brûlure des rameaux, cécidomyie, oïdium, fumagine) et une classe « feuille saine ». Après des tentatives infructueuses avec EfficientNetB0, une architecture CNN conçue sur mesure a été développée, empilant progressivement des blocs de convolution (16, 32, 64, puis 100 filtres) avec normalisation par batch et régularisation par dropout pour assurer robustesse et généralisation.
3. Un modèle fruitier traite cinq classes : quatre maladies (anthracnose, alternariose, pourriture noire, pourriture du pédoncule) et une classe « fruit sain ». Cette architecture reprend la logique du modèle foliaire tout en intégrant une couche convolutionnelle supplémentaire pour mieux capturer la variabilité visuelle des fruits (texture, brillance, décolorations).
Les jeux de données ont été constitués à partir de sources publiques (Kaggle), en l’absence de corpus haïtiens open source. Afin de pallier le manque de diversité et les déséquilibres entre classes, plusieurs techniques ont été mises en œuvre, notamment l’augmentation des données (rotations, symétries, zooms) [3], ainsi que l’utilisation, lors de l’entraînement, d’une fonction de perte de type Focal Loss [4] et d’une pondération des classes. Le suivi expérimental a été assuré via MLflow, permettant la traçabilité des expériences, des hyperparamètres et des métriques, et garantissant la reproductibilité des résultats.
L’ensemble du système a été exposé via une API REST développée avec FastAPI. Une conteneurisation avec Docker a été mise en place afin de faciliter le déploiement et l’intégration dans le système RAG (Retrieval-Augmented Generation) multi-agent du projet Deep Farm. Une suite complète de tests unitaires et d’intégration a été développée avec Pytest, complétée par des validations fonctionnelles des prédictions des modèles, afin degarantir la robustesse du dispositif.
Des résultats prometteurs malgré les contraintes
Les performances obtenues sur les données de test se révèlent globalement satisfaisantes. Le modèle foliaire atteint une précision globale impressionnante de 97 %, avec une classification parfaite (100 %) pour certaines pathologies comme le charançon coupeur et la brûlure des rameaux. Les quelques confusions observées concernent principalement la cécidomyie parfois confondue avec le chancre bactérien, ainsi qu’une légère confusion entre l’oïdium et la fumagine — pathologies dont les symptômes visuels peuvent être similaires même pour un œil humain expert.
Le modèle fruitier affiche une précision globale de 75%. Le modèle de filtrage, quant à lui, présente des scores F1 équilibrés : 0,92 pour les fruits, 0,98 pour les feuilles, et 0,90 pour les images hors-domaine, démontrant une capacité de discrimination efficace et un mécanisme de rejet robuste pour les contenus non pertinents.
Ces performances ont été confirmées lors de tests expérimentaux sur de nouvelles images, notamment sur des variétés locales haïtiennes comme la mangue « Madame Francisque », absente des jeux d’entraînement. Le système a correctement identifié l’état de santé du fruit, témoignant d’une capacité de généralisation encourageante malgré l’absence de données locales dans le corpus initial.
Le temps de réponse observé en conditions locales reste inférieur à 10 secondes par image, un critère essentiel pour garantir l’utilisabilité pratique du système sur le terrain [5]. L’architecture modulaire développée, représentant plus de 1000 lignes de code Python réparties en une dizaine de modules, offre flexibilité et maintenabilité, permettant d’ajuster ou de remplacer chaque composant indépendamment.
Conclusion et perspectives
Ce travail démontre la faisabilité technique d’un système intelligent de détection automatique des maladies du manguier adapté aux contraintes d’un pays en développement. En combinant vision par ordinateur, apprentissage profond et architecture modulaire, le dispositif développé constitue un outil d’aide à la décision concret pour améliorer la productivité agricole et réduire les pertes de récolte en Haïti.
Plusieurs axes d’amélioration se dessinent pour l’avenir.
L’enrichissement du système par l’ajout de données locales collectées directement dans les vergers haïtiens permettrait d’affiner sa capacité à reconnaître les spécificités visuelles des maladies dans le contexte local, notamment en termes de conditions d’éclairage, de variétés cultivées et de stades phénologiques.
Par ailleurs, l’optimisation des modèles existants, en vue d’un déploiement embarqué encore plus efficace sur des dispositifs à ressources limitées, constitue un levier important pour améliorer l’utilisabilité du système sur le terrain. D’autres pistes, telles que l’exploration des Vision Transformers (ViT), pourraient également être envisagées à titre complémentaire [6].
Enfin, l’extension de cette approche modulaire à d’autres cultures tropicales, telles que la banane, les agrumes , la riziculture ou le cacao, s’inscrirait pleinement dans la continuité du projet Deep Farm.
Au-delà des aspects techniques, ce projet illustre la nécessité de démocratiser l’accès à l’expertise phytosanitaire dans les zones rurales, où les agriculteurs n’ont souvent ni les moyens ni le temps de consulter un spécialiste. En transformant un smartphone en outil de diagnostic instantané, l’intelligence artificielle peut contribuer à réduire la fracture numérique et à accompagner la transition vers une agriculture haïtienne plus résiliente, productive et durable [7].
Références bibliographiques
[1] World Bank Group. (2024). Climate-Smart Agriculture: Building Resilience to Climate Change. Washington, DC: World Bank Publications.
[2] Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet Classification with Deep Convolutional Neural Networks. Advances in Neural Information Processing Systems (NeurIPS), 25, 1097-1105.
[3] Zhao, X., Wang, L., Zhang, Y., Han, X., Deveci, M., & Parmar, M. (2024). A review of convolutional neural networks in computer vision. Artificial Intelligence Review, 57, article 99.
[4] Lin, T.-Y., Goyal, P., Girshick, R., He, K., & Dollár, P. (2017). Focal Loss for Dense Object Detection. Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2980-2988.
[5] Sanga, S. A., Machuve, D., & Jomanga, K. (2020). Mobile-Based Deep Learning Models for Banana Diseases Detection. Engineering, Technology & Applied Science Research, 10(3), 5674-5677.
[6] Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., … & Houlsby, N. (2021). An Image is Worth 16×16 Words: Transformers for Image Recognition at Scale. International Conference on Learning Representations (ICLR).
[7] Huyen, C. (2022). Designing Machine Learning Systems. Sebastopol, CA: O’Reilly Media.
Aïshael Donata Laury PICARD
École Supérieure d’Infotronique d’Haïti
ESIH
aisha.picard@esih.edu
Picard (2025). Quand l’intelligence artificielle vient au secours des manguiers haïtiens



























