Phillipe Stoop, notre directeur Recherche et Innovation, est l’auteur d’un article paru dans l’European Scientist.

L’intérêt de l’«agriculture connectée» pour faciliter la vie des agriculteurs, et les aider à réduire l’impact environnemental de leurs pratiques, n’est plus à démontrer. Un autre de ses avantages commence à émerger : en produisant en grande quantité des données de qualité proche des standards de la recherche, elle contribue à rapprocher la recherche agronomique et zootechnique des besoins des agriculteurs, et pourrait mieux éclairer les politiques publiques agricoles.

L’agriculture numérique est un concept qui commence à se démocratiser, comme le montrait récemment l’importance de ce thème au Salon de l’Agriculture de Paris. Dans l’ambiance morose générée par le sentiment d’ « agri-bashing » ressenti par beaucoup d’agriculteurs, c’était l’un des rares sujets qui donnait une image positive et attractive des évolutions récentes de l’agriculture.

Les outils de l’agriculture numérique ont d’abord été conçus pour faciliter la vie des agriculteurs (guidage par GPS, capteurs de monitoring des troupeaux), et pour les aider à optimiser leurs pratiques culturales dans le sens environnemental (stations météo connectés, modèles de culture utilisés pour optimiser l’usage des intrants). Ils ont également permis de resserrer les liens avec le consommateur, qui, grâce au développement de la traçabilité et des réseaux sociaux, peut maintenant mettre un visage et le nom d’un producteur derrière les aliments qu’il achète.

De façon plus discrète, l’agriculture connectée commence aussi à avoir une nouvelle conséquence bénéfique, qui pourrait à l’avenir jouer un rôle encore plus positif pour le monde agricole : rapprocher les agriculteurs du monde de la recherche… et par là-même des décideurs politiques qui s’en inspirent.

Quand la science doit se faire directement à la ferme

Cette évolution est déjà une réalité dans certains domaines de la R&D en agriculture numérique. Prenons l’exemple des capteurs de monitoring des troupeaux : ils ont été développés dans un premier temps pour détecter des évènements inhabituels et clairement identifiés, comme la détection des chaleurs ou du vêlage. Ces premières applications se sont développées dans un cadre classique de recherche, descendant du labo vers le terrain : les algorithmes permettant de détecter ces évènements ont été mis au point lors de tests dans des fermes expérimentales d’instituts de recherche ou d’instituts techniques, puis validés dans un petit nombre d’exploitations agricoles, avant d’être lancés commercialement.

Ces premières applications étant désormais bien au point, les recherches s’orientent maintenant vers des analyses du comportement quotidien et du bien-être des animaux : par exemple mesurer les temps passés debout ou couché, ou les temps d’alimentation et de rumination. Sur ces sujets, il faut détecter des modifications plus subtiles de la « vie quotidienne » des animaux, par rapport à leur activité ordinaire. Il devient donc très difficile de mettre au point ce type d’algorithmes dans des fermes expérimentales, où les activités habituelles des animaux de production (passage à la traite, sortie au pré, etc) sont fréquemment perturbées par la réalisation d’expérimentations qui modifient leur comportement habituel, et génèrent des mouvements ou des contentions qui n’auraient pas lieu dans des exploitations commerciales. Ce type de travail doit donc être conduit directement sur le terrain, les expérimentations en condition contrôlée n’étant plus utilisées que comme vérifications ponctuelles, sur quelques situations minoritaires. Il y a ici inversion du rapport classique entre expérimentation scientifique et données de terrain.

Du labo au vignoble… et retour !

L’utilisation de modèles mécanistes de cultures dans des outils d’aide à la décision est un autre exemple de rapprochement entre la recherche et les préoccupations des agriculteurs. Ces modèles, issus de la recherche agronomique, sont de plus en plus utilisés pour la prévision du rendement, et la gestion des intrants qui en découlent (irrigation, fertilisation). Des modèles épidémiologiques du même type sont également utilisés pour prévoir l’apparition de maladies ou de ravageurs menaçant les cultures, et donc positionner de la façon la plus précise les traitements pesticides.

De par leur conception, issue de long travaux de recherche en écophysiologie, ces modèles sont suffisamment robustes et prédictifs pour se prêter à des simulations plausibles sur l’effet potentiel de changement de pratiques dans un but agro-écologique, ou d’adaptation au changement climatique. Ils présentent également l’intérêt de quantifier objectivement les conditions environnementales auxquelles sont exposées les cultures. L’évapotranspiration est un exemple classique d’indicateur simple permettant de mesurer la demande en eau des cultures, qui peut alors servir de référence pour vérifier si l’irrigation pratiquée par l’agriculteur a bien évité tout gaspillage d’eau. Toutefois, elle reste un indicateur relativement basique, qui n’est pertinent que dans les cas les plus simples : ceux où l’on cherche simplement à préserver le potentiel de rendement en évitant tout déficit hydrique à la culture. Pour certaines productions, les enjeux de l’irrigation sont plus complexes, car un léger déficit hydrique bien contrôlé améliore la qualité de la production : le cas le plus connu est celui de la vigne, où le mode de conduite idéal, défini par le cahier des charges des appellations viticoles, vise à créer un déficit en eau modéré pendant la maturation du raisin, plus ou moins prononcé selon le type de vin que l’on veut produire. Dans ce cas, le pilotage de l’irrigation nécessite des modèles beaucoup plus complexes qu’un simple calcul d’évapotranspiration, car ils font appel à la fois aux données climatiques, mais aussi aux caractéristiques du sol et au volume de végétation du vignoble. Dans un premier temps, il s’agit là encore d’une démarche de valorisation descendante de la recherche, du laboratoire vers le terrain. Mais l’utilisation de ces modèles dans les exploitations agricoles permet ensuite des retours d’informations précieux, qui vont rapprocher les travaux théoriques de la pratique des agriculteurs ou de leurs conseillers.

Le logiciel Vintel, développé par la société iTK en partenariat avec (entre autres) l’INRA et le CIRAD, offre un bon exemple de ces allers-retours entre labo et terrain. Destiné à optimiser l’irrigation de précision sur vigne, il repose sur un modèle issu de travaux de recherche, basés sur un indicateur classique de stress hydrique classique dans la recherche, le potentiel foliaire de base. Cet indicateur est le plus fiable pour mesurer l’état hydrique d’un plant de vigne, mais sa mesure est fastidieuse, ce qui limite son usage dans les vignobles : il doit être mesuré à l’aube, avec un instrument spécifique appelé chambre à pression. Certains consultants viticoles, en particulier en Californie, utilisent des chambres à pression pour conseiller les viticulteurs. Toutefois, ils pratiquent plutôt ces mesures à midi, pour des raisons de commodité, mais aussi pour mieux connaître l’état de déficit hydrique de la parcelle au moment de la journée où il est le plus fort[1]. Cette mesure est beaucoup moins pratiquée dans la recherche, et il était donc impossible à l’origine de développer un modèle mécaniste permettant de la simuler. Vintel est donc sorti dans un premier temps avec un modèle n’estimant que le potentiel foliaire de base. Quelques années d’utilisation de cette première version, chez des consultants adeptes du potentiel foliaire à midi, ont ensuite permis de développer un second modèle pour le potentiel foliaire à midi, en combinant des données météorologiques et des indicateurs issus du potentiel de base, cela sans repasser par la case laboratoire[2].

Cet exemple est très démonstratif de la nouvelle complémentarité entre la recherche et les outils numériques destinés aux agriculteurs : ce sont bien les données issues du terrain qui ont permis de développer un modèle du potentiel foliaire à midi, conforme aux habitudes des techniciens viticoles. Mais elles n’auraient pas suffi à elles seules pour développer un modèle statistique fiable : seule leur combinaison avec des indicateurs issus d’un modèle mécaniste issu de la recherche a permis de développer un modèle suffisamment robuste pour être confié aux viticulteurs et aux consultants.

« Medium data » vs Big Data

Il y a quelques années, l’explosion des technologies du « Big Data », et leur introduction dans le monde agricole, ont donné lieu à une vision un peu binaire opposant deux approches scientifiques :

  • D’une part la démarche classique de la recherche agronomique ou zootechnique, s’appuyant sur des expérimentations de haute qualité, mais relativement peu nombreuses, pour développer des modèles prédictifs utilisables en aide à la décision, et basés sur l’expertise humaine des chercheurs,
  • D’autre part les nouvelles approches « Big Data » basées sur les données, appliquant des techniques d’apprentissage automatique (machine learning, deep learning) sur les données massives issues des nouveaux capteurs déployés en agriculture (capteurs de rendement des moissonneuses-batteuses, données collectées par les robots de traite),

L’engouement pour le Big Data reposait sur l’hypothèse que le deep learning permettrait de développer des modèles prédictifs fiables, malgré le « bruit » contenu dans l’information des masses de données collectées, qui dépassent ce que l’expertise humaine est capable d’analyser. En fait, cet espoir s’est vite heurté à l’écueil majeur des techniques d’apprentissage automatique : leur opacité pour les utilisateurs… aussi bien les utilisateurs finaux (agriculteurs ou éleveurs), que les concepteurs de services ! Certes, l’apprentissage automatique permet maintenant de définir des règles de décision ou des modèles apparemment satisfaisants à partir de n’importe quel jeu de données suffisamment conséquent. Mais, faute de connaitre le « raisonnement » sous-jacent à ces modèles, même leurs concepteurs sont incapables de prévoir dans quelle mesure ces règles ou modèles sont exploitables dans des contextes nouveaux : une incertitude plutôt angoissante quand on souhaite développer de nouveaux services agricoles, au-delà de la région où ils ont été initialement validés, ou sur des contextes climatiques nouveaux.

En plus de sa sensibilité aux aléas climatiques imprévisibles, l’agriculture présente une autre particularité fâcheuse pour l’apprentissage automatique : les données réelles que l’on peut accumuler sur le terrain sont très loin de représenter l’ensemble des combinaisons possibles de techniques culturales. Les itinéraires techniques pratiqués par les agriculteurs sont influencés par leurs habitudes, leur expérience et l’expertise de leurs conseillers, et sont donc bornés de façon de façon totalement implicite par des raisonnements humains. La situation est donc complètement différente des domaines comme l’apprentissage automatique appliqué à des jeux comme les échecs ou le go : dans ce dernier cas, l’algorithme est capable, à partir des règles du jeu, de tester seul toutes les combinaisons possibles et imaginables, même celles auxquelles un expert humain ne penserait pas. En agriculture, l’intelligence artificielle est bridée par le fait que les données disponibles sont la conséquence de raisonnements humains, ce qui l’empêche de trouver des « solutions » originales pour inventer de nouvelles pratiques.

Le résultat de ces contraintes est que les approches purement basées sur les données ont du mal à faire une percée décisive en aide à la décision agricole. L’avenir est sans doute, comme nous l’avons vu sur l’exemple de Vintel, à la combinaison entre les approches basées sur les données, et des modèles mécanistes permettant d’intégrer l’expertise humaine dans l’Intelligence Artificielle. Cette nouvelle vision, l’IA hybride, a d’ailleurs été retenue comme un des thèmes majeurs de l’ANITI, le nouvel Institut de l’Intelligence Artificielle en cours de création à Toulouse… et l’agriculture a été identifiée comme un de ses domaines d’application prioritaires[3].

Cette étroite imbrication entre expertise scientifique et données issues des exploitations agricoles a un corolaire évident : la nécessité de combler le fossé entre le Big Data et les données de la recherche. C’est la mission de ce que l’on peut appeler le « Medium Data » : des données bien qualifiées, issues des exploitations agricoles, ou au moins de parcelles conduites dans des conditions proches de celles des agriculteurs. Jusqu’à présent, ce rôle de production de données intermédiaires était entièrement dévolu aux expérimentations des organismes de développement agricoles : instituts techniques, chambres d’agriculture, coopératives[4]. L’agriculture numérique va permettre l’émergence d’une nouvelle catégorie de « medium data » : des données d’une qualité proche des standards de la recherches, mais disséminées dans des centaines ou milliers d’exploitations agricoles.

Entre les données scientifiques de la recherche, de haute qualité mais peu nombreuses, et le « Big Data » des capteurs embarqués sur le matériel agricole, l’agriculture connectée permet l’émergence d’un « Medium Data » : des données de qualité proche de celles de la recherche, acquises dans les exploitations agricoles, et non des parcelles expérimentales peu représentatives. C’est ce continuum de données qui permettra d’alimenter l’intelligence artificielle hybride (combinaison d’apprentissage automatique et d’expertise humaine mécaniste), une des pistes les plus prometteuses de l’IA actuelle.

 

Des indicateurs pour éclairer les politiques publiques agricoles

Nous avons vu, sur l’exemple de l’irrigation, que les outils d’aide à la décision agricole se prêtent bien à la création d’indicateurs objectifs des besoins des cultures : la même démarche est parfaitement transposable en fertilisation, ainsi qu’en protection des cultures. Les modèles épidémiologiques, déjà utilisés pour conseiller des dates de traitement optimales contre les maladies et les ravageurs, pourraient également servir à quantifier à l’échelle de la parcelle la notion, pour l’instant vague et subjective, de « pression de maladie ». De tels indicateurs seraient précieux pour améliorer le suivi d’Ecophyto, le plan de réduction de l’usage des pesticides lancé en 2010 à la suite du Grenelle de l’Environnement. Le moins que l’on puisse dire est que, près de 10 ans après ses débuts, le plan est loin de l’objectif de réduction de 50% (« si possible ») qui lui avait été assigné : la consommation de pesticides ne montre aucune évolution significative en moyenne nationale. Fait encore plus troublant, même les fermes pilotes du dispositif, le réseau Dephy, sont très loin de l’objectif attendu. Devant ce que l’on peut difficilement qualifier autrement que comme un échec, l’Académie d’Agriculture de France a formulé récemment des recommandations pour améliorer le pilotage du Plan Ecophyto[5], dont la création de tels indicateurs de pression sanitaire sur les cultures. L’agriculture numérique pourrait également jouer un rôle majeur dans une autre des propositions de l’Académie : l’annualisation des enquêtes sur les pratiques culturales, les seules références qui permettent de calculer finement la consommation de pesticides des agriculteurs. En effet, l’indicateur actuel du plan Ecophyto, le NODU, ne se prête pas à une interprétation agronomique, qui permettrait de calculer la réduction potentielle du recours aux pesticides à l’échelle de l’exploitation. Un autre indicateur, l’IFT, permettrait ce calcul, mas il n’est actuellement calculé que tous les trois ans, en raison du coût des enquêtes actuellement nécessaires pour recueillir les données. Cela, alors que les logiciels de gestion parcellaire permettent de calculer automatiquement cet indicateur, chez les exploitants qui en sont équipés. Un réseau représentatif de fermes équipées de ces logiciels permettrait donc de calculer à moindre frais les IFT pratiquées tous les ans, et de les croiser avec les indicateurs de pression sanitaire évoqués précédemment. Il devrait ainsi possible de mieux interpréter le suivi du plan Ecophyto… et probablement de lui réassigner des objectifs plus réalistes, différenciés par culture et par région !

La science participative, qui fait appel aux connaissances de ses futurs utilisateurs et parties prenantes de la société civile, est une des tendances fortes de la recherche actuelle. L’INRA s’est d’ailleurs fortement impliqué dans ce domaine[6]. Toutefois, beaucoup de travaux de sciences participative restent très asymétriques : ce sont souvent les chercheurs qui sont les seuls acteurs de la synthèse réalisée à partir des connaissances informelles et peu organisées des parties prenantes mobilisées pour le projet. L’agriculture connectée offre l’opportunité unique aux agriculteurs de s’approprier les sujets de recherche qui les concernent, en produisant par eux-mêmes des données aussi intelligibles pour eux que pour les chercheurs qui vont les exploiter. Au-delà de ses effets sur le travail quotidien des agriculteurs, elle a donc un grand potentiel pour rapprocher la recherche de leurs besoins, et permettre aux politiques de mieux comprendre leurs pratiques. C’est à cette condition que l’agriculture pourra répondre aux nombreuses attentes de la société à son égard.