Stephan van Vuren

Série de connaissances UAS : ce que signifie pour les opérateurs de drones la première réglementation de l’EASA sur l’IA

Les réglementations de l’AESA sur l’IA et ce que cela signifie pour les pilotes de drones

L’EASA a franchi une étape majeure dans la définition de la manière dont l’intelligence artificielle peut être intégrée en toute sécurité dans l’aviation, y compris les systèmes sans pilote. Avec la publication de la NPA 2025-07(B), l’agence introduit son premier cadre réglementaire pour l’IA, offrant des orientations sur la manière de démontrer la sécurité et la fiabilité des composants d’IA dans les produits aéronautiques — y compris les drones.

Un virage vers une surveillance de l’IA fondée sur le risque et évolutive

Au lieu de créer une catégorie entièrement nouvelle pour les systèmes d’IA, l’EASA propose un cadre fondé sur la performance et le risque qui s’inscrit dans les voies réglementaires existantes. Cela comprend des spécifications détaillées, des moyens acceptables de conformité (AMC) et du matériel de guidage (GM) adaptés au degré de criticité d’un composant d’IA au sein de l’architecture d’un drone.

L’objectif est de favoriser l’innovation tout en maintenant la sécurité et la confiance du public. La proposition couvre un large éventail de cas d’usage de l’IA, depuis les modèles de perception pour la détection d’objets jusqu’à des niveaux d’autonomie plus élevés comme la navigation et le contrôle de vol dans les systèmes drone-in-a-box. À mesure que l’IA s’intègre davantage dans des opérations telles que les inspections, la sécurité et les interventions d’urgence, le besoin d’un cadre harmonisé devient essentiel.

Qu’est-ce qui rend l’IA « digne de confiance » ?

L’EASA définit sept dimensions de la fiabilité de l’IA :

  • Robustesse

  • Explicabilité

  • Transparence

  • Supervision humaine

  • Qualité des données

  • Fiabilité

  • Sécurité

Ces éléments évoluent en fonction du niveau de criticité du système d’IA. Un outil d’assistance à faible risque (par exemple, une IA pour le diagnostic pré-vol) sera soumis à des exigences plus légères qu’un contrôleur de mission autonome utilisé dans des opérations au-delà de la ligne de vue visuelle (BVLOS).

Les critères de fiabilité deviendront une partie intégrante de l’argumentaire de conformité pour la vérification de conception, la certification de type et les autorisations opérationnelles, en particulier lorsque l’IA joue un rôle critique pour la sécurité.

Pourquoi cela importe pour les exploitants de drones

Les fabricants de drones et les exploitants d’entreprise s’appuient déjà sur l’IA pour des tâches avancées - pensez au suivi d’objets en temps réel, à la maintenance prédictive ou à la planification autonome des vols. Les règles proposées par l’EASA montrent clairement que ces capacités ne peuvent plus être considérées comme des « boîtes noires ». Les régulateurs exigeront de la transparence sur la manière dont ces systèmes sont entraînés, testés et surveillés.

Si vous prévoyez de déployer des fonctionnalités pilotées par l’IA dans un contexte de sécurité ou de mission critique, vous aurez besoin de :

  • Une intention de conception et un comportement du modèle documentés

  • Des preuves de robustesse et d’explicabilité

  • Des mécanismes de reprise de contrôle par l’humain

  • La traçabilité des entrées, des sorties et des décisions

Comment AirHub peut vous accompagner

Chez AirHub, nous soutenons à la fois le déploiement technique et l’intégration réglementaire de l’IA dans les opérations de drones.

Avec notre logiciel, vous pouvez :

  • Intégrer des outils d’IA via API ou SDK dans la plateforme AirHub

  • Enregistrer les données d’inférence et les entrées des capteurs pendant les vols

  • Conserver une trace opérationnelle complète des décisions et des performances

  • Centraliser la documentation pour soutenir de futurs audits ou certifications

Avec nos services de conseil, nous vous aidons à :

  • Traduire les principes de fiabilité de l’EASA en documentation pratique

  • Aligner votre ConOps, votre SORA et vos évaluations des risques sur les fonctionnalités d’IA

  • Préparer les dossiers de vérification de conception ou de certification

Que vous développiez un flux de travail d’inspection autonome ou que vous déployiez des outils de conscience situationnelle pilotés par l’IA pour la sécurité, nous vous aidons à combler l’écart entre la valeur opérationnelle et la conformité réglementaire.

Et ensuite ?

La NPA 2025-07(B) est encore en phase de consultation, et les parties prenantes peuvent soumettre des commentaires jusqu’en juin 2026. Cependant, il est déjà clair que l’IA nécessitera une approche structurée du risque, de la performance et de la documentation, tout comme tout autre système critique pour la sécurité dans l’aviation.

Les exploitants de drones qui adoptent ces principes dès maintenant seront non seulement mieux préparés à la conformité, mais ils prendront également un avantage concurrentiel en développant des opérations autonomes de manière sûre et assurée.