6 dec 2025

UAS Kennisreeks: Wat de eerste AI-regelgeving van EASA betekent voor drone-operators

EASA AI Regulations and what it means for drone pilots
EASA AI Regulations and what it means for drone pilots
EASA AI Regulations and what it means for drone pilots

EASA heeft een grote stap gezet in het definiëren van hoe Kunstmatige Intelligentie veilig in de luchtvaart kan worden geïntegreerd, inclusief onbemande systemen. Met de release van NPA 2025-07(B) introduceert de organisatie haar eerste regelgevingskader voor AI, en biedt daarbij richtlijnen over hoe de veiligheid en betrouwbaarheid van AI-componenten in luchtvaartproducten kunnen worden aangetoond — inclusief drones.

Een Verschuiving naar Risico-gebaseerd, Schaalbaar AI Toezicht

In plaats van een geheel nieuwe categorie voor AI-systemen te creëren, stelt EASA een prestatie- en risicogeoriënteerd kader voor dat binnen bestaande regelgevingspaden past. Dit omvat gedetailleerde specificaties, Acceptabele Middelen van Naleving (AMC), en Richtlijnen Materiaal (GM) die zijn afgestemd op hoe kritisch een AI-component is binnen de architectuur van een drone.

De focus ligt op het mogelijk maken van innovatie terwijl veiligheid en publiek vertrouwen worden behouden. Het voorstel behandelt een breed scala aan AI-gebruiksgevallen, van perceptiemodellen voor objectdetectie tot hogere autonomie zoals navigatie en vluchtcontrole in drone-in-a-box-systemen. Naarmate AI meer wordt geïntegreerd in operaties zoals inspecties, beveiliging en noodhulp, wordt de behoefte aan een geharmoniseerd kader essentieel.

Wat Maakt AI “Vertrouwenswaardig”?

EASA schetst zeven dimensies van AI-betrouwbaarheid:

  • Robuustheid

  • Verklaarbaarheid

  • Transparantie

  • Menselijke Toezicht

  • Data Kwaliteit

  • Betrouwbaarheid

  • Veiligheid

Deze elementen schalen met de kriticiteit van het AI-systeem. Een laag risico ondersteunend hulpmiddel (bijv. AI voor pre-flight diagnostiek) zal aan lichtere vereisten onderworpen zijn dan een autonoom missiecontroller gebruikt in operaties buiten het gezichtsveld (BVLOS).

De vertrouwenscriteria zullen een integraal onderdeel worden van het nalevingsargument voor Ontwerpverificatie, Typecertificering en operationele autorisaties, vooral wanneer AI een veiligheidskritieke rol speelt.

Waarom Dit Belangrijk Is Voor Drone Operators

Dronetoestelfabrikanten en zakelijke operators vertrouwen al op AI voor geavanceerde taken - denk aan real-time objecttracking, voorspellend onderhoud of autonoom vluchtplanning. EASA's voorgestelde regels maken duidelijk dat dergelijke capaciteiten niet langer als “zwarte dozen” kunnen worden behandeld. Regelgevers zullen zichtbaarheid vereisen in hoe deze systemen worden getraind, getest en gemonitord.

Als je van plan bent om AI-gedreven functionaliteit in een veiligheids- of missie-kritieke omgeving te implementeren, heb je nodig:

  • Gedocumenteerd ontwerpintentie en modelgedrag

  • Bewijs van robuustheid en verklaarbaarheid

  • Menselijke overschrijdingsmechanismen

  • Traceerbaarheid van input, output en beslissingen

Hoe AirHub Kan Helpen

Bij AirHub ondersteunen we zowel de technische implementatie als de regelgevende integratie van AI in drone-operaties.

Met onze software kunt u:

  • AI-tools integreren via API of SDK in het AirHub-platform

  • Inferredatagegevens en sensorinvoer tijdens vluchten loggen

  • Een volledige operationele trace van beslissingen en prestaties bijhouden

  • Documentatie centraliseren ter ondersteuning van toekomstige audits of certificering

Met onze consultancy diensten helpen we u:

  • EASA’s betrouwbaarheid beginselen vertalen naar praktische documentatie

  • Uw ConOps, SORA en risico beoordelingen afstemmen op AI functies

  • Voorbereiden voor Ontwerpverificatie of Certificeringsindieningen

Of u nu een autonome inspectieworkflow ontwikkelt of AI-gedreven situationele bewustzijn hulpmiddelen voor beveiliging inzet, wij helpen de kloof te overbruggen tussen operationele waarde en regelgevende naleving.

Wat Nu?

NPA 2025-07(B) bevindt zich nog in de consultatie fase en belanghebbenden kunnen tot juni 2026 opmerkingen indienen. Het is echter al duidelijk dat AI net als elk ander veiligheidskritiek systeem in de luchtvaart een gestructureerde benadering van risico, prestaties en documentatie nodig heeft.

Dronetoestel operators die deze principes vroeg adopteren, zullen niet alleen beter voorbereid zijn op naleving maar ook een concurrentievoordeel behalen door autonoma operaties veilig en met vertrouwen op te schalen.