Förklarbar AI för intrångsdetekteringssystem i fordon
Diarienummer | |
Koordinator | RISE Research Institutes of Sweden AB |
Bidrag från Vinnova | 100 000 kronor |
Projektets löptid | januari 2025 - juni 2025 |
Status | Pågående |
Utlysning | 6G - Kompetensförsörjning |
Ansökningsomgång | 6G - Handledning av examensarbete |
Syfte och mål
Integrationen av ytterligare kommunikationslösningar i fordonssystem ökar komplexiteten och sårbarheten för cyberhot. Målet med detta examensarbete är att utveckla en förklarbar AI-modell för att upptäcka intrång i fordonssystem. Modellen ska kombinera hög noggrannhet med tydliga insikter i beslutsprocesser. Arbetet fokuserar på avancerade tekniker för nätverksbaserad intrångsdetektering, med avvägningar mellan förklarbarhet, prestanda och beräkningseffektivitet.
Förväntade effekter och resultat
Förklarbara AI-modeller förväntas förbättra transparensen och tillförlitligheten hos AI-beslut inom intrångsdetekteringssystem, vilket gör dem mer pålitliga i fordonssystem. Insikter i beslutsprocesserna kommer att hjälpa användare att förstå och lita på AI:s handlingar. Resultaten förväntas belysa avvägningarna mellan förklarbarhet, prestanda och beräkningseffektivitet, vilket därmed bidrar till utvecklingen av smarta och intelligenta nätverk samt visionen för 6G.
Planerat upplägg och genomförande
Planen är att designa och utvärdera olika modeller, samt undersöka hur olika attacker påverkar modellerna. Upplägget innefattar: 1. Granskning av den senaste tekniken inom förklarbar AI 2. Studie av intrångsdetektering i fordon med hjälp av algoritmer och öppna dataset 3. Databeredning och undersökning av avancerade metoder och verktyg för förklarbar AI 4. Utvärdering av hur integrationen av förklarbar AI påverkar prestanda, tillförlitlighet och tillförlitlighet hos intrångsdetekteringssystem