AI beskrivs ofta som framtidens lösning på alla cybersäkerhetsproblem – men den är långt ifrån ofelbar. Det menar Torben Clemmensen, IT-säkerhetsspecialist på SECUINFRA, som varnar för att teknikens kapacitet överskattas – och redan nu utnyttjas av cyberkriminella.
Många IT-säkerhetsleverantörer marknadsför sina AI-drivna lösningar som automatiska försvar mot intrång, genom att upptäcka ovanligt beteende och snabbt reagera på hot. Men enligt Torben Clemmensen är det viktigt att inte sätta för stor tilltro till tekniken i dess nuvarande form.
– Artificiell intelligens är nämligen inte intelligent. Det är som att ha en dreglande hund i hörnet som kissar på golvet tills du lär den att göra det någon annanstans, säger han.
En teknik som är lätt att lura
Clemmensen understryker att AI-lösningar inom cybersäkerhet visserligen har potential, men också stora brister. Särskilt sårbara är de AI-system som bygger på maskininlärning, eftersom de lär sig utifrån data – vilket gör dem mottagliga för manipulation.
– Du kan lära AI vad som helst så länge den utsätts för tillräckligt med inlärningsmaterial. Det är just detta som gör den så farlig att lita på fullt ut, säger han.
Hackare delar strategier på Dark Web
På dolda internetforum delar cyberbrottslingar nu öppet med sig av metoder för att kringgå AI-skydd. Clemmensen och hans team har identifierat sex konkreta metoder som redan diskuteras och tillämpas av hackare. Här är några av dem:
Förgiftningsattacker och långsam manipulation
Genom att medvetet införa skadlig kod som ser legitim ut i träningsdata kan AI-system tränas att acceptera farligt beteende som normalt. En annan metod är att långsamt förändra ett systems förståelse för vad som är normalt – tills det inte längre reagerar på verkliga hot.
Legitima verktyg används för illvilliga syften
Fenomen som Living-off-the-Land, där legitima verktyg som PowerShell används för skadliga syften, gör det svårt för AI att särskilja godartade och farliga aktiviteter. Även polymorfisk skadlig kod, som hela tiden ändrar skepnad, bidrar till att lura systemet.
Brus och överbelastning
Genom att skapa mängder av oskyldiga avvikelser kan hackare trötta ut ett AI-system och försvaga dess känslighet. När det verkliga hotet sedan dyker upp drunknar det i mängden.
Riktade angrepp på träningsfasen
I vissa fall försöker angripare manipulera själva grunden för AI-modellerna redan innan systemen implementeras, exempelvis via försörjningskedjan eller källkod med sårbarheter.
AI är ett verktyg – inte en magisk lösning
Torben Clemmensen uppmanar företag att se AI som ett kraftfullt men sårbart verktyg, inte som ett universellt skydd.
– Vi är bara i början av AI-resan. Förväntningarna måste vara realistiska, och säkerhetsstrategin får inte bygga på blind tillit till algoritmer, säger han.