AI ritar om kartan för buggjakt

AI Analys
Texten beskriver framsteg inom AI-driven buggjakt och hur säkerhetsforskare använder stora språkmodeller för att automatisera processer och upptäcka fel snabbare än någonsin. Detta indikerar en positiv utveckling inom teknologin.

AI-driven buggjakt har förändrat kalkylen för vad som utgör ett effektivt belöningsprogram genom att snabba upp upptäckten av sårbarheter – och samtidigt utsätta kodansvariga för en explosionsartad ökning av AI-genererade felrapporter. Säkerhetsforskare använder stora språkmodeller för att automatisera rekognosering, bakåtkonstruera API:er och skanna kodbaser snabbare än någonsin. Genom att tillämpa AI-verktyg på tekniker som sträcker sig från fuzzing och automatisering av exploatering till mönsterigenkänning i kodbaser och webbplatser, upptäcker forskare fel i allt snabbare takt. – Under det senaste året har vi gått in i vad vi kallar ”bioniska hackares era”, där mänskliga forskare använder agentiska AI-system för att samla in data, sortera och påskynda upptäckter, säger Crystal Hazen, senior bug bounty program manager på Hacker One, som har lagt till AI-verktyg till sin plattform för att effektivisera inskickade rapporter och sortering. AI-skräpet blir en börda Branschexperter rekommenderar att AI endast ska användas som en ”forskningsassistent” eller guide snarare än som den huvudsakliga mekanismen för att upptäcka sårbarheter. Inti De Ceukelaire, hackerchef på bug bounty-plattformen Intigriti, säger att AI har jämnat ut spelplanen för hackare eftersom det kan hjälpa mindre skickliga forskare att identifiera potentiellt sårbara system eller analysera kod för att hitta brister. Men resultaten av AI-baserad analys är inte alltid tillförlitliga – och detta har skapat praktiska problem. – Vi har sett AI fungera som en ekokammare och förstärkare för individer som tror att de är något på spåren, vilket lockar dem in i en nedåtgående spiral av bekräftelsebias, säger De Ceukelaire. Säkerhetsteam som hanterar externa sårbarhetsrapporter kommer att behöva vara allt mer skeptiska till inkommande rapporter som visar tecken på att de är starkt baserade på AI. – Bug bounty-plattformar som erbjuder triageringstjänster kan hjälpa till med detta, eftersom de kan mäta forskarnas resultat över tid och använda djupgående teknik för att upptäcka och känna igen AI-fel innan de når företaget, säger De Ceukelaire. Andra säkerhetsexperter håller med om att resultaten av att använda AI-verktyg för buggjakten hittills har varit blandade, men hävdar att problemen kan mildras genom noggrann triagering. – AI-verktyg, när de används och valideras på rätt sätt, ger verkligen resultat med stor inverkan, men vi ser också program som överväldigas av enorma mängder rapporter, varav de flesta är skräp, för att uttrycka det försiktigt, säger Bobby Kuzma, chef för offensiva cyberoperationer på cybersäkerhets- och compliancekonsultföretaget Pro Circular. Att sortera den ökande mängden rapporter av varierande kvalitet som genereras av vissa AI-verktyg sätter press på program med begränsade resurser, däribland de som är kopplade till kritiska open source-programvaruprojekt. Till exempel har curl-projektet – ett kommandoradsverktyg som vanligtvis används för att ladda ner filer – offentligt uppmanat användarna att sluta skicka in AI-upptäckta buggar. Projektets ansvariga klagade över att de lade för mycket tid på buggrapporter av låg kvalitet som genererats med hjälp av AI-verktyg. Projektets svenske grundare Daniel Stenberg jämförde den stora mängden ogrundade och falska rapporter med en denial-of-service-attack. Nyligen mildrade Stenberg sin kritik efter att några äkta buggrapporter, delvis genererade av AI-verktyg, hade skickats in. En ström av ”false positives” Gunter Ollmann, cto på Cobalt.io, varnar för att AI förvärrar det befintliga problemet som uppstår när leverantörer översvämmas av buggrapporter som ofta är av låg kvalitet. Säkerhetsforskare som vänder sig till AI skapar en ”flod av brus, falska positiva resultat och dubbletter”, enligt Ollmann. – Framtiden för säkerhetstestning handlar inte om att hantera en skara buggjägare som hittar dubbletter och buggar av låg kvalitet, utan om att få tillgång till de bästa experterna på begäran för att hitta och åtgärda sårbarheter som kan utnyttjas – som en del av ett kontinuerligt, programmatiskt, offensivt säkerhetsprogram, säger Ollmann. Gal Nagli, chef för hotexponering hos molnsäkerhetsleverantören Wiz och bug bounty-jägare, säger att AI-verktyg ännu inte har gjort någon dramatisk skillnad inom bug bounty-jakt, åtminstone när det gäller mer skickliga utövare. Till exempel har forskare som automatiserar infrastrukturbaserade sårbarheter i stor skala – som standardinloggningsuppgifter eller övertagande av underdomäner – redan tillförlitliga verktyg och detekteringssystem på plats. – AI behövs inte i dessa fall, säger Nagli. – Det verkliga värdet av AI ligger i att förstärka expertforskare, särskilt när man testar autentiserade portaler eller analyserar omfattande kodbaser och Javascript-filer. Det hjälper till att upptäcka sårbarheter som tidigare var för komplexa eller subtila för att upptäckas utan AI. Den senaste generationen modeller kan ge verklig hjälp till skickliga bug bounty-jägare, inte genom att ersätta dem, utan genom att förbättra vad de kan hitta. – Helt autonoma agenter har fortfarande svårt, särskilt med autentisering och scenarier där mänsklig kontext är avgörande, tillägger Nagli.

Gillade du denna positiva nyhet?

0