OpenAI har meddelat lanseringen av Aardvark, en autonom AI-säkerhetsagent som drivs av GPT-5 och syftar till att revolutionera hur organisationer upptäcker och åtgärdar sårbarheter i programvaran.
Det nya verktyget, som för närvarande finns tillgängligt i privat betaversion, markerar ett stort framsteg inom automatiserad säkerhetsforskning och stärker cyberförsvarares möjligheter världen över.

Automatiserad sårbarhetsupptäckt i stor skala
Aardvark fungerar som en autonom säkerhetsforskare som kontinuerligt övervakar källkodsdatabaser för att identifiera sårbarheter, bedöma deras utnyttjandemöjligheter och föreslå riktade patchar.
Till skillnad från traditionella verktyg som förlitar sig på fuzzing eller SCA-analys (Software Composition Analysis), använder Aardvark resonerande AI-modeller för att förstå kodens beteende likt en mänsklig säkerhetsforskare — genom att läsa kod, analysera den och generera tester.
Så fungerar Aardvark
Systemet följer en flerstegsprocess som börjar med att analysera hela kodbasen och skapa en hotmodell baserad på projektets säkerhetsmål.
Därefter skannar den commits för att upptäcka sårbarheter och försöker utnyttja dem i isolerade sandlådor för att verifiera verkliga risker.
När sårbarheter bekräftas genererar Aardvark automatiskt patchar via OpenAI Codex, som utvecklare kan granska och tillämpa med ett klick.
Beprövad i praktiken
Aardvark har redan använts i OpenAI:s interna kodbaser samt hos externa alfapartners och har avslöjat flera kritiska sårbarheter.
I tester på databaser med kända sårbarheter nådde systemet en detekteringsgrad på 92 %, vilket demonstrerar dess styrka i verkliga miljöer.
OpenAI har dessutom bidragit till säkerheten i öppen källkod genom att ansvarsfullt rapportera upptäckta sårbarheter – tio av dessa har redan tilldelats officiella CVE-identifierare.
För en säkrare utvecklingscykel
Med över 40 000 rapporterade CVE:er under 2024 och cirka 1,2 % av commits som introducerar buggar, utgör programvarusårbarheter ett globalt systemhot.
Aardvark minskar denna risk genom att upptäcka brister tidigt, validera verklig utnyttjandegrad och tillhandahålla klara korrigeringar – utan att bromsa innovationen.
OpenAI har även uppdaterat sin policy för samordnat offentliggörande, för att främja samarbete och utvecklarvänliga processer istället för rigida tidslinjer.
Framtiden för AI-driven cybersäkerhet
När tillgängligheten utökas bortom betafasen kan Aardvark demokratisera säkerhetsexpertis och hjälpa fler organisationer att stärka sina försvar mot växande cyberhot.
Verktyget representerar nästa steg i OpenAI:s vision – där autonom intelligens inte bara skapar innovation, utan också skyddar den.







