Bedrijfssystemen beschermen tegen AI-gestuurde bedreigingen

Bedrijfssystemen beschermen tegen AI-gestuurde bedreigingen

Sluit u aan bij onze dagelijkse en wekelijkse nieuwsbrieven voor de laatste updates en exclusieve inhoud over toonaangevende AI-dekking. Meer informatie


Tegen 2025, wapenGeautomatiseerde AI-aanvallen gericht op identiteiten – ongezien en vaak de duurste om van te herstellen – zullen de grootste bedreiging vormen voor de cyberveiligheid van ondernemingen. Grote taalmodellen (LLM’s) zijn het nieuwe machtsinstrument bij uitstek voor malafide aanvallers, cybercriminaliteitssyndicaten en nationale aanvalsteams.

Uit een recent onderzoek bleek dat 84% van de IT- en beveiligingsleiders zegt dat wanneer AI-aangedreven ambachten de aanvalsstrategie zijn voor het lanceren van phishing- en smishing-aanvallen, deze steeds complexer worden om te identificeren en te stoppen. Als gevolg hiervan 51% van de beveiligingsleiders geeft prioriteit aan AI-gestuurde aanvallen als de ernstigste bedreiging waarmee hun organisaties worden geconfronteerd. Terwijl de overgrote meerderheid van de veiligheidsleiders, 77%zijn ervan overtuigd dat ze de beste praktijken voor AI-beveiliging kennen 35% geloven dat hun organisaties vandaag voorbereid zijn om bewapende AI-aanvallen te bestrijden, die naar verwachting in 2025 aanzienlijk zullen toenemen.

In In 2025 zullen CISO’s en beveiligingsteams voor meer uitdagingen staan ​​dan ooit om het toenemende tempo van vijandige, op AI gebaseerde aanvallen te identificeren en te stoppen overtreffen nu al de meest geavanceerde vormen van op AI gebaseerde beveiliging. 2025 zal het jaar zijn dat AI zijn rol zal gaan vervullen als technologische speler die nodig is om real-time monitoring van bedreigingen en eindpunten te bieden, alertheidsmoeheid voor security operations center (SOC)-analisten te verminderen, patchbeheer te automatiseren en deepfakes met grotere nauwkeurigheid, snelheid en schaal te identificeren dan voorheen mogelijk was.

Tegenstrijdige AI: deepfakes en synthetische fraude nemen toe

Deepfakes leiden al alle andere vormen van vijandige AI-aanvallen. Ze kosten het mondiale bedrijfsleven in 2023 12,3 miljard dollar, en dat zal naar verwachting nog verder stijgen 40 miljard dollar in 2027met een samengesteld jaarlijks groeipercentage van 32%. Aanvallers uit het hele spectrum van malafide tot goed gefinancierde aanvallers van de natiestaten zijn meedogenloos in het verbeteren van hun vaardigheden, waarbij ze profiteren van de nieuwste AI-apps, videobewerking en audiotechnieken. Er wordt voorspeld dat het aantal deepfake-incidenten in 2024 met 50 tot 60% zal toenemen en een reikwijdte zal bereiken 140.000-150.000 gevallen wereldwijd.

Deloitte zegt dat deepfake-aanvallers er de voorkeur aan geven eerst de doelen van banken en financiële diensten te achtervolgen. Het is bekend dat beide sectoren zachte doelwitten zijn voor aanvallen op synthetische identiteitsfraude die moeilijk te identificeren en te stoppen zijn. Bij bijna alle gevallen waren deepfakes betrokken 20% van de gevallen van synthetische identiteitsfraude vorig jaar. Synthetische identiteitsfraude behoort tot de moeilijkste vormen van fraude om te identificeren en te stoppen. Alleen al dit jaar ligt het land op koers om de financiële en handelssystemen met bijna 5 miljard dollar te bedriegen. Van de vele mogelijke benaderingen om synthetische identiteitsfraude te stoppen, blijken er vijf het meest effectief te zijn.

See also  Google Nest Wifi is getting a free software upgrade

Met de groeiende dreiging van synthetische identiteitsfraude richten bedrijven zich steeds meer op het onboardingproces als cruciaal punt bij het verifiëren van de identiteit van klanten en het voorkomen van fraude. Als Telesign CEO Christophe Van de Weyer legde in een recent interview aan VentureBeat uit: “Bedrijven moeten de identiteit, inloggegevens en persoonlijk identificeerbare informatie (PII) van hun klanten beschermen, vooral tijdens registratie.” De Telesign-vertrouwensindex 2024 benadrukt hoe generatieve AI phishing-aanvallen heeft gestimuleerd, waarbij gegevens een toename van 1265% laten zien in kwaadaardige phishing-berichten en een toename van 967% in credential phishing binnen 12 maanden na de lancering van ChatGPT.

Bewapende AI is het nieuwe normaal – en organisaties zijn er nog niet klaar voor

“We zeggen al een tijdje dat zaken als de cloud, identiteits- en beheertools op afstand en legitieme inloggegevens de vijand zijn, omdat het te moeilijk is om ongehinderd op het eindpunt te opereren”, zegt Elia Zaitsev, CTO bij CrowdStrikevertelde VentureBeat in een recent interview.

“De tegenstander wordt steeds sneller, en het benutten van AI-technologie is daar een onderdeel van. Het benutten van automatisering is daar ook een onderdeel van, maar het betreden van deze nieuwe beveiligingsdomeinen is een andere belangrijke factor, en dat heeft niet alleen moderne aanvallers maar ook moderne aanvalscampagnes veel sneller gemaakt”, aldus Zaitsev.

Generatieve AI is raketbrandstof geworden voor vijandige AI. Binnen enkele weken nadat OpenAI ChatGPT in november 2022 lanceerde, lanceerden rouge-aanvallers en cybercriminaliteitsbendes op AI gebaseerde aanvalsdiensten op basis van abonnementen. FraudGPT is een van de meest bekende en beweert op een gegeven moment 3.000 abonnees te hebben.

Terwijl nieuwe vijandige AI-apps, -tools, -platforms en -technieken floreren, zijn de meeste organisaties er nog niet klaar voor.

Vandaag, één op de drie organisaties geeft toe dat ze geen gedocumenteerde strategie hebben om gen-AI en vijandige AI-risico’s aan te pakken. CISO’s en IT-leiders geven toe dat ze niet klaar zijn voor AI-gestuurde identiteitsaanvallen. Ivanti is recent Rapport over de stand van zaken op het gebied van cyberbeveiliging 2024 vindt dat 74% van de bedrijven ziet nu al de impact van door AI aangedreven bedreigingen. Negen op de tien leidinggevenden, 89%zijn van mening dat door AI aangedreven bedreigingen nog maar net zijn begonnen. Opmerkelijk aan het onderzoek is hoe ze de grote kloof ontdekten tussen het gebrek aan paraatheid dat de meeste organisaties hebben om zich te beschermen tegen vijandige AI-aanvallen en de onmiddellijke dreiging om er het doelwit van te worden.

Zes op de tien veiligheidsleiders zeggen dat hun organisaties er niet klaar voor zijn om vandaag de dag bestand te zijn tegen door AI aangedreven bedreigingen en aanvallen. De vier meest voorkomende bedreigingen waarmee beveiligingsleiders dit jaar te maken hebben gehad, zijn onder meer phishing, softwarekwetsbaarheden, ransomware-aanvallen en API-gerelateerde kwetsbaarheden. Nu ChatGPT en andere AI-tools ervoor zorgen dat veel van deze bedreigingen tegen lage kosten te produceren zijn, vertonen vijandige AI-aanvallen alle tekenen van een enorme stijging in 2025.

Bedrijven verdedigen tegen AI-gedreven bedreigingen

Aanvallers gebruiken een combinatie van generatie-AI, social engineering en op AI gebaseerde tools om ransomware te creëren die moeilijk te identificeren is. Ze doorbreken netwerken en verplaatsen zich later naar kernsystemen, te beginnen met Active Directory.

See also  On Christmas Eve 1968, millions watched Apollo 8 astronauts broadcast from space

Aanvallers krijgen controle over een bedrijf door de toegangsrechten voor de identiteit te vergrendelen en beheerdersrechten in te trekken nadat kwaadaardige ransomware-code in het hele netwerk is geïnstalleerd. Bij een aanval worden ook op Gen AI gebaseerde code, phishing-e-mails en bots gebruikt.

Hier zijn enkele van de vele manieren waarop organisaties terug kunnen vechten en zichzelf kunnen verdedigen tegen AI-gedreven bedreigingen:

  • Ruim de toegangsrechten onmiddellijk op en verwijder voormalige werknemers, contractanten en tijdelijke beheerdersaccounts: Begin met het intrekken van verouderde toegang voor voormalige contractanten, verkoop-, service- en ondersteuningspartners. Door dit te doen, verklein je de vertrouwenslacunes waar aanvallers misbruik van maken en probeer je te identificeren met behulp van AI om aanvallen te automatiseren. Beschouw het als een grote inzet om Multi-Factor Authenticatie (MFA) toe te passen op alle geldige accounts om op inloggegevens gebaseerde aanvallen te verminderen. Zorg ervoor dat u regelmatig toegangsbeoordelingen en geautomatiseerde de-provisioningprocessen implementeert om een ​​schone toegangsomgeving te behouden.
  • Dwing nul vertrouwen af op eindpunten en aanvalsoppervlakken, ervan uitgaande dat deze al zijn doorbroken en onmiddellijk moeten worden gesegmenteerd. Een van de meest waardevolle aspecten van het nastreven van een zero-trust-framework is de veronderstelling dat uw netwerk al is geschonden en moet worden gehacktbehouden. Nu er steeds meer AI-gestuurde aanvallen plaatsvinden, is het een goed idee om elk eindpunt als een kwetsbare aanvalsvector te zien en segmentatie af te dwingen om eventuele indringers te beperken. Voor meer informatie over zero trust, ga zeker eens kijken NIST-standaard 800-207.
  • Krijg nu de controle over machine-identiteiten en -beheer. Machine-identiteiten – bots, IoT-apparaten en meer – groeien sneller dan menselijke identiteiten, waardoor onbeheerde risico’s ontstaan. AI-gestuurd beheer van machine-identiteiten is van cruciaal belang om AI-gestuurde inbreuken te voorkomen. Het automatiseren van identiteitsbeheer en het handhaven van strikt beleid zorgen voor controle over dit groeiende aanvalsoppervlak. Geautomatiseerde, door AI aangestuurde aanvallen worden gebruikt om de vele vormen van machine-identiteiten waarover de meeste ondernemingen beschikken, te vinden en te doorbreken.
  • Als uw bedrijf een Identity and Access Management (IAM)-systeem heeft, versterk dit dan in multicloud-configuraties. AI-gestuurde aanvallen proberen te profiteren van de ontkoppelingen tussen IAM’s en cloudconfiguraties. Dat komt omdat veel bedrijven afhankelijk zijn van slechts één IAM voor een bepaald cloudplatform. Dat laat gaten bestaan ​​tussen AWS, zoals Google’s Cloud Platform en Microsoft Azure. Evalueer uw cloud-IAM-configuraties om ervoor te zorgen dat ze voldoen aan de veranderende beveiligingsbehoeften en effectief vijandige AI-aanvallen tegengaan. Implementeer tools voor cloudbeveiligingspostuurbeheer (CSPM) om verkeerde configuraties voortdurend te beoordelen en te herstellen.
  • We gaan all-in op real-time infrastructuurmonitoring: AI-ondersteunde monitoring is van cruciaal belang voor het in realtime detecteren van afwijkingen en inbreuken, biedt inzicht in de beveiligingssituatie en blijkt effectief bij het identificeren van nieuwe bedreigingen, inclusief bedreigingen die door AI worden aangestuurd. Continue monitoring maakt onmiddellijke beleidsaanpassingen mogelijk en helpt bij het afdwingen van zero trust-kernconcepten die, samen genomen, kunnen helpen een door AI aangestuurde inbreukpoging in te dammen.
  • Maak red teaming en risicobeoordeling onderdeel van het spiergeheugen of DNA van de organisatie. Neem geen genoegen met rood teamwerk volgens een sporadisch schema, of erger nog, alleen wanneer een aanval een hernieuwd gevoel van urgentie en waakzaamheid teweegbrengt. Red teaming moet vanaf nu deel uitmaken van het DNA van elke DevSecOps die MLOps ondersteunt. Het doel is om preventief systeem- en eventuele zwakke punten in de pijplijn te identificeren en te werken aan het prioriteren en versterken van aanvalsvectoren die naar boven komen als onderdeel van de System Development Lifecycle (SDLC)-workflows van MLOps.
  • Blijf op de hoogte en adopteer het defensieve raamwerk voor AI dat het beste werkt voor uw organisatie. Laat een lid van het DevSecOps-team op de hoogte blijven van de vele defensieve raamwerken die vandaag de dag beschikbaar zijn. Als u weet welke het beste past bij de doelstellingen van een organisatie, kunt u MLOps veiligstellen, tijd besparen en de bredere SDLC- en CI/CD-pijplijn in het proces garanderen. Voorbeelden hiervan zijn het NIST AI Risk Management Framework en de OWASP AI Security and Privacy Guide.
  • Verminder de dreiging van op synthetische data gebaseerde aanvallen door biometrische modaliteiten en wachtwoordloze authenticatietechnieken te integreren in elk identiteitstoegangsbeheersysteem. VentureBeat heeft geleerd dat aanvallers steeds vaker afhankelijk zijn van synthetische gegevens om identiteiten na te bootsen en toegang te krijgen tot broncode en modelopslagplaatsen. Overweeg het gebruik van een combinatie van biometrische modaliteiten, waaronder gezichtsherkenning, vingerafdrukscanning en stemherkenning, gecombineerd met wachtwoordloze toegangstechnologieën om systemen te beveiligen die in MLOps worden gebruikt.
See also  Amazon Prime Big Deal Days dates confirmed for October

Het erkennen van inbreukpotentieel is van cruciaal belang

Tegen 2025 zullen vijandige AI-technieken naar verwachting sneller vooruitgang boeken dan de bestaande benaderingen van veel organisaties voor het beveiligen van eindpunten, identiteiten en infrastructuur kunnen bijhouden. Het antwoord is niet noodzakelijkerwijs meer uitgeven; het gaat om het vinden van manieren om bestaande systemen uit te breiden en te versterken, om de budgetten te vergroten en de bescherming tegen de verwachte aanval van AI-gestuurde aanvallen in 2025 te vergroten. Begin met Zero Trust en kijk hoe het NIST-framework kan worden afgestemd op uw bedrijf. Zie AI als een accelerator die kan helpen bij het verbeteren van continue monitoring, het versterken van de eindpuntbeveiliging, het automatiseren van patchbeheer op schaal en meer. Het vermogen van AI om bijdragen te leveren en zero-trust-frameworks te versterken is bewezen. Het zal in 2025 nog duidelijker worden naarmate de aangeboren sterke punten ervan, waaronder het afdwingen van de minst bevoorrechte toegang, het bieden van microsegmentatie, het beschermen van identiteiten en meer, zullen groeien.

Tegen 2025 moet elk beveiligings- en IT-team endpoints behandelen alsof ze al gecompromitteerd zijn en zich richten op nieuwe manieren om ze te segmenteren. Ze moeten ook de kwetsbaarheden op identiteitsniveau minimaliseren, wat een gebruikelijk toegangspunt is voor AI-gestuurde aanvallen. Hoewel deze bedreigingen toenemen, kan geen enkel bedrag aan uitgaven alleen deze problemen oplossen. Praktische benaderingen die het gemak erkennen waarmee eindpunten en perimeters worden doorbroken, moeten de kern van elk plan vormen. Alleen dan kan cyberbeveiliging worden gezien als de meest kritische zakelijke beslissing die een bedrijf moet nemen, en het dreigingslandschap van 2025 zal dat duidelijk maken.


Source link