Foto: VesnaArt/Shutterstock
De opkomst van artificial intelligence (AI), ook wel kunstmatige intelligentie, zal je niet ontgaan zijn. Naast de talloze positieve toepassingen van de gloednieuwe technologie zijn er ook negatieve neveneffecten van AI. Eén hiervan is het gebruik van AI door crypto oplichters.
The 12-month period from Q4 2022 to Q3 2023 saw a 1,265% increase in malicious #phishing emails. Learn more about this and other findings from our new State of Phishing Report for 2023: https://t.co/m8DpWivDKa pic.twitter.com/JFf8En1PDc
— SlashNext (@slashnextinc) October 30, 2023
Crypto stelen met behulp van AI
Cybersecuritybedrijf SlashNext meldt dat het aantal zogeheten phishing mails met 1.265 procent is gestegen sinds de lancering van het taalprogramma ChatGPT. Patrick Harr, de CEO van SlashNext zegt er in gesprek met Decrypt het volgende over.
“Toen ChatGPT in februari gelanceerd werd, zagen we een dramatische stijging in het aantal phishing aanvallen. Dit is overduidelijk, gedeeltelijk in ieder geval, vanwege het grote succes van deze aanvallen.”
Nadat ChatGPT gelanceerd werd, doken er overal vergelijkbare AI-tekstprogramma’s op. Sommigen hiervan zijn specifiek bedoeld voor het genereren van malware. Malware, wat kort is voor ‘malicious software’, zijn computerprogramma’s bedoeld voor malafide doeleinden.
Voorbeelden van deze AI-programma’s zijn WormGPT, Dark Bart en FraudGPT. Deze AI-programma’s lijken op ChatGPT maar worden dus speciaal gebruikt om malware te genereren. De programma’s worden op het darkweb verspreid. Ook gebruiken criminelen ChatGPT zelf om malware te creëren.
De phishing-aanvallen, die met behulp van deze programma’s worden gemaakt, hebben vaak de vorm van een e-mail-, sms- of whatsapp-bericht. Oplichters doen zich bijvoorbeeld voor als medewerkers van een crypto-platform en proberen nietsvermoedende slachtoffers naar frauduleuze websites te leiden. Daar worden de slachtoffers vervolgens gevraagd om gevoelige informatie in te voeren, die de oplichters gebruiken om crypto te stelen.
AI helpt cybercriminelen
Met behulp van AI-programma’s is het voor oplichters veel gemakkelijker geworden om geloofwaardige phishing-berichten te creëren.
“Hoewel er discussies zijn over de ware invloed van generatieve AI op cybercriminaliteit, weten we op basis van ons onderzoek dat gevaarlijke actoren programma’s zoals ChatGPT gebruiken om gesofisticeerde, doelgerichte zakelijke mails en andere berichten te schrijven,” aldus Harr.
Dat criminelen gebruik maken van AI is niet te ontkennen. Volgens Harr zit er maar één ding op: cybersecurity-professionals moeten ook gebruik maken van AI om deze criminelen te bestrijden.
“Deze bedrijven moeten AI in veiligheidsprogramma’s integreren zodat de AI constant alle berichtkanalen doorzoekt om deze dreigingen tegen te gaan. Dat is waarom wij generatieve AI gebruiken in onze eigen programma’s. Niet alleen om te blokkeren maar ook om te detecteren. Maar we gebruiken het ook om te voorspellen hoe de volgende [phishing aanval] eruit gaat zien.”