De risico's van AI: Hoe zit het met identiteitsfraude?

21 februari 2023

Artificial Intelligence (AI) kent vele risico's. Zo ook die van identiteitsfraude. Maar hoe bescherm je jezelf hier tegen?

Artificial Intelligence. Iedereen heeft het er tegenwoordig over. Het wordt gebruikt om blogs te schrijven, schilderijen te maken of zelfs volledige business plannen uit te werken. Maar naast deze positieve kanten van AI, komt deze ontwikkelingen ook met de nodige risico's. Één van deze risico's is het vermakkelijken van identiteitsfraude, waarbij iemand zich online voordoet als iemand anders om financieel gewin te halen.

Een techniek die hier veel voor gebruikt wordt zijn de zogenaamde deep fakes. Met deep fakes is het mogelijk om afbeeldingen, videobeelden of audiobestanden zo te manipuleren dat het lijkt alsof iemand iets doet of zegt, zonder dat die persoon dat daadwerkelijk heeft gedaan. Dit kan met bestaande, echte personen, maar ook met personen die in het echte leven helemaal niet bestaan.

Deze techniek kan door kwaadwillenden gebruikt worden om bijvoorbeeld te laten lijken dat iemand een contract heeft ondertekend, dat eigenlijk door heel iemand anders is getekend. Dit doen ze door een ander gezicht op het gezicht van de persoon die het contract ondertekend te 'plakken'.

Deep fakes kunnen ook gebruikt worden om bijvoorbeeld een video van een CEO te manipuleren, waarin hij opdracht geeft aan zijn personeel om geld over te maken naar een onbekende partij. Maar het kan ook gebruikt worden om, in combinatie met een vals ID-bewijs, rekeningen te openen op iemand anders naam of zelfs levensverzekeringen onterecht te laten uitbetalen op andere rekeningen.

Het lijkt wat vergezocht, maar de huidige technieken staan niet voor niks. Zelfs als je als organisatie een selfie eist om te verifiëren dat iemand is wie die zegt dat die is, is dit te omzeilen met een deep fake. Daarom hebben wij bij DataChecker een deep fake detectie van DuckDuckGoose toegevoegd aan onze dienstverlening.
Dergelijke technologieën als DuckDuckGoose zijn een goede manier om de risico's van deep fakes te beperken, maar het is minstens zo belangrijk om je personeel bewust te maken van deze risico's en je beveligingsprotocollen te updaten. Een ketting is immers zo sterk als de zwakste schakel.

Identiteitsfraude door middel van AI, en dan met name deep fakes, zijn een groeiend probleem. Een probleem dat niet alleen van invloed gaat zijn op de financiële wereld, maar wij voorzien dat we dit op meerdere plekken gaan zien.

Benieuwd naar hoe wij jouw organisatie kunnen beschermen tegen deep fakes? Stuur ons een berichtje!