CybercrimeDutchTheoretical CriminologyTechnologische criminologie, de cybercrime voorbij

Technologische criminologie, de cybercrime voorbij

Gerald Hopster

‘Over vijf jaar helft misdaad door cybercriminelen.’ Met deze headline trok Nieuwsuur onlangs veel aandacht. Procureur-generaal Gerrit van der Berg sprak van een trendbreuk en legde uit dat het OM zich actief voorbereidt op deze toekomst. Ook binnen de criminologie is er al enige tijd aandacht voor cybercriminaliteit. Criminologen doen bijvoorbeeld onderzoek naar botnets, hackers en online criminele netwerken. Een goede start, maar nieuwe technologieën vragen om meer.

Nieuwe technologieën dragen sinds jaar en dag bij aan de groei van de samenleving maar bieden ook nieuwe mogelijkheden tot ongewenst of crimineel gedrag. Angst voor nieuwe technologie heeft invloed op het reguleren of criminaliseren van het gebruik daarvan. Toen de eerste motorisch aangedreven auto zijn intrede deed in Groot-Brittannië werden bestuurders door middel van de zogeheten ‘red flag law’ verplicht om als waarschuwing te allen tijde iemand met een rode vlag voor het voertuig uit te laten lopen. Dergelijke reflexen in regulering zijn ook herkenbaar bij de intrede van computers en het internet. Dit schetst de uitdaging voor de samenleving nu we aan de vooravond van revolutionaire nieuwe technologieën lijken te staan die een grote impact op de samenleving zullen gaan hebben. Kunstmatige intelligentie is zo’n ontwikkeling.

Kunstmatige intelligentie is bezig met een sterke opmars in de samenleving. Systemen die kunstmatige intelligentie gebruiken, worden steeds vaker ingezet in kritische infrastructuren zoals financiële markten, het energienetwerk en de transportsector. Kunstmatig intelligente systemen worden niet geprogrammeerd, zoals we kennen van geautomatiseerde computersystemen uit het verleden, maar zijn systemen met het vermogen om zelfstandig of begeleid te leren. Een goed voorbeeld hiervan is de film Ex Machina, waarin een kunstmatig intelligente menselijke robot leert hoe de wereld werkt, met onvoorziene gevolgen. Op basis van geselecteerde data worden deze systemen getraind om bepaalde handelingen uit te voeren. Technieken zoals machine learning en neural networks worden gebruikt om deze systemen intelligent te maken zodat ze steeds geavanceerder worden en steeds meer kennis tot zich kunnen nemen. Deze systemen kennen grote voordelen en worden op diverse zichtbare en minder zichtbare terreinen gebruikt. Minder zichtbare toepassingen van kunstmatig intelligente systemen zijn veelal complex en diep verweven in infrastructuren. Naar schatting tweederde van de handel op de financiële markten wordt uitgevoerd door kunstmatig intelligente systemen. De toegenomen snelheid en efficiëntie worden door economen als voordelen gezien die het gebruik legitimeren. Er zijn echter ook negatieve effecten waarneembaar bij de inzet van deze systemen.

Op 6 mei 2010 maakte de Dow Jones index een vrije val van bijna 10%, waarna de koers zich binnen tien minuten als vanzelf herstelde. Op 31 mei 2016 gebeurde vrijwel hetzelfde op de China Futures Exchange, de koers maakte een vrije val van ongeveer 10%, om zich ditmaal binnen een seconde te herstellen. Dit waren zogeheten flash crashes. Tijdens een flash crash maakt een beurs abrupte bewegingen die niet door regulier handelen veroorzaakt kunnen worden. Deze crashes zijn vermoedelijk het gevolg van het feit dat een belangrijk deel van het handelen op financiële markten is overgenomen door autonome en kunstmatig intelligente systemen. Events zoals deze zijn niet zeldzaam en komen ongecontroleerd en onverwacht voor. De oorzaken van deze events zijn complex, maar het controleren van deze kunstmatig intelligente systemen en het beheersen van de potentieel schadelijke effecten is een terugkerend thema.

Waarin deze systemen wezenlijk verschillen van systemen die we al kennen, is de capaciteit om te leren in plaats van ‘harde’ regels te volgen die vooraf geprogrammeerd zijn. De input voor deze nieuwe kunstmatig intelligente systemen kan voorlopig nog gecontroleerd worden en de effecten zijn achteraf te analyseren. Maar wat er precies gebeurt binnen kunstmatig intelligente systemen is vooralsnog onduidelijk. Het soort berekeningen, aantal berekeningen en de stappen van de algoritmes die de kern van deze systemen vormen zijn simpelweg te groot voor mensen om te analyseren. De mensheid lijkt hiermee een niet-biologische intelligente entiteit gecreëerd te hebben die we voor het eerst in de geschiedenis niet meer volledig in de hand lijken te kunnen houden.

De mensheid lijkt hiermee een niet-biologische intelligente entiteit gecreëerd te hebben die we voor het eerst in de geschiedenis niet meer volledig in de hand lijken te kunnen houden.

Het zijn geen systemen meer die harde regels hanteren, maar entiteiten die handelen volgens (leer)processen die wij als intuïtief zouden beschouwen. Niets houdt deze systemen tegen om ongewenst of gecriminaliseerd gedrag op de financiële markten te doorgronden en te integreren in hun handelen, mogelijk is dat reeds het geval. We spreken dan niet meer van de klassieke cybercrime waarbij een persoon of een groep gebruikmaakt van computertechnologie met schadelijke effecten als gevolg, maar technologie die dat zelf doet zonder daadwerkelijke inmenging of controle van de mens.

De focus op cybercrime zoals de procureur-generaal in Nieuwsuur op 15 juni heeft gepresenteerd, is daarom op termijn niet houdbaar. Cybercrime zoals we dat nu kennen zal in de toekomst een deelterrein worden van een groter onderzoeksterrein: Technologische Criminologie.

Cybercrime zoals we dat nu kennen zal in de toekomst een deelterrein worden van een groter onderzoeksterrein: Technologische Criminologie.

De nadruk op de in meer of mindere mate koppeling van mens en computer begint in de praktijk al langzaam te vervagen. Technologische ontwikkelingen bieden nieuwe kansen voor de maatschappij, maar ook voor ongewenst gedrag of schadelijke effecten waar de mens niet altijd meer een (hoofd)rol in zal spelen. Verbreding van technologische kennis betekent ook een verbreding van de theoretische criminologie die het empirisch onderzoek voedt met concepten en theorieën. Technologische criminologie zal daarom naast het adapteren van bestaande concepten en theorieën ook kennis van andere terreinen moeten gaan betrekken. Om de snelle ontwikkelingen bij te kunnen houden, is er haast  geboden. Zo hebben de hierboven genoemde voorbeelden al laten zien dat de potentieel schadelijke effecten al waarneembaar zijn.

Dit gevoel van urgentie is de aanleiding geweest voor mijn promotieonderzoek naar de schadelijke effecten van kunstmatig intelligente systemen en het ontwikkelen van een criminologisch conceptueel raamwerk om deze effecten te kunnen adresseren. De urgentie van onderzoek naar de toepassingen van kunstmatige intelligentie en mogelijke schadelijke effecten begint steeds duidelijker te worden. Het is mijn overtuiging dat deze technologische ontwikkelingen juist voor criminologen een uitdaging vormt die steeds belangrijker wordt en een meer centrale plek zal krijgen in onderzoek en onderwijs.

About the author: Gerald Hopster

Gerald Hopster holds a Master of Science in Criminology from the VU University Amsterdam. After his graduation, he started his PhD research in September 2015 at the department of Criminology of the Erasmus School of Law, Erasmus University in Rotterdam. His research interests are technological development and crime, cybercrime, white collar crime, and terrorism.

Related Post

1 COMMENT

  • Jeanine Evers says:

    12/07/2016

    Interessant probleem dat je daar schetst! Ook wel griezelig. En zeker nodig om te adresseren…

Leave a comment

Your email address will not be published. Required fields are marked ( * ).

Your comment*

Your name*

Your email*

All rights reserved © 2016 |Developed by Mike Pieters | Administrator login | Contact | Sitemap