Deepfake
Deepfake wordt op veel creatieve manieren ingezet. Denk aan het maken van special effects voor films of videogames. Maar ook voor het tot leven wekken van oude foto’s en creëren van gekke filters op social media. Helaas worden deepfake-technieken ook gebruikt voor vervelende en zelfs illegale doeleinden. Voor meer informatie over wat deepfake precies is, kijk je op Wat zijn deepfakes?.
Hoe AI-technologie zich verder ontwikkelt, dat weten we op dit moment niet. Op nationaal en internationaal niveau wordt gewerkt aan wetten, regels en richtlijnen, zodat technologieën als AI op een verantwoorde manier kunnen worden ingezet.
De gevaren van deepfake - sextortion, wraakporno en desinformatie
Deepfakes worden ook ingezet voor het schaden van het imago en de reputatie van personen of organisaties. Sextortion Sextortion Bij sextortion worden intieme foto's en video's gebruikt om iemand te chanteren. Het slachtoffer kan gedwongen worden om meer van dit soort materiaal te maken en/of wordt gevraagd om geld te betalen. Gebeurt dit niet, dan dreigt de cybercrimineel met het openbaar maken van de foto's en video's. en wraakporno zijn hierbij de meest voorkomende vormen. Hierbij gebruikt de maker met vervelende bedoelingen deepfake-technieken om het gezicht van een pornoacteur te vervormen tot het gezicht van iemand anders – degene die hij belachelijk wil maken of kwetsen. Maar denk ook aan een deepfake van een directeur van een organisatie die iets zegt wat onhandig of zelfs beledigend is. Je kan je voorstellen dat het hem niet alleen in een kwaad daglicht stelt, maar ook het vertrouwen van zijn personeel en klanten kan kosten.
Naast aanvallen op een persoon of organisatie, worden deepfakes ook ingezet om nepnieuws nepnieuws Nepnieuwsberichten lijken vaak op echte nieuwsberichten. Vaak wordt nepnieuws gemaakt om mensen te beïnvloeden of misleiden. Ander nepnieuws wordt gemaakt in de hoop dat mensen op de link klikken, omdat er dan geld mee wordt verdiend. en desinformatie in de samenleving te verspreiden. Bijvoorbeeld in tijden van verkiezingen en oorlog. Doel hiervan is om meningen te beïnvloeden en het vertrouwen van mensen in organisaties en overheden te schaden.
Oplichters die deepfakes gebruiken
Artificial intelligence-technologie ontwikkelt zich razendsnel, waardoor het herkennen van een deepfake steeds moeilijker wordt. Bovendien zijn software en apps makkelijk beschikbaar en te gebruiken, waardoor iedereen eigenlijk een deepfake kan maken. Cybercriminelen maken hier helaas dankbaar gebruik van voor fraude en oplichting. Bijvoorbeeld door iemands stem na te maken, om vervolgens telefonisch mensen te overtuigen om geld over te maken. Dit wordt voicecloning voicecloning Voice cloning is een technologie waarmee je de stem van iemand kunt kopiëren. Je maakt een precieze kopie van hun stem en gebruikt die om ze dingen te laten zeggen die ze nooit hebben gezegd. genoemd.
Hoe voorkom je oplichting?
Maak nooit zomaar naar iemand geld over. Bel of mail eerst het nummer of adres dat bij jou bekend is, en check of diegene jou echt om geld heeft gevraagd.
Er zijn een aantal dingen waar je op kunt letten om oplichting te voorkomen. Meer informatie vind je op Hoe herken ik een nepmail of neptelefoontje?.
Hou er dus rekening mee dat deepfake beelden of geluiden kunnen lijken op mensen die je kent. Check dus altijd het nummer of het mailadres dat bij jou bekend is.