Actueel
Bizarre beelden van Mart Hoogkamer: ‘Ik schrik hiervan’
Mart Hoogkamer schrikt van nepvideo: “Dat AI wordt eng”
Zanger Mart Hoogkamer is flink geschrokken nadat er op sociale media een video opdook waarin iemand die sprekend op hem lijkt, te zien is. Een volger stuurde hem de beelden met de vraag of ze echt waren — maar al snel bleek dat het ging om een deepfake, gemaakt met kunstmatige intelligentie (AI).

De video, die inmiddels breed circuleert, laat zien hoe een man in een auto zit en rechtstreeks tegen de camera praat. Hij stelt zich voor als Mart en noemt zelfs de naam van de volger die de beelden doorgestuurd kreeg.
“Ik maak deze video zodat jij weet dat ik het echt ben,” zegt de persoon in de opname.
Het klinkt en lijkt zó echt, dat zelfs trouwe fans even twijfelden.
“Dit ben ik zeker niet!”
Mart reageerde geschrokken op zijn Instagram Stories, waar hij de video zelf deelde om zijn volgers te waarschuwen.
“Dit ben ik zeker niet!” schrijft hij nadrukkelijk.
De zanger benadrukte dat hij niets met het filmpje te maken heeft en dat iemand zijn stem en gezicht digitaal heeft nagemaakt. De beelden bleken met AI-technologie te zijn gemaakt, waarmee nepvideo’s steeds realistischer worden.

“Dat AI wordt eng,” reageerde Mart zichtbaar ontdaan. “Dit is toch leip?”
Hij besloot de video te delen om anderen alert te maken, want volgens hem is het niet ondenkbaar dat zulke beelden kunnen worden gebruikt om mensen op te lichten of persoonlijke informatie te ontfutselen.
Deepfake-technologie rukt op
De nepvideo van Mart is een nieuw voorbeeld van hoe AI-deepfakes zich razendsnel ontwikkelen. Met deze technologie kunnen beelden en stemmen van bekende personen worden nagebootst op een bijna perfecte manier.
Steeds vaker worden zulke video’s gebruikt om volgers of fans te misleiden, bijvoorbeeld door te doen alsof een bekende persoon iets verkoopt, geld vraagt of een persoonlijk bericht stuurt. In sommige gevallen worden deze beelden zelfs ingezet bij online fraude.

Wat Mart vooral schokte, was de nauwkeurigheid waarmee de beelden waren gemaakt. Zijn gezichtsuitdrukkingen, stemgeluid en zelfs kleine bewegingen leken precies op hem.
“Het is echt bizar hoe echt dit lijkt,” aldus Mart. “Zelfs ik moest twee keer kijken.”
Volger twijfelde terecht
De hele situatie begon toen een oplettende volger Mart een bericht stuurde. De fan had het filmpje ontvangen en voelde meteen dat er iets niet klopte.
“Ik kreeg dit filmpje, maar ik twijfel een beetje of jij dit echt bent,” schreef de volger.
Mart bekeek de beelden en wist direct dat er iets mis was. “Het was creepy om te zien,” zegt hij. “Je ziet jezelf praten, maar het ben jij niet. Dat is echt een raar gevoel.”

Volgens experts is die verwarring precies wat deepfakes zo gevaarlijk maakt. Hoe beter de technologie wordt, hoe moeilijker het wordt om nep van echt te onderscheiden.
AI: van innovatie tot risico
Kunstmatige intelligentie biedt talloze voordelen — van spraakherkenning tot medische toepassingen — maar het heeft ook een donkere kant. Deepfakes worden steeds vaker ingezet voor misleiding, reputatieschade en oplichting.
In het geval van Mart lijkt het erop dat iemand de video heeft gebruikt om onder zijn naam contact te leggen met fans. Dat is niet alleen verontrustend, maar ook strafbaar.
Mart roept zijn volgers daarom op om altijd kritisch te blijven bij online berichten, ook als ze lijken te komen van bekende mensen.
“Als iemand zogenaamd ik ben, en iets vraagt of aanbiedt, check het altijd. Stuur me desnoods een bericht, maar ga niet zomaar ergens op in.”
Fans reageren massaal
Onder Mart’s bericht stromen de reacties binnen. Veel volgers spreken hun steun uit en delen hun eigen zorgen over de opkomst van deepfakes.
“Bizar hoe echt dit lijkt, ik zou het ook geloven,” reageert iemand.
“Goed dat je dit deelt, Mart. Mensen moeten echt oppassen,” schrijft een ander.
Anderen merken op dat dit soort technologieën een nieuw tijdperk van online misleiding inluiden.
“Het is niet meer alleen nepnieuws, maar ook nepbeelden,” aldus een fan. “Straks weet niemand meer wat echt is.”
Niet de eerste BN’er die het overkomt
Mart staat niet alleen in zijn ervaring. Steeds meer bekende Nederlanders worden geconfronteerd met AI-gegenereerde beelden van zichzelf. Eerder werden ook nepfilmpjes van internationale sterren zoals Tom Hanks, Taylor Swift en Keanu Reeves verspreid.
Sommige van deze deepfakes werden gebruikt in advertenties of scams, waarbij fans werden misleid om geld over te maken of persoonlijke gegevens achter te laten.
Cyberveiligheidsexperts waarschuwen dat de technologie de komende jaren alleen maar geavanceerder en toegankelijker zal worden. Iedereen met een computer kan in principe zulke video’s maken, zonder veel technische kennis.
Waarschuwing aan het publiek
Mart wil zijn ervaring gebruiken om anderen te waarschuwen voor de risico’s van deepfakes.

“Het lijkt onschuldig, maar dit soort dingen kunnen uit de hand lopen,” schrijft hij. “Stel dat iemand in mijn naam mensen probeert op te lichten — dat zou verschrikkelijk zijn.”
Hij benadrukt dat mensen nooit zomaar geld moeten overmaken of persoonlijke informatie moeten delen als ze iets verdachts ontvangen, ook niet als het van een bekende lijkt te komen.
Toekomst van digitale identiteit
Het incident rond Mart Hoogkamer werpt opnieuw de vraag op hoe we in de toekomst onze digitale identiteit kunnen beschermen. Technologiebedrijven werken aan manieren om deepfakes te herkennen, maar experts waarschuwen dat de strijd tegen misbruik een blijvende uitdaging zal zijn.
Mart blijft voorlopig nuchter, maar laat duidelijk merken dat hij onder de indruk is van wat hij heeft gezien.
“Ik ben niet snel bang, maar dit vond ik echt eng,” zegt hij. “Het laat zien dat je niet alles op internet kunt geloven, ook al lijkt het nog zo echt.”
Videospeler00:0000:05
Samenvatting
-
Een deepfake-video van Mart Hoogkamer circuleerde op sociale media.
-
Een volger vroeg zich af of de beelden echt waren — dat bleken ze niet.
-
Mart bevestigde via Instagram dat de video met AI was gemaakt.
-
De zanger noemt het “eng” hoe realistisch de technologie is.
-
Hij waarschuwt zijn fans om waakzaam te blijven voor digitale misleiding.
Conclusie:
De schrik bij Mart Hoogkamer is groot, maar zijn reactie is helder:
de opkomst van deepfake-technologie is geen toekomstmuziek meer —
het is hier, nu. Zijn waarschuwing aan het publiek is dan ook
duidelijk: geloof niet alles wat je ziet online, zelfs
niet als je denkt dat het echt is.
Actueel
Koen Wauters is er het hart van in na droevig nieuws over dochter Zita: “Ik lig hier echt wakker van”







