
Dead Internet Theory: Hoe AI het web ‘doodt’
Waarom dit onderwerp ertoe doet
Het internet werd jarenlang gezien als het grootste communicatie-instrument van de mensheid. Het bood een grenzeloos podium voor creativiteit, samenwerking, kennisdeling en discussie. De vroege dagen van forums, persoonlijke websites en later social media maakten van het web een levendige en menselijk aanvoelende plek.
Toch heerst er de laatste jaren een groeiende onrust: is het internet nog wel zo levendig als het lijkt? Of zijn we ongemerkt aanbeland in een synthetische schijnwereld, waarin AI, bots en algoritmes de dienst uitmaken en waar echte menselijke interactie steeds verder naar de achtergrond verdwijnt?
Deze onrust vormt de kern van wat bekendstaat als de Dead Internet Theory. Dit idee, dat vanaf de late jaren 2010 viraal ging, werd onder meer diepgaand besproken door wetenschapspresentator Kyle Hill. Volgens deze theorie wordt een steeds groter deel van de online activiteit aangedreven door machines in plaats van door mensen. De zorgen zijn niet beperkt tot ‘onschuldige’ bots, maar gaan vooral over het feit dat authentiek menselijk contact en echte creativiteit steeds minder zichtbaar, relevant en geloofwaardig worden.
Waarom is deze vraag juist nu zo belangrijk?
De omvang van de AI- en botactiviteit op het internet is schokkend. Volgens diverse cybersecurityrapporten kwam in 2023 bijna de helft van al het internetverkeer van bots. Denk hierbij aan zoekmachines, webcrawlers, datascrapers, maar ook aan sluwere bots die worden ingezet om te manipuleren, spammen of verkeerde informatie te verspreiden.
Zelfs zoekmachinebedrijven erkennen dat hun zoekresultaten steeds meer gevuld worden met content die bedoeld is voor algoritmes, niet voor mensen. Dit ondermijnt de waarde van online zoeken en vinden fundamenteel.
Grote nieuwsmedia luiden de noodklok over de ‘vijandige’ draai van het web: een digitale omgeving waar manipulatie, betekenisloze massaproductie van content en echokamers echte gesprekken en creativiteit verdringen.
Het begrijpen van de Dead Internet Theory is geen abstract vraagstuk, maar een dringende zoektocht naar vertrouwen, democratie, geestelijke gezondheid, mediaintegriteit en de toekomst van menselijke cultuur. Als het web het nieuwe dorpsplein is, moeten we ons afvragen: wie of wat is er eigenlijk nog aan het woord?
Belangrijke uitdagingen die dit onderwerp adresseert
De Dead Internet Theory raakt aan een aantal diep verweven uitdagingen die onze digitale levens ingrijpend beïnvloeden:
Botverzadiging en desinformatie
Bots zijn geautomatiseerde scripts die online taken uitvoeren. Ze worden niet alleen gebruikt voor legitieme doeleinden als indexeren, maar steeds vaker ook om te manipuleren, volgersaantallen op te blazen, trends te creëren en propaganda te verspreiden. Een cybersecuritystudie uit 2023 stelde dat ongeveer 47 procent van al het webverkeer van niet-menselijke bronnen kwam. Dat percentage schommelt per jaar, maar blijft zorgwekkend hoog.
Sociale netwerken zijn hier bijzonder kwetsbaar voor. Onderzoek in toonaangevende computerwetenschappelijke tijdschriften liet zien dat tijdens politieke evenementen meer dan 20 procent van de activiteit op Twitter of X door bots werd uitgevoerd. Deze bots worden in verband gebracht met grootschalige desinformatiecampagnes, het verspreiden van complottheorieën en het manipuleren van publieke opinie en productreviews.
Overvloed aan AI-gegenereerde content
De opkomst van geavanceerde AI, zoals grote taalmodellen en beeldgeneratoren, heeft het mogelijk gemaakt om binnen seconden enorme hoeveelheden synthetische content te maken. Nieuwswebsites, e-commerceplatformen en zelfs wetenschappelijke publicaties worden steeds meer overspoeld met AI-artikelen, valse productbeschrijvingen en spamreacties.
Experts waarschuwen dat als deze trend zich doorzet, tot 99 procent van alle toekomstige webcontent door machines geproduceerd zal zijn. Iedereen met een prompt kan tegenwoordig overtuigende teksten, levensechte afbeeldingen of zelfs volledige videopersona’s creëren. Deze content wordt gebruikt om geld te verdienen, mensen te misleiden of simpelweg om digitale ruimte te vullen—waardoor echte menselijke stemmen nauwelijks nog gehoord worden.
Verlies van vertrouwen en authenticiteit
Nu het web volstroomt met AI- en bot-content wordt het voor gebruikers steeds moeilijker te onderscheiden wat echt is en wat nep. Bizarre, volledig kunstmatige memes zoals “Shrimp Jesus” werden honderdduizenden keren gedeeld en geliket voordat duidelijk werd dat ze door AI gegenereerd waren.
De oude signalen van betrouwbaarheid—likes, shares, reacties—zijn gecorrumpeerd geraakt. Geautomatiseerde ‘likefarms’ en botnetwerken kunnen alles kunstmatig populair maken, waardoor het bijna onmogelijk is om te achterhalen wat daadwerkelijk leeft onder echte mensen.
Algoritmische manipulatie
De algoritmes van grote platforms zijn ontworpen om maximale betrokkenheid te creëren, niet per se om waarheid of waarde te bieden. Daardoor wordt sensationele, polariserende of simpelweg overvloedige content extra gepromoot—en dat is precies het soort content dat bots en AI gemakkelijk kunnen produceren. Ondertussen raken genuanceerde stemmen of minderheidsstandpunten snel ondergesneeuwd.
Dit lijkt niet altijd een technisch ongeluk, maar is eerder onderdeel van een feedbackloop: platforms optimaliseren voor aandacht, vaak ten koste van kwaliteit, veiligheid en menselijkheid.
Erosie van creatieve diversiteit
Wanneer content massaal wordt geproduceerd door AI, ontstaat er eenvormigheid. Generatieve modellen zijn getraind op bestaand materiaal en herhalen daardoor vaak dezelfde patronen, clichés en vooroordelen. Nichegemeenschappen, subculturen en minderheidsstemmen lopen het risico overspoeld te worden door een golf van ‘gemiddelde’ en inspiratieloze content—de “afvlakking” van het internet.
Innovatieve oplossingen en toepassingen
Hoewel de uitdagingen rondom het ‘dode’ of door AI gedomineerde internet groot zijn, werken pioniers uit technologie, beleid en media aan creatieve antwoorden:
AI-detectietools
Verschillende organisaties en startups ontwikkelen algoritmes die AI-content kunnen herkennen en signaleren. Deze tools analyseren tekstpatronen, metadata en afbeeldingskenmerken om onderscheid te maken tussen synthetisch en authentiek materiaal.
Sommige imagehosters voegen watermerken of metadata toe aan AI-afbeeldingen. Wetenschappelijke tijdschriften experimenteren met vergelijkbare technologieën om nepstudies en ‘papermills’ te weren.
Verificatie en platformverantwoordelijkheid
Om botmisbruik tegen te gaan eisen platforms strengere identiteitscontroles van gebruikers, zoals telefoon- of ID-verificatie. Er komen ook transparantere rapportages over het aantal verwijderde botaccounts en nieuwe vormen van herkenbare ‘blauwe vinkjes’ voor echte mensen.
Sommige sociale netwerken verplichten bots om hun niet-menselijke status openbaar te maken. Transparantie over hoe content wordt aanbevolen of juist onderdrukt groeit.
Regulerende kaders
Overheden en internationale organisaties introduceren regels en richtlijnen. In 2022 bracht Australië AI-ethische principes uit die nadruk leggen op menselijke waarden en transparantie. De Europese Digital Services Act en de aankomende AI Act eisen dat AI-content wordt gelabeld en stellen straffen in voor misbruik.
Denkfabrieken en brancheverenigingen werken aan modelwetgeving en best practices om deze nieuwe realiteit te beheersen.
Human-first content advocacy
Leiders in de journalistiek, wetenschap en techwereld pleiten voor een herwaardering van menselijke verhalen, onderzoeksjournalistiek en persoonlijke stemmen. De gedachte is eenvoudig: om AI-slop te bestrijden, moeten we content van echte, herkenbare mensen versterken. Sommige platforms creëren daarom speciale ruimtes voor geverifieerde menselijke makers.
Mediawijsheid en kritisch denken
Het versterken van de gebruiker staat centraal. Onderwijsinstellingen, non-profits en waakhonden promoten digitale geletterdheid: mensen leren om AI-content te herkennen, bronnen te checken en manipulatie te signaleren. Het draait om nieuwsgierigheid, scepsis en weerbaarheid tegen algoritmische invloed.
Transformationele impact op industrie en samenleving
De opkomst van de Dead Internet Theory—of deze nu letterlijk waar is of als metafoor dient—brengt ingrijpende veranderingen teweeg in media, technologie, bedrijfsleven en maatschappij.
Media en journalistiek
AI-artikelen, nepnieuws en bot-gedreven engagement bedreigen niet alleen het verdienmodel, maar ook de basis van democratische discussie. Redacties worstelen met de vraag hoe ze kunnen factchecken, cureren en vertrouwen behouden in een wereld waar bijna iedereen overtuigend nepnieuws kan maken.
Sommige nieuwsredacties investeren extra in onderzoeksjournalistiek en originele verhalen. Anderen werken samen met wetenschappers om detectietools te ontwikkelen.
Marketing en reclame
Merken die zich ooit baseerden op virale memes of influencer-campagnes kampen nu met een geloofwaardigheidscrisis. Naarmate bots en AI-influencers de platforms overspoelen, neemt het consumentenvertrouwen af. Slimme marketeers zetten daarom in op echtheid: echte klanten, transparantie en oprechte verhalen worden het nieuwe kwaliteitsmerk.
Technologie en platformontwerp
Social media, zoekmachines en contentplatforms heroverwegen hun kernalgoritmes. In plaats van alleen te optimaliseren voor kliks en engagement, experimenteren sommigen met ‘betekenisvolle’ meetpunten zoals leestijd, interactie tussen echte mensen en gemeenschapsimpact. De volgende generatie platforms zet waarschijnlijk meer in op menselijke verbinding en transparantie.
Maatschappelijk vertrouwen
De meest vergaande impact is het verlies van vertrouwen. Als mensen niet meer geloven wat ze online zien—nieuws, reviews of zelfs gesprekken—groeit cynisme. Dit ondermijnt niet alleen economie en media, maar ook burgerparticipatie, geestelijke gezondheid en democratie.
Publieke instellingen werken aan officiële, geverifieerde digitale kanalen en zoeken samenwerking met techbedrijven om desinformatie te bestrijden. Het vertrouwen in online communicatie bepaalt straks het succes van verkiezingen, gezondheidsvoorlichting en crisiscommunicatie.
Casestudy’s en praktijkvoorbeelden
Een aantal sprekende voorbeelden maakt de praktijk van de Dead Internet Theory zichtbaar:
Casestudy 1: De virale “Shrimp Jesus” meme
In 2023 ging een AI-gegenereerde afbeelding van een bizarre mix tussen een garnaal en Jezus Christus viraal. Hoewel het aanvankelijk een internetgrap leek, bleek uit analyse dat een groot deel van de interactie afkomstig was van bots die het bereik kunstmatig opbliezen. De meme werd een schoolvoorbeeld van hoe synthetische content, versterkt door niet-menselijke actoren, culturele momenten kan kapen en echte gesprekken kan overschaduwen.
Casestudy 2: Politieke bots bij verkiezingen
Tijdens de Amerikaanse verkiezingen van 2020 en 2024 toonden onderzoekers aan dat botnets massaal werden ingezet om partijdige berichten te verspreiden, tegenstanders aan te vallen en verwarring te zaaien. Uit studies bleek dat tijdens piekmomenten tot 20 procent van de politieke content door bots werd verspreid, met potentieel grote invloed op de publieke opinie.
Dit leidde tot oproepen voor strengere regelgeving rondom politieke advertenties en meer transparantie over de identiteit van accounts.
Casestudy 3: AI-contentfarms en SEO-spam
Met de opkomst van toegankelijke AI-schrijfhulpen gingen malafide webbeheerders duizenden lage kwaliteit blogs, productteksten en reviews produceren. Hun doel was niet informatie delen, maar zoekmachines misleiden en advertentie-inkomsten opstrijken. Grote zoekmachines moesten hun algoritmes aanpassen om deze “contentfarms” en AI-slop te weren, maar het kat-en-muisspel is nog lang niet voorbij.
Casestudy 4: Virtuele influencer-klonen
In 2023 experimenteerden marketingbureaus met ‘virtuele influencers’—AI-gecreëerde persoonlijkheden met realistische profielfoto’s en voorgeprogrammeerd gedrag. Sommigen verzamelden miljoenen volgers en sleepte reclamecontracten in de wacht. Na onthullingen over nepvolgers en geautomatiseerde engagement stortte het vertrouwen in influencer-marketing deels in en werden merken die meededen publiekelijk bekritiseerd.
Casestudy 5: AI in wetenschappelijke publicaties
Ook de academische wereld is getroffen. In 2022 en 2023 moesten grote wetenschappelijke uitgevers tientallen artikelen terugtrekken die deels door AI-papermills waren gegenereerd, soms compleet met verzonnen data. Dit leidde tot strengere peer review, plagiaatcontroles en speciale detectietools.
Ethische, privacy- en regulatoire overwegingen
De groei van synthetische online content roept nieuwe ethische en regelgevende vragen op:
Transparantie versus manipulatie
Moet AI-content altijd worden gelabeld? En wie moet dat afdwingen: platforms, overheden, of makers zelf? Zonder duidelijke labeling lopen gebruikers het risico ongemerkt te worden gemanipuleerd.
Privacy en surveillance
Bots en AI zijn niet alleen contentmakers, maar verzamelen ook massaal data. Dit vergroot de kans op surveillance, datalekken en ongewenste profilering. Privacyvoorvechters pleiten voor regelgeving die meegroeit met de technologische ontwikkelingen.
Bias en eerlijkheid
AI-modellen zijn getraind op bestaande datasets, die vaak de vooroordelen uit de samenleving weerspiegelen. Hierdoor kunnen ze bestaande ongelijkheden versterken of schadelijke desinformatie verspreiden. Ethische richtlijnen en toezicht zijn nodig om eerlijkheid en verantwoordelijkheid te waarborgen.
Mentale gezondheid en vertrouwen
Steeds meer mensen maken zich zorgen over de impact van synthetische, manipulatieve content op mentale gezondheid. Vooral kwetsbare groepen zoals jongeren of mensen met eenzaamheid lopen risico als ze bots of AI-chatbots aanzien voor echte gemeenschap.
Beleid en toezicht
Wetgevers proberen bij te blijven. De Europese Digital Services Act, de Amerikaanse discussies over Section 230 en de Australische AI-ethische principes zijn voorbeelden van een groeiend regelgevend kader. Effectief toezicht vereist internationale samenwerking, technologische innovatie en voortdurende alertheid.
Toekomstperspectief en kansen
De Dead Internet Theory werpt niet alleen een somber licht, maar wijst ook op kansen en innovatie:
Detectietechnologie
AI-detectietools blijven zich ontwikkelen. Watermerken, cryptografisch bewijs van herkomst en metadata-ketens worden mogelijk standaard, zodat gebruikers de bron van digitale content kunnen achterhalen.
Hybride platforms
Nieuwe sociale platforms combineren het beste van AI en menselijke creativiteit. Ze gebruiken AI voor moderatie en ontdekking, maar zetten echte, geverifieerde gemeenschappen centraal. Reputatiesystemen en beloningen voor echte bijdragen kunnen vertrouwen herstellen.
Samenwerking tussen mens en AI
De volgende golf van AI draait niet om vervanging, maar om versterking: tools die schrijvers helpen brainstormen, redacteuren ondersteunen bij factchecking en kunstenaars helpen met inspiratie, terwijl menselijke intentie leidend blijft.
Revolutie in onderwijs
Mediawijsheid wordt een kernvak. Scholen, universiteiten en bibliotheken leren jongeren kritisch bronnen beoordelen, manipulatie herkennen en verantwoord content maken en delen.
Ethische AI-standaarden
Industriestandaarden rond transparantie, uitlegbaarheid en gebruikersconsent winnen terrein. Deze standaarden zijn cruciaal om vertrouwen te bouwen en technologie te laten aansluiten op menselijke waarden.
Oproep tot actie
De toekomst van het internet is niet in code vastgelegd. Zij wordt gevormd door de keuzes van miljarden gebruikers, makers, technici en beleidsmakers. Nu de grens tussen mens en machine vervaagt, groeit onze gezamenlijke verantwoordelijkheid.
Eis transparantie: pleit voor duidelijke labeling van AI-content op alle platforms
Draag bij aan echtheid: deel je eigen stem en perspectief, en steun makers die écht zijn
Blijf waakzaam: leer manipulatie herkennen, stel kritische vragen bij te mooie verhalen en help anderen hetzelfde te doen
Steun ethische technologie: moedig platforms en wetgevers aan om menselijke waarden centraal te stellen in digitale innovatie
Als we willen dat het internet een levendige, menselijke plek blijft, moeten we allemaal bijdragen aan het herstellen van authenticiteit, vertrouwen en creatieve energie.
Blijf betrokken bij ons platform, abonneer je voor meer diepgaande analyses, en help de digitale toekomst vormgeven op AISubscriptions.io
Deze blogpost is gebaseerd op onderzoek, expertcommentaar en inzichten uit Kyle Hill’s “Dead Internet Theory: A.I. Killed the Internet”, grote nieuwsorganisaties en academische studies uit 2024 en 2025. Referenties zijn op aanvraag beschikbaar.