Met de komst van AI-agents zoals OpenClaw is het gebruik van een computersysteem fundamenteel gekanteld: we gaan van “praten tegen AI” naar het bezitten van een AI die voor ons handelt. Alles wat jij kunt met een toetsenbord en een muis, kan een agent nu ook, of het nu gaat om het versturen van e-mails, het beheren van je bankrekening of zelfs het doen van complexe aankopen.
Wat dit zo’n aardverschuiving maakt, is het concept van de “loop”: een agent stopt niet bij een simpel antwoord, maar blijft kijken, vragen en handelen totdat een taak is volbracht. In plaats van dat jij urenlang websites afstruint voor de beste prijs of klachtenbrieven naar de gemeente typt over gaten in de weg, delegeer je simpelweg het doel. De agent, ondersteunt door een LLM, voert autonoom de tientallen tussenstappen uit die nodig zijn om de finishlijn te halen. Je computer verandert hiermee van een passief scherm in een actieve deelnemer die jouw fysieke beperkingen in tijd en administratieve last wegneemt.
Toch is deze nieuwe vrijheid niet zonder scherpe randjes. We ruilen onze directe controle in voor een systeem dat soms als een ongeleid projectiel kan werken; een agent kan zelfs je privacy te grabbel gooien als een vreemde erom vraagt.
De “lethale trifecta” van internettoegang, toegang tot privégegevens en onvertrouwde instructies betekent dat we onze digitale partnerschap met een gezonde dosis argwaan moeten opbouwen.
De “lethal trifecta” (dodelijke drievoudige combinatie) is een term in AI-beveiliging die verwijst naar de combinatie van drie factoren die een AI-agent (zoals een LLM-assistent) zeer kwetsbaar maakt voor aanvallen. Wanneer een AI-systeem deze drie kenmerken heeft, kunnen aanvallers eenvoudig gegevens stelen, instructies kapen en schadelijke acties uitvoeren.
De drie componenten zijn:
- 1. Toegang tot vertrouwelijke gegevens (Access to Secrets): De AI heeft toegang tot gevoelige informatie zoals API-sleutels, wachtwoorden, klantgegevens of privédocumenten.
2. Blootstelling aan onbetrouwbare externe inhoud (Untrusted Content): De AI kan gegevens lezen van niet-vertrouwde bronnen, zoals publieke websites, e-mails of gebruikersinput.
3. Mogelijkheid tot externe communicatie (Exfiltration Vectors): De AI kan acties ondernemen buiten de eigen omgeving, zoals e-mails versturen, Slack-berichten plaatsen of HTTP-verzoeken doen
Toekomstige arbeid
Filosofen kijken met een mengeling van fascinatie en vrees naar deze ontwikkeling, waarbij de kernvraag verschuift van intelligentie naar agency (handelingsbekwaamheid). Volgens denkers als Nicholas Lundblad hebben we de evolutie “achterstevoren” aangepakt: in de natuur ontstaat eerst de drang om te handelen en volgt intelligentie later, terwijl we bij AI eerst de intelligentie hebben gebouwd en nu proberen uit te vogelen hoe we het ‘handelingsbekwaamheid’ geven. In de toekomstige arbeid betekent dit dat we AI niet langer als intelligent product zien, maar als een afgevaardigde (delegate) waaraan we onze eigen menselijke vermogens uitbesteden om onze invloed op de wereld te vergroten.
Dit roept een prikkelende filosofische paradox op: wat gebeurt er met de maatschappij als “handelingsbekwaamheid” niet langer schaars is? Onze huidige wereld is gebouwd op de beperking van menselijke tijd en aandacht; we staan in de rij voor concerttickets omdat we niet op tien plekken tegelijk kunnen zijn. Als iedereen echter 10, 100 of 1000 keer meer kan “willen” door legioenen agents in te zetten, breekt het systeem van schaarste. Op de werkvloer kan dit leiden tot een overvloed aan actie, waarbij de grens tussen menselijke intentie en machinale uitvoering vervaagt, en waarbij overheden met “oneindige agency” elke wet tot op de kilometer nauwkeurig kunnen handhaven—een scenario dat volgens filosofen vervaarlijk dicht tegen een dictatuur aanschuurt.
Uiteindelijk dwingt de opkomst van agents ons om de hiërarchie tussen mens en machine opnieuw te definiëren via juridische metaforen: is een AI-agent een kind, een werknemer of een huisdier? Terwijl we door een periode van chaos gaan waarin organisaties overspoeld worden door digitale gedelegeerden, is de hoop gevestigd op een nieuw ecologisch evenwicht waarin agents andere agents reguleren.
De menselijke rol in toekomstige arbeid wordt wellicht niet het uitvoeren van taken, maar het managen van een digitale ecologie, waarbij we moeten accepteren dat onze “robotbreinen” soms menselijke lichamen in de echte wereld zullen inhuren om de klus te klaren.
