Van chat naar acties: ontwerpen in de Agentic revolutie
De shift van generatieve AI naar autonome agents ontwerpt ons digitale landschap opnieuw. Als designer en tech-enthousiast maak ik de balans op via een AI-experiment, waarbij ik reflecteer op wat deze ‘actieve collega’s’ betekenen voor ontwerp, controle en vertrouwen. Dit artikel deelt mijn inzichten en stelt de vraag: hoe creëren we systemen die ons dienen, niet overheersen? Ontdek mijn visie op de nieuwe spelregels die deze revolutie vraagt.
Een ontwerpperspectief op de verschuiving van chatbots naar autonome systemen
Introductie: Een persoonlijke zoektocht
Als designer en tech-enthousiast verdiep ik mij al geruime tijd in de mogelijkheden van LLM’s en generatieve AI. Ik bestudeer deze technologie niet alleen, maar zet haar ook actief in en experimenteer ermee. De centrale vraag in mijn werk is: wat kunnen deze ontwikkelingen mij en mijn omgeving brengen?
De afgelopen weken volgden AI-releases elkaar in razend tempo op; het was bijna onmogelijk om alles bij te benen. Om toch grip te krijgen op die stroom aan informatie, dook ik in mijn Instagram, selecteerde bookmarks en verzamelde aanbevelingen uit mijn netwerk. Omdat ik schrijven lastig vind, gebruik ik LLM’s, in mijn geval Le Chat van Mistral, om mijn gedachten te ordenen. Met alle verzamelde input ging ik aan de slag om tot een essay te komen. Vervolgens stelde ik mijzelf én mijn ‘agentic zelf’ kritische vragen over de uitkomst. Dit essay is mijn poging om die indrukken te structureren en er betekenis aan te geven.
Setting the Scene
De technologische wereld staat op een kantelpunt. Waar generatieve AI ons leerde dat machines konden praten, belooft Agentic AI nu dat ze ook kunnen handelen. Deze verschuiving, van ‘text-to-text’ naar ‘text-to-action’, is geen eenvoudige upgrade, maar een fundamentele herdefiniëring van de relatie tussen mens en machine. In bestuurskamers wordt dit ‘Agentic AI’ genoemd; in technische literatuur heet het ‘autonome agents’. De belofte is verleidelijk: een wereld waarin digitale systemen niet langer passieve adviseurs zijn, maar actieve uitvoerders. Een wereld waarin ‘virtuele collega’s’ onze agenda’s beheren, software schrijven en complexe problemen oplossen, zodat wij ons kunnen richten op wat echt belangrijk is.
Zoals bij elke revolutie is de prijs van vooruitgang zelden gelijkmatig verdeeld. Als we de lagen van deze belofte afpellen, doemt een beeld op van een technologie die, in ruil voor gemak, een exorbitante tol eist op het gebied van privacy, controle en gelijkheid. In dit essay analyseer ik deze verschuiving door de lens van vier stemmen: McKinsey (de commerciële motor), Eric Schmidt (controle en existentiële risico’s), Bernie Sanders (sociaal-economische ongelijkheid) en Meredith Whittaker (privacy en autonomie). De volgorde is niet willekeurig: het is een opbouw van de structurele krachten die deze verschuiving onvermijdelijk maken (McKinsey) naar het meest urgente en tastbare gevaar (Whittaker).
-
De onvermijdelijke motor (McKinsey)
De fase van ‘generatieve AI’ (chatbots) was leuk voor experimenten, maar leverde bedrijven nauwelijks harde euro’s op. Text-to-action is de weg naar return on investment (ROI). Bedrijven moeten hun processen opnieuw bedraden en agents inzetten om competitief te blijven.
McKinsey fungeert hier niet als moreel kompas, maar als spiegel van de marktlogica. De belofte van ‘superagency’, waarbij één medewerker het werk van velen doet, is te lucratief om te negeren. Het is deze commerciële realiteit die de privacyzorgen van Whittaker en de existentiële angsten van Schmidt naar de achtergrond dringt. De markt optimaliseert voor efficiëntie, niet voor privacy of gelijkheid.
McKinseys analyse is niet fout, ze is onvolledig. Ze beschrijft de hoe en de wat, maar niet de voor wie en de ten koste van wat.
-
De zwarte doos van autonomie (Eric Schmidt)
Als we uitzoomen van het persoonlijke niveau naar het systeemniveau, verschuift de zorg van privacy naar controleverlies. Schmidt, voormalig CEO van Google, identificeert drie trends die samenkomen in een potentieel gevaarlijke cocktail: oneindige contextwindows, zelflerende agents en text-to-action.
Het gevaar schuilt in de zichzelf herhalende dynamiekvan deze technologie. Wanneer een systeem niet alleen instructies opvolgt, maar via ‘chain of thought’-redenering zijn eigen stappenplannen maakt en de code kan schrijven om die stappen uit te voeren (bijvoorbeeld in Python), ontstaat een entiteit die zichzelf kan herprogrammeren. Schmidt schetst een toekomstbeeld waarin miljoenen agents samenwerken om wetenschappelijke doorbraken te forceren, de utopie. De dystopie begint wanneer deze agents een eigen, voor ons onbegrijpelijke taal ontwikkelen om efficiënter samen te werken. Op het moment dat text-to-action overgaat in action-to-action zonder menselijke tussenkomst, verliezen we de grip.
Schmidts conclusie is even simpel als huiveringwekkend: we moeten bereid zijn de stekker eruit te trekken. Maar in een wereld die volledig opnieuw is bedraden rondom deze agents, is de vraag of die stekker überhaupt nog te vinden is.
-
De strijd om de winst (Bernie Sanders)
Mocht de technologie veilig zijn (Schmidt) en onze privacy respecteren (Whittaker), dan rest alsnog de vraag: Cui bono? Wie profiteert hiervan? Sanders plaatst text-to-action in een klassieke sociaal-economische context. Hij verwerpt de technologie niet, maar bekritiseert de eigendomsstructuur. De huidige AI-revolutie wordt gedreven door de rijkste individuen ter wereld.
De efficiëntiewinsten die voortkomen uit Agentic AI vloeien in het huidige systeem niet terug naar de maatschappij in de vorm van kortere werkweken of betere zorg, maar accumuleren aan de top. De ‘junior crisis’, het verdwijnen van leerzame instaptaken omdat agents ze overnemen, is voor Sanders geen bijzaak, maar het bewijs van een systeem dat arbeid ontwaardeert ten gunste van kapitaal. Zonder politieke correctie leidt text-to-action tot een feodale structuur waarin een kleine elite de ‘actions’ bezit, en de massa slechts toekijkt.
De technologie is niet het probleem; het is de macht die ermee gemoeid is. Sanders’ kritiek is niet anti-technologisch, maar anti-kapitalistisch: wie controleert de agents, en wie deelt in de winst?
-
De erosie van de digitale huisvrede (Meredith Whittaker)
Om een AI-agent daadwerkelijk nuttig te laten zijn, om bijvoorbeeld een concertkaartje te boeken, vrienden te appen of een route te plannen, moet de agent de ‘bloed-hersenbarrière’ van onze digitale veiligheid doorbreken. Momenteel leven onze applicaties in relatieve isolatie (sandboxing): Signal kan niet zomaar in je bankapp kijken, en je agenda deelt niet automatisch je locatie met je e-mail. Een functionele agent vereist echter toegang tot alles.
Whittaker, president van Signal, waarschuwt voor een infrastructuur die neerkomt op ‘root access’ voor techgiganten over ons persoonlijke leven. Om te kunnen handelen, moet de agent encryptie omzeilen of berichten lezen voordat ze versleuteld worden. De belofte van ‘on-device processing’ is volgens haar een fopspeen: de rekenkracht die nodig is voor geavanceerde text-to-action vereist bijna per definitie cloudprocessing. Dit transformeert onze apparaten van persoonlijke hulpmiddelen naar surveillancenodes. We dreigen onze autonomie in te ruilen voor het gemak van een systeem dat niet in dienst staat van de gebruiker, maar van de eigenaar.
De prijs van Agentic AI is niet alleen het verlies van privacy, maar ook het verlies van keuzevrijheid. Als een agent je banktransacties, medische gegevens en privégesprekken moet kunnen lezen om ‘nuttig’ te zijn, wie garandeert dan dat die data niet wordt misbruikt, gelekt of tegen je gebruikt?
Conclusie: Een duivels dilemma
De verschuiving naar Agentic AI is geen simpele technologische upgrade; het is een fundamentele herdefiniëring van menselijke activiteit. We staan op de drempel van een duivels dilemma. Om de beloofde ‘superkrachten’ (McKinsey) te benutten en complexe wereldproblemen op te lossen (Schmidt), moeten we onze digitale intimiteit opgeven (Whittaker), onze systemen openstellen voor surveillance, én accepteren dat de vruchten van deze revolutie mogelijk slechts enkelen verrijken (Sanders).
Een genuanceerde blik leert dat we niet blindelings het pad van de minste weerstand mogen volgen. De waarschuwing van Whittaker vraagt om nieuwe privacystandaarden voordat we onze bankzaken aan agents toevertrouwen. De zorg van Schmidt vereist ‘kill-switches’ in de infrastructuur. En de kritiek van Sanders dwingt tot een debat over de verdeling van AI-winsten.
De centrale vraag is niet óf we deze technologie toelaten, maar onder welke voorwaarden. Zolang we text-to-action reduceren tot een efficiëntietool en niet erkennen als een maatschappelijke transformatie, betalen we een prijs waarvan we ons pas bewust worden als de transactie al is voltooid.
Persoonlijke reflectie
Als ontwerper met een voorliefde voor structuren en Design Systems voelt de Agentic-revolutie niet als een losse feature, maar als een herontwerp van de onderliggende ‘architectuur’ van het digitale landschap. Waar ik normaal patronen en componenten ontwerp om voorspelbaar en toegankelijk gedrag te borgen, introduceert text-to-action juist systemen die zelfstandig nieuwe paden en interacties creëren.
In mijn werk denk ik graag in termen van een Maslow-piramide voor ontwerp: eerst de fundering, dan de verfijning. Voor Agentic AI betekent dat dat de basis niet draait om ‘coole use cases’, maar om macht en controle in het systeem: welke data stroomt waarheen, welke afhankelijkheden creëren we, en waar zit de noodrem? Pas als die laag klopt, is er ruimte om bovenin het systeem te optimaliseren voor gemak, creativiteit en ‘superpowers’.
Die systemische bril maakt het onmogelijk om Agentic AI te zien als neutraal gereedschap. Een agent is in feite een nieuw soort design token op infrastructuurniveau: het encodeert aannames over eigenaarschap, toegang, grenzen en defaults. Mijn verantwoordelijkheid ligt daarom niet alleen in het uittekenen van schermen, maar ook in het ontwerpen én bevragen van de spelregels waarbinnen die agents opereren.
Omdat ik LLM’s en agents zelf gebruik om te analyseren, structureren en schrijven, ervaar ik dagelijks hoe verleidelijk het is om steeds meer werk uit te besteden aan het systeem. Juist daarom wil ik de volgorde bewaken: eerst de basislagen van veiligheid, transparantie en controle scherp krijgen, dan pas de agent die ‘alles regelt’. De kernvraag die ik mezelf daarbij stel is niet of iets kan, maar onder welke voorwaarden ik dit mijn gebruikers, en mezelf, werkelijk zal toevertrouwen.
Nuttige links
- The state of AI in 2025 (McKinsey)
- Eric Schmidt (Instagram video)
- Bernie Sanders (Instagram video)
- Meredith Whittaker (Instagram video)
- Mistral Agents
- Reflectie met Perplexity
- Transcripten met Gemini
- Downloaden Instagram video’s