← Side Projects

AI Content Engine

De hele blog draait op een systeem van AI agents dat autonoom content produceert. Strategie, research, schrijven, images, auditen en publiceren. Alles geautomatiseerd.

AI Content Engine: pipeline van 6 AI agents die autonoom content produceren

1

Artikel

6

AI Agents

8

Tools

50

Skills

3

MCP Servers

100%

Autonoom

Hoe het werkt

Van strategie tot publicatie

Het begint elke maand met een nieuwe content kalender. De Strategy Agent kijkt via DataForSEO welke keywords interessant zijn, wat er al rankt en wat trending is. Op basis daarvan plant hij zo'n 15 posts in, gegroepeerd in topic clusters. Elk artikel heeft een duidelijke angle en weet al naar welke andere posts het straks linkt.

Zodra een post aan de beurt is, duikt de Research Agent erin. Die trekt de SERP open, leest wat de top 3 concurrenten schrijven, haalt recente cijfers op via Perplexity en kijkt wat AI-platforms als ChatGPT citeren over dat onderwerp. Ook pikt hij een relevante YouTube video mee. Alles komt in de database als een research brief, klaar voor de volgende stap.

Dan pakt de Writing Agent het op. Die hoeft niks meer uit te zoeken: alle research staat al klaar in de database. Hij laadt z'n 50 SEO- en GEO-skills in en schrijft het hele artikel. Daarna nemen de scripts het over: images genereren, YouTube embedden, een humanizer erover, en publiceren met een ping naar Google en Bing.

Stap 01

Strategy

Maakt een content kalender voor 30 dagen met keyword research, SERP-analyse en topic clusters

Stap 02

Research

Leest de SERP, scrapet concurrenten, haalt cijfers op via Perplexity en checkt AI-citaties

Stap 03

Write

Schrijft het artikel met 50 SEO/GEO-skills en de research uit de database. Inclusief de eigen stem van het merk

Stap 04

Images

Haiku bedenkt 3 scenes, Nano Banana 2 maakt de visuals en ze worden automatisch in de HTML gezet

Stap 05

YouTube

Pakt een relevante video uit de research brief en embed die als eigen sectie in het artikel

Stap 06

Audit

Humanizer haalt AI-patronen eruit, fixt spelling en ruimt de opmaak op

Stap 07

Publish

Zet de post live, pingt Google en Bing voor indexatie en werkt de kalender bij

Agents

6 agents, elk met een eigen taak

Elke agent krijgt een doel en bepaalt zelf hoe hij dat bereikt. Ze kiezen welke tools ze inzetten, laden de skills die ze nodig hebben, en gaan door tot de taak af is. Ze werken niet samen, ze delen een database: de ene schrijft, de volgende leest.

Profile Agent

Haiku 4.5

Leert de website kennen en bouwt daar een merkprofiel van: tone of voice, doelgroep, content pillars en visuele stijl.

Strategy Agent

Sonnet 4.6

Kijkt welke keywords kansrijk zijn, wat de concurrentie doet, en maakt daar een content kalender van voor 30 dagen. Alles logisch gegroepeerd in clusters.

Research Agent

Haiku 4.5

Duikt in het eerstvolgende keyword op de kalender. Leest de SERP, scrapet concurrenten, haalt cijfers op via Perplexity en checkt wat AI-platforms erover zeggen.

Writing Agent

Sonnet 4.6

Krijgt de complete research brief uit de database en schrijft daar het artikel van, met 50 SEO- en GEO-skills geladen. Hoeft zelf niks meer uit te zoeken.

Repurpose Agent

Sonnet 4.6

Pakt een gepubliceerd artikel en maakt er versies van voor LinkedIn, Medium en Blogger. Elk platform krijgt z'n eigen toon en opmaak.

Content Refresh Agent

Haiku 4.5

Houdt Search Console in de gaten en spot posts die in ranking dalen. Plant automatisch updates in zodat bestaande content niet achteruit gaat.

Stack

Waar het op draait

Gebouwd op de Claude Agent SDK met Anthropic's modellen, plus een handvol API's voor SEO-data, research en image generation.

Agent Framework

Claude Agent SDK (Python)

Elke agent is een query() call met z'n eigen system prompt, MCP servers en skills. Simpel, geen orchestrator nodig.

AI Modellen

Claude Sonnet 4.6 + Haiku 4.5

Sonnet voor de taken waar kwaliteit telt (strategie, schrijven). Haiku waar het snel en goedkoop moet (research, scenes, audits).

Database

Supabase (PostgreSQL)

Het gedeelde geheugen van alle agents. 14 tabellen met profielen, research, posts, kalender en analytics. Agents lezen en schrijven via MCP.

Image Generation

Nano Banana 2 via Replicate

Haiku bedenkt de scenes, Nano Banana 2 maakt de visuals. Elk artikel krijgt 3 afbeeldingen: een hero en 2 tussendoor. Automatisch naar WebP.

SEO Data

DataForSEO API

Alles wat je nodig hebt voor keyword research: SERP-data, difficulty scores, zoekvolume, People Also Ask, Trends en AI-citatiechecks.

Deep Research

Perplexity Sonar Pro

Haalt recente statistieken en bronnen op over een topic. Alles met verifieerbare URLs zodat het in het artikel kan.

Search Analytics

Google Search Console + GA4

Houdt bij hoe posts presteren: rankings, clicks, impressions. Signaleert welke content daalt en waar kansen liggen.

Hosting

Vercel + Supabase + Hetzner VPS

Frontend op Vercel, database en content API op Supabase, agents draaien op een VPS die ze automatisch start volgens de kalender.

Wil je het resultaat zien?

Elk artikel op de blog is door dit systeem gemaakt. Van research tot publicatie.

Bekijk de blog →