← Projecten

AgentsIndex.ai

Mathijs Bronsdijk built AgentsIndex.ai, an autonomous directory of the AI agent ecosystem. Three agents discover, research and index tools based on verified data from 6 sources. Programmatic SEO turns each listing into dozens of pages automatically.

Een autonome directory van het AI agent ecosystem. Drie agents die dagelijks nieuwe tools vinden, ze onderzoeken vanuit echte bronnen, en de listings schrijven. Programmatic SEO maakt van elke listing automatisch tientallen pagina's.

3

AI Agents

11

pSEO page types

6

Databronnen

100%

Autonoom

Het probleem

Directories die niet kloppen

Het AI agent landschap groeit te snel om bij te houden. Elke week nieuwe tools, nieuwe frameworks, nieuwe startups. De meeste directories gooien alles op een hoop en doen daarna niks meer aan onderhoud.

En de beschrijvingen kloppen vaak niet. Ze zijn geschreven door een AI-model dat features verzint, prijzen raadt en generieke teksten produceert. Je zoekt een tool, leest de listing, en hebt nog steeds geen idee of het ding doet wat je nodig hebt.

De oplossing

Eerst onderzoeken, dan pas schrijven

De kern is simpel: de agent die schrijft mag niks verzinnen. Die krijgt alleen het research dossier, en dat dossier is gebouwd uit echte bronnen. Productpagina gescraped, wat gebruikers op Reddit erover zeggen, welke vragen mensen googlen, en bij open-source tools: de GitHub stats.

De ontdekking draait dagelijks. Zes bronnen worden gescand, de agent beslist zelf wat relevant is en checkt of het al bestaat. Nieuwe vondsten gaan door naar research, research gaat door naar de writer.

Na het schrijven haalt een humanizer AI-patronen uit de tekst. Geen API-call, puur regelgebaseerd. Dezelfde lijst die ik voor mijn andere projecten gebruik: woorden die eruit moeten, zinsstructuren die te herkenbaar zijn.

En dan de schaal. Elke listing genereert automatisch vergelijkingspagina's, alternatieven, top-lijsten, pricing overzichten. Duizenden pagina's uit een enkele tabel.

Het systeem

Van ontdekking tot publicatie in 4 stappen

01

Ontdekken

Elke dag scant een agent zes bronnen: Hacker News, GitHub, Product Hunt, events, communities en education platforms. De agent beslist zelf wat relevant is en checkt of het al bestaat.

02

Onderzoeken

Per tool wordt een dossier gebouwd uit echte data. Productpagina scrapen, gebruikerservaringen ophalen van Reddit en G2, SERP-vragen analyseren, en bij open-source tools: GitHub statistieken checken. Pricing, features, beperkingen, alles geverifieerd.

03

Schrijven

De Writer krijgt alleen het research dossier. Niks anders. Schrijft daar een listing van in zes secties. Daarna haalt een Python humanizer AI-patronen eruit. Geen extra API-call, puur regelgebaseerd.

04

Publiceren en vermenigvuldigen

Elke listing genereert automatisch vergelijkingspagina's, alternatieven, top-lijsten, pricing overzichten en open source hubs. Duizenden pagina's uit een enkele databron, zonder dat er iets handmatig aangemaakt wordt.

Resultaat

Wat het oplevert

Research-first

Elke listing gebaseerd op geverifieerde, getimede bronnen. Geen verzonnen features of geraden prijzen.

Duizenden pagina's

11 page types automatisch gegenereerd uit een enkele databron. Vergelijkingen, alternatieven, top-lijsten, pricing.

Dagelijks vers

Nieuwe tools worden dagelijks ontdekt. Research data heeft een vervaldatum van 30 dagen.

100% autonoom

Van ontdekking tot publicatie zonder dat iemand eraan hoeft te denken.

Stack

Waar het op draait

Discovery + Research

OpenAI Agents SDK

Writing

Claude Agent SDK + Python humanizer

Database

PostgreSQL + Prisma ORM

pSEO

Query + template systeem

Research data

Perplexity, GitHub API, web scraping

Frontend

Next.js (Vercel)

Meer projecten