AgentsIndex.ai
Mathijs Bronsdijk built AgentsIndex.ai, an autonomous directory of the AI agent ecosystem. Three agents discover, research and index tools based on verified data from 6 sources. Programmatic SEO turns each listing into dozens of pages automatically.
Een autonome directory van het AI agent ecosystem. Drie agents die dagelijks nieuwe tools vinden, ze onderzoeken vanuit echte bronnen, en de listings schrijven. Programmatic SEO maakt van elke listing automatisch tientallen pagina's.
3
AI Agents
11
pSEO page types
6
Databronnen
100%
Autonoom
Directories die niet kloppen
Het AI agent landschap groeit te snel om bij te houden. Elke week nieuwe tools, nieuwe frameworks, nieuwe startups. De meeste directories gooien alles op een hoop en doen daarna niks meer aan onderhoud.
En de beschrijvingen kloppen vaak niet. Ze zijn geschreven door een AI-model dat features verzint, prijzen raadt en generieke teksten produceert. Je zoekt een tool, leest de listing, en hebt nog steeds geen idee of het ding doet wat je nodig hebt.
Eerst onderzoeken, dan pas schrijven
De kern is simpel: de agent die schrijft mag niks verzinnen. Die krijgt alleen het research dossier, en dat dossier is gebouwd uit echte bronnen. Productpagina gescraped, wat gebruikers op Reddit erover zeggen, welke vragen mensen googlen, en bij open-source tools: de GitHub stats.
De ontdekking draait dagelijks. Zes bronnen worden gescand, de agent beslist zelf wat relevant is en checkt of het al bestaat. Nieuwe vondsten gaan door naar research, research gaat door naar de writer.
Na het schrijven haalt een humanizer AI-patronen uit de tekst. Geen API-call, puur regelgebaseerd. Dezelfde lijst die ik voor mijn andere projecten gebruik: woorden die eruit moeten, zinsstructuren die te herkenbaar zijn.
En dan de schaal. Elke listing genereert automatisch vergelijkingspagina's, alternatieven, top-lijsten, pricing overzichten. Duizenden pagina's uit een enkele tabel.
Van ontdekking tot publicatie in 4 stappen
Ontdekken
Elke dag scant een agent zes bronnen: Hacker News, GitHub, Product Hunt, events, communities en education platforms. De agent beslist zelf wat relevant is en checkt of het al bestaat.
Onderzoeken
Per tool wordt een dossier gebouwd uit echte data. Productpagina scrapen, gebruikerservaringen ophalen van Reddit en G2, SERP-vragen analyseren, en bij open-source tools: GitHub statistieken checken. Pricing, features, beperkingen, alles geverifieerd.
Schrijven
De Writer krijgt alleen het research dossier. Niks anders. Schrijft daar een listing van in zes secties. Daarna haalt een Python humanizer AI-patronen eruit. Geen extra API-call, puur regelgebaseerd.
Publiceren en vermenigvuldigen
Elke listing genereert automatisch vergelijkingspagina's, alternatieven, top-lijsten, pricing overzichten en open source hubs. Duizenden pagina's uit een enkele databron, zonder dat er iets handmatig aangemaakt wordt.
Wat het oplevert
Research-first
Elke listing gebaseerd op geverifieerde, getimede bronnen. Geen verzonnen features of geraden prijzen.
Duizenden pagina's
11 page types automatisch gegenereerd uit een enkele databron. Vergelijkingen, alternatieven, top-lijsten, pricing.
Dagelijks vers
Nieuwe tools worden dagelijks ontdekt. Research data heeft een vervaldatum van 30 dagen.
100% autonoom
Van ontdekking tot publicatie zonder dat iemand eraan hoeft te denken.
Waar het op draait
Discovery + Research
OpenAI Agents SDK
Writing
Claude Agent SDK + Python humanizer
Database
PostgreSQL + Prisma ORM
pSEO
Query + template systeem
Research data
Perplexity, GitHub API, web scraping
Frontend
Next.js (Vercel)