Uw AGENTS.md Is Nu Uw Concurrentievoordeel: Wat Er In Productiebestanden Staat
Next.js 16.2 maakte AGENTS.md standaard scaffolding op dinsdag. Augment's empirische studie en ons 11-repo template laten zien wat productiebestanden werkelijk bevatten.
Toen create-next-app drie dagen geleden AGENTS.md als standaard scaffolding uitbracht, hield de frameworkkeuze op met differentiëren. De inhoud van dat bestand is nu het enige wat een werkende agent-stack scheidt van een kapotte.
Zes maanden lang betekende een AGENTS.md dat uw team vooropliep. Vanaf 2026-04-28 levert elk nieuw Next.js-project er standaard één mee. Het signaal is weggevallen. Wat er in het bestand staat, is het nieuwe signaal.
De meeste engineering-managers behandelen AGENTS.md als documentatie. Het is een runtime-configuratiebestand dat het model bij elke aanroep laadt. Dit artikel bespreekt Augment Code's empirische studie, de 100 tot 150 regelregel die bepaalt of het bestand helpt of schaadt, en het template dat wij in 11 productie-klantrepo's gebruiken.
Kernpunten
Next.js 16.2 levert AGENTS.md als standaard scaffolding (uitgebracht op 2026-04-28). Elk nieuw starter-project op Vercel erft het.
Augment Code's AuggieBench-studie (2026-04-23): bestanden tussen 100 en 150 regels presteren het best. Na 150 regels slaan de winsten om.
Hetzelfde bestand kan de nauwkeurigheid bij bugfixes met 25% verhogen en de volledigheid bij features met 30% verlagen bij verschillende taken. De opbouw van secties telt zwaarder dan de totale lengte.
AGENTS.md is het enige documentatievlak met 100% discovery rate. Verweesde _docs/-mappen zitten onder de 10%.
De nieuwe onderscheidende factor zijn procedurele workflows, beslissingstabellen en one-liner reactieve regels. Geen architectuuroverzichten of gestapelde waarschuwingen.
Drie Dagen Geleden Hield AGENTS.md Op Met Differentiëren
Next.js 16.2 verscheen op 2026-04-28 met AGENTS.md als standaardbestand in het create-next-app template. Vercel distribueert de scaffolding naar elk nieuw starter-project. Het bestand dat voorheen aangaf dat een team vooropliep, zit nu in de lege doos.
De verschuiving in het gesprek is het punt. Zes maanden geleden was de vraag of uw team een AGENTS.md had. Deze week werd de vraag wat erin stond. Inkopers die dev-partners evalueren, hebben een nieuwe scorerubriek nodig, want het binaire signaal is verdwenen.
Twee parallelle signalen versterken de verschuiving. Matt Pocock's mattpocock/skills-repository bereikte 41.000 sterren in 85 dagen, en de repo is zijn .claude-map verbatim gepusht. Mensen geven sterren aan andermans agent-configs zoals ze vroeger sterren gaven aan frameworks. Zo ziet standaardisering eruit.
Garry Tan's gstack-repository, die dezelfde week uitkwam, passeerde 23.000 sterren in zeven dagen. Tan gebruikte het om 600.000 regels productiecode in 60 dagen te leveren. De repo bevat 31 markdown-skillbestanden. Er zit geen framework onder.
Als uw inkoopteam een manier nodig heeft om AI-readiness te scoren bij leveranciersevaluaties, heeft webvise dit template in 11 klantbuilds ingezet en kan u meenemen in de rubriek die wij gebruiken.
De 100 tot 150 Regelregel, Met Meting
Augment Code publiceerde op 2026-04-23 de eerste empirische studie naar de kwaliteit van AGENTS.md-inhoud. De auteur, Slava Zhenylenko, haalde tientallen AGENTS.md-bestanden op uit Augment's monorepo. Elk bestand doorliep twee keer de AuggieBench-evalsuite, eenmaal met het bestand aanwezig en eenmaal zonder. De uitvoer werd gescoord tegen de golden PR die mensen hadden gemerged.
Het hoofdresultaat: de beste bestanden leverden een kwaliteitssprong op die gelijkwaardig was aan een upgrade van Haiku naar Opus. De slechtste bestanden leverden uitvoer die slechter was dan helemaal geen AGENTS.md. Hetzelfde engineering-team, hetzelfde model, dezelfde taak. Het bestand maakte het verschil.
Het optimale bereik was smal. Bestanden tussen 100 en 150 regels, gecombineerd met een kleine set gerichte referentiedocumenten die op aanvraag worden geladen, leverden 10 tot 15% cross-metrische winsten op in middelgrote modules van circa 100 kernbestanden. Na 150 regels sloegen de winsten om.
Tan's eigen bekentenis sloot aan bij de bevinding vanuit de principes. Zijn CLAUDE.md telde 20.000 regels, met elke eigenaardigheid, elk patroon, elke les in één bestand gecodeerd. Claude Code zelf signaleerde de bloat. De oplossing was circa 200 regels verwijzingen, met de inhoud doorgeschoven naar op aanvraag geladen skills.
Ons eigen template in 11 webvise-klantrepo's, waaronder aesthetic-medicine-app, biomed-landing, hyyve-landing, kersten-betreuung-landing en urban-sports-sniper-app, komt uit op 126 regels. We hebben dat getal niet gekozen om bij de studie te passen. De studie verscheen twee weken nadat we gestandaardiseerd hadden.
Discovery rates uit Augment's traces over honderden sessies verklaren waarom plaatsing net zo belangrijk is als inhoud:
| Documentatievlak | Discovery rate |
|---|---|
| AGENTS.md (elk niveau van de hiërarchie, automatisch geladen) | 100% |
| Verwijzingen vanuit AGENTS.md (op aanvraag geladen) | 90%+ wanneer relevant |
| Directory-niveau README.md | 80%+ wanneer de agent in die directory werkt |
| Geneste README.md (subdirectories waar de agent niet in zit) | circa 40% |
| Verweesde _docs/-mappen waarnaar niets verwijst | onder 10% |
AGENTS.md is het enige vlak met betrouwbare discovery. Als iets gezien moet worden, staat het daar of wordt het daarvandaan gerefereerd. Inhoud naar een gerefereerde locatie verplaatsen doet meer werk dan meer documentatie schrijven.
Wat Er In Het Bestand Hoort, En Wat Het Doet Zinken
Augment's traces werden uitgesplitst naar inhoudstype. De patronen die de uitvoer verhoogden en de patronen die het verwoestten zijn niet symmetrisch.
Wat werkt
Procedurele workflows. Genummerde meerstappige workflows waren het sterkste enkelvoudige patroon. Een zesstappenworkflow voor het deployen van een nieuwe integratie verlaagde PR's met ontbrekende bedrading van 40% naar 10%, verhoogde de juistheid met 25% en de volledigheid met 20%.
Beslissingstabellen wanneer 2 of 3 redelijke opties bestaan. Een React Query versus Zustand beslissingstabel leverde een lift van 25% op in best_practices bij PR's in dat gebied. De tabel lost dubbelzinnigheid op voordat de agent code schrijft.
Echte codebase-voorbeelden van 3 tot 10 regels elk. Verbetert hergebruik en patroonadherentie. Langer en de agent matcht op het verkeerde ding.
Koppel elke don't aan een do. Alleen-waarschuwende documentatie presteert ondermaats. Een kale verbodsbepaling maakt de agent voorzichtig en explorerend. Koppel het aan een positieve richtlijn die de juiste call site noemt, en de agent gaat verder.
Module-niveau bestanden boven één gigantisch root-bestand. Het 100 tot 150 regelband past bij een middelgrote module van circa 100 bestanden. Cross-cutting root-bestanden voorbij die omvang verloren op elke metriek.
Wat de uitvoer doet zinken
Architectuuroverzichten. De agent leest het overzicht, opent dan tientallen omliggende documenten om zijn aanpak te verifiëren, laadt 10.000 tot 100.000 tokens irrelevante context, en de uitvoer verslechtert. Augment noemde dit de overexploratie-val.
Gestapelde waarschuwingen zonder gekoppelde richtlijnen. Met 30 tot 50 don'ts en geen do's verifieert de agent zijn oplossing afzonderlijk tegen elke waarschuwing, ook wanneer geen ervan van toepassing is.
Patronen die nog niet in de codebase bestaan. Als de AGENTS.md een architectuur beschrijft die de code niet implementeert, stuurt het bestand de agent actief de verkeerde kant op.
Documentatiespreiding rondom het bestand. Augment's slechtste performers waren AGENTS.md-bestanden bovenop 500K tot 2MB aan architectuurdocumenten. Het verwijderen van de AGENTS.md veranderde het gedrag nauwelijks. De agent las de spreiding hoe dan ook.
Reactief, Niet Vooraf Geschreven
Elie Steinbock publiceerde op 2026-04-20 een apart stuk met een discipline die de meeste enterprise-AGENTS.md-bestanden die wij auditeren, oplost. Schrijf geen tientallen regels voor voordat er iets is misgegaan. Pre-emptieve overstructurering creëert bloat die het model bij elke run parset.
Voeg regels reactief toe, wanneer een echte correctie heeft plaatsgevonden, en beperk toevoegingen tot one-liners. Voor alles zwaardere, verschuif de inhoud naar een progressief geladen skill. De AGENTS.md blijft compact. De skilllaag absorbeert het gewicht.
Tan's parallelle regel, de twee-keer-gefaald-discipline, zegt hetzelfde van de andere kant. Als u de agent twee keer om iets moet vragen, mag de tweede vraag niet bestaan. Het patroon gaat de skilllaag in of de AGENTS.md in als one-liner. Het systeem groeit.
Hoe dit eruitziet in een webvise-build: de AGENTS.md wordt geleverd op 126 regels met placeholders. De .claude/skills-directory bevat bij oplevering 8 tot 15 skillbestanden, elk een procedure die het team daadwerkelijk heeft uitgevoerd tijdens de build. Het bestand anticipeert niet op problemen. Het registreert opgeloste.
Vijf Vragen Die Inkoop Elke Leverancier Zou Moeten Stellen
De kwaliteit van AGENTS.md-inhoud is nu een meetbare proxy voor AI-native uitvoering. De vijf onderstaande vragen geven een niet-technisch inkoopteam een snelle lezing of een leverancier levert voor de 2026-stack of voor de 2024-stack.
| Vraag | Hoe een sterk antwoord klinkt |
|---|---|
| Laat uw AGENTS.md-template zien. Hoeveel regels telt het? | 100 tot 150 regels per module. Niet één root-bestand. Niet 1.000 regels. |
| Hoe is de skilllaag gestructureerd? | Progressive disclosure. Skills laden op aanvraag, niet in het root-bestand. |
| Wat is de regel voor het toevoegen van entries? | Alleen reactief. One-liners voor terugkerende correcties. Skills voor alles zwaardere. |
| Hoe meet u overexploratie bij lange taken? | Ze noemen een metriek. Tokenverbruik per taak, voltooiingspercentage bij meerstappentickets, of iets concreets. |
| Waar leven legacy-documenten, en hoe worden ze gerefereerd? | Modulair. Gelinkt vanuit AGENTS.md met een maximum van 10 tot 15 verwijzingen per bestand. Geen 2MB spreiding in _docs. |
Als een leverancier drie van de vijf niet kan beantwoorden, levert die nog steeds het 2024-template. De meeste enterprise-teams lopen hierop vast bij de documentatielaag. Die audit is de eerste fase van elk webvise-migratietraject.
De Diepere Bevinding: Herstel De Omgeving, Niet Alleen Het Toegangspunt
Augment's meest ongemakkelijke bevinding kwam uit de slechtst presterende AGENTS.md-bestanden. Ze lagen bovenop 500K tot 2MB aan omliggende architectuurdocumenten. Het team verwijderde alleen de AGENTS.md uit de run, en het gedrag veranderde nauwelijks. De agent las de spreiding hoe dan ook, ongeacht wat het toegangsbestand zei.
De implicatie is lastig voor legacy enterprise-teams. De meeste documentatieomgevingen die voor 2024 zijn gebouwd, bevatten jaren aan architecture decision records, design docs en runbooks. De agent laadt er genoeg van om een schone AGENTS.md te overstemmen. Een beter toegangsbestand schrijven is noodzakelijk maar niet voldoende.
Het werk is ongemakkelijk. Auditeer de documenten die de agent daadwerkelijk laadt, markeer de dode voor archivering, modulariseer de levende naar module-scoped verwijzingen, en houd de AGENTS.md alleen gericht op wat de agent moet lezen op het pad naar de wijziging. Tan's framing geldt: het brein is een git-repo, de orchestrator is een dunne dirigent die bestanden leest. Als de git-repo vol dode pagina's zit, lost geen enkel toegangsbestand dat op.
Wat Dit Betekent Voor Wie In 2026 Een Build Commissieonert
De frameworkoorlog is voorbij. Next.js, Astro, SvelteKit en Nuxt leveren AGENTS.md-scaffolding standaard mee of doen dat binnen het kwartaal. De onderscheidende factor is een laag omhoog verschoven. De inhoud van het bestand, de structuur van de skills-directory en de discipline achter beide bepalen of de agent-stack helpt of schaadt.
Moderne webbuilds in 2026 zijn vanaf dag één agent-leesbaar. Dat is het contract dat webvise standaard schrijft voor elk project, van een enkelpagina landingspagina tot een multi-tenant SaaS. Het 126-regeltemplate, de .claude/skills-laag en de reactieve-regels-discipline zijn geen extra's. Ze zijn de build.
De werkwijzen van webvise zijn afgestemd op de ISO 27001- en ISO 42001-normen.