Robots.txt

Technical & Infrastructure

A file telling search engine crawlers which pages to index and which to ignore on your site.

Hoe Het Werkt in FlipLink

De FlipLink-marketingsite gebruikt een robots.txt die het crawlen van alle openbare pagina's, blogposts, functiepagina's, woordenlijstentries en gidsen toestaat, terwijl interne API-routes en applicatiepaden worden geblokkeerd. Het bestand geeft ook expliciet toestemming aan AI-crawlers zoals GPTBot, ClaudeBot, Google-Extended, PerplexityBot en Applebot-Extended, zodat [flipbook](/glossary/flipbook)-gerelateerde content verschijnt in AI-gestuurde zoekantwoorden. Wanneer je flipbooks publiceert op een [Aangepast Domein](/features/custom-domains), kun je je eigen robots.txt op dat domein configureren om te bepalen hoe zoekmachines je gehoste publicaties behandelen. De functie [SEO & Sociale Previews](/features/seo-and-social-previews) werkt samen met robots.txt om ervoor te zorgen dat geïndexeerde pagina's geoptimaliseerde metadata presenteren aan zowel traditionele als AI-zoekmachines.

Gerelateerde Termen

Beschikbaar in andere talen

Klaar om je PDF's
te transformeren?

Sluit je aan bij duizenden bedrijven die FlipLink gebruiken om boeiende, interactieve content van hun PDF's te maken. Begin gratis — geen creditcard nodig.