Robots.txt

Technical & Infrastructure

A file telling search engine crawlers which pages to index and which to ignore on your site.

Come Funziona in FlipLink

Il sito marketing di FlipLink utilizza un robots.txt che consente il crawling di tutte le pagine pubbliche, post del blog, pagine funzionalità e guide, bloccando le route API interne. Permette esplicitamente anche ai crawler AI come GPTBot, ClaudeBot e PerplexityBot. Quando pubblicate flipbook su un [Dominio Personalizzato](/features/custom-domains), potete configurare il vostro robots.txt su quel dominio. Le funzionalità [SEO e Anteprime Social](/features/seo-and-social-previews) lavorano insieme al robots.txt.

Pronto a trasformare
i tuoi PDF?

Unisciti a migliaia di aziende che usano FlipLink per creare contenuti coinvolgenti e interattivi dai propri PDF. Inizia gratis — non serve la carta di credito.