Robots.txt

Technical & Infrastructure

A file telling search engine crawlers which pages to index and which to ignore on your site.

Come Funziona in FlipLink

Il sito marketing di FlipLink utilizza un robots.txt che consente il crawling di tutte le pagine pubbliche, post del blog, pagine funzionalità, voci del glossario e guide, bloccando le route API interne e i percorsi applicativi. Permette esplicitamente anche ai crawler IA come GPTBot, ClaudeBot, Google-Extended, PerplexityBot e Applebot-Extended, affinché i contenuti relativi ai flipbook appaiano nelle risposte di ricerca basate su IA. Quando pubblicate flipbook su un [Dominio Personalizzato](/features/custom-domains), potete configurare il vostro robots.txt su quel dominio per controllare come i motori di ricerca trattano le vostre pubblicazioni ospitate. La funzionalità [SEO e Anteprime Social](/features/seo-and-social-previews) lavora insieme al robots.txt per garantire che le pagine indicizzate presentino metadati ottimizzati sia ai motori di ricerca tradizionali che a quelli basati su IA.

Termini Correlati

Disponibile in altre lingue

Pronto a trasformare
i tuoi PDF?

Unisciti a migliaia di aziende che usano FlipLink per creare contenuti coinvolgenti e interattivi dai propri PDF. Inizia gratis — non serve la carta di credito.