Robots.txt

Technical & Infrastructure

A file telling search engine crawlers which pages to index and which to ignore on your site.

Как это работает в FlipLink

Маркетинговый сайт FlipLink использует robots.txt, который разрешает краулинг всех публичных страниц, блог-постов, страниц функций, статей глоссария и руководств, блокируя внутренние API-маршруты и пути приложения. Файл также явно разрешает доступ ИИ-краулерам — GPTBot, ClaudeBot, Google-Extended, PerplexityBot и Applebot-Extended — чтобы контент о флипбуках появлялся в ответах поисковых систем на основе ИИ. При публикации флипбуков на [пользовательском домене](/features/custom-domains) вы можете настроить собственный robots.txt на этом домене, чтобы контролировать, как поисковые системы обрабатывают ваши размещённые публикации. Функция [SEO и социальные превью](/features/seo-and-social-previews) работает совместно с robots.txt, обеспечивая предоставление оптимизированных метаданных как для традиционных, так и для ИИ-поисковых систем.

Связанные термины

Доступно на других языках

Готовы изменить
свои PDF?

Присоединяйтесь к тысячам компаний, использующих FlipLink для создания интерактивного контента из PDF. Начните бесплатно — кредитная карта не нужна.