Повод простой: все чаще владельцы сайтов видят в логах GPTBot, OAI-SearchBot, ChatGPT-User, ClaudeBot и других AI-ботов. Но сам факт визита почти ничего не доказывает. Важно другое: какие страницы они читали, какой статус получили и есть ли у сайта понятные входы для машинного чтения.
Яндекс Метрика и похожие счетчики отлично показывают людей: визиты, клики, формы, заявки, конверсии. Но AI-боты часто не исполняют JavaScript как обычный браузер. Значит, если смотреть только клиентскую аналитику, можно вообще не увидеть важную часть картины.
Для AI-ботов нужен серверный слой: смотреть user-agent, путь, метод, статус ответа, referrer, время, повторяемость обхода и то, какие entrypoint-файлы были прочитаны.
Главная мысль: “AI-бот зашел” - это слишком грубо. Для бизнеса важнее понять, это был обучающий crawler, поисковый crawler или пользовательский запрос из AI-интерфейса.
Если в логах у AI-бота много статусов 499, это тревожный, но не панический сигнал. Обычно 499 означает, что клиент закрыл соединение до того, как сервер нормально закончил ответ.
На практике это может быть из-за тяжелой страницы, долгого ответа сервера, цепочки редиректов, защиты, таймаута, проблем с HTTPS или слишком медленного backend-ответа. Для человека сайт может “как-то открываться”, а для бота чтение будет регулярно обрываться.
page_view, запуск проверки, готовый отчет, скачивание PDF, клик по тарифу, старт оплаты, успешная или неуспешная оплата.
GPTBot, OAI-SearchBot, ChatGPT-User, ClaudeBot, Claude-SearchBot, Claude-User, PerplexityBot, Google-Extended и другие user-agent.
/llms.txt, /agenthub.json, /.well-known/agenthub.json, /company-profile.json, /p/*/index.json.
Статусы 4xx, 5xx, 499, странные редиректы, пустые ответы, заблокированные JSON и страницы, которые бот не может прочитать.
Потому что AI-боты - это уже отдельный слой дистрибуции информации. Они не заменяют SEO и не гарантируют продажи, но показывают, может ли сайт быть нормально прочитан системами, которые отвечают пользователю вместо привычного списка ссылок.
Если бот ходит только на главную и получает 499, это одно. Если он читает /llms.txt, /company-profile.json, JSON-LD и ключевые страницы с услугами, это уже совсем другая картина. Сайт начинает не просто “существовать в интернете”, а отдавать машинам структурированный маршрут чтения.
Мы разделяем аналитику на два слоя. Людей считаем через браузерные события: проверка сайта, отчет, PDF, клики по тарифам и оплатам. Ботов считаем на сервере: по user-agent, пути, статусу ответа и обращению к agent-ready файлам.
В админке это превращается в простые карточки: люди сегодня, AI-боты сегодня, проверки, отчеты, заявки, оплаты, топ AI-ботов, топ страниц для машинного чтения, разбивка статусов и последний визит GPTBot, OAI-SearchBot или ClaudeBot.
200.robots.txt./llms.txt, /company-profile.json и /.well-known/agenthub.json.Если хочется быстро понять, насколько сайт уже готов к AI-чтению, начните с бесплатной проверки. Она смотрит не только на наличие файлов, а на доступность, структуру, trust, JSON-LD и agent-ready entrypoints.
Проверить сайт Как разместить файлыМатериал адаптирован под подход Агентхаба к AI-бот аналитике и machine-readable слою. Для фактической части использованы официальные страницы OpenAI по crawler-ботам, справка Anthropic по ClaudeBot/Claude-User/Claude-SearchBot и документация Google по Google-Extended.
Источники: OpenAI Crawlers, Anthropic crawler docs, Google crawlers.