Первая заметка

Disallow: /*?
Allow: /*.css?
Allow: /*.js?
Allow: /*?page=
Disallow: /*?page=1$

Суть этого кода в том, чтобы сперва закрыть ботам доступ к сканированию всех URL адресов с GET параметрами, а потом открыть доступ тем ссылкам, которые нужны.

Это правило компактнее, чем перечислять все GET параметры, которые хотим закрыть. Ещё это правило надёжнее, ведь параметры могут появиться любые и не надо каждый раз править файл robots.txt.

Иногда для статических файлов применяются версии. Поэтому мы прописали правила Allow: /*.css? и Allow: /*.js? ведь для скриптов и стилей часто указывают версию.

  • style.css?ver=9
  • style.css?v=10
  • style.css?v11
  • style.css?12

Примерно такими способами принудительно заставляют обновляться кеш и загружать новые файлы. Для нас откроется тот-же самый файл, но для системы это разные ссылки.

Если на вашем сайте такой метод обновления применяется и к картинкам, то нужно дописать такое правило:

Allow: /*.png?
Allow: /*.svg?
Allow: /*.jpg?
Allow: /*.jpeg?
Allow: /*.webp?