Удаление дубликатов страниц
- bionetinfo
-
Автор темы
- Не в сети
- Завсегдатай
-
- Сообщений: 157
- Спасибо получено: 39

Решил позакрывать от индексации дубликаты и не нужные страницы VM в robots.txt, в который кроме прочих стандартных правил добавил:
User-agent: *
Disallow: /vmchk/ (закрывает страницы проверки cookie)
Disallow: /*vmchk* (то же в др. вариантах. Может достаточно только этого правила, а первое лишнее?)
Disallow: /lost-password.html
Disallow: /lost-user-name.html
Disallow: /create-customer-account.html
Disallow: /view-your-cart-content.html
Disallow: /*Page-* (закрывает все варианты постраничных разбивок внутри категорий и пр. материалов)
Disallow: /*?* (закрывает дубли с использованием переменных ?formar=, ?pop=, ?start= и др.)
Disallow: /component/virtuemart/ (прочий функционал кроме разрешенных стр. с товарами и категорий)
Disallow: /shop/
Disallow: /index2.php (закрытие стр. для печати)
Прошу имеющих опыт реализации аналогичных решений проанализировать мое. Не запретил ли я чего нужного?! Может что-то еще добавить?
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.