Дублированный контент на сайте wedal.ru?
- diamondiger
- Автор темы
- Не в сети
- Захожу иногда
- Сообщений: 44
- Спасибо получено: 5
Пример:
wedal.ru/tag/virtuemart/Page-1.html
wedal.ru/tag/virtuemart/
Ведут на одну и туже страницу.
Разве это не ухудшает позиции сайта в поисковиках?
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.
- Wedal
- Не в сети
- Администратор
- Сообщений: 2868
- Спасибо получено: 659
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.
- diamondiger
- Автор темы
- Не в сети
- Захожу иногда
- Сообщений: 44
- Спасибо получено: 5
Проблема эта возникла, я так понимаю, из за неправильной работы Sh404SEF. Интересно, возможно ли как то избежать ручного исправления. Я таких настроек для Sh404SEF не нашел.
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.
- bionetinfo
- Не в сети
- Завсегдатай
- Сообщений: 157
- Спасибо получено: 39
В Sh404SEF действительно настройками проблему не решить. Дубли будут со всевозможными префиксами, окончаниями и т.п., особенно в VirtueMart. Можно просто запретить индексацию нежелательных дублей в robots.txt и в итоге в поисковой выдаче будет все красиво.diamondiger пишет: Проблема эта возникла, я так понимаю, из за неправильной работы Sh404SEF. Интересно, возможно ли как то избежать ручного исправления. Я таких настроек для Sh404SEF не нашел.
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.
- diamondiger
- Автор темы
- Не в сети
- Захожу иногда
- Сообщений: 44
- Спасибо получено: 5
А можно детальнее насчет robots.txt? Тут запрещать к индексации тоже каждую страницу отдельно, или можно как то сэкономить время? (я с настройками robots.txt сильно пока не разбирался).
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.
- bionetinfo
- Не в сети
- Завсегдатай
- Сообщений: 157
- Спасибо получено: 39
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.
- diamondiger
- Автор темы
- Не в сети
- Захожу иногда
- Сообщений: 44
- Спасибо получено: 5
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.
- vagant
- Не в сети
- Давно я тут
- Сообщений: 67
- Спасибо получено: 7
rss:
с .../index.php?option=com_virtuemart&page=shop.feed&category_id=3 на .../platya-i-sarafany/rss.html
и сортировка товара:
первая страница - сортировка по наименованию и по возрастанию
.../bluzki-i-rubashki.html
первая страница - сортировка по наименованию и по убыванию
.../bluzki-i-rubashki.html?DescOrderBy=DESC&keyword1=&keyword2= изменить например на .../bluzki-i-rubashki/Page-1-prod-desc.html
первая страница - сортировка по цене и по возрастанию
.../bluzki-i-rubashki.html?DescOrderBy=ASC&keyword1=&keyword2=&orderby=product_price изменить на .../bluzki-i-rubashki/Page-1-price-asc.html
первая страница - сортировка по цене и по убыванию
.../bluzki-i-rubashki.html?DescOrderBy=DESC&keyword1=&keyword2=&orderby=product_price изменить на .../bluzki-i-rubashki/Page-1-price-desc.html
и так на каждую страницу (конечно много ручной работы), все это для того чтобы урл были красивого вида. А для поисковиков дубли страниц позакрывать в файле роботс. Как думаете разумно ли? или не заморачиваться и просто закрыть дубли от поисковиков?
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.
- bionetinfo
- Не в сети
- Завсегдатай
- Сообщений: 157
- Спасибо получено: 39
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.
- Bright
- Не в сети
- Осваиваюсь на форуме
- Сообщений: 26
- Спасибо получено: 1
По-моему это не самый лучший вариант, по крайней мере он далеко не для всех. У многих страницы с окончаниями 1, 2, 3... могут быть не копиями первой, а реальными продолжениями, которые желательно индексировать.bionetinfo пишет: diamondiger, здесь я привел фрагмент robots.txt закрывающий от индексации дубли. Т.е. страницы с окончанием, например, ../Page-1(2,3...n) никуда перенаправляться не будут, просто в индекс не попадут
Пожалуйста Войти или Зарегистрируйтесь, чтобы присоединиться к беседе.