Дублированный контент на сайте wedal.ru?

6 года 2 мес. назад #1678 от diamondiger
Нашел на сайте две разные ссылки на страницу с одним содержанием.
Пример:
wedal.ru/tag/virtuemart/Page-1.html
wedal.ru/tag/virtuemart/
Ведут на одну и туже страницу.
Разве это не ухудшает позиции сайта в поисковиках?
Спасибо сказали: Wedal

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.

6 года 2 мес. назад #1686 от Wedal
diamondiger, вообще да. Спасибо, что написали. Как только дойдут руки поправлю ссылки на этой и всех аналогичных страницах.

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.

6 года 2 мес. назад #1690 от diamondiger
Всегда пожалуйста. Вообще у меня на сайте такая же проблема возникла.
Проблема эта возникла, я так понимаю, из за неправильной работы Sh404SEF. Интересно, возможно ли как то избежать ручного исправления. Я таких настроек для Sh404SEF не нашел.

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.

6 года 2 мес. назад #1694 от bionetinfo

diamondiger пишет: Проблема эта возникла, я так понимаю, из за неправильной работы Sh404SEF. Интересно, возможно ли как то избежать ручного исправления. Я таких настроек для Sh404SEF не нашел.

В Sh404SEF действительно настройками проблему не решить. Дубли будут со всевозможными префиксами, окончаниями и т.п., особенно в VirtueMart. Можно просто запретить индексацию нежелательных дублей в robots.txt и в итоге в поисковой выдаче будет все красиво.

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.

6 года 2 мес. назад #1704 от diamondiger
to bionetinfo: Sh404SEF можно сделать например редирект со страницы wedal.ru/tag/virtuemart/Page-1.html на страницу wedal.ru/tag/virtuemart/ у себя я проблему так и решил. Но тут приходится делать это в ручную для каждой такой страницы, что не есть хорошо.
А можно детальнее насчет robots.txt? Тут запрещать к индексации тоже каждую страницу отдельно, или можно как то сэкономить время? (я с настройками robots.txt сильно пока не разбирался).

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.

6 года 2 мес. назад - 6 года 2 мес. назад #1706 от bionetinfo
diamondiger, здесь я привел фрагмент robots.txt закрывающий от индексации дубли. Т.е. страницы с окончанием, например, ../Page-1(2,3...n) никуда перенаправляться не будут, просто в индекс не попадут. Аналогично можно добавить др. правила. Сделано, конечно, под VirtueMart. Ненужные записи удалите.
Спасибо сказали: diamondiger

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.

6 года 2 мес. назад #1735 от diamondiger
Спасибо за пример. Теперь понятно.

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.

6 года 1 мес. назад #2189 от vagant
Думаю вручную откорректировать ссылки

rss:
с .../index.php?option=com_virtuemart&page=shop.feed&category_id=3 на .../platya-i-sarafany/rss.html

и сортировка товара:
первая страница - сортировка по наименованию и по возрастанию
.../bluzki-i-rubashki.html
первая страница - сортировка по наименованию и по убыванию
.../bluzki-i-rubashki.html?DescOrderBy=DESC&keyword1=&keyword2= изменить например на .../bluzki-i-rubashki/Page-1-prod-desc.html
первая страница - сортировка по цене и по возрастанию
.../bluzki-i-rubashki.html?DescOrderBy=ASC&keyword1=&keyword2=&orderby=product_price изменить на .../bluzki-i-rubashki/Page-1-price-asc.html
первая страница - сортировка по цене и по убыванию
.../bluzki-i-rubashki.html?DescOrderBy=DESC&keyword1=&keyword2=&orderby=product_price изменить на .../bluzki-i-rubashki/Page-1-price-desc.html

и так на каждую страницу (конечно много ручной работы), все это для того чтобы урл были красивого вида. А для поисковиков дубли страниц позакрывать в файле роботс. Как думаете разумно ли? или не заморачиваться и просто закрыть дубли от поисковиков?

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.

6 года 1 мес. назад #2192 от bionetinfo
vagant, мое мнение - оставить страницы сортировки как есть. В VM очень много создается различных урлов в зависимости от запроса, все не выловишь. Например, "vmchk" никак не побороть переадресациями, только отключением проверки кукис, что не хорошо для посетителя. Что касается роботс, то его обязательно нужно правильно настроить. В итоге в поисковике будут только "чистые" ссылки без дублей.
Спасибо сказали: vagant

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.

5 года 9 мес. назад #2940 от Bright

bionetinfo пишет: diamondiger, здесь я привел фрагмент robots.txt закрывающий от индексации дубли. Т.е. страницы с окончанием, например, ../Page-1(2,3...n) никуда перенаправляться не будут, просто в индекс не попадут

По-моему это не самый лучший вариант, по крайней мере он далеко не для всех. У многих страницы с окончаниями 1, 2, 3... могут быть не копиями первой, а реальными продолжениями, которые желательно индексировать.

Пожалуйста Войдите или Зарегистрируйтесь, чтобы присоединиться к беседе.


Вверх