Теряется ли ссылочный вес из-за nofollow страниц?

Тема в разделе "Общие вопросы оптимизации", создана пользователем Андрей Петров, 28 янв 2015.

Статус темы:
Закрыта.
  1. Андрей Петров

    Андрей Петров На форуме с: 24 окт 2013 Сообщения: 7

    Чтобы избежать страниц-дублей в индексе поисковика часть _внутренних_ ссылок закрыли в nofollow и noindex.
    Насколько я понимаю, поисковики все равно учитывают наличие на странице таких ссылок. Получается, что ссылочный вес попросту теряется.
    Если это так, то как поступить лучше?
  2. Dante

    Dante Супер-модератор На форуме с: 17 мар 2011 Сообщения: 5.026 Команда форума

    Можно текстом написать ссылку - site.ru
  3. Андрей Петров

    Андрей Петров На форуме с: 24 окт 2013 Сообщения: 7

    Так не получится. Я имею ввиду ссылки, например, в хлебных крошках.
  4. Dante

    Dante Супер-модератор На форуме с: 17 мар 2011 Сообщения: 5.026 Команда форума

    А зачем их закрывать? Это навигация, она наоборот облегчает структуру ресурса.
  5. Андрей Петров

    Андрей Петров На форуме с: 24 окт 2013 Сообщения: 7

    У нас на сайте каталог предложений очень глубокий (4 уровня вложенности) + географическая фильтрация.
    Хлебные крошки выглядят так:
    Сегмент > Подсегмент > Категория > Подкатегория
    Россия > Пермский край > Пермь
    В итоге имеем много страниц с повторяющимися анонсами товаров. Чтобы избежать дублей, поисковику позволяем работать только с последним уровнем - Подкатегория. Все остальные закрыты для индексации.
    Для пользователей ссылки открыты. По ним можно переходить по сайту.
  6. mark3000

    mark3000 На форуме с: 7 окт 2010 Сообщения: 479

    Анонс товаров не так страшен. А вообще сайт хорошо индексируется и продвигается? Если проблем нет, то не нужно ничего закрывать.
  7. Андрей Петров

    Андрей Петров На форуме с: 24 окт 2013 Сообщения: 7

    В Яндексе вроде нормально, но с Google похоже какие-то проблемы. Его доля в трафике 15%. Думаю, что из-за неполных дублей.
  8. Dante

    Dante Супер-модератор На форуме с: 17 мар 2011 Сообщения: 5.026 Команда форума

    Можно проверить site: url&
  9. Андрей Петров

    Андрей Петров На форуме с: 24 окт 2013 Сообщения: 7

    Извините, я не совсем понял, что этим и как можно проверить.
  10. Рэй

    Рэй На форуме с: 12 фев 2015 Сообщения: 4

    Может скажу глупость или банальность, но разве дубли страниц не проще закрыть от поисковиков с помощью robots.txt, как от гугла, так и от яндекса.
  11. Гончаров Кирилл

    Гончаров Кирилл На форуме с: 4 мар 2014 Сообщения: 131

    Вы правы, если знаете как будут выглядеть адреса дублей. Иногда получаешь адрес дубля неожиданный для себя. Тогда ИМХО можно попытаться закрыть каталог через robots.txt
Статус темы:
Закрыта.