Дубляж страниц

Тема в разделе "Общие вопросы оптимизации", создана пользователем Taumi, 16 май 2011.

Статус темы:
Закрыта.
  1. Taumi

    Taumi На форуме с: 18 апр 2011 Сообщения: 68

    Я совсем расстроилась - у меня столько дублей наплодилось из-за относительных ссылок. ЧТо если в disallow запрещу все дубли в robots? Ну подскажите кто-нить? Количество страниц сайта в индексе падают вместе с моим настроением :a14:. А как их удалять ума не приложу...

    ---------- Сообщение добавлено в 10:43 ---------- Предыдущее сообщение размещено в 10:36 ----------

    А может запретить мне зеркало сайта без ввв ? Может Яндекс почистит у себя дубляж?
  2. M_a_Ge

    M_a_Ge На форуме с: 10 фев 2011 Сообщения: 320

    Все дубли контента закрывайте в robots.txt (для этого он и нужен). Там же укажите основной адрес сайта - директива host: <адрес сайта> (с www или без, т.е. какой чаще всего используется у внешних ссылок).
    1 человеку нравится это.
  3. Taumi

    Taumi На форуме с: 18 апр 2011 Сообщения: 68

    А еще моментик. В Вебмастере указаны страницы в поиске, некоторые из них дубли. Я в robots прописываю ,что некоторые страницы запрещаю к индексированию, а именно запрещаю именно те, которые являются дубликатами. По идее, те, которые были "страницами в поиске" должны пропасть, так как их в роботсе запретили, а проиндексирвоаться те, которые остались.
    Например:
    мойсайт/хороший/очен.ру, у него есть дубль мойсайт/хороший/хороший/очен.ру
    Дубль яндекс оставил как "страницы в поиске". Я пишу в роботсе disallow: /мойсайт/хороший/хороший/очен.ру .

    И тогда мойсайт/хороший/очен.ру должен вернуться в поиск?

    Вот в чем вопрос . Подскажите?
  4. Tony_Stark

    Tony_Stark На форуме с: 8 июн 2010 Сообщения: 197

  5. Taumi

    Taumi На форуме с: 18 апр 2011 Сообщения: 68

    Запретила в роботсе дубли через disallow
  6. M_a_Ge

    M_a_Ge На форуме с: 10 фев 2011 Сообщения: 320

    А изначально исходная страница мойсайт/хороший/очен.ру в поиск попала?
    Если да, то дубли должны быть убраны из индекса (по логике вещей). Точно сказать сложно, нужно провести эксперимент и проследить что будет.
    1 человеку нравится это.
  7. Taumi

    Taumi На форуме с: 18 апр 2011 Сообщения: 68

    Ребята ,всем спасибо. Я справилась. Нашла все дубляжи и запретила в роботсе. Нашла причину произошедшего. Накосячил paginator при настройках. Но теперь страницы возвращаются) :a1:

    ---------- Сообщение добавлено 26.05.2011 в 10:43 ---------- Предыдущее сообщение размещено 22.05.2011 в 15:06 ----------

    Опять косячок у меня. Подскажите ,кто силён в этом?

    Сайт на DLE
    в хтаччессе прописана такая строчка
    RewriteRule ^gallery/(.*)(/?)+$ /index.php?do=gallery&act=1&c=$1 [L]
    Из-за (.*)
    происходит дубляж контента и в индексе появляются одинаковые страницы вида

    gallery/category1/category2/something
    gallery/something
    gallery/category1/something

    Я предполагаю, что надо добавить несколько строчек которые будут обрабатывать
    ссылки с несколькими уровнями и соответсвенно добавить параметры в стрчку запроса, чтобы не просто c=$1,
    а c=$4&category1=$1&category2=$2&category3=$3
    Подскажите как поправить хтаччесс.
Статус темы:
Закрыта.