Вопрос Запрет дублирующей страницы?

Тема в разделе "Яндекс", создана пользователем nsg, 10 июн 2011.

Статус темы:
Закрыта.
  1. k3nzo

    k3nzo На форуме с: 27 фев 2011 Сообщения: 243

    А разве нельзя мета тегами прописать? по ищите, я точно помню натыкался на мета тэги, которые обозначают главную и дублирующую страницу. Если Вам это так принципиально, можете прописать их.
  2. nsg

    nsg На форуме с: 10 июн 2011 Сообщения: 16

    Проблема была решена и основная страница появилась в индексе http://www.domashniy-uyut.net/potolki/potolkiceni/
    вместо дубля http://www.domashniy-uyut.net/potolki/potolkiceni/?do=cat&category=potolki/potolkiceni,
    прописал в robots.txt - Clean-param: do&category /potolki/potolkiceni/


    Но появилась другая проблема, которой никогда не было - вместо основной страницы в индексе
    http://www.domashniy-uyut.net/potolki/
    появилась http://www.domashniy-uyut.net/potolki/?do=cat&category=potolki

    Не будешь же прописывать для каждой страницы Clean-param: может и правда прописать вместо этого всего в robots.txt - Disallow: /*?
  3. Tony_Stark

    Tony_Stark На форуме с: 8 июн 2010 Сообщения: 197

    Зачем вы себе голову с роботс.тхт морочите? Удалите из него все лишнее.
    А для тех страниц, которые не надо индексировать, пропишите в <head>-е
    <meta name="robots" content="noindex,follow">
    Либо каноникал. И проверьте свои внутренние ссылки. Где-то же есть ссылка на эти дубли ненужные.
  4. k3nzo

    k3nzo На форуме с: 27 фев 2011 Сообщения: 243

    ну так и все же... как я понял скопилось несколько вариантов решения проблемы, может кто из сеогуру =) прокомментирует наиболее правильное решение, ну и естественно обоснует его?
Статус темы:
Закрыта.