И снова здравствуйте) Суплементал)

Тема в разделе "Общие вопросы оптимизации", создана пользователем Qvvi, 11 янв 2011.

Статус темы:
Закрыта.
  1. Qvvi

    Qvvi На форуме с: 2 янв 2011 Сообщения: 64

    Потихонечку читал читал, и дочитался по ходу)
    Проблема:

    При индексе в гугле была примерно такая статистика
    Всего страниц в индексе: 35
    В супплементал: 6
    В основной выдаче: 29

    Сайт имеет 23 урла + индекс

    Позже было так (через недели 2)

    Всего 50
    Сопли 20
    Основная 30

    Сейчас совсем грустно:

    Всего 60
    Сопли 54
    Основная 6

    Причем в основной он видит индекс + 1 страницу с более менее приличным контентом, остальные страницы в основной выдаче - это фотки и цены к товару на фотках. Как так может быть? Перелинковка, пусть и слабенькая, пусть и не везде - есть. Контент строго уник кроме страницы "Статьи", руки просто не дошли. Бэки потихоньку растут, правда не с сапы, а с баз траст сайтов, но разницы же нет?


    Мои догадки:

    1. Одинаковый тайтл на всех страницах
    2. Переспам тайтла \ дескрипта (не уверен, не знаю грани перспам \ не переспам)
    3. Малое кол-во контента
    4. Смена дизайна. Шаблон поменял на шаблон, но на более редкий, подредактировал его, сунул флеш меню.

    Пункт 3 уже меняю, относительно этого еще один вопрос - не переоптимизировал ли я слишком ключи? Вроде читабельно.. Касается "Главной" и "Цены" вплоть до "Расходные материалы"

    Сам линк на сайт: http://www.pechati-stamps.ru/

    Буду очень признателен за совет )
  2. Леха

    Леха На форуме с: 11 янв 2011 Сообщения: 85

    Скорее всего АГС))) за спамился ваш блог
    1 человеку нравится это.
  3. Qvvi

    Qvvi На форуме с: 2 янв 2011 Сообщения: 64

    Спасибо конечно, но причем тут гугл и АГС?
    АГС'ы (17\30) - фильтры Яши. А с Яшей все в порядке пока что.
    Да и блогом страницу назвать трудно.
  4. Mongooz

    Mongooz На форуме с: 6 апр 2010 Сообщения: 317

    Qvvi, ну вообще у Google тоже есть фильтры, которые исключают из индекса лишние страницы. Но называются они и правда не АГС. Кстати, у вас явно перебор с болдом и стронгом, а также на каждую страницу копируется текст "как заказать", в том числе и на саму страницу "как заказать". По юзабилити, конечно, вы круто придумали, но дублирование контента и переспам тегами никто не отменял.

    Кстати, еще кинулось в глаза - правильно пишется "в течение ... дней"
  5. Qvvi

    Qvvi На форуме с: 2 янв 2011 Сообщения: 64

    Хах)) Спасибо, надо будет подправить)
    А страницы "как заказать" (при переходе) - действительно образуют дубли, но я их уже закрыл в роботс, индексация проходит только этой страницы: http://www.pechati-stamps.ru/index....ticleid=1&cntnt01origid=15&cntnt01returnid=15
    Как запретить к индексу модуль новостей - пока не понял..
    Может тогда подождать пару недель, потому как вот за эту неделю я вытащил из суплемента 3 страницы, уже стало 8 в основной выдаче.
  6. Леха

    Леха На форуме с: 11 янв 2011 Сообщения: 85

    Сори не много перепутал.... но фильтр точно побывал...
  7. Tony_Stark

    Tony_Stark На форуме с: 8 июн 2010 Сообщения: 197

    Блин, парни, прекращайте закрывать в роботсе страницы! Уже 21 век на дворе. Это дедовские методы.

    В хедере тех страниц, которые не должны индексироваться, пишете:

    <meta name="robots" content="noindex, follow">

    Все. Теперь страниц в индексе не будет, но по ссылкам робот пойдет. Вы не потеряете ссылочный вес, закрывая страницу в роботсе. Весь линк джус останется на сайте, а не уйдет в черную дыру Disallow'a.

    Вот правильный роботс.тхт:

    User-agent: *
    Disallow:
    Sitemap: http://www.yoursite.com/sitemap.xml
    1 человеку нравится это.
  8. Mongooz

    Mongooz На форуме с: 6 апр 2010 Сообщения: 317

    Метод классный, но что делать, если, например, joomla! сама пишет мета-теги и вручную их просто так не прописать? Все равно роботс.тхт корячить?
  9. slavs™

    slavs™ На форуме с: 14 янв 2011 Сообщения: 167

    В джумле легко в шаблоне ставить.
    Ошибочка вышла. Писать надо:

    <meta name="robots" content="noindex, nofollow">
  10. Mongooz

    Mongooz На форуме с: 6 апр 2010 Сообщения: 317

    slavs™, а можно более точно описать, как именно для одной конкретной страницы можно это прописать? Так, чтобы другие не менялись вообще? На полуторной и на единичных джумлах.
  11. slavs™

    slavs™ На форуме с: 14 янв 2011 Сообщения: 167

    Навскидку не скажу, поковыряю, вспомню, напишу здесь.
  12. Tony_Stark

    Tony_Stark На форуме с: 8 июн 2010 Сообщения: 197

    Никакой ошибки нету. Не путай людей.

    noindex, follow говорит роботу, что страницу в индекс добавлять не нужно, но по ссылкам пойти можно дальше. Соответственно, если на такую страницу стоят ссылки снаружи, то по внутренним ссылкам на странице, вес уйдет дальше. Если ты напишешь noindex, nofollow, то вес просто пропадет.

    Вся соль в том, что бы не индексировать страницу, но по ссылкам ходить. А твой вариант = Disallow в роботсе, при котором страница превращается в черную дыру и весь вес, который на нее попадает уходит в небытие.

    ---------- Сообщение добавлено в 22:44 ---------- Предыдущее сообщение размещено в 22:36 ----------

    Ссылки по теме ошибок при использовании robots.txt

    http://www.seomoz.org/blog/headsmacking-tip-13-dont-accidentally-block-link-juice-with-robotstxt

    http://www.seomoz.org/blog/serious-robotstxt-misuse-high-impact-solutions

    Почему-то мы забываем про то, что нам нужен вес, что платим за ссылки, но так запросто иногда выбрасываем то, что может помочь.
  13. slavs™

    slavs™ На форуме с: 14 янв 2011 Сообщения: 167

    Tony_Stark, вы несколько запутались сами и сами путаете людей.
    Страницу требуется превратить именно в черную дыру! Чтобы ссылки не отслеживались и не были проиндексированы.
    Я вообще себе слабо представляю ситуацию, когда потребуется на странице не индексировать контент, а ссылки проиндексировать. Чаще нужно наоборот.
    Зы. Я с Вами на брудершафт не пил.
  14. Mongooz

    Mongooz На форуме с: 6 апр 2010 Сообщения: 317

    slavs™, у меня такое ощущение, что все же более уместен вариант Tony_Stark,хотя бы потому, что действительно страница, которую вы закроете, в выдаче вам не будет мешать, но любая ссылка на нее (читайте: на ваш сайт) будет учтена. Если вы закрываете такую страницу - значит, вы уж точно на нее не покупаете ни контент, ни ссылочную массу. Итого - вы получите вес для тИЦ и PR от живой ссылки.
    И еще не очень понимаю, как вы помешаете индексации ссылок в интернете путем закрытия страницы на своем сайте.

    PS. Все же хотелось бы услышать, как именно в джумле делать мета-теги для каждой конкретной страницы. На самом деле насущный вопрос - посмотрите плз.
  15. Tony_Stark

    Tony_Stark На форуме с: 8 июн 2010 Сообщения: 197

    У меня все правильно написано и никаких запутанностей нету.

    Если кому-то интересно, я могу расписать тут когда нужен фоллов, когда нофоллов, что такое линк джус, что происходит с PR (Яндекс тоже, кстати, рассчитывает тИЦ для каждой страницы, только не отдает это в паблик) когда вы ставите на ссылку nofollow и много чего другого.

    Страницу очень редко следует превращать в черную дыру. Может вы удивитесь, но даже страницы сортировок не нужно закрывать в роботсе.
Similar Threads
  1. Ripper
    Ответов:
    0
    Просмотров:
    927
  2. LeeMit
    Ответов:
    1
    Просмотров:
    621
  3. mishko
    Ответов:
    4
    Просмотров:
    836
  4. Анна
    Ответов:
    2
    Просмотров:
    356
Загрузка...
Статус темы:
Закрыта.