1ps.ru ,запрет на индексацию беклинков

Тема в разделе "Яндекс", создана пользователем goshala, 16 мар 2012.

Статус темы:
Закрыта.
  1. goshala

    goshala На форуме с: 17 сен 2011 Сообщения: 59

    Перед регистрацией сайта в каталогах сервис 1ps.ru говорит что нужно убрать запрет на индексацию файла с беклинками,так как многие каталоги не найдут ссылку на себя.

    Я его посмотрел-это ссылкопомойник натуральный.

    А можно robots.txt представить как php скрипт ,который в случае user_agent=Googlebot,Yandexbot.... выдаёт запрет,а в случае каталогов-не выдает??
  2. leshii

    leshii Модератор На форуме с: 4 сен 2011 Сообщения: 2.539 Команда форума

    так а зачем там регистрироваться в таком случае?
  3. goshala

    goshala На форуме с: 17 сен 2011 Сообщения: 59

    leshii
    Быстро сделал мониторинг всех,кто обращается к robots.txt .В базу сохраняется айпи,дата,Referer,юзер-агент,результат gethostbyaddr.
    Думаю каталоги выдадут себя,их можно будет забанить,на других 2 сайтах такой же мониторинг,они не зареги в каталогах.
    Напишу еще крон,который забанит всех кого нет в той базе из 2х сайтов(должны быть поисковики)
  4. leshii

    leshii Модератор На форуме с: 4 сен 2011 Сообщения: 2.539 Команда форума

    goshala,не сильно понял эту систему, но, допустим, это возможно "А можно robots.txt представить как php скрипт ,который в случае user_agent = Googlebot, Yandexbot.... выдаёт запрет,а в случае каталогов-не выдает" (хотя сильно смахивает на клоакинг, который сурово карается). Повторяю вопрос: а зачем? Нужны ли Вам 100500 ссылок непонятно откуда?
  5. goshala

    goshala На форуме с: 17 сен 2011 Сообщения: 59

    Есть 2 вариантау меня
    1)Получить фильтр за клоакинг,за то что для гугла вежливо прошу не индексировать кучу ссылок(по юзер агент добавляю DIsallow /links.html)
    2)Получить фильтр за ссылкопомойник.
    Не пойму что страшнее
    -----------------
    ИМХО,лучше бан за клоакинг.Ссылкопомойник-для школьниц.Черное сео-путь для мужиков!
  6. leshii

    leshii Модератор На форуме с: 4 сен 2011 Сообщения: 2.539 Команда форума

    Т.е. есть 2 варианта и в обоих случаях светит фильтр... Бросьте монетку...
    Кстати, если Вы для разных ПС определяете через robots различную индексацию - это не клоакинг.
  7. goshala

    goshala На форуме с: 17 сен 2011 Сообщения: 59

    if ( strstr($_SERVER['HTTP_USER_AGENT'], 'Yandex') ) { $bot='Yandex';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'Googlebot') ) {$bot='Google';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'Slurp') ) {$bot='Slurp';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'WebCrawler') ) {$bot='WebCrawler';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'ZyBorg') ) {$bot='ZyBorg';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'google') ) {$bot='Google';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'scooter') ) {$bot='AltaVista';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'stack') ) {$bot='Rambler';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'aport') ) {$bot='Aport';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'lycos') ) {$bot='Lycos';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'fast') ) {$bot='Fast Search';}
    elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'rambler') ) {$bot='Rambler';}
    То есть если поисковик-robots.txt один,если человек-другой.
  8. Dante

    Dante Супер-модератор На форуме с: 17 мар 2011 Сообщения: 5.038 Команда форума

    Очень смешно:a1:

    Если в двух случаях светит бан, не проще ли вообще не заниматься продвижением, а пойти например семечками торговать?
  9. leshii

    leshii Модератор На форуме с: 4 сен 2011 Сообщения: 2.539 Команда форума

    goshala,
    Отличный способ! Вот только Вы запоздали лет на несколько.
  10. goshala

    goshala На форуме с: 17 сен 2011 Сообщения: 59

    Распарсил базу ссылок базы гомнокаталогов,где находится 1)имя хоста 2)ip адрес 3)gethostbyaddr-по результатам почти все находятся на общеизвестных хостингах.
    608 записей -обращений к робот.txt ,сохранен айпи и те же данные.
    315 айпи адресов совпадают с айпи из базы.
    Для них буду выводить что они не забанены,для нормальных людей-нормальный robots.txt
    По идее в гомно-базе Яндекса и хороших каталогов быть не должно.

    ---------- Сообщение добавлено 22.03.2012 в 14:36 ---------- Предыдущее сообщение размещено 21.03.2012 в 10:19 ----------

    ПОка забаню только такие каталоги,liveinternet и yandeg.ru имеют ТИЦ 20 000 и 70 000 соответственно,требуют обратную ссылку на главной.С таким высоким ТИЦ от Яндекса можно получить санкции даже если нормально вычислить бота,так как он наверняка знает про их требования обр. ссылки.
    Никто не знает где можно прогнать сайт после 1ps.ru(доски объявлений,закладки,другое).Какие нибудь нормальные сервисы для этого,которые для людей?
    Мне подарили 150руб. купон на пополнение счёта хостинга Джино.Кому нибудь надо?Джино не пользуюсь могу просто так отдать

    ---------- Сообщение добавлено 23.03.2012 в 18:21 ---------- Предыдущее сообщение размещено 22.03.2012 в 13:36 ----------

    ДЖИНО КУПОН 150 р. НАХАЛЯВУ ОТДАМ!!!
    Посмотрел -вроде гугл более менее адекватную выдачу даёт по факту прогона сайта в разлиных досках ,соц. закладках.Насколько понял-очень сильный фактор-это конкуренция и тот человек,которому вы сайт делаете.
    Если ниша позволяет быть конкурентноспособной-ваши дела в Интернете идут лучше.
Статус темы:
Закрыта.