Помогите с тестом

Тема в разделе "Яндекс", создана пользователем Selw, 9 ноя 2019.

  1. Selw

    Selw На форуме с: 9 ноя 2019 Сообщения: 1

    №1.один вар-т ответа
    В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
    http://www.site.ru/stranica/ оригинал http://www.site.ru/STRANICA/ дубль
    http://www.site.ru/url/ оригинал http://www.site.ru/URL/ дубль
    Как решить проблему дублей?
    1. Уникализировать контент на страницах для того, чтобы система не считала их дублями и с них шел трафик на сайт
    2. Закрыть страницы от индексации страницы с верхним регистром в robots.txt
    3. Настроить в Яндекс.Вебмастере в разделе «Регистр имени сайта» нужный регистр
    4. Настроить 301 редирект с версии со слешом на без слеша и с верхнего регистра на нижний регистр
    №2 один вар-т ответа
    В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
    http://www.site.ru/ оригинал http://www.site.ru/?utm_sourse123456 дубль
    http://www.site.ru/url/ оригинал http://www.site.ru/url/?utm_sourse12121212 дубль
    Как решить проблему дублей?
    1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
    2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
    3. Прописать на подобных страницах тег <meta name =“robots” content=”index,nofollow”/>
    4. Ничего не делать, такие страницы со временем сами выпадут из индекса
    №3 несколько вар-тов
    Найдите ошибки в файле robots.txt:
    User-agent: *
    Disallow: /yupe/backend*
    Disallow: /*/default*
    Disallow: /en/
    Disallow: /*?_utl_t
    Disallow: /*login
    Disallow: /registration
    Disallow: /*?ajax=
    Disallow: /*?service=
    Disallow: *default*
    Allow: /en/*
    Host: https://site.ru
    Sitemap: https://site.ru/sitemap.xml
    Crawl-Delay: 5
    1. Директива crawl-Delay лишняя, т.к. не используется ни Google, ни Яндекс
    2. Директива Allow не используется в файле robots - она является устаревшей
    3. Правило Disallow: *default* закрывает все страницы, в URL которых есть «default», поэтому правило Disallow: /*/default* не имеет смысла
    4. Правило Allow: /en/* открывает все, что закрыто правилом Disallow: /en/
    5. В директиве Sitemap url сайта нужно писать без протокола http или https. Верно будет написать Sitemap: site.ru/sitemap.xml
    6. Директива Host лишняя, т.к. не используется ни Яндекс, ни Google

    №4 несколько вар-тов
    При анализе Яндекс.Вебмастера было выявлено, что выпадают из индекса карточки товара как дубли. Карточки имеют одинаковые мета-теги и контент. Их отличие в размере изделия и цвете. Что необходимо предпринять, чтобы избежать выпадения таких страниц из индекса?
    1. Прописать на карточках в коде: <meta name="robots" content="noindex" />
    2. Уникализировать мета-теги и тексты на странице, прописать цвет и размер в мета-тегах и текстах, а также в характеристиках
    3. Объединить данные карточки товаров в одну карточку с вариантами товаров. Внутри одной карточки товара должна быть возможность выбора размера и цвета.
    4. Оправить страницы на индексацию через Яндекс.Вебмастер



    Спасибо заранее
  2. leshii

    leshii Модератор На форуме с: 4 сен 2011 Сообщения: 2.572 Команда форума

    Что за тест и зачем?
    --- добавлено: Nov 9, 2019 4:47 PM ---
    ну и, кстати, даже в случае с одним правильным вариантом есть несколько возможностей, в т.ч. и не представленные здесь. Тест типа "угадай, какой ответ автор считает правильным".
    Последнее редактирование модератором: 17 ноя 2019 в 06:06
  3. ШоПен

    ШоПен На форуме с: 26 окт 2019 Сообщения: 3

    Я что-то вообще не понял, зачем прописывать в карточках одинаковые метатеги и контент
Similar Threads
  1. nfbeer
    Ответов:
    6
    Просмотров:
    1.904
  2. playmer
    Ответов:
    4
    Просмотров:
    1.539
  3. Fes07
    Ответов:
    6
    Просмотров:
    1.543
  4. kikosik666
    Ответов:
    3
    Просмотров:
    1.411
  5. iproxy
    Ответов:
    1
    Просмотров:
    304
Загрузка...