кнопка наверх

Как избавиться от дублей страниц WordPress replytocom и других

избавление от дублейПривет! В предыдущей статье я рассказывала о том, как найти дубликаты страниц и чем они опасны. Сегодня мы узнаем как избавиться от дублей страниц раз и навсегда.

В WordPress есть отдельная категория дублей страниц, которые образуются из-за технических особенностей системы и присутствуют только в Google. Такие повторения сложно заметить на сайте и еще сложнее самостоятельно удалить. Радуйтесь, что вы читаете эту статью, потому что сейчас я вас всему научу!

Простой способ убрать дубли страниц

Если вы давно занимаетесь техническим совершенствованием своего блога, то наверняка уже сделали самые простые шаги, предотвращающие появление дублей. Проверьте себя:

  1. Убедитесь, что у вас настроен редирект с www на без www (или наоборот). Проверить это можно, набрав в адресной строке браузера адрес сайта: www.pro-wordpress.ru. Он должен автоматически замениться на pro-wordpress.ru. Если у вашего сайта несколько доменов, аналогично со всех них должен стоять редирект на главное зеркало сайта.
    www.pro-wordpress.ru
  2. В настройках плагина «All in One SEO Pack» должны стоять галочки «Канонические URL'ы (Canonical URLs)». Подробнее об этом можно прочитать тут.
    canonical url
  3. Многое зависит от настроек файла robots.txt. Если у вас нет понимания, для чего он нужен, обязательно прочитайте статью по ссылке.

Хорошо, если у вас сделаны эти три простейших пункта, но это еще не значит, что вы знаете, как удалить дубли страниц. Все самое интересное впереди.

Что такое дубли страниц WordPress replytocom и другие?

Если ваш блог сделан на WordPress, у вас наверняка присутствуют следующие типы дублей страниц:

  • replytocom
  • feed
  • tag
  • page
  • comment-page
  • attachment
  • attachment_id
  • category
  • trackback

Каждый из этих типов связан с определенной технической возможностью WordPress. Определить, какие из них есть у вас можно с помощью оператора site, об этом очень подробно написано в прошлой статье - тут.

Например, если добавить в конце урла любой статьи /feed, откроется xml версия статьи для RSS-рассылки - ее текст тот же самый, но адрес отличается. Replytocom используется в древовидных комментариях при нажатии кнопки «Ответить». Выходит, что каждый комментарий создает дополнительный url одной и той же страницы. А если у статьи тысяча комментариев, то и дублей у нее будет 1000.

С такими дублями страниц срочно нужно бороться, потому что сайт с подобной проблемой мгновенно попадает под фильтр Гугла Панда.

Почему именно Гугл, я уже объясняла. Все дело в файле robots.txt. Когда в нем закрыт доступ к чему-то, Google все равно забирает это в выдачу. Просто не показывает содержимое:

гугл и дубли страниц

Чтобы этого избежать, нужно наоборот открыть Гуглу доступ ко всему в файле robots.txt, при этом в head каждого файла добавить запрещающий индексацию мета-тег:

<meta name='robots' content='noindex,follow' />

Ниже я расскажу подробно, как это сделать.

Как убрать дубли страниц: инструкция

Приведу пошаговую инструкцию. Если вы совсем новичок, предварительно прочитайте статью о редактировании файлов WordPress.

  1. Полностью замените содержимое своего файла robots.txt на новое:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    
    User-agent: *
    Host: my-site.ru
    Disallow: /wp-feed
    Disallow: /wp-includes
    Disallow: /wp-content/cache
    Disallow: /wp-content/plugins
    Disallow: /wp-content/themes
     
    Sitemap: http://my-site.ru/sitemap.xml
     
    User-agent: YandexImages
    Allow: /wp-content/uploads/
     
    User-agent: Googlebot-Image
    Allow: /wp-content/uploads/
    Поменяйте my-site.ru на свой адрес. Теперь роботу разрешено заходить на любые страницы сайта.
  2. Найдите файл .htaccess в корне сайта. Добавьте в него следующий код после строки RewriteRule ^index\.php$ — [L]:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    
    RewriteCond %{QUERY_STRING} ^replytocom= [NC]
    RewriteRule (.*) $1? [R=301,L]
    RewriteRule (.+)/feed /$1 [R=301,L]
    RewriteRule (.+)/attachment /$1 [R=301,L]
    RewriteRule (.+)/comment-page /$1 [R=301,L]
    RewriteRule (.+)/comments /$1 [R=301,L]
    RewriteRule (.+)/trackback /$1 [R=301,L]
    RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
    RewriteRule (.*) $1? [R=301,L]
    Это набор 301-редиректов. Теперь при попытке робота зайти на страницы типа site.ru/post-name/feed/ его перебросит на оригинальную страницу типа site.ru/post-name/.
  3. В активной теме блога найдите файл function.php и добавьте в него код после <?php:

    1
    2
    3
    4
    5
    6
    7
    
    /* Вставляет мета-тег роботс noindex,nofollow постраничного разбиения */
    	function my_meta_noindex () {
    		if (
    			is_paged() // Все и любые страницы пагинации
    		) {echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";}
    	}
    add_action('wp_head', 'my_meta_noindex', 3); // добавляем свой noindex,nofollow в head
    Теперь на страницах c постраничным разбиением записей (например, http://pro-wordpress.ru/page/2) поисковик наткнется на запрещающий индексацию мета-тег и не будет показывать страницу в выдаче. Этот пункт я ставлю под сомнение, т.к. многие оптимизаторы считают, что нельзя закрывать от индексации страницы с анонсами статей блога. Выполнять данный пункт или нет, решайте сами.
  4. Перейдите в параметры плагина All in One Seo Pack и выставите следующие настройки индексации (см. скриншот)
    индексация в all-in-oneЭтими настройками плагин All in One Seo Pack автоматически добавил мета-тег «robots» на страницы с тегами и рубриками. Не пришлось делать это вручную, как для страниц с пагинацией записей.
  5. В админ-панели WordPress переходим в «Настройки -> Обсуждение» и снимаем галку с  «Разбивать комментарии верхнего уровня на страницы»:
    разбивать комментарииЭто нужно для того, чтобы комментарии не делились постранично. Тогда и не появятся новые адреса для тех же страниц.

Готово! Вы узнали, как удалить дубли страниц WordPress. Осталось дождаться переиндексации и проверить, уменьшилось ли количество страниц вашего сайта в индексе Google. Если вы сделали все согласно инструкции, то успех гарантирован!

Жду ваших вопросов в комментариях. Всем успехов в улучшении своего ресурса.


1 звезда2 звезды3 звезды4 звезды5 звезд (6 оценок, среднее: 4,17 из 5)
Загрузка...
like
Понравилось?
Подпишитесь на блог и получайте новые статьи!
Добавляйтесь в соц. сетях:
  1. Тина:

    все замечательно, если бы не одно «но» * после mfrb`манипуляций с гуглом было все в порядке, а вот из яндекса вообще сайт вылетел. Но как же быть с кнопкой ответитьв комментариях, которая по-прежнему неактивная

    Ответить
  2. Антонина:

    Спасибо, отличные рекомендации, после выполненных рекомендаций вернулись страницы в индекс на следующий день. Не совсем понятно как вставлять код в function.php, в таком же виде или это описание действия (/* Вставляет мета-тег роботс noindex,nofollow постраничного разбиения */) — первая строчка и последняя ( 3); // добавляем свой noindex,nofollow в head).

    Ответить
    • Анна:

      Антонина, между символами /* */ пишутся комментарии. Т.е. это код-подсказка, он только для вас, ни на что не влияет.

      Ответить
      • Антонина:

        Ок! Спасибо, отличная статья! фиды остались в соплях гугла, но я так понимаю они должны пропасть из индекса или мы просто сделали редирект с них?

        Ответить
        • Анна:

          Пропадут. У меня после выполнения этих действий в течение нескольких месяцев постепенно уменьшалось количество страниц в индексе Гугла.

          Ответить
      • Евгений:

        Подскажите пожалуйста для особо тугих))) Как именно выглядит код который нужно вставить в function.php?

        Заранее спасибо!

        Ответить
        • Анна:

          именно так он и выглядит, как в статье написано. а что именно вас в нем смущает?

          Ответить
  3. Роман:

    А на трафике как сказалось в результате?

    Ответить
    • Анна:

      Трафик растет плавно, но не факт, что это сильно повлияло.

      Ответить
      • Роман:

        Вы имеете в виду что повлияло не сильно — и не стоит лишний раз химичить ?

        Ответить
        • Анна:

          Химичить точно стоит!

          Ответить
        • Антонина:

          Не уверена что сильно разбираюсь в этом, но мне кажется что на трафик это может тоже повлиять. Суть всех этих махинаций в том, чтобы убрать дубли, а как известно дубли влияют на продвижение. После того как я все это сделала, вернулись исключенные из поиска страницы. По запросам эти страницы мне приносили 40-50% трафика на сайт. Исключены были из индекса именно по причине дублей. До этого много чего делала чтобы их убрать, сайт сильно штормило два месяца, что конечно для трафика не хорошо. Поэтому с дублями точно нужно бороться, они влияют негативно и на трафик тоже.

          Ответить
          • Роман:

            Да, на трафик повлияло — все в минус. И при чем каждый день меньше и меньше, что делать ? Вернуть все как было ?

            Ответить
  4. Николай:

    Все эти фишки я проделал месяца три назад, рост дубликатов сначала приостановился. Я успокоился.

    Но стали образовываться дубли с другими типами. Так ,например: /google.com/+НиколайИванов1954.

    Последняя приписка — это g+. А каким образом google.com не пойму. Яндекс их не находит и говорит: Ресурс не найден (404). Таких страниц уже набралось 90 штук.

    Если можете подскажите, что сделать.

    С уважением, Николай.

    Ответить
    • Анна:

      Интересно...о таком не слышала. Если что-то узнаю, обязательно напишу.

      Ответить
    • Роман:

      Нужно снести All in One SEO Pack и поставить Platinum SEO PACK потому как в All in One SEO Pack ссылка вида site/category/statya дописать чтото типо site/category/statya/luboi_text то посмотреть в исходный код и canonical будет вести на site/category/statya/luboi_text т.е. на дубль — и они так размножаются, а вот в Platinum SEO PACK такого уже нет.

      PS: Ну это если я правильно понял вопрос )

      Ответить
      • Чустный:

        Решение есть на блоге IdeaFox

        Ответить
  5. Николай:

    Буду благодарен.

    Ответить
  6. Антонина:

    Анна, подскажите пожалуйста как избавиться от таких дублей — после основного адреса —

    #igit_rpwt_main_image

    #igit_rpwt_thumb

    #igit_title

    причем дублируется так каждая запись, кроме страниц.

    Буду признательна!

    Ответить
  7. Антонина:

    Анна, я поняла — это все плагин IGIT Related Post With Thumb творит. Плагин убрала, а как теперь все эти дубли убрать?

    Ответить
    • Анна:

      Теперь остается только ждать, пока поисковики исключат из своей выдачи эти дубли. Раз плагин вы удалили, то больше ничего делать не нужно.

      Ответить
  8. Саид:

    Здравствуйте Анна, в меню отображается две одинаковые статьи, как убрать? Сайт tehnopark точка net , статья «кухонная плита, что необходимо учесть при выборе?»

    Ответить
    • Анна:

      Не вижу. Видимо уже убрали?

      Ответить
      • Саид:

        Нет, ниже меню есть блок «газовые плиты», там и отображается.

        Ответить
        • Анна:

          Значит удалите виджет газовых плит из левого меню, зачем он два раза. Глядя на сайт, сложно что-то сказать, нужно разбираться смотреть админку и код, чтобы разобраться.

          Ответить
  9. Наталья:

    Ребята- будьте осторожны с галочкой noindex в ALL SEO IN ONE PACK, после того как я поставила там галочку в блоге все статьи, которые находились на 2,3 и т.д. страницах выпали из индексирования... То есть все что было на главной странице блога- все норм. А далее после 10-й статьи — которые уходили на следующие страницы — хана. Главное обидно- выпали из индекса то они на следующий уже день, а вот обратно возвращаются ооочень туго)

    Ответить
  10. Андрей:

    > Чтобы этого избежать, нужно наоборот открыть Гуглу доступ ко всему в файле robots.txt,

    а можно пооподробнее для чего открывать это чудо?

    Ответить
    • Анна:

      Гугл все равно берет в индекс эти страницы, даже если вы их закрыли в роботсе, ему пофигу. Но их контент он не показывает, говорит, что «Описание веб-страницы недоступно из-за ограничений в файле robots.txt». эти страницы становятся дублями. Подробно об этом я писала в статье о том, как найти дубли.

      Ответить
      • Андрей:

        Анна, вы неправильно поняли мой вопрос. Если гугл их все-равно индексирует, то имхо ему их и открывать не надо дополнительно. То есть, я думаю, что настроить 301 можно не меняя лишний раз роботс. я не прав?

        Ответить
        • Анна:

          Андрей, возможно. Вы попробуйте сделать, не меняя роботс, а потом расскажете нам, каким будет эффект!

          Ответить
  11. Денис:

    в .htaccess как прописать чтобы не вылазили в поиске страницы с tag/

    Пробовал прописать строку

    RewriteRule (.+)/tag /$1 [R=301,L] но не помогает, все другие feed и т.п. перекидывает на нормальные страницы, а вот если есть tag то ничего не происходит

    Причём у меня именно много страниц в поисковиках с tag (мой_sait.ru/tag/слово ), других почти нет

    Ответить
    • Анна:

      Денис, а с чего вы взяли, что со страницы вида мой_sait.ru/tag/слово нужно ставить редиректы?

      Мы ставим редиректы со всяких ненужных, несуществующих страниц, типа комментариев. А теги — это реальные страницы, вот и на моем блоге они есть, например вот. От индексации мы их закрыли в пункте 4, поставив галочку в настройках плагина All in One Seo Pack — noindex для архивов меток.

      Ответить
  12. Сергей:

    То есть можно разрешить гуглу в робот ТХТ все и добавить редирект 301 и все? С кнопкой ответить ничего можно не делать в комментариях, вы ничего не делали

    Ответить
    • Анна:

      Видимо да, а чем кнопка «Ответить» мешает?

      Ответить
      • Сергей:

        У вас когда на кнопку «ответить» нажимаешь получается дубль страницы

        Ответить
  13. Сергей:

    Здравствуйте!

    Я хотел спросить про 3 пункт (это про страницы типа site.ru/page/2)

    Скажите пожалуйста избавляться от них или нет? просто я заметил что они все ведут на главную страницу но при этом ссылка остается: site.ru/page/2, site.ru/page/3, site.ru/page/4 ........ и так далее до 35.

    Ответить
    • Анна:

      Мы от них не избавляемся, а закрываем от индексации. Делать это или нет, каждый сам для себя решает. У меня сделано.

      Ответить
  14. Александр:

    Здравствуйте! Я создал себе сайт по сетевому маркетингу, копирайтингу и СЕО. Но возникла проблема. Многие страницы сайта попали в дополнительный индекс гугла, а яндекс проиндексировал лишь малую часть. Можете как знающий человек посмотреть и подсказать, что я сделал не так?

    Ответить
    • Анна:

      Яндекс индексирует сайты гораздо медленнее, чем Гугл, так что ждите, проиндексирует когда-то. Чтобы удалить страницы из дополнительного индекса Гугла, выполняйте действия, описанные в этой статье.

      Ответить
  15. greench:

    всем привет.Я только добавил код в htaccess. и всё ридерект заработал, могу остальное не делать ?

    Ответить
    • Анна:

      Можете не делать)) Но если хотите избавиться от дублей, нужно проделать все пункты данной инструкции.

      Ответить
      • greench:

        хотите открою секрет,яндекс намного лучше индексирует страницы сайта чем гугл, я утром добавляю новую статью,и страница в течение часа и в гугле и в яндексе

        Ответить
        • Анна:

          Читайте статью про ускорение индексации сайта, там про это подробно расписано. Здорово, что ваш сайт так быстро индексируется, но этим могут похвастаться не многие, на большинство начинающих сайтов Яндекс-бот заходит не чаще, чем раз в 2 недели!

          Ответить
          • greench:

            у меня раньше так было, но я научился загонять его на сайт каждый час

            Ответить
  16. greench:

    robots лучше так .

    User-agent: Yandex

    Allow: /wp-content/uploads/

    Disallow: /wp-login.php

    Disallow: /wp-register.php

    Disallow: /xmlrpc.php

    Disallow: /wp-admin

    Disallow: /wp-includes

    Disallow: /wp-content/plugins

    Disallow: /wp-content/cache

    Disallow: /wp-content/themes

    Disallow: /wp-trackback

    Disallow: /wp-feed

    Disallow: /wp-comments

    Disallow: /tag

    Disallow: /archive

    Disallow: */trackback

    Disallow: */comments

    Disallow: */trackback/

    Disallow: */feed/

    Disallow: */comments/

    Disallow: /?feed=

    Disallow: /?s=

    Host: ladies-paradise.ru

    User-agent: *

    Allow: /wp-content/uploads/

    Disallow: /wp-login.php

    Disallow: /wp-register.php

    Disallow: /xmlrpc.php

    Disallow: /template.html

    Disallow: /wp-admin

    Disallow: /wp-includes

    Disallow: /wp-content/plugins

    Disallow: /wp-content/cache

    Disallow: /wp-content/themes

    Disallow: /wp-trackback

    Disallow: /wp-feed

    Disallow: /wp-comments

    Disallow: /tag

    Disallow: /archive

    Disallow: */trackback

    Disallow: */comments

    Disallow: */trackback/

    Disallow: */feed/

    Disallow: */comments/

    Disallow: /?feed=

    Disallow: /?s=

    Sitemap: адрес карты сайта

    Ответить
  17. Александр:

    Сделал все так как написано, но вместо того чтобы избавиться от дублей у меня их было всего пару страниц, у меня в индекс попали более 40 страниц с мусором. Получается этот Роботс вообще не работает и все что нужно закрыть выкидывает в индекс. Как быть или все таки вариант вернуться к старому Роботсу? Что посоветуете?

    Ответить
    • greench:

      много чего попробовал, не помогало. После долгих мучений, удаление фидов, сделав редирект 301 на остальной мусор, установил плагин, и создал такой роботс. и всё помогло.

      User-agent: *

      Allow: /wp-content/uploads/

      Disallow: /wp-login.php

      Disallow: /wp-register.php

      Disallow: /xmlrpc.php

      Disallow: /template.html

      Disallow: /wp-admin

      Disallow: /wp-includes

      Disallow: /?s=

      Sitemap: адрес карты сайта

      Sitemap: адрес карты сайта

      Ответить
      • Ростислав:

        взял за основу этот роботс, посмотрим как будет работать

        Спасибо

        Ответить
      • Виктор:

        Подскажите, а что за плагин Вы использовали

        Ответить
    • greench:

      вот такой код не помешает в functions.php

      remove_action ('wp_head', 'rsd_link');

      remove_action ('wp_head', 'wp_generator');

      remove_action ('wp_head', 'feed_links',2);

      remove_action ('wp_head', 'feed_links_extra',3);

      remove_action ('wp_head', 'wlwmanifest_link');

      remove_action ('wp_head', 'adjacent_posts_rel_link_wp_head');

      remove_action ('wp_head', 'wp_shortlink_wp_head',10,0);

      Ответить
  18. Сергей:

    День добрый! Вопрос интересует следующий. Есть страницы вида site.ru/page/2, site.ru/page/3 и так далее. Ссылка с них на первую страницу выглядит как site.ru/page/1. По щелчку открывается страница site.ru (то есть происходит редирект с site.ru/page/1 на site.ru). И вот вопрос: как установить прямую ссылку, чтобы сразу было site.ru? Интересует не только для главной, но и для страниц категорий.

    Ответить
  19. Дмитрий:

    Скажите пожалуйста, в этой статье вы даете код для Роботс, благодаря которому поисковики смогут все посмотреть на сайте, в другой статье на вашем сайте по настройке Роботса — вы даете другой код.

    Вопрос такой — то есть нужно сначала все открыть, плюс к этому сделать еще указанные вами вещи, а когда дубли страниц пропадут — то опять закрыть ?

    Ответить
    • Анна:

      Нет, обратно закрывать не нужно. статья про роботс устарела, но я пока не нашла времени ее переписать.

      Ответить
      • Дмитрий:

        Интересный момент, пропали дубли в Гугл, и временами появляется в 2 раза больше страниц уже в Яндексе, а потом изчезает, и потом снова появляется

        Не сталкивались с таким ?

        Ответить
      • Витос:

        как сделать 404 на тег не че не помагает ни ридерект ни в функцион

        Ответить
  20. Татьяна Суркова:

    Анна, а как быть с дублями , которые появляются под кнопкой или ссылкой «читать дальше» в анонсе статьи, их как-то можно в редирект закрыть? Заранее благодарю за ответ.

    Ответить
  21. Медведь:

    Здравствуйте. у меня такой вопрос, как можно убрать дублирование комментариев? спасибо

    Ответить
  22. Владимир:

    Привет! Кто может сделать такие изменения, за рублей 300

    если точнее, то нужно убрать из индекса теги, метки — в гугле висят.

    Ответить
  23. Владимир:

    у меня в All in one seo pack

    Использовать noindex для архивов меток и для для рубрик

    а гугл их все равно в индекс сунет, что делать?

    Ответить
  24. Дмитрий:

    Я могу сделать то, что в этой статье написано

    У меня с Гугла пропали после этого почтив се дубли

    Обращайтесь — Str107@mail.ru

    Ответить
  25. Иван:

    Доброго времени суток, Анна. Вы говорите что теперь « роботу разрешено заходить на любые страницы сайта», но ведь смысл файла роботс в том что-бы запрещать роботу лазить во все щели сайта. И как теперь быть? То есть нам нужно выбирать либо мы избавляемся от дублей либо мы имеем рабочий файл роботс ?????

    Ответить
    • Анна:

      Читайте внимательнее статью. мы используем другой метод закрытия страниц от индексации вместо dissalow в роботсе.

      Ответить
      • Иван:

        Я сейчас прочту еще раз внимательно.

        Ответить
  26. Опять Я:

    В гугле было 113 страниц, сделал все выше перечисленное, кроме function. Через день добавил новую запись на сайт, в гугле стало 131 страница. Прошло 6 дней ... в индексе гугла все еще 131 стр. В чем может быть проблема. Дайте кто-то четкую инструкцию как избавиться от дублей

    Ответить
    • Анна:

      За 6 дней вы ни от чего не избавитесь. Ждать будете до полугода, пока роботы полностью переиндексируют ваш сайт. У меня в течение полугода плавно уменьшалось число страниц в индексе.

      Ответить
  27. Сергей:

    Здравствуйте, Анна! В коде, который нужно вставить в .htaccess, вторая и девятая строчка сознательно одинаковые, или это опечатка?

    Ответить
    • Анна:

      Так и должно быть.

      Ответить
      • Сергей:

        Анна, добрый день! Спасибо за ответ. Подскажите, пожалуйста, файл .htaccess обновляется при обновлении WordPress?

        Дело в том, что я уже вставлял код в файл .htaccess согласно Вашей статье, но вчера посмотрел и обнаружил, что записи отсутствуют (снова их внес). За это время произошло несколько обновлений WordPress.

        Ответить
        • Дмитрий:

          Нет, не должен обновляться

          Но если у вас его не стало и вы уверены в этом — заново просто впишите и все

          Ответить
          • Сергей:

            Да, я так и сделал. Спасибо, Дмитрий.

            Ответить
  28. Сергей:

    Анна, здравствуйте! У меня на блоге WP при вставке картинки в текст статьи появляется в коде атрибут rel="attachment wp-att-xxxx". Раньше такого не было. На сайте установлен плагин FancyBox for WordPress для увеличения картинки по клику на нее. Этот атрибут блокирует увеличение картинки.

    Не знаю, появилось ли такое дополнение из-за добавления кода в .htaccess или по какой-то другой причине. Можете ли Вы подсказать, что означает появившийся атрибут rel="attachment wp-att-xxxx", нужен ли он и если нет, то как от него избавиться программным способом?

    Заранее спасибо!

    Ответить
  29. mm086:

    Третий пункт корректно будет так:

    function my_meta_noindex () { if ( is_paged() ) {echo "".''."\n";} } add_action('wp_head', 'my_meta_noindex', 3);

    Ответить
  30. Леонид:

    Здравствуйте, попала в выдачу гугла страница wp-admin/admin-ajax, как это исправить?

    Ответить
  31. Votetoda:

    Автор с головой дружит plugins и themes от индексации закрывать? ))) Под фильтр Гугла хотите всех тут подвести?

    Ответить
  32. jeorgio:

    Анна, у меня установлен плагин Yoast SEO.

    Рекомендуемые изменения в код внесла, настроила свой плагин аналогично All in One Seo Pack.

    Будет ли сайт корректно индексироваться? Или для моего плагина нужно вносить другие правки в код?

    Спасибо!

    Ответить
Ваш комментарий: