Как избавиться от дублей страниц WordPress replytocom и других
Привет! В предыдущей статье я рассказывала о том, как найти дубликаты страниц и чем они опасны. Сегодня мы узнаем как избавиться от дублей страниц раз и навсегда.
В WordPress есть отдельная категория дублей страниц, которые образуются из-за технических особенностей системы и присутствуют только в Google. Такие повторения сложно заметить на сайте и еще сложнее самостоятельно удалить. Радуйтесь, что вы читаете эту статью, потому что сейчас я вас всему научу!
Простой способ убрать дубли страниц
Если вы давно занимаетесь техническим совершенствованием своего блога, то наверняка уже сделали самые простые шаги, предотвращающие появление дублей. Проверьте себя:
- Убедитесь, что у вас настроен редирект с www на без www (или наоборот). Проверить это можно, набрав в адресной строке браузера адрес сайта: www.pro-wordpress.ru. Он должен автоматически замениться на pro-wordpress.ru. Если у вашего сайта несколько доменов, аналогично со всех них должен стоять редирект на главное зеркало сайта.
- В настройках плагина «All in One SEO Pack» должны стоять галочки «Канонические URL'ы (Canonical URLs)». Подробнее об этом можно прочитать тут.
- Многое зависит от настроек файла robots.txt. Если у вас нет понимания, для чего он нужен, обязательно прочитайте статью по ссылке.
Хорошо, если у вас сделаны эти три простейших пункта, но это еще не значит, что вы знаете, как удалить дубли страниц. Все самое интересное впереди.
Что такое дубли страниц WordPress replytocom и другие?
Если ваш блог сделан на WordPress, у вас наверняка присутствуют следующие типы дублей страниц:
- replytocom
- feed
- tag
- page
- comment-page
- attachment
- attachment_id
- category
- trackback
Каждый из этих типов связан с определенной технической возможностью WordPress. Определить, какие из них есть у вас можно с помощью оператора site, об этом очень подробно написано в прошлой статье - тут.
Например, если добавить в конце урла любой статьи /feed, откроется xml версия статьи для RSS-рассылки - ее текст тот же самый, но адрес отличается. Replytocom используется в древовидных комментариях при нажатии кнопки «Ответить». Выходит, что каждый комментарий создает дополнительный url одной и той же страницы. А если у статьи тысяча комментариев, то и дублей у нее будет 1000.
С такими дублями страниц срочно нужно бороться, потому что сайт с подобной проблемой мгновенно попадает под фильтр Гугла Панда.
Почему именно Гугл, я уже объясняла. Все дело в файле robots.txt. Когда в нем закрыт доступ к чему-то, Google все равно забирает это в выдачу. Просто не показывает содержимое:
Чтобы этого избежать, нужно наоборот открыть Гуглу доступ ко всему в файле robots.txt, при этом в head каждого файла добавить запрещающий индексацию мета-тег:
<meta name='robots' content='noindex,follow' /> |
Ниже я расскажу подробно, как это сделать.
Как убрать дубли страниц: инструкция
Приведу пошаговую инструкцию. Если вы совсем новичок, предварительно прочитайте статью о редактировании файлов WordPress.
- Полностью замените содержимое своего файла robots.txt на новое:
Поменяйте my-site.ru на свой адрес. Теперь роботу разрешено заходить на любые страницы сайта.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
User-agent: * Host: my-site.ru Disallow: /wp-feed Disallow: /wp-includes Disallow: /wp-content/cache Disallow: /wp-content/plugins Disallow: /wp-content/themes Sitemap: https://my-site.ru/sitemap.xml User-agent: YandexImages Allow: /wp-content/uploads/ User-agent: Googlebot-Image Allow: /wp-content/uploads/
- Найдите файл .htaccess в корне сайта. Добавьте в него следующий код после строки RewriteRule ^index\.php$ — [L]:
Это набор 301-редиректов. Теперь при попытке робота зайти на страницы типа site.ru/post-name/feed/ его перебросит на оригинальную страницу типа site.ru/post-name/.
1 2 3 4 5 6 7 8 9
RewriteCond %{QUERY_STRING} ^replytocom= [NC] RewriteRule (.*) $1? [R=301,L] RewriteRule (.+)/feed /$1 [R=301,L] RewriteRule (.+)/attachment /$1 [R=301,L] RewriteRule (.+)/comment-page /$1 [R=301,L] RewriteRule (.+)/comments /$1 [R=301,L] RewriteRule (.+)/trackback /$1 [R=301,L] RewriteCond %{QUERY_STRING} ^attachment_id= [NC] RewriteRule (.*) $1? [R=301,L]
- В активной теме блога найдите файл function.php и добавьте в него код после <?php:
Теперь на страницах c постраничным разбиением записей (например, https://pro-wordpress.ru/page/2) поисковик наткнется на запрещающий индексацию мета-тег и не будет показывать страницу в выдаче. Этот пункт я ставлю под сомнение, т.к. многие оптимизаторы считают, что нельзя закрывать от индексации страницы с анонсами статей блога. Выполнять данный пункт или нет, решайте сами.1 2 3 4 5 6 7
/* Вставляет мета-тег роботс noindex,nofollow постраничного разбиения */ function my_meta_noindex () { if ( is_paged() // Все и любые страницы пагинации ) {echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";} } add_action('wp_head', 'my_meta_noindex', 3); // добавляем свой noindex,nofollow в head
- Перейдите в параметры плагина All in One Seo Pack и выставите следующие настройки индексации (см. скриншот)
Этими настройками плагин All in One Seo Pack автоматически добавил мета-тег «robots» на страницы с тегами и рубриками. Не пришлось делать это вручную, как для страниц с пагинацией записей. - В админ-панели WordPress переходим в «Настройки -> Обсуждение» и снимаем галку с «Разбивать комментарии верхнего уровня на страницы»:
Это нужно для того, чтобы комментарии не делились постранично. Тогда и не появятся новые адреса для тех же страниц.
Готово! Вы узнали, как удалить дубли страниц WordPress. Осталось дождаться переиндексации и проверить, уменьшилось ли количество страниц вашего сайта в индексе Google. Если вы сделали все согласно инструкции, то успех гарантирован!
Жду ваших вопросов в комментариях. Всем успехов в улучшении своего ресурса.
все замечательно, если бы не одно «но» * после mfrb`манипуляций с гуглом было все в порядке, а вот из яндекса вообще сайт вылетел. Но как же быть с кнопкой ответитьв комментариях, которая по-прежнему неактивная
Спасибо, отличные рекомендации, после выполненных рекомендаций вернулись страницы в индекс на следующий день. Не совсем понятно как вставлять код в function.php, в таком же виде или это описание действия (/* Вставляет мета-тег роботс noindex,nofollow постраничного разбиения */) — первая строчка и последняя ( 3); // добавляем свой noindex,nofollow в head).
Антонина, между символами /* */ пишутся комментарии. Т.е. это код-подсказка, он только для вас, ни на что не влияет.
Ок! Спасибо, отличная статья! фиды остались в соплях гугла, но я так понимаю они должны пропасть из индекса или мы просто сделали редирект с них?
Пропадут. У меня после выполнения этих действий в течение нескольких месяцев постепенно уменьшалось количество страниц в индексе Гугла.
Еще раз благодарю!
Подскажите пожалуйста для особо тугих))) Как именно выглядит код который нужно вставить в function.php?
Заранее спасибо!
именно так он и выглядит, как в статье написано. а что именно вас в нем смущает?
А на трафике как сказалось в результате?
Трафик растет плавно, но не факт, что это сильно повлияло.
Вы имеете в виду что повлияло не сильно — и не стоит лишний раз химичить ?
Химичить точно стоит!
Не уверена что сильно разбираюсь в этом, но мне кажется что на трафик это может тоже повлиять. Суть всех этих махинаций в том, чтобы убрать дубли, а как известно дубли влияют на продвижение. После того как я все это сделала, вернулись исключенные из поиска страницы. По запросам эти страницы мне приносили 40-50% трафика на сайт. Исключены были из индекса именно по причине дублей. До этого много чего делала чтобы их убрать, сайт сильно штормило два месяца, что конечно для трафика не хорошо. Поэтому с дублями точно нужно бороться, они влияют негативно и на трафик тоже.
Да, на трафик повлияло — все в минус. И при чем каждый день меньше и меньше, что делать ? Вернуть все как было ?
Все эти фишки я проделал месяца три назад, рост дубликатов сначала приостановился. Я успокоился.
Но стали образовываться дубли с другими типами. Так ,например: /google.com/+НиколайИванов1954.
Последняя приписка — это g+. А каким образом google.com не пойму. Яндекс их не находит и говорит: Ресурс не найден (404). Таких страниц уже набралось 90 штук.
Если можете подскажите, что сделать.
С уважением, Николай.
Интересно...о таком не слышала. Если что-то узнаю, обязательно напишу.
Нужно снести All in One SEO Pack и поставить Platinum SEO PACK потому как в All in One SEO Pack ссылка вида site/category/statya дописать чтото типо site/category/statya/luboi_text то посмотреть в исходный код и canonical будет вести на site/category/statya/luboi_text т.е. на дубль — и они так размножаются, а вот в Platinum SEO PACK такого уже нет.
PS: Ну это если я правильно понял вопрос )
Решение есть на блоге IdeaFox
Буду благодарен.
Анна, подскажите пожалуйста как избавиться от таких дублей — после основного адреса —
#igit_rpwt_main_image
#igit_rpwt_thumb
#igit_title
причем дублируется так каждая запись, кроме страниц.
Буду признательна!
Анна, я поняла — это все плагин IGIT Related Post With Thumb творит. Плагин убрала, а как теперь все эти дубли убрать?
Теперь остается только ждать, пока поисковики исключат из своей выдачи эти дубли. Раз плагин вы удалили, то больше ничего делать не нужно.
Здравствуйте Анна, в меню отображается две одинаковые статьи, как убрать? Сайт tehnopark точка net , статья «кухонная плита, что необходимо учесть при выборе?»
Не вижу. Видимо уже убрали?
Нет, ниже меню есть блок «газовые плиты», там и отображается.
Значит удалите виджет газовых плит из левого меню, зачем он два раза. Глядя на сайт, сложно что-то сказать, нужно разбираться смотреть админку и код, чтобы разобраться.
Ребята- будьте осторожны с галочкой noindex в ALL SEO IN ONE PACK, после того как я поставила там галочку в блоге все статьи, которые находились на 2,3 и т.д. страницах выпали из индексирования... То есть все что было на главной странице блога- все норм. А далее после 10-й статьи — которые уходили на следующие страницы — хана. Главное обидно- выпали из индекса то они на следующий уже день, а вот обратно возвращаются ооочень туго)
> Чтобы этого избежать, нужно наоборот открыть Гуглу доступ ко всему в файле robots.txt,
а можно пооподробнее для чего открывать это чудо?
Гугл все равно берет в индекс эти страницы, даже если вы их закрыли в роботсе, ему пофигу. Но их контент он не показывает, говорит, что «Описание веб-страницы недоступно из-за ограничений в файле robots.txt». эти страницы становятся дублями. Подробно об этом я писала в статье о том, как найти дубли.
Анна, вы неправильно поняли мой вопрос. Если гугл их все-равно индексирует, то имхо ему их и открывать не надо дополнительно. То есть, я думаю, что настроить 301 можно не меняя лишний раз роботс. я не прав?
Андрей, возможно. Вы попробуйте сделать, не меняя роботс, а потом расскажете нам, каким будет эффект!
в .htaccess как прописать чтобы не вылазили в поиске страницы с tag/
Пробовал прописать строку
RewriteRule (.+)/tag /$1 [R=301,L] но не помогает, все другие feed и т.п. перекидывает на нормальные страницы, а вот если есть tag то ничего не происходит
Причём у меня именно много страниц в поисковиках с tag (мой_sait.ru/tag/слово ), других почти нет
Денис, а с чего вы взяли, что со страницы вида мой_sait.ru/tag/слово нужно ставить редиректы?
Мы ставим редиректы со всяких ненужных, несуществующих страниц, типа комментариев. А теги — это реальные страницы, вот и на моем блоге они есть, например вот. От индексации мы их закрыли в пункте 4, поставив галочку в настройках плагина All in One Seo Pack — noindex для архивов меток.
То есть можно разрешить гуглу в робот ТХТ все и добавить редирект 301 и все? С кнопкой ответить ничего можно не делать в комментариях, вы ничего не делали
Видимо да, а чем кнопка «Ответить» мешает?
У вас когда на кнопку «ответить» нажимаешь получается дубль страницы
Здравствуйте!
Я хотел спросить про 3 пункт (это про страницы типа site.ru/page/2)
Скажите пожалуйста избавляться от них или нет? просто я заметил что они все ведут на главную страницу но при этом ссылка остается: site.ru/page/2, site.ru/page/3, site.ru/page/4 ........ и так далее до 35.
Мы от них не избавляемся, а закрываем от индексации. Делать это или нет, каждый сам для себя решает. У меня сделано.
Здравствуйте! Я создал себе сайт по сетевому маркетингу, копирайтингу и СЕО. Но возникла проблема. Многие страницы сайта попали в дополнительный индекс гугла, а яндекс проиндексировал лишь малую часть. Можете как знающий человек посмотреть и подсказать, что я сделал не так?
Яндекс индексирует сайты гораздо медленнее, чем Гугл, так что ждите, проиндексирует когда-то. Чтобы удалить страницы из дополнительного индекса Гугла, выполняйте действия, описанные в этой статье.
всем привет.Я только добавил код в htaccess. и всё ридерект заработал, могу остальное не делать ?
Можете не делать)) Но если хотите избавиться от дублей, нужно проделать все пункты данной инструкции.
хотите открою секрет,яндекс намного лучше индексирует страницы сайта чем гугл, я утром добавляю новую статью,и страница в течение часа и в гугле и в яндексе
Читайте статью про ускорение индексации сайта, там про это подробно расписано. Здорово, что ваш сайт так быстро индексируется, но этим могут похвастаться не многие, на большинство начинающих сайтов Яндекс-бот заходит не чаще, чем раз в 2 недели!
у меня раньше так было, но я научился загонять его на сайт каждый час
robots лучше так .
User-agent: Yandex
Allow: /wp-content/uploads/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: /tag
Disallow: /archive
Disallow: */trackback
Disallow: */comments
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Host: ladies-paradise.ru
User-agent: *
Allow: /wp-content/uploads/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /template.html
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: /tag
Disallow: /archive
Disallow: */trackback
Disallow: */comments
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Sitemap: адрес карты сайта
Сделал все так как написано, но вместо того чтобы избавиться от дублей у меня их было всего пару страниц, у меня в индекс попали более 40 страниц с мусором. Получается этот Роботс вообще не работает и все что нужно закрыть выкидывает в индекс. Как быть или все таки вариант вернуться к старому Роботсу? Что посоветуете?
много чего попробовал, не помогало. После долгих мучений, удаление фидов, сделав редирект 301 на остальной мусор, установил плагин, и создал такой роботс. и всё помогло.
User-agent: *
Allow: /wp-content/uploads/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /template.html
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /?s=
Sitemap: адрес карты сайта
Sitemap: адрес карты сайта
взял за основу этот роботс, посмотрим как будет работать
Спасибо
Подскажите, а что за плагин Вы использовали
вот такой код не помешает в functions.php
remove_action ('wp_head', 'rsd_link');
remove_action ('wp_head', 'wp_generator');
remove_action ('wp_head', 'feed_links',2);
remove_action ('wp_head', 'feed_links_extra',3);
remove_action ('wp_head', 'wlwmanifest_link');
remove_action ('wp_head', 'adjacent_posts_rel_link_wp_head');
remove_action ('wp_head', 'wp_shortlink_wp_head',10,0);
День добрый! Вопрос интересует следующий. Есть страницы вида site.ru/page/2, site.ru/page/3 и так далее. Ссылка с них на первую страницу выглядит как site.ru/page/1. По щелчку открывается страница site.ru (то есть происходит редирект с site.ru/page/1 на site.ru). И вот вопрос: как установить прямую ссылку, чтобы сразу было site.ru? Интересует не только для главной, но и для страниц категорий.
Скажите пожалуйста, в этой статье вы даете код для Роботс, благодаря которому поисковики смогут все посмотреть на сайте, в другой статье на вашем сайте по настройке Роботса — вы даете другой код.
Вопрос такой — то есть нужно сначала все открыть, плюс к этому сделать еще указанные вами вещи, а когда дубли страниц пропадут — то опять закрыть ?
Нет, обратно закрывать не нужно. статья про роботс устарела, но я пока не нашла времени ее переписать.
Интересный момент, пропали дубли в Гугл, и временами появляется в 2 раза больше страниц уже в Яндексе, а потом изчезает, и потом снова появляется
Не сталкивались с таким ?
как сделать 404 на тег не че не помагает ни ридерект ни в функцион
Анна, а как быть с дублями , которые появляются под кнопкой или ссылкой «читать дальше» в анонсе статьи, их как-то можно в редирект закрыть? Заранее благодарю за ответ.
Здравствуйте. у меня такой вопрос, как можно убрать дублирование комментариев? спасибо
Привет! Кто может сделать такие изменения, за рублей 300
если точнее, то нужно убрать из индекса теги, метки — в гугле висят.
у меня в All in one seo pack
Использовать noindex для архивов меток и для для рубрик
а гугл их все равно в индекс сунет, что делать?
Я могу сделать то, что в этой статье написано
У меня с Гугла пропали после этого почтив се дубли
Обращайтесь — Str107@mail.ru
Доброго времени суток, Анна. Вы говорите что теперь « роботу разрешено заходить на любые страницы сайта», но ведь смысл файла роботс в том что-бы запрещать роботу лазить во все щели сайта. И как теперь быть? То есть нам нужно выбирать либо мы избавляемся от дублей либо мы имеем рабочий файл роботс ?????
Читайте внимательнее статью. мы используем другой метод закрытия страниц от индексации вместо dissalow в роботсе.
Я сейчас прочту еще раз внимательно.
В гугле было 113 страниц, сделал все выше перечисленное, кроме function. Через день добавил новую запись на сайт, в гугле стало 131 страница. Прошло 6 дней ... в индексе гугла все еще 131 стр. В чем может быть проблема. Дайте кто-то четкую инструкцию как избавиться от дублей
За 6 дней вы ни от чего не избавитесь. Ждать будете до полугода, пока роботы полностью переиндексируют ваш сайт. У меня в течение полугода плавно уменьшалось число страниц в индексе.
Понял. Спасибо!)
Здравствуйте, Анна! В коде, который нужно вставить в .htaccess, вторая и девятая строчка сознательно одинаковые, или это опечатка?
Так и должно быть.
Анна, добрый день! Спасибо за ответ. Подскажите, пожалуйста, файл .htaccess обновляется при обновлении WordPress?
Дело в том, что я уже вставлял код в файл .htaccess согласно Вашей статье, но вчера посмотрел и обнаружил, что записи отсутствуют (снова их внес). За это время произошло несколько обновлений WordPress.
Нет, не должен обновляться
Но если у вас его не стало и вы уверены в этом — заново просто впишите и все
Да, я так и сделал. Спасибо, Дмитрий.
Анна, здравствуйте! У меня на блоге WP при вставке картинки в текст статьи появляется в коде атрибут rel="attachment wp-att-xxxx". Раньше такого не было. На сайте установлен плагин FancyBox for WordPress для увеличения картинки по клику на нее. Этот атрибут блокирует увеличение картинки.
Не знаю, появилось ли такое дополнение из-за добавления кода в .htaccess или по какой-то другой причине. Можете ли Вы подсказать, что означает появившийся атрибут rel="attachment wp-att-xxxx", нужен ли он и если нет, то как от него избавиться программным способом?
Заранее спасибо!
Третий пункт корректно будет так:
function my_meta_noindex () { if ( is_paged() ) {echo "".''."\n";} } add_action('wp_head', 'my_meta_noindex', 3);
Здравствуйте, попала в выдачу гугла страница wp-admin/admin-ajax, как это исправить?
Автор с головой дружит plugins и themes от индексации закрывать? ))) Под фильтр Гугла хотите всех тут подвести?
Анна, у меня установлен плагин Yoast SEO.
Рекомендуемые изменения в код внесла, настроила свой плагин аналогично All in One Seo Pack.
Будет ли сайт корректно индексироваться? Или для моего плагина нужно вносить другие правки в код?
Спасибо!
А как избавиться от дублей, которые создает плагин Subscribe To Commentsтаких как: srp
srk sra ?
Здравствуйте. У меня на сайте прыгает количество страниц. Всего на сайте 104 записи. Их количество то растёт, а то уменьшается. Сейчас 242 (смотрел в Яндекс вебмастер). За три дня добавилось 60 штук и ни одной не убавилось. Раньше хоть бы понемногу убавлялось. Скажите пожалуйста это нормально. Пользуюсь плагином WP- Optimize и ещё стоит плагин Trash Duplicates And 301 Redirection.
Добрый день.
появились дубли страниц товаров woocommerce. Поставила плагин плагин All in One SEO Pack.
Аналогичная история и с страницей на которой выводятся товары:
aquaizol.kiev. ua/mozayka/
aquaizol.kiev. ua/product-category/mozaika/ -дубль
Подскажите пожалуйста как избавиться от таких дублей
Ооо, оставляйте комментарии, на которые никто не ответит??
У меня опять дубли вылезли, при беда с ними.
Кому нужна помощь с удалением дублей — обращайтесь, пишите на почту Str107@mail.ru
Всем привет ) Это все конечно понятно!!!.. когда есть с чем бороться... а что делать если нет соплей на блоге?))) Больше скажу... когда основных страниц больше... чем с соплями это как понимать?)))
Спасибо за статью, все сделал, кроме модуля all in one т. к. я использую yoast seo. А так будем ждать результатов.
Здравствуйте. Попробовал ограничить доступ к сайту для поисковой системы с помощью редактирования файла robots.txt и файла .htaccess по Вашему примеру. Что могу сказать, после такого редактирования на сайте htmless.com все страницы для мобильный устройств в google search console выбивает как проблемные. Причиной тому служит ограничивание доступа к CSS файлам, и поисковая система видит только HTML разметку, не советую делать такую манипуляцию, если хотите иметь проиндексированые страницы.
Большое спасибо за вашу инструкцию, сделала по ней — все работало. Сейчас поменяла домен, htaccess составляю заново, и наткнулась на такое: вы говорите, что
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]
Надо вставлять после строки RewriteRule ^index\.php$ — [L]. А стандартный htaccess для вордпресса выглядит так:
# BEGIN WordPress
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ — [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
# END WordPress
То есть я правильно понимаю, что строки которые идут ниже строки RewriteRule ^index\.php$ — [L], удалять не надо, и итоговый файл будет выглядеть так:
# BEGIN WordPress
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ — [L]
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
# END WordPress
? Просто заметила, что до смены домена строки после RewriteRule ^index\.php$ — [L] были просто заменены вашми строками, и вроде бы все работало.