Профессиональное обучение
блоггингу от А до Я

Дубли страниц replytocom wordpress или как умерли и умирают тысячи блогов даже не зная об этом!

Как удалить дубли страниц

Здравствуйте уважаемые читатели! С вами Александр Борисов. Сейчас отложите все свои дела куда по дальше, отвлекитесь от всех забот и людей, закройтесь у себя в комнате на замок и ВНИМАТЕЛЬНО читайте данную статью от корки до корки.

ШОК! Именно такое состояние должно быть у 90% аудитории моего блога (вас) после прочтения этой статьи! ШОК и ни как иначе я его назвать не могу.

Блоггеры новички — прыгайте от радости, потому что вам повезло. Блоггеры, которые не понимают, почему их блоги не продвигаются - рвите на голове волосы (потому что узнаете, что за дрянь сидит у вас на блоге), а блоггеры десятитысячники — бойтесь, потому что скоро у вас появятся конкуренты!

Сегодня вы узнаете как избавить ваш блог от той заразы (дубли страниц replytocom), которая уже убила не один десяток тысяч блогов (а то и больше), убивает ваш блог и будет убивать дальше, если сейчас вы не примите меры. Я анализировал многие блоги своих читателей (вас) и увидел, что на 90% всех этих блогов эта зараза присутствует.

И зараза эта не позволяет вам дальше нормально развивать блог, эта зараза заставила уже многих блоггеров забросить свои блоги, эта зараза, как бомба замедленного действия, которая изначально появляется после создания блога, тихо сидит ни кого не тревожа, но потом взрывается и блог погибает.

Эта бомба рванула на моем блоге в феврале 2012 года. Ну тут вообще другая история (я ее сам поджег). Эта бомба рванула уже на многих блогах моих читателей и прибила их. Они вели свои блоги, кайфовали от этого, писали статьи, заводили движуху, был мощнейший стимул, они думали, что будут писать, раскрутят, заработают... Но что потом?

Ни чего хорошего. Много стараешься, а все как-будто стоишь на месте. Не растет трафик и хоть ты тресни. Мотивация падает, тебе уже лень писать статьи, потому что кажется, что это все напрасно и ты забрасываешь блог. С этим столкнулись уже десятки тысяч блоггеров...

С этим столкнулись и многие мои читатели. Я вот хожу по старым статьям своего блога. Вижу в комментариях знакомые мне аватарки, их восторженные комментари, «спасибки» за полезную статью, радость у людей была, писали, надеялись, что скоро и они раскрутят свои блоги и начнут на них зарабатывать, но...

Сейчас я кликаю по ссылкам в комменатриях и тю тю... Нет уже этих бложиков. ( Пропали они. Авторы их забросили. А как все бурно начиналось. Какие были грандиозные планы и цели по раскрутке и заработку... Печально...

А что стало с теми блоггерами тысячниками, подборки которых я публиковал? РАЗ, ДВА. Давайте посмотрим на них. Кто-то свой блог продал вообще, кто-то просто сдулся и забросил, кто-то встрял на 1000—2000-3000 посетителей в сутки и дальше не идет, кто-то обленился и на мой вопрос, — «В чем дело? Почему так мало пишешь?», отвечает:

Что-то лень писать, пишу пишу, а толку нет. Не растет посещаемость и все. Надоело сутками зависать за блогом бестолку.

А кто-то знаете мне что сказал?

Я повел свой блог и понял, что это не мое.

Странно! А как так? А почему на начальном этапе ведения блога так горели глаза, статьи штамповались пачками, конкурсы проводились, движуха была? А что случилось потом? Ну а случилось как раз то, что случилось и с остальными 90% блоггеров, которые так же слились из-за того что ты много работаешь, но не получаешь результата.

В общем если вы еще живы и читаете данную статью, то читайте ее дальше и офигевайте от этой глобальной проблемы в блогосфере с дублями страниц replytocom, но на самом деле, решаемой быстро и просто. И решение этой проблемы я вам покажу в данной статье.

Это единственное решение проблемы. Других просто больше не существует. В интернете написано очень много статей по теме избавления wordpress блога от дублей replytocom, но в большинстве случаев они не решают проблему. Какие-то рекомендации наоборот еще больше усугубляют ситуацию.

Итак, из данной статьи вы узнаете:

  • Что такое дубли replytocom и чем они опасны
  • Как понять есть ли на вашем блоге дубли replytocom
  • Как я грохнул свой блог из-за дублей в 2012 году
  • Как развиваются блоги с дублями и без
  • Как 100% избавиться от дублей replytocom
  • Почему некоторые блоги хорошо живут и с replytocom
  • Ну что вы готовы? Начнем.

    Что такое дубли replytocom и чем они опасны?

    Дубли replytocom — это такие же страницы как и страницы статей вашего блога (только с другим url адресом типа ?replytocom=1234), которые создаются из-за включенной на wordpress блоге функции вывода деревовидных комментариев.

    Посмотрите включена ли функция у вас:

    replytocom включены

    Если у вас включена эта функция и у каждого комментария на вашем блоге имеется кнопочка «Ответить», то вы уже в опасности, если у вас кое что не правильно настроено:

    replytocom

    Для того чтобы вам было проще все понимать, давайте я возьму любой блог, кого-нибудь из своих читателей и покажу вам все на конкретном примере. Любой. Вот например блог легендарного Александра Быкадорова. Зайдите на него и посмотрите есть ли у него эти кнопочки «Ответить» в комментариях к статьям.

    Да, они там есть. И вот сейчас я покажу вам как потихоньку умирает блог Александра и ситуация становится все хуже и хуже с каждым днем. К сожалению Александр, как и остальная масса блоггеров, этого даже не подозревает и не знает об этом.

    Александр по натуре своей очень целеустремленный человек, это чувствуется через его блог, посмотрите как он вкладывается в статьи, а посмотрите сколько их у него на блоге. Несколько сотен. И как вы считаете это справедливо вообще, получать 100 посетителей в сутки, когда у тебя столько контента на блоге?

    А посмотрите на комментарии. Сколько их к статьям. То есть аудитория на блоге постоянная имеется, статьи публикуются, а где результат? А результата и не будет пока сидит эта зараза на блоге в виде дублей replytocom.

    Итак заходим на блог Саши, находим любую кнопочку «Ответить», жмем по ней правой кнопкой и открываем страницу в новой вкладке:

    Открыть страницу дублей

    И смотрим. Вот url основной статьи:

    1
    
    http://alexandrbykadorov.ru/lichnostnyj-rost/o-vrede-alkogolizma-i-kureniya/

    А вот url страницы дубля:

    1
    
    http://alexandrbykadorov.ru/lichnostnyj-rost/o-vrede-alkogolizma-i-kureniya/?replytocom=9041

    Текст абсолютно одинаковый на обеих страницах, а url адреса разные. То есть получается на блоге имеется дублированный контент. За это блог Саши автоматически наказан таким алгоритмом google, который называется ПАНДА! Слышали о таком?

    Но пока без паники, надо еще проверить, занес ли google копии этих дублированных страниц в выдачу (индекс). Может Саша и не наказан вовсе!

    И вот сколько таких кнопочек «ответить», столько и одинаковых страниц с одинаковым контентом и ИСХОДЯЩИМИ ССЫЛКАМИ. Последнее я выделил жирным. Но пока не стоит паниковать, повторю. Дубли replytocom могут быть на блоге, но они могут быть и не опасны, если все верно настроено. Об этом чуть ниже.

    Смотрите на следующую жесть! Продолжим издеваться над блогом Александра. Посмотрите к примеру вот эту статью. 45 комментариев. Что это означает? А это означает, что на блоге Александра имеется 45 кнопочек «Ответить» (ну может чуть меньше).

    45 кнопочек «Ответить» = 45 дублей страниц replytocom. А ОДНА страница replytocom = 31 (я посчитал) исходящая ссылка в комментариях:

    Исходящие ссылки

    О да, ссылки комментаторов закрыты noindex и nofollow, скажете вы =))) Я знаю, но это не важно! Это исходящие ссылки и они есть. А вот что самое страшное.

    45 дублей умножаем на 31 исходящую ссылку и получаем 1395 исходящих ссылок только с одной статьи. ТОЛЬКО С ОДНОЙ СТАТЬИ (с ее погаными отростками в виде дублей replytocom)!

    А сколько их всего на блоге? Саша ты там еще не в обмороке? Если нет, то смотри дальше. Проанализировав блог Александра через один секретный сервис, я вижу, что на его блоге всего 26 659 ссылок:

    Всего ссылок

    и это при том, что входящих ссылок со всего интернета (входящие это те которые стоят на других сайтах и ссылаются на блог Саши) 126, их еще называют доноры. Исходящих ссылок в несколько раз больше чем входящих и какое тут вообще может быть продвижение блога??? ЭТО ГИТЛЕР КАПУТ!

    Саша ты там еще нашатыря не принял? Если нет, то смотри дальше.

    Как понять есть ли на вашем блоге дубли replytocom?

    Очень просто! Опять же я продолжаю издеваться над блогом Александра, а вы проверяйте свой. В общем заходим в goоgle и набираем:

    1
    
    site:alexandrbykadorov.ru replytocom

    Вот что я получил:

    replytocom в google поиске

    Нажимаем «Показать скрытые результаты» и видим:

    replytocom в google

    16 500 дублей страниц. ТРЕШ! Саша, мне тебя жаль. (( Я понимаю, что ты не специально, ты просто не знал. Как и не знают про это остальные блоггеры, а это каждый 2 читатель моего блога. Я даже скажу больше. У 90% читателей моего блога на их блогах имеются такие же дубли.

    Ну и давай уже добьем тебя до конца. Вот нам выдал сервис seolib о твоем блоге:

    seolib проверка дублей страниц

    Ну что вы проверили свой блог на дубли? Как результаты? Если вы совсем зеленый блоггер, то дублей вы можете и не найти (или их мало), так как google их еще и не сожрал. Но он сделает это поверьте мне на слово, если у вас не будет все настроено так, как я вам сейчас скажу.

    Ну а если вы блоггер матерый, проанализировали свой блог и видите, что дублей у вас тьма, то я вас в кавычках «поздравляю». Вот я вам и отвечаю на вопрос, почему ваш трафик не растет с google. Да, Яндекс еще как-то не особо наказывает за дубли, потому что он не забирает их в выдачу, а гугл беспощаден.

    НО! Яндекс, поверьте вас тоже не погладит по головке, когда робот забирает в базу тысячи страниц соплей replytocom (а он их забирает и я вам это покажу дальше).

    Вы хотите сказать мне, что у вас есть дубли, но с трафиком в google у вас все в порядке? Окей, сейчас я и про это расскажу вам. Существует несколько причин, почему google может не наказывать вас за дубли даже если они имеются в выдаче.

    Я изучал эту тему ребята, несколько месяцев, так что знаю, о чем сейчас пишу. То есть я не просто «так думаю», я просто знаю это.

    Чем больше комментариев, тем больше дублей replytocom и больше исходящих ссылок. И с каждым днем их становится все больше и больше, и больше и больше. И трафик не растет и не растет, и не растет и не растет. А потом в один прекрасные день ты просыпаешься и говоришь, — «Да пошел он этот блог к черту»... И пошел...

    Да, можно получать хороший трафик с Яндекса и забить на Google. Смотрите вы на статистику посещаемости с поисковых систем, видите что с google трафика в 5-7 раз меньше чем с Яндекса и пофигу. Но представьте если и с Google вы будете все выжимать по максимуму?

    Я лично все равно считаю, что Яндекс так же снижает трафик из-за дублей, не так сильно и жестко как google, но снижает. Нормальный блог по мнению роботов — это блог, на который он пришел, загрузил главную страницу в базу, остальные страницы блога и статьи! ВСЕ! А по факту он грузит десятки тысяч шлака и это не есть гут!

    Итак! Вы выявили, что у вас на блоге есть дубли replytocom, вы понимаете, что от них надо избавляться и сейчас мы этим как раз и займемся, но для начала послушайте мою историю. Историю о том, как я буквально грохнул свой блог в 2012 году из-за этих гребаных дублей replytocom.

    Как я грохнул свой блог из-за дублей в 2012 году!

    Итак! За 7 месяцев ведения блога, с нуля я вышел на посещаемость более 1000 посетителей в сутки... Потом 2000, 3000, 4000, 5000 и вот февраль 2012 года, мой счетчик показывает 6200 посетителей в сутки. Я прыгаю от радости, бегая по комнате в трусах и счастья моему нет предела.

    Ну сами подумайте 6200 посетителей в сутки. Блог комментируют 200-300 человек каждый день. Очень не удобно отвечать каждому на комментарий если нет удобной (черт бы ее побрал) кнопочки «Ответить», а у меня ее не было до февраля 2012 года. Смотрите сами старые статьи:

    нет кнопки

    То есть видите как я отвечал. В стопку каждому. Меня это как говорится задрало, и я попросил Артема поставить мне эти кнопки «Ответить». То есть я включил функцию replytocom (деревовидные комментарии). Обратите внимание на дату этой статьи. 20.02.2012, то есть как мне сделали комментарии, так я статью и написал. Похвалился...

    Что одновременно с этим произошло? А произошло то, что у меня на блоге уже было 25 000 комментариев и у каждого комментария родилась кнопочка «Ответить». Из этих 25 000 кнопочек «Ответить» родилось 25 000 дублей страниц.

    Ну 25 000 дублей умножим на примерно 6 000 исходящих ссылок = 150 000 000 исходящих ссылок. Мне сейчас станет плохо! ))) Слава богу все не успели залететь в индекс:

    linkpad

    Я отделался только 1 333 946. ОДИН МИЛЛИОН ТРИСТА ТРИДЦАТЬ ТРИ ТЫСЯЧИ ДЕВЯТЬСОТ СОРОК ШЕСТЬ ССЫЛОК! Вызовите мне кто-нибудь скорую а...

    А вот что случилось дальше. Вот результат:

    Трафик с google

    Трафик с google рос как на дрожжах до 2012 года до февраля, а потом грохнулся резко до 200 посетителей в сутки. А был более 1000. И это только с google. + с яндекса 2000. Итого 3000 только трафик с поисковых систем. ТОЛЬКО с поисковых систем.

    У меня был бешеный стимул действовать, развивать блог, писать статьи, но потом медленно и верно все это начинало угасать, энтузиазм уже не тот, статьи писать лень, потому что ты пишешь и понимаешь, что все равно все бесполезно, трафик все равно не растет.

    Из-за того, что я стал лениться, перестал продвигать свой блог теми методами, которыми я его обычно продвигал, то потерял трафик и с Яндекса с 2500 в сутки до 900 в сутки. Вот такая вот печальная история. Зато честная.

    Да, бывают взлеты и падения в жизни, нужно уметь их переживать, но когда на протяжении 1-1,5 лет ты херачишь, а трафик все на нулях, то как тут не будет упадок сил? У кого похожая ситуация? К сожалению многие ребята, которые шли со мной нога в ногу с начала ведения блога из-за этих дублей уже слились.

    Я же, буквально несколько месяцев назад, решил разобраться во всем, психанул и начал копать. Я не могу оставить вот так все как есть. Должно же быть какое-то объяснение тому, почему трафик падает с каждым днем. Как оказалось решение проблемы было на поверхности. Это ДУБЛИ REPLYTOCOM.

    Сейчас я устранил проблему появления новых дублей replytocom, а старые постепенно уходят из выдачи, но все еще там остаются. Для реабилитации моему блогу нужно как минимум 8-10 месяцев. Это вам не 1000 дублей, а целых 49 000. И вот уже мои результаты:

    Отслеживание replytocom в инструментах для вебмастеров google. Было:

    Стало:

    А вот что показывает уже сервис seolib. Было:

    Мои дубли

    Стало:

    Мои дубли новые

    А вот анализ по исходящим ссылкам. было:

    Исходящие ссылки

    Стало:

    Новые ссылки

    А вот результаты по загруженным страницам Яндексом. Было:

    Яндекс было

    Стало:

    Яндекс стало

    Ну и последнее это трафик. Есть ли какие-то подвижки? Есть. С google было 140-170 человек, а сейчас 200-220 и продолжает расти:

    Трафик с google

    Сейчас мне еще рано рыпаться, надо просто ждать и дальше развивать блог вот такими вот полезными статьями. Результаты будут позже, когда гугл полностью все переиндексирует и выкинет все сопли из выдачи.

    Например у Ирины Зайцевой трафик вырос только через 8 месяцев и так же еще не все дубли до конца ушли. Ну и обратите внимание на посещаемость блога. 9 000 — 14 000 (осень-зима) посетителей в сутки.

    Как развиваются блоги с дублями replytocom и без!

    Всех показывать не буду, покажу несколько. Начнем с тех, у кого нет дублей в выдаче Google (или они почти ушли) и посмотрим какой у них трафик на блоге. Я буду показывать 2 цифры, первая цифра — это трафик сейчас (когда лето, солнце, пляж, короче спад), а вторая — трафик который был в холодное время года и будет снова совсем скоро.

    Примеры: Блог Ирины Зайцевой (9000 /14000). У Ирины еще остаются дубли в выдаче. Она начала избавляться от них где-то 8 месяцев назад, вот еще уходят. 8 месяцев назад трафик с гугла был 200-300 человек, сейчас 2500—3000 и продолжает расти. Передаю вам слова самой Ирины.

    Дальше. Блог Нижегородского предпринимателя (6000/9000). Блог изначально живет без дублей страниц. Блог Василия Прохорова (более 5000). Так же блог живет без дублей страниц. Школа рыбалки (более 7000). Блог Евгения Пешкова (более 5000). Думаю достаточно...

    Нет ну естественно я знаю и много других блоггеров, которые имеют хороший трафик и с дублями, но трафик этот как раз таки с Яндекса в основном, а с google с гулькин клюв. Вот вам пример хорошего блога (wunderkind-blog.ru), который мне очень нравится. Давайте посмотрим на старания Людмилы (автор блога) и на трафик с поисковых систем который она получает:

    Трафик с google

    Как считаете это заслуженно? В карту сайта загляните, более 2000 статей! Вы представляете себе вообще, сколько сейчас вот таких вот блоггеров-мучеников в интернете, которые из-за этих поганых дублей вот так вот медленно развиваются? Точнее не медленно, а никак...

    Ну чтобы посмотреть как развиваются блоги с дублями, то можете взять мою любую статью на блоге, спуститься вниз до комментариев и ходить по ссылкам в комментаторов, смотреть есть ли у них дубли и смотреть на их трафик. Там все будет ясно.

    У каждого второго, если не первого, вы будете находить эти дубли replytocom в выдаче. Не знаю, поняли вы вообще все что я написал или нет, но я лично считаю это глобальной катастрофой в блогосфере.

    Вам нужны еще какие-то комментарии? Я думаю, что здесь комментарии излишни! О да, конечно же, я не говорю о том, что сейчас вы все уберете свои дубли replytocom по той методике, которую я вам расскажу ниже и ваш трафик взлетит до небес. =)

    Нет, нужно раскручивать свой блог, но если у него изначально есть дубли, то в 95% случаев вы просто не сдвинетесь с места. Вот результаты моих недавних экспериментов по устранению дублей replytocom на троечке блогов:

    А говорят спад летом. =) Кстати просьба тех ребят, которым я помог с дублями, подтвердить в комментариях то, что рост трафика с Google реально заметен.

    Как 100% избавиться от дублей replytocom?

    Приступаем к самому ответственному этапу. Нам надо избавиться от дублей replytocom. Как это сделать? Для начала надо вообще понять суть. Почему у кого-то есть эти кнопочки «Ответить» в комментариях и у них есть дубли в выдаче google, а у кого-то нет дублей в выдаче?

    Давайте я вам расскажу почему дублей в выдаче не появляется? Причины здесь всего ДВЕ:

    1. Кнопка «Ответить» выводится скриптом или replytocom отсутствует.
    2. Кнопка «Ответить» НЕ ЗАКРЫТА В ROBOTS.TXT даже если выводится replytocom.

    Кто что понял? Думаю что многие не поняли. Ок. Объясняю в подробностях в видео:

    Вот теперь я думаю вам все понятно! Главное вам понять саму суть! Нельзя закрывать роботу поисковых систем доступ в robots.txt к replytocom и тогда он натыкается на вот такой мета тег:

    <meta name='robots' content='noindex,follow' />

    и вот тогда не заносит в выдачу replytocom дубли. Что мы видим у тех ребят, у которых есть дубли? У них у всех закрыт доступ в robots.txt к страницам replytocom примерно вот такими директивами:

    из этого следует вот это:

    Запрет на индексацию

    Если что это проверка файла robots.txt. Просто введите адрес своего сайта в первой строке и загрузите его. Далее просто внизу во второй форме вставьте любой url дубля. Короче если видите у себя в robots.txt картинку, что я показал выше, то хреновые у вас дела. Значит в вашем robots.txt есть что то вот такое:

    Disallow: /*?*
    Disallow: /*?
    Disallow: /*?replytocom
    Disallow: /?replytocom

    УДАЛЯЙТЕ К ЧЕРТОВОЙ БАБУШКЕ!

    Получается так. Робот приходит на страницу дубля replytocom, видит, что в robots.txt он закрыт и НА ВСЯКИЙ СЛУЧАЙ все равно забирает его в сопли, потому что дверь вы ему закрыли и он не увидел:

    <meta name='robotscontent='noindex,follow' />

    Знайте, что запрет в robots.txt и запрет мета-тегами это две разные вещи. Мета-теги говорят что индексировать можно/нельзя, а robots.txt это просто предложение роботу, типа, — «Дорогой, пожалуйста, сюда не ходи а вот сюда ходи». Google все наши роботсы игнорирует.

    Кстати смотрите как на блоге Людмилы закрыто в Роботсе индексация replytocom:

    То есть конкретно! =))) С пояснениями для робота... Простите, что смеюсь, но если честно, на самом деле плакать хочется... Очень жаль Людмилу и всех остальных кто вот так вот мучается с дублями.

    Жесть? Вот вроде бы какая мелочь да? 1-2 не правильные строчечки в Роботсе и тысячи блогов лежат на лопатках поверженные... Ну признайтесь честно, кто сейчас схватился за голову? В общем открывайте свои роботсы и будет вам счастье.

    Можете в добавок поставить 301 редирект. Вот это тогда надо добавить в ваш файл .htaccess который лежит у вас на хостинге в корне где лежат папки wp-content, wp-admin и т.д:

    1
    2
    
    RewriteCond %{QUERY_STRING} ^replytocom= [NC]
    RewriteRule (.*) $1? [R=301,L]

    Что сделает 301 редирект? Ну давайте объясню все на блоге того же нашего бедного Саши. Теперь когда робот придет на страницу:

    1
    
    http://alexandrbykadorov.ru/lichnostnyj-rost/o-vrede-alkogolizma-i-kureniya/?replytocom=9041

    то робота автоматически будет перебрасывать на эту страницу:

    1
    
    http://alexandrbykadorov.ru/lichnostnyj-rost/o-vrede-alkogolizma-i-kureniya/

    Саша включи редирект. =) Покажи людям как это работает. Хотя вот вам мой пример. Зайдите:

    1
    
    http://isif-life.ru/news/itogi-marafona-po-razgadyvaniyu-krossvordov-vazhnye-novosti-ot-isif-life.html?replytocom=1234

    Куда вас перекинуло видите? Ок.

    А можете и не ставить 301 редирект. Тут без разницы, главное чтобы в robots.txt все было открыто! Google и так все выкинет со временем. Так же можно использовать не 301 редирект, а отдачу 404 ошибки каждому дублю. Вот это пропишите в function.php и все:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    
    add_filter('template_redirect','Redirect404');
    function Redirect404()
    {
     if ( isset( $_GET['replytocom'] ) ) {
     
      @header("HTTP/1.0 404 Not Found");
      die();
     }
    }

    То есть теперь робот будет попадать на страницу 404 ошибки и выкидывать такие страницы из выдачи. Тоже работает. Проверено! Кстати вот график проиндексированных страниц моего блога:

    Вот уже 20 914, а было 24 557. За 2 месяца ушло уже 3500 дублей. Это радует.

    Ну а сами стандартные кнопочки «Ответить» которые выводятся через replytocom я бы скрыл от греха по дальше. Или плагином WordPress Thread Comment, либо же через тег <спан>, как у меня, либо еще как-то.

    Как закрыть через тег <спан>? Об этом я рассказал в новом курсе КСБТ 3.0. А вот WordPress Thread Comment скачайте в интернете этот плагин и поставьте. После установки зайдите в Настройки — Обсуждения и ОТКЛЮЧИТЕ деревовидные комментарии. Теперь кнопку «ответить» будет выводить плагин.

    И обратите внимание, что вы видите при наведении на эту кнопку «Ответить»? А видите вы вот что:

    javascript:void (0)

    Единственное что в нем плохо в этом плагине, так это то, что ответ на комментарий выводится внутри другого комментария. Вот пример:

    Wordpress_Thread_Comment

    Вы видите, что Николай ответил на комментарий и он вывелся внутри рамки основного комментария. У меня же на блоге вы видите, что каждый комментарий выводится отдельно.

    Скажу по секрету, я заказывал индивидуально доработку плагина программистам и они сделали мне рабочий вариант плагина, который выводит ответы на комментарии вне другого комментария.

    Этот доработанный плагин WordPress Thread Comment я даю всем клиентам в своем новом видеокурсе Как стать блоггером тысячником 3.0.

    Ну и самое последнее. Многие пишут в статьях про параметр replytocom в панели инструментов для вебмастера (Сканирование — Параметры URL). Рекомендуют ставить вот так:

    Параметры url

    Я совершенно иного мнения. Не рекомендую вам так ставить. Оставьте НА УСМОТРЕНИЕ РОБОТА! Он сам во всем разберется. Вот так должно быть:

    Гугл бот

    Вообще на самом деле в интернете 100500 статей на тему удаления дублей replytocom и «правильных», в кавычках, Роботсов, но к сожалению более 80% из них несут только вред. И я сейчас не критикую авторов таких статей, так как понимаю, что когда они писали эти статьи, просто сами ни чего не знали по этой теме.

    У нас же как обычно все происходит в блоггинге (особенно в теме ковыряния в кодах) — один написал, другой почитал и повторил, написав уже на своем блоге подобную статью на эту же тему. Лишь бы что-то написать...

    Я сам не без греха ребята! У меня тоже такой же роботс стоял до недавнего времени (начитался в интернете «умных» советов) и я сам даже советовал такой же robots.txt ставить и другим. Просто НЕ ЗНАЛ! Не знал, какое это зло на самом то деле! Как и не знают остальные блоггеры.

    Скажу прямо и откровенно — простите засранца =(( Не специально! Самое главное это то, что я нашел спасение... И это главное.

    Почему некоторые блоги хорошо живут и с replytocom?

    Есть такие уникумы, у которых куча дублей replytocom в выдаче, но google дает им хороший трафик и они хорошо развиваются. Я очень долго копал в этом направлении и выяснил почему. Здесь несколько причин:

    1. Блог молодой и ему дан бонус новичка Google. О нем можете почитать в интернете, наберите «бонус новичка Google» в любом поисковике и найдете кучу статей на эту тему. То есть Google прощает все молодым. Мол ни чего страшного брат, ты еще молод, у тебя все впереди так что давай покажи на что ты способен.

    2. Блог имеет кучу дублей страниц, но не имеет массовости исходящих ссылок. Выше я говорил про то как много появляется исходящих ссылок из-за дублей. Так вот смотрите на этот блог например — Блог Александра Крутицких. У него есть дубли в выдаче, но смотрим на трафик с Google и Yandex:

    А вот кстати что было 4 июня. Это я как понимаю были экзамены по математике в школах =)

    Что мы видим? Google дает трафик, а Яндекс наоборот не дает. Ну про Яндекс это отдельный разговор. Я кстати знаю почему не растет трафик с Яндекса, про это я рассказал в новом курсе КСБТ 3.0. Вернемся к Google. Почему он не наказывает блог? То есть трафик больше чем с Яндекса?

    Ну во первых начнем с того, что НЕ НАКАЗЫВАЕТ это еще громко сказано. Может и наказывает и без дублей у Саши был бы трафик не 800 в сутки, а 3000. Ну ладно, представим, что не наказывает. Почему?

    Дело в том, что основная масса комментаторов данного блога, это люди не имеющие своих блогов и сайтов и когда они оставляют комментарий на блоге, то следовательно сайт свой не указывают и исходящих ссылок очень мало. Практически нет. Вот и все дела.

    Возможно тогда гугл прощает. Так же прощает и некоторых других блоггеров, у которых и трафик с google хороший и дублей куча в выдаче, но почему так происходит никто не знает. Одним словом фантастика, но это редкость. 1 на 10 000.

    Так же есть блоги которые живут без дублей в выдаче, хотя у них зарыты replytocom в robots.txt. Вот вам пример — http://deti-burg.ru. Почему, из-за чего? Никто не знает. Я думаю просто везение. Реально везение.

    И таких везуньчиков единицы. НО! Это не говорит о том, что Google однажды не переклинет и он махом не заберет дубли в сопли! Все равно надо быть осторожным!

    В общем давайте буду заканчивать уже писать! Статью писал два дня и уверен она станет лучшей в Рунете по решению проблемы с дублями Replytocom. Я от всей души желаю вам избавиться от этой заразы и стремительно продвигаться в поисковиках...

    Ну и в заключение статьи у меня для вас еще одна неприятная новость. Дубли replytocom — ЭТО ЕЩЕ НЕ ВЕСЬ ШЛАК, КОТОРЫЙ ИМЕЕТСЯ В ВЫДАЧЕ ДЕСЯТКОВ ТЫСЯЧ БЛОГГЕРОВ. Есть еще другие дубли и мусорные страницы от которых нужно так же избавляться.

    Что это за дубли и мусор я рассказываю в своем новом обучающем видеокурсе Как стать блоггером тысячником 3.0 который уже вышел в свет! Вся информация в этой статье или на продающей странице курса.

    Ребята, давайте спасать блогосферу. Посмотрите что сейчас твориться. Возьмите 10 блоггеров и 8 из них уже изначально обречены на погибель из-за этих дублей. Помогите им, дайте им почитать эту статью, наведите людей на путь истинный.

    Чтобы вы охотно рекомендовали эту статью другим, я даже добавил в кабинеты партнерской программы партнерские ссылки:

    То есть можете давать почитать статью людям да еще и заработать комиссионных если кто-то решит приобрести видеокурс КСБТ 3.0 (КОМИССИОННЫЕ 50%). А сам курс КСБТ 3.0 я называю просто — реанимация блогосферы. Смотрите, изучайте и офигевайте от того как все мы блоггеры жестко косячим и как следствие более 90% ВЫМИРАЕМ...

    На этом я статью буду заканчивать. Статья получилась просто СОК. Самому понравилась. Я представляю что сейчас произойдет после того, как хотя бы моя аудитория читателей внедрит данные фишки у себя на блоге. Обязательно потом поделитесь своими результатами в комментариях.

    Рост трафика неизбежен. Чувствую блоггеры-тысячники полезут как грибы после дождя. Если конечно же у вас нет других косяков на блоге, про которые я говорил в своем новом курсе КСБТ 3.0.

    Смотрите курс КСБТ 3.0, благодаря ему вы произведете полную зачистку своего блога от шлака, спама, вирусов, дублей и прочего «г». Ну и конечно же в курсе есть еще много чего интересного. У кого есть какие-то вопросы задавайте в комментариях. Постараюсь ответить. Чувствую шороха этот пост наведет конкретного...

    Всем пока и до скорых встреч!

    P.S. Если вы много чего не поняли, то в курсе КСБТ 3.0 все в голове встанет на свои места.

    P.P.S. Ну и давайте в заключение статьи немного посмеемся. Не знаю какое сейчас лицо у вас после прочтения данной статьи, но лицо блоггера, который несколько месяцев или лет вел свой блог и вот только сейчас узнал, что у него есть куча дублей, я представляю вот так:

    С уважением, Александр Борисов

     


    Как заработать продавая баннеры

    5 000 000 за 2 года в интернете...

    150 000 рублей в месяц с БЛОГа
    Этот блог читают уже более 6000 человек
    - читай и ТЫ!
    комментариев 777
    1. Автолюбитель

      Когда из почты сюда заглянул, то выскочило предупреждение , что ваш сайт атакуют компьютеры. Ранее такого не наблюдалось.

      в 01:58 | Ответить
      • Ильдар Тимербаев

        У меня не показывает никакой атаки. Ни раньше, ни сейчас.

        в 18:17 | Ответить
      • Артём

        Глюк какой-то! у меня такого никогда не было ;-) в Александра нормальный ресурс, а по поводу replytocom я поставил себе адаптированный шаблон (где отредактированы кнопки ответить). Лично я советую сделать также, потому, что пробовал ставить древовидный плагин, не понравилось!

        в 12:25 | Ответить
      • Рамазан

        Статья хорошая! Во время наткнулся, так как дубли этого типа ещё не индексированы [:-))] . Но вот Гугл Вебмастерс показывает дубли типов "user" и прочих. Как быть? [:-|]

        в 17:04 | Ответить
    2. SorusN

      офигеть... Больше пока ничего не скажу...

      в 02:08 | Ответить
    3. Илья

      Отличный разбор. Одно лишь не ясно: почему ответы на комментарии в этом же комментарии (сорри за каламбур) — это плохо?

      в 02:11 | Ответить
      • Александр Борисов

        Это не плохо, это просто не красиво смотрится. ИМХО!

        в 11:43 | Ответить
    4. Елена

      Спасибо за статью, пошла разбираться и копаться... когда все перекопаю, обязательно поделитесь результатами.

      в 02:15 | Ответить
    5. Даниил Привольнов

      Мощная статья! Переворачивающая сознание :) Пойду наводить порядок на своем блоге

      в 02:16 | Ответить
    6. Екатерина

      Вот это статейка! Читала уставшая посреди ночи и поняла, что все очень страшно и нужно действовать. И чем скорее, тем лучше. Утром, на чистую голову, буду перечитывать и исправлять все косяки :) Спасибо огромное за такую бесценную информацию! [good]

      в 02:16 | Ответить
    7. Татьяна

      Очень актуально! Недавно я заметила, что стало выводится в поиске больше 22000 тыс страниц в поиске у Яндекса! Мало того, получила санкции, забила тревогу и грешила на роботс. Буквально на днях поменяла его, слизнув у Ирины Зайцевой, пока результата нет, все так же. Теперь понятно, поставлю плагин, а древовидные комментарии у меня запрещены. Спасибо за своевременную, но для меня немного опоздавшую статью... [good]

      в 02:18 | Ответить
    8. Ключ к Успеху

      Да... Тут после прочтения статьи выдашь только одно (любимое Сашино слово): ЖЕСТЬ [:-))]

      Прочли, ушли переваривать, утро вечера мудренее)))

      в 02:18 | Ответить
      • Александр Борисов

        Да кстати. Советую статью читать утром! :)

        в 11:44 | Ответить
      • Александр Быкадоров

        Блин, Вы как такое на ночь читаете? )))

        Приснится еще что нить ночью, не отмашешься )))

        в 18:41 | Ответить
    9. Андрей Назыров

      Ю П Р С Т. Побежал проверять свой блог. Похоже у меня эта же беда.

      в 02:25 | Ответить
      • Александр Борисов

        Да, беда есть!

        в 11:44 | Ответить
    10. михайло

      У меня самописный сайт. Поэтому я не нашел дублей вашим способом.

      в 02:28 | Ответить
      • Александр Борисов

        Ну так у вас не wordpress все верно!

        в 11:44 | Ответить
        • Михаил

          Все верно. Я жду когда деньги зачислятся на webmoney. Сегодня Ваш курс возьму. Все равно ошибки есть. Да мне и просто нравиться Вас слушать.

          в 12:41 | Ответить
    11. Философ

      Александр, большое спасибо за полезную статью.

      Слава Богу у меня дублей таких не наблюдается.

      Хотя руки чесались как-то включить эти самые древовидные комментарии.

      Теперь, после прочтения статьи, уж точно не включу во веки веков :)

      в 02:38 | Ответить
    12. Марина Александрова

      Здравствуйте, Александр! Большое спасибо за статью, очень интересно теперь проверить свой блог, давно знаю блог Саши Быкадорова, даже страшно стало)))))

      в 02:39 | Ответить
      • Александр Борисов

        У вас все в порядке. Дублей нет. Так как в роботсе все открыто!

        в 11:46 | Ответить
        • Светлана

          Спасибо Александр, все сделала как вы сказали, вот только кнопка "Ответить" с установкой плагина стала не активна. Даже не знаю что делать.

          в 14:17 | Ответить
      • Александр Быкадоров

        Марина, привет — рад тебя видеть.

        Вот видишь до чего я докатился? Меня уже не в пример ставят )))

        У тебя там все ок. А я справлюсь, я смогу. я сильный )))

        в 18:43 | Ответить
    13. Алеся Седова

      Статья просто СУПЕР! Огромное спасибо Вам Александр! Хотя моему блогу всего две недели от роду, я считаю эту информацию сверх важной! Утром займусь robots_om [good]

      в 02:45 | Ответить
    14. Станислав

      Блин, я ведь знал про эти дубли на своем сайте. Искал способ борьбы, но так и забросил это дело. Спасибо, Александр, за подсказку!!!

      в 02:45 | Ответить
      • Александр Борисов

        Станислав 80% не знают. :)

        в 11:46 | Ответить
    15. Юлия

      Мда...ужас ужасный... радует то, что у меня блог молодой...Спасибо за статью, Александр!

      в 02:52 | Ответить
    16. Александр

      Александр,спасибо за содержательную статью.Я внимательно прочитал и проверил все три своих блога.Но Google выдал в ответ на запросы с replytocom по всем трем,что ничего не найдено.Хотя два из них у меня уже более 3 лет и 1 более года,Комментарии имеются на всех от 3500 до 1250.

      Заказал Ваш курс на DVD буду изучать,так как доверяю вам как специалисту высокого класса.Два своих блога делал используя Ваш курс "Как стать блогером тысячником" и доволен результатами.Хотя посещаемость за последнее время упала из-за мой лени,стал редко писать в них.

      С уважением,Александр

      в 02:54 | Ответить
    17. DeathSize

      Что же, лучше узнать поздно, чем никогда.

      в 02:55 | Ответить
      • Александр Борисов

        Это точно!

        в 11:47 | Ответить
    18. Сергей

      Интересно...

      Открою в robots.txt — понаблюдаю.

      Вот кнопку пока спрятать не удается — плагин на новом шаблоне работать не хочет

      в 02:57 | Ответить
      • Александр Борисов

        Тогда кодом. В курсе я говорил как.

        Да, понаблюдай Сергей. У меня сегодня посещалка с google бъет все рекорды!

        в 11:48 | Ответить
    19. Олег

      Саша, большое спасибо за эту ценную информацию, и за то, что ты потратил много времени на изучение этой проблемы. Буду очень рад, когда трафик твоего сайта восстановится до прежних 6200 и будет расти дальше. Завтра начинаю исправлять эти косяки у себя, благодаря твоим советам. Ещё раз спасибо!

      в 03:06 | Ответить
      • Александр Борисов

        Пожалуйста! Уже пошло дело. Еще нет 12:00, а уже с google 100 человек хотя всегда было 50. А за сутки максимум 170. Поехали...

        в 11:49 | Ответить
    20. Nadezhda

      Александр, здравствуйте! Замечательная статья. Очень полезная и нужная информация всем , а особенно чайникам. Всего тебе доброго и твоей УДАЧИ!

      в 03:06 | Ответить
    21. Мария Ганн

      А у меня все отлично. Никаких дублей нет.

      в 03:07 | Ответить
      • Александр Борисов

        Мария все верно! Я вас в статье в пример показал! В видео =)

        в 11:49 | Ответить
        • Мария Ганн

          Ого! А я и не в курсе. У меня интернет настолько "скоростной", что я видео смотреть не могу. Спасибо что сказали ))))) Приятно то как!

          в 17:18 | Ответить
    22. Елена Контиевская

      Ооооо! Теперь я понимаю, Саша, почему ты написал мне в письме: " Елена! Срочно удали эти две строчки из robots.tst!" Я в шооооке! И спасибо тебе огромное! Теперь мне нужно срочно провести реанимационные процедуры двум моим старым "блогам-жмурикам", которые опрокинули эти чертовы дубли-реплитокомы!!!!! А моему младенцу deklife.ru просто крупно подвезло, что он народился полтора месяца назад. Дублей правда уже успел нахватать, засранец! О результатх медицинских процедур отпишусь позже...думаю они будут оооочень интересными! [:-|]

      в 03:12 | Ответить
      • Александр Борисов

        Да вам повезло, у вас дублей по минимуму!

        в 11:51 | Ответить
    23. Ирина

      Спасибо большое за познавательную статью, у меня только открылся мой сайт, скоро в свет появиться и мой блог, буду знать чего не надо делать. Все мы учимся на своих ошибках и потом со времен их исправляем. [good]

      в 03:14 | Ответить
    24. Николай Чернов

      У меня сейчас такое лицо... [:-|]

      в 03:16 | Ответить
      • Александр Борисов

        [:-))] [:-))] [:-))]

        в 11:51 | Ответить
    25. Сергей Москвитин

      Доброй ночи Александр! [:-|] Афигеть просто слов нету. Благо у меня еще статей немного на блоге. А трафика с Google действительно очень мало. В основном идет с Яндекса. Спасибо за такой подарок. Теперь благодаря тебе многие блоги поднимут посещаемость и это будет реальный стимул для дальнейшего ведения блога. Вот у кого действительно надо учится как надо работать в интернете. [good]

      в 03:16 | Ответить
      • Сергей Москвитин

        Саша подскажи какой robots.txt, лучше тот который у тебя сейчас стоит или который ты давал в своем курсе "Как создать блог за час и заработать на нем". ;-)

        в 08:42 | Ответить
        • Александр Борисов

          Лучше тот, который сейчас у меня. В курсе Блог за час я его уже тоже положил в доп.материалы. :)

          в 11:52 | Ответить
          • Сергей Москвитин

            Я так и подумал и уже у себя заменил на твой. Спасибо!

            в 12:26 | Ответить
          • Натали

            Александр, спасибо за статью!

            Делала блог по Вашему курсу, он не то, что молодой, а только-только родился, соответственно и "соплей" еще нет. Будет ли достаточно заменить только роботс? я его прописала как у вас сейчас. Или лучше еще и 301й редирект прописать и плагин поставить? подскажите, пожалуйста?

            в 14:03 | Ответить
    26. Андрей

      Спасибо за статью! Статья просто супер!!! [good]

      в 03:17 | Ответить
    27. Руслан Шандриков

      Александр, ты патриот блогосферы! Так тщательно изучил проблемы и одну подробно описал. Мне кажется, не у каждого на этого хватило бы желания, сил и времени. Но ты относишься к своему делу со всей ответственностью и даешь ценную информацию, что очень похвально. Респект тебе Саня! Спасибо за твой вклад в блогосферу и помощь блогерам!

      в 03:21 | Ответить
      • Александр Борисов

        Эта статья писалась 2 дня :) Получился шедевр! Я сам горд за нее.

        в 11:52 | Ответить
    28. Galust

      Статья потрясающая :) Других слов нет :) Поверил каждой мысли и каждому выводу :)

      Буду с утра покупать курс КСБТ 3.0, тем более, что у меня двойная скидка, как клиента КСБТ 1.0 и КСБТ 2.0 ;-)

      в 03:27 | Ответить
    29. Ольга

      Наверное, уже поздно, так как я не поняла, как от этих дублей избавляться. Завтра с утра разбираться буду. Или я не одна такая ? :)

      в 03:33 | Ответить
      • Александр Борисов

        Ольга зайдите в google наберите — site:knowabroad.com replytocom. Жаль, у вас 19800 дублей. Это вилы. [:-|]

        в 11:53 | Ответить
        • Александр Быкадоров

          Вот так стараешься, стараешься... А получается тут такое дело: чем больше постов и комментов, тем хуже...

          в 18:46 | Ответить
    30. Елена

      Спасибо, Александр за такую полезную информацию. У меня сайт молодой и эта информация очень кстати. [good]

      в 03:33 | Ответить
    31. Елена Голоштенко

      Охренеть просто! (Это я постаралась цензурно сказать). Александр, просто огромнейшее спасибо за статью!!! [good] [good] [good] Днём на свежую голову попробую внедрить.

      Вот оказывается, где начинается нелюбовь гугла. Я тоже в роботс вопросики ставила, думала, не будет индексировать. Я в шоке! Хотя на начальном этапе (может, года 1,5 назад или чуть больше) был момент, когда я боролась с дублями страниц и их число тогда заметно упало. Но всё меняется, походу.

      Стала разглядывать свой файл роботс, нашла ещё вот такую штуку: /?s= Тоже надо удалять, получается?

      в 03:36 | Ответить
      • Лариса

        Лена, а у тебя сколько дублей? Наверно, проще все же древовидные отключить...

        в 11:18 | Ответить
        • Александр Борисов

          Лариса простое отключение не поможет. Дубли остаются.

          в 11:56 | Ответить
          • Оксана Лебедь

            Александр, не могу понять причину: у меня на всех сайтах после replytocom=... идет еще "#respond", поэтому после 301 редиректа это окончание "#respond" остается.

            Есть подозрение, что таки образом будут создаваться уже новые дубли!!!!

            Подскажите, пожалуйста, как решить проблему?

            в 18:35 | Ответить
        • Елена Голоштенко

          Лариса, 5200 согласно вебмастеру. Отключать древовидные — не вариант. Я ещё в самом начале блогерства пробовала отключать, но это просто ужасно неудобно с пользовательской точки зрения. К тому же все те комменты, что у тебя уже с ответами, выстроятся в рядок согласно поступлению, представляешь, какой бред получится.

          в 12:02 | Ответить
          • Александр Борисов

            Согласен, отключать не вариант. Лучше поставить кнопку скриптом. Делается быстро!

            в 16:12 | Ответить
      • Александр Борисов

        Елена наберите в google — site:domovenok-art.ru replytocom

        15700 дублей. Жесть [:-|]

        Уберите все из роботса, поставьте как у меня. А остальное надо настраивать через .htaccess Про это в курсе 3.0. :)

        в 11:56 | Ответить
        • Елена Голоштенко

          Александр, спасибо!!! Жесть не то слово (цензура не пропустит). Иду роботс кромсать

          в 12:05 | Ответить
    32. Нелли Щербина

      Саща, статья действительно бомба. Загрузил конкретно...

      Не могу сказать, что всё поняла, но плагин поставила и сделала нужные настройки пока.

      А я-то смотрю, что Яндекс лучше индексирует, и радуюсь: думаю, чего мне этот Google, а там "вон оно чо, Степаныч!"

      Проверила твоими сервисами и пришла реально в ужас :)))

      Спасибо за науку, Саша и низкий поклон!

      в 03:41 | Ответить
      • Сергей

        И я примерно так думал, пишу себе под НЧ запросы из яндекса и грешил на то, что в гугле другие НЧ, а тут оказывается вот в чем дело.

        в 13:34 | Ответить
    33. Светлана Воронова

      Шок! Это моё состояние. Читала статью ночью, с особым тщанием, вникая во все детали. Вникла... и мне теперь реально не до сна... Это просто жесть, что присходит. И мне действительно искрнее жаль, блогеров, которые имеют бесценный контент на блоге, огромное количество статей и практически нулевую посещаемость... Вот, к примеру, Александра Быкадорова, о котором вы писали в статье.

      Это же сколько времени было вложено, сил, эмоций, а сколько обманутых надежд... ведь верилось, хотелось, оттого и писалось... и время не вернёшь...

      Кнопка " ответить" есть и у меня и даже если это также жёстко коснулось и моего блога ( буду проверять завтра днём), то всё- таки мне не так обидно, статей немного и веду его нерегулярно, НО каждая статья написана с любовью и трепетом.

      Спасибо Александр, за реально мощную статью, за ваш труд и огромную проделанную работу, а также за стремление реанимировать блогосферу. Поделилась статьёй везде и также рассылаю всем своим друзьям- блогерам. Пусть это будет моей внесённой лептой, в наше общее дело- реанимация (возвращение к жизни) блогосферы.

      С огромным респектом к Вашему труду.

      в 03:48 | Ответить
      • Александр Борисов

        Пожалуйста. Мне тоже раельно жалк всех. Я представляю что сейчас начнется когда все избавятся от дублей. :) :) :)

        в 11:58 | Ответить
      • Александр Быкадоров

        Светлана, привет.

        Рад Вас приветствовать. Давно не общались ))) Хоть на блоге Саши увидились )))

        Насчет постов и вложенных сил — Вы абсалютно правы, но я к этому отношусь спокойно.

        Да, "накосячили", ну что уж тут поделаешь )) Издержки производства, так сказать.

        Спасибо, что есть ребята, которые не жадничают и рассказывают о всем как есть.

        Саша, спасибо тебе еще раз!

        С меня могар на следующих год, как повидаемся !

        в 18:49 | Ответить
    34. Даниил

      Можно было и не писать эту "портянку", решение проблемы — установка комментариев Disqus на блоге.

      в 03:57 | Ответить
      • Александр Борисов

        Это не решение проблемы. Дубли останутся все равно. Нужно все равно избавляться от них.

        в 11:58 | Ответить
    35. Antonio

      Я древовидные никогда не включаю. По моему эта ситуация с replytocom давно всем известна. Хотя наверно не всем.

      в 03:59 | Ответить
      • Александр Борисов

        Ну если бы была известна всем, повторю, то у каждого 2-го читателя моего блога не было бы дублей.

        в 11:59 | Ответить
    36. ITишник

      Статья класс! Сочная. Блог у меня молодой, но replytocom убил в зачатии :) Спасибо, Саш! Чувствуется сколько энергии было вложено в данный материал

      в 05:00 | Ответить
    37. Андрей

      "А сколько их всего на блоге? Саша ты там еще не в обмороке? Если нет, то смотри дальше. Проанализировав блог Александра через один секретный сервис [good] , я вижу, что на его блоге всего 26 659 ссылок:"

      sollomono.ru ;-)

      в 05:45 | Ответить
      • Александр Борисов

        linkpad.ru :)

        в 11:59 | Ответить
    38. Татьяна

      Еще на почте стало ужасно страшно-любопытно, что же там за беда такая :)

      Спасибо за статью. Древовидность я уже давно отключила и выводила плагином, но вопросики в robots все еще висят.

      Иду чистить. Спасибо!

      в 06:37 | Ответить
      • Александр Борисов

        Татьяна посмотрите видео и вопросик отпадет.

        в 12:00 | Ответить
        • Татьяна

          Александр, а в ручную удалять эти дубли никак нельзя? Например через Вебмастер Гугла.

          Роботс я подправила. Но ждать пока все сопли исчезнут — это ж состариться можно. Ну... почти :)

          Или если вручную удалять, то могут санкции быть?

          в 16:09 | Ответить
          • Александр Борисов

            Ни в коем случае нельзя удалять через вебмастер — Удаление URL, а то потом весь сайт пропадет в выдаче.

            в 16:53 | Ответить
    39. Евгений

      Саша, такой вопрос: "Если ставить редирект в файле .htaccess, а не прописывать скрипт в файле function.php — в этом случае дубли страниц будут выкидываться из индекса? Или можно сделать и то и другое?

      в 06:51 | Ответить
      • Александр Борисов

        Не понял :)

        1. Обязательно надо убрать строки в роботсе.

        2. Убрать кнопку Ответить (заменить скриптом или плагином)

        3. По желанию htaccess

        в 12:01 | Ответить
        • Евгений

          Про роботс.тхт мне все понятно, и у меня в роботсе изначально таких строк не было, поэтому я спрашивал только про 2 метода избавления от индексации уже имеющихся дублей страниц, а они как раз у меня есть. Кнопку заменил, но плагином не тем, что ты рекомендовал(ошибку выдает) а вот этим: Comment Toolbar Plugin

          в 12:28 | Ответить
        • Ольга

          А зачем потом заменять кнопку ответить плагином, если новый роботс уже будет работать, как нужно?

          в 19:42 | Ответить
          • Александр Борисов

            У кого-то и с нормальными роботсами google кушает все. Так же как и с закрытыми роботсами дублей нет. Так что лучше на 100%.

            в 19:47 | Ответить
    40. ольга

      Да. Это что то! У меня 35 500 этих ... replytocom. Сделала все как здесь написано и все получилось! Радости нет предела, спасибо, Александр!!! Только у вас все понятно и доступно. У меня 5 блогов, попробую все исправить на всех... Главное понятно почему такой маленький трафик с гугла и посещаемость не увеличивается.

      в 06:59 | Ответить
      • Александр Борисов

        Пожалуйста! Ждите взрыв роста в Google.

        в 12:01 | Ответить
      • Сергей

        Как это у вас так быстро все получилось? )))

        в 16:22 | Ответить
    41. Vlad

      Я то думал катастрофа, а тут дубли страниц. Да у вордпресса есть такой парок, но дубли страниц, это тема которую проходят в начале обучения ведения блога на вордпрессе. Там есть такая каверза, как сохранение поста в дневнике, это сам вордпресс делает, создаёт дубли ваших записей, эту функцию тоже надо отключать. Дубли конечно тормозят блог, но как я говорил ранее, всё зависит от темы блога, и от умения владельца блога, грамотно и красиво писать статьи, чтобы людям было интересно. :)

      в 07:09 | Ответить
      • Александр Борисов

        Не знаю где проходят эту тему. Я через 2 года ведения блога узнал про них. Где-то есть школа обучения? А 80% статей про replytocom еже жестче убивают блоги советами по поводу ЗАКРЫТИЯ replytocom в robots.txt

        в 12:03 | Ответить
      • Галина

        Согласна с Александром, где это вы учились, что сразу узнали при создании блога про дубли страниц?

        в 20:55 | Ответить
        • Александр Борисов

          Во сне :)

          в 22:44 | Ответить
    42. Денис

      YuuuuuuuHuuuuuuuu!!! — Jackpot! — более чем 22.600 дублей!

      Значит это не лыжи не едут...!!! :)

      Честь имею!

      в 07:14 | Ответить
      • Александр Борисов

        УРА!!!!!!!!!!! :) [present] Мои поздравления!

        в 12:03 | Ответить
    43. Вера Третьякова

      Александр — вы просто Гений! [star]

      Какая колоссальная работа проделана! Это просто — бомба!

      Я давняя подписчица вашего блога. Постоянно заглядываю к вам в гости и нахожу для себя много полезностей. :-|

      К счастью, у меня дублей нет, благодаря правильно составленному роботу.

      Непременно поделюсь Вашей статьей со своими друзьями.

      Мой блог ориентирован на помощь людям старшего поколения и ваши рекомендации как раз кстати. Надеюсь, прочитав вашу статью, новички обезопасят свои ресурсы.

      Искренне благодарю Вас за помощь всем блогерам. [flower]

      Развития вашему Детищу и побольше благодарных последователей.

      в 08:29 | Ответить
    44. Евгений

      И еще вопрос, Саша! У меня плагин WordPress Thread Comment работает не корректно и выдает ошибку, при нажатии кнопки "ответить". Поэтому мне пришлось не убирать галочку разрешающую в настройках древовидное комментирование. Однако редирект работает корректно. При таком раскладе будут ли у меня увеличиваться исходящие ссылки с блога, попадающие в индекс гугла?

      в 08:45 | Ответить
      • Александр Борисов

        Если в роботсе не закрыты replytocom то все будет ок, НО! Все таки лучше избавиться от кнопки. Google непредсказуем!

        в 12:12 | Ответить
    45. Кристина

      Александр, статья получилась очень классная. В интернете более подробной и понятной просто нет! А главное — действенной! ;-)

      в 08:54 | Ответить
    46. Даниил

      Ух... спасибо, у меня этих реплетуком 10000, теперь ждать буду, а то я уже почти забросил сайтик свой, была посещаемость 1700, я был рад, когда упала на 300 чел. я был готов бросить это дело, но решил подождать, когда вы напишете этот пост, теперь буду продолжать заниматься сайтом, но теперь долго ждать, чтобы все вернулось...

      в 09:02 | Ответить
      • Александр Борисов

        =) Вам повезло, у меня более 200 000 [:-|]

        в 12:12 | Ответить
    47. Вадим

      Александр, спасибо большое за статью! Невероятно полезная информация.

      Посмотрел сейчас на свой блог — более 6000 дублей! Это жесть! Пойду сейчас robots.txt перекраивать :)

      Я сейчас зашел в панель вебмастера гугл и увидел, что в статусе индексирования у меня проиндексирована всего 1 ссылка за последний год! А rds-бар показывает 1360. Не пойму, хорошо это или плохо?.. В индексе гугла есть, даже по некоторым запросам в топ-е.

      А вот вебмастер от Яндекса показывает "загруженных роботом" 2469 страниц. И тенденция положительная :)

      в 09:06 | Ответить
      • Александр Борисов

        Проиндексирована 1 ссылка? Странно! У вас роботс странный. Поставьте мой, изучите курс 3.0 и все пойдет в гору с двумя поисковиками. Загружено 2469 страниц это много. Должно быть загружено столько сколько и статье + страниц блога. ВСЕ!

        в 12:14 | Ответить
    48. Константин

      Печалька!

      Вот оно счастье , проверил , облом.

      Дубликатов нет, (роботс и комментарии изначально правильно были настроены),

      Да и в комментариях запрещено указывать свой сайт, убрано поле сайт.

      Не светит мне увеличение посещаемости от гугла, соотношение 53,8% яндекс / 40,9 % от гугла , хотя посещаемость радует (5к-10к). Веду правда не блог, а сайт финансовой тематики.

      Приобрел ваш новый курс 3.0

      Буду изучать новые возможности раскрутки сайтов и добиваться новых результатов, чего и вам желаю!

      в 09:07 | Ответить
    49. Алевтина

      Спасибо!!!Пошла исправлять погрешности,очень нужен трафик.

      Вы прямо окрылили меня.Очень полезная и нужная статья.Все понятно и доступно донесено до читателей.

      Проверила сайт,все проблемы на лицо,а я еще все думала,почему Яндекс загружает очень много страниц а индексирует одну десятую. Теперь все ясно стало.Очень вам благодарна,действительно бомба! [good] [good] [good]

      в 09:10 | Ответить
    50. Александр, психолог счастья

      Недавно (буквально вчера) закончил оптимизацию html кода моего блога — не знаю как с этими репликами, КОММЕНТАРИИ вроде тоже изменились (Евгений Морозов — нашел твою рекомендацию у тебя на блоге и воспользовался его услугами). Про реплики спрошу у него — сам я вряд ли настрою — каждому свое. Я — Бог в психологии, он — Бог в программировании. Гугл с Яндексом сейчас приводят 50 на 50, еще неделю назад было: 70 на 30. и я считал это нормальным, раз поисковое соотношение в России такое же.

      Александр, как показала предыдущая статья и как показывает эта. Вы — опытный рыбак, несмотря на то, что несколько щук срывается, вы все-таки ловите достаточно рыбы, чтобы накормить досыта свою команду — огромный респект Вам :), как психолог пси... тьфу-ты как рыбак рыбаку ответственно заявляю.

      в 09:11 | Ответить
      • Александр Борисов

        :)

        в 12:16 | Ответить
    51. Юлия

      Александр, у меня вопрос. В роботс.тхт у меня не было запрещено индексировать дубли, но они все же есть, как я поняла после проверки и ужас как много. Вы говорили, что в вордпрессе дубли не дает индексировать их тэг ноиндекс, но у меня если посмотреть код страницы написано так <meta name="robots" content="index, follow" /> А ведь правильно должно быть noindex. Почему так получается?

      в 09:30 | Ответить
      • Александр Борисов

        Юлия в том то и дело, что надо в роботсе открыть все, а не запрещать. Посмотриет видео!

        в 12:16 | Ответить
        • Юлия

          Александр, так у меня же открыто как раз. В роботсе нет тех самых строк, которые вы говорили убрать

          в 12:23 | Ответить
          • Александр Борисов

            Как нет? Есть!

            Disallow: /trackback

            Disallow: */comments

            Disallow: /category/*/*

            Disallow: */trackback

            Disallow: */*/trackback

            Disallow: */*/feed/*/

            Disallow: */feed

            Disallow: /*?*

            Disallow: /?s=

            Disallow: /?print=

            в 16:14 | Ответить
    52. Юлия

      И еще момент. Плагин я установила, но при нажатии кнопки ответить ничего не происходит. Вот у вас на блоге, если я нажму ответить, то под тем комментом, где я хочу написать появляется форма для текста, а у меня ничего не появляется, как будто вообще не реагирует

      в 09:32 | Ответить
      • Сергей

        Юлия, если используете плагин WordPress Thread Comment, то в настройках формы комментариев этого плагина в окне Comment Form ID пропишите:

        commentform

        После этого можно будет отвечать своим комментаторам и проблем не будет. У меня по крайней мере их не было.

        в 10:51 | Ответить
        • Алевтина

          Столкнулась с таки ми же затруднениями,ваш совет мне помог,спасибо,все теперь работает!

          в 11:49 | Ответить
        • Юлия

          Спасибо, Сергей, что написали. Но дело в том, что commentform уже по умолчанию там стояло, а все равно не срабатывает

          в 12:32 | Ответить
          • Сергей

            Юля, тогда не знаю. Может конфликтует с какими-то плагинами для комментариев или тема такая. Тут точно не скажу. Попробуйте на локальном сервере протестировать. Например, по одному отключать плагины для комментариев (например, плагины подписки, антиспам и т. д) может появится форма для комментариев.

            А вообще, я бы не использовал плагин WordPress Thread Comment. Он уже 5,5 лет не обновлялся, что плохо для защиты и совместимости с новыми версиями плагинов и CMS!

            В борьбе с реплитокомами отлично подойдет WordPress SEO by Yoast. Он эти реплитокомы с кнопки Ответить полностью удаляет. В итоге получается ссылка, как в дате. Ну и кроме этого у плагина есть еще много полезных функций. К тому же он вовремя обновляется и совершенствуется.

            в 16:42 | Ответить
            • Александр Быкадоров

              А причем тут вывод древовидных комментариев (сам процесс их формирования) и этот плагин?

              в 23:21 | Ответить
        • Елена Контиевская

          Спасибо огромнейшее, Сергей за дельную подсказку! У меня была та же проблема- не выводилась Форма для комментариев на сайте при нажатии на кнопку "Ответить". А все оказывается так просто! [good] :)

          в 14:29 | Ответить
        • Елена

          Сергей, спасибо! Все получилось, теперь и у меня "ответить" заработало! :)

          в 13:42 | Ответить
      • Александр Борисов

        Если ни чего не происходит, значит нужно обратиться к верстакам, они настроят. Я не силен в java.

        в 12:18 | Ответить
        • Дмитрий

          А другого, похожего плагина для древовидных комментариев не подскажите, Александр. У меня WordPress Thread Comment не работает, как я с ним не бился.

          в 18:08 | Ответить
          • Александр Борисов

            Я плагин просто как вариант посоветовал. Ребята, все делается парой строк кода. Рассказал в курсе 3.0 Подойдет для 80% блогов.

            в 18:14 | Ответить
          • Олег

            Дмитрий читайте чуть выше, похожий плагин, но более свежий, Сергей посоветовал.

            в 00:52 | Ответить
      • Александр Борисов

        В исходном коде вижу — <meta name='robots' content='noindex,follow' /> Это все нормально!

        в 12:18 | Ответить
    53. Александр x3m

      В гугле 1000 дублей страниц!!! Збс!!! 😉

      Правильно ли я понял, что нужно убрать в роботсе 2-е строчки (2 раза)... и можно на время дышать ровно?!

      в 09:35 | Ответить
      • Александр Борисов

        Да, надо убрать + все таки лучше избавиться от кнопки, replytocom

        в 12:19 | Ответить
    54. Denis

      Большое спасибо как раз искал этот момент. [good]

      в 09:36 | Ответить
      • Олег

        В исходном коде у меня стоит — <meta name='robots' content='noindex,follow' />

        Вроде всё нормально, но почему то при наведении в комментариях (у меня их мало) на любую из кнопок "Ответить", высвечивается внизу replytocom= ... и т.д. но не высвечивается Java seript: ...и т.д... Подскажите пожалуйста кто знает, стоит устанавливать плагин WordPress Thread Comment или оставить всё как есть? Заранее спасибо.

        в 15:07 | Ответить
        • Олег

          И к тому же с Гугла трафика больше чем с Яндекса.

          в 15:08 | Ответить
          • Александр Борисов

            Олег если не разбираетесь вам лучше к программистам. А вообще курс 3.0 в помощь! Во всем разберетесь!

            в 16:16 | Ответить
            • Олег

              Спасибо.

              в 00:44 | Ответить
    55. Француженка

      А у меня состояние — недоверия... Ни к Вашей статье, Александр, а к тому что ЭТО сработает на моем блоге.

      Дело в том, что с гугла трафик лучше, чем с яндекса — это раз.

      Когда проверяю по Вашей схеме сайт в гугле, то не выдает никаких результатов, то есть получается дублей нет? Но на сайте replytocom — есть.

      И третье — страх сделать еще хуже...

      В общем, не буду бросаться все переделывать, а лучше подумаю над этим денек-другой.

      Но в любом случае — за информацию спасибо.

      в 09:39 | Ответить
      • Француженка

        И нашла у себя в роботсе вот такую вот директиву:

        Disallow: /*/?replytocom=*

        Её получается нужно снести?

        в 09:43 | Ответить
        • Александр Борисов

          У вас дублей я не вижу. Да, лучше уберите эту строчку. А кнопочку лучше все таки сделать скриптом.

          в 12:20 | Ответить
    56. Елена

      Спасибо, пошли править. Я такие "вложенные" комменты уже видела на других сайтах. Значения особого не придавала, а зря

      в 10:04 | Ответить
    57. Василий

      Не ожидал, что мой сайт будет упомянут в этой статье. Спасибо Александр.

      Подтверждаю, что дубли с replytocom очень негативно влияют на поисковую выдачу. После удаления дублей на моем сайте, поисковый трафик с Google вырос в два раза.

      Я тоже написал об этом статью, где рассказал, что именно я сделал.

      в 10:16 | Ответить
      • Александр Борисов

        Василий вас блог тоже был однажды под моим особым контролем :) Был изучен от А до Я! [:-))] [:-))] [:-))]

        в 12:21 | Ответить
    58. Галина

      У меня две строчки:

      Disallow: /*?*

      Disallow: /?s=

      Их обе сносить? Я дублями страниц озабочена уже некоторое время, все вы написали, Александр, правильно — стоит посещаемость, хоть тресни, и было подозрение, что с роботсом непорядок. С работы приду, буду статью, как "Отче наш" изучать. Спасибо вам, работу вы проделали огромную, и для нас, бедолаг, стараетесь. [good]

      в 10:53 | Ответить
      • Александр Борисов

        Да Галина. Снесите все.

        в 12:21 | Ответить
        • Галина

          Саша, спасибо вам огромное! Вы — лучший друг всех блоггеров! [good] [flower]

          в 15:05 | Ответить
          • Александр Борисов

            [:-))]

            в 16:16 | Ответить
    59. Юрий

      Блин, и у меня была такая проблема, даже не обращал внимания на эту кнопку "Ответить". Хорошо, что узнал и оперативно исправил. Больше этой проблемы нет. Спасибо, Александр :)

      в 10:53 | Ответить
    60. evanhost

      Классный пост.Спасибо!

      в 11:12 | Ответить
    61. Елена

      Интересно, странно, я думала что счас я что-то изменю и мой сайт пойдет вверх, но по запросу мой сайт на replytocom выдал "ничего не найдено", я даже расстроилась. Ну хорошо, что я узнала об этом сейчас :) [good]

      Александр, почему вы на выходных не написали статью с новым продуктом? счас с понедельника некогда этим заниматься

      в 11:16 | Ответить
      • Александр Борисов

        Вы кстати еще один уникум у кого есть replytocom, в роботсе все закрыто, а в выдаче нет дублей. Повезло. Но это везение может быть не вечно! :)

        в 12:23 | Ответить
        • Елена

          Спасибо, Александр, с вашим новым курсом буду исправлять сайт пока он еще не вляпался.

          Интересно посмотреть вашу посещаемость за сегодня, наверняка Гугл оценит [good]

          в 13:08 | Ответить
          • Александр Борисов

            Сегодня будет рекордная посещаемость. Почти 300. Хотя раньше только 160. То есть пошло в верх все.

            в 16:17 | Ответить
    62. Алевтина

      Александр,подключила плагин,отключила древовидные комментарии,но у меня при нажатии на "ответить" какое то окошко выскакивает ERROR:cant find the commentfomid div Наверное что то не так сделала.Что мне сейчас сделать?Спасибо! [:-|]

      в 11:20 | Ответить
      • Алевтина

        Александр,все получилось,исправила,благодаря прочтению и советам вышенаходящихся комментариев Сергея. [flower]

        в 11:51 | Ответить
      • Евгений

        Вот у меня такой же трабл, Алевтина! Я пошарил в инете и нашел замену этому плагину, вот этим: Comment Toolbar Plugin — тоже кстати можно скачать с официального сайта wordpress, установил и работает отлично. Попробуйте, может вам он тоже подойдет!

        в 11:52 | Ответить
      • Александр Борисов

        Алевтина это вам к верстальщикам. Они 100% помогут! :)

        в 12:24 | Ответить
    63. Николай

      Здравствуйте, Александр.

      У меня нет в выдаче такого мусора но есть проблемка:

      <meta name='robots' content='noindex,follow' />

      У меня index стоит.

      в 11:25 | Ответить
      • Александр Борисов

        У вас уже все нормально :)

        в 16:18 | Ответить
        • Николай

          Спасибо за проверку;) А в сеолибе проверил и страниц в доп. индексе показал 66% Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.

          Но дело в том, что на сопли по вашей ссылке в выдаче гугла проверял и ничего не оказалось. На что грешить: на сеолиб или на гугл?)

          в 21:15 | Ответить
    64. Евгений Федь

      Ух...ты вот это новости! [:-))] Благодарю! Бежим наводить порядок! [star]

      Мне вот интересно еще другое, как ты Саша пишешь такие статьи в 30К знаков. ;-)

      А именно, буду благодарен, если ответишь на следующие вопросы:

      1. Все ли написал сам?

      2. Сколько времени ушло, чтобы написать такаю статью?

      3. Сколько средств затрачено на аутсорсинг?

      в 11:26 | Ответить
      • Александр Борисов

        Эта статья особенная.

        1. Сам. Здесь все статьи на этом блоге мои.

        2. 2 дня.

        3. Ни сколько.

        в 16:19 | Ответить
    65. Лариса

      Александр, а в какое место function.php нужно вставить код? Я добавила в конец, так весь этот код вылез над шапкой сайта.

      в 11:28 | Ответить
      • Александр Борисов

        В смысле в function.php )) Туда ни какой вроде бы. Если вы про 404, то в начало между <?php

        в 16:22 | Ответить
        • Лариса

          Да, про 404. Это ж для того, чтобы дубли быстрее исчезли, правильно?

          в 20:54 | Ответить
          • Александр Борисов

            Это просто как вариант. И редирект и 404 все равно. Можно вообще ни чего не использовать. Главное открыть robots.txt и убрать кнопку.

            в 22:44 | Ответить
        • Лариса

          Ага, после <?php получилось, спасибо!

          в 21:18 | Ответить
    66. СтасОК

      ФУУУ вроде проверил нету дублей. Насколько я понимаю, если у меня стоит виджет CACLE (как у тебя вверху) то, как бы это сказать, все комменты находятся на стороннем ресурсе и дублей не должно быть??? Или я чего то не понял???

      P.S. Кстати да при переходе по ссылке из письма вылетает какая-то ересь и антивирус не хочет пропускать на сайт.

      в 11:30 | Ответить
      • Александр Борисов

        Кал это совсем другое. Не относится к стандартным комментария wordpress.

        Да, там смарт глючил.

        в 16:23 | Ответить
    67. Илья

      Я давно читаю статьи на блоге Александра, и думаю начать свой блог. Но я сомневаюсь воспользоваться мне ВордПрессом или самому создавать коды страниц. После этой статьи я понял что все коды лучше делать самому, тогда не возникнет таких проблем и уникальность будет высокая.

      в 11:52 | Ответить
      • Александр Борисов

        Нет, лучше пользоваться wordpress. Поверьте!

        в 16:23 | Ответить
    68. Олег

      А если использовать clean-param в роботсе?

      Он же как раз и нужен для борьбы с дублями GET запросов.

      в 12:09 | Ответить
      • Александр Борисов

        Про это не знаю если честно!

        в 16:24 | Ответить
    69. Лариса

      Спасибо! А я давно заметила эти дубли, но не понимала, почему они возникли и как от них избавиться. Все рекомендации учту.

      в 12:10 | Ответить
    70. Сергей

      Хорошая статья Александр, но немного не по теме, я подписан на Вашу рассылку и мне на почту пришло Ваше уведомление о статье, я начал переходить, но яндекс обнаружил на Вашем блоге, вредоносный код, примите к сведенью и проверьте блог на вредоносные коды, этот код часто встречается в банерной рекламе, в счетчиках посещаемости и так далее.

      в 12:13 | Ответить
      • Александр Борисов

        Это браузер на ссылку от смарта ругался. Я сегодня другое письмо отправил!

        в 16:24 | Ответить
    71. Ольга

      А я с самого начала отключила выдачу древовидных комментариев и установила плагин WP Thread Comment. Посещаемость с гугла достигала 1000 чел зимой, сейчас немного упала. Дублей у меня сейчас 41, но, наверно, по другим причинам. Вот не знаю, стоит ли менять роботс?

      в 12:30 | Ответить
      • Александр Борисов

        Ольга посмотрите мой курс и поймете. В роботсе конечно уберите, сделайте как у меня. дубли уйдут еще быстрее.

        в 16:25 | Ответить
    72. Sasha

      Большое спасибо за статью! Уже несколько месяцев тоже искала причину "ступора" с развитием блога. Чтобы исключить дубли страниц, редактировала роботс, закрывала категории и другие разделы... А, получается, его опять править нужно:)))

      Я правильно поняла, что из Роботса нужно вообще удалить эти строки:

      Disallow: /*?

      Disallow: /*?*

      Слова replytocom в этом файле у меня вообще нет.

      И, конечно, в настройках Вордпресс древовидные комментарии лучше отключить. Я все правильно поняла?)

      Отличного начала недели и заранее спасибо за ответ!

      в 12:39 | Ответить
      • Александр Борисов

        Да, все верно! В настройках можно не отключать, надо кнопочку ответить заменить на вывод скриптом!

        в 16:26 | Ответить
    73. Александр Крутицких

      Саша, С-П-А-С-И-Б-О!!!

      в 13:12 | Ответить
      • Александр Борисов

        [good]

        в 16:26 | Ответить
    74. Николай

      Cпасибо за интересную статью! После проверки дублей оказалось, что у меня тоже есть эти же самые дубли. По Вашей рекомендации отредактировал файл Robots.txt- у меня была только строчка-Disallow: /*?* — убрал. Также в файл .htaccess добавил редирект. После этого сайт немного поглючил-перестал отображаться, а после более внимательного редактирования стал работать. Плагин WordPress theread comment пока ставить не стал. На сайте автора написано, что он 2 года не обновлялся. Теперь буду ждать, когда ПС удалят дубликаты страниц. Еще раз спасибо!

      в 13:16 | Ответить
    75. Олег

      Саша, спасибо за курс! Многие говорят, что проблема replytocom давно всем известна. Это так, но не все представляют последствия, и тем более не все знают, как с ней бороться. Я вот давно знаю, что это плохо, но не хотелось отключать древовидные комментарии, ведь это удобно, особенно для блога.

      У меня, как и многих, тоже трафик с Google упал с февраля 2013 года. Все не мог понять причину. Дубли имел в виду, но все же надеялся, что не это главное. Продвигать статьи кое-как умею, значит дело не в оптимизации. Решил, что просто Гугл не особо жалует блоги о SEO и заработке и успокоился. Смотрю почти у всех такая картина — подумал, значит просто такая тенденция, раз у всех, то не страшно. Теперь смотрю на все совсем другими глазами.

      Реально этот курс самый полезный из всех курсов по настройке WordPress, которые я видел! Реально круто [good] ! Завидую новичкам, у них есть шанс сразу все делать правильно. А я 3 года назад тоже думал, что делаю правильно... и все так думали. Тоже "правильный" robots всем советовал...

      в 13:32 | Ответить
      • Елена Романова

        Было бы хорошо, если бы ПРАВИЛЬНЫЙ robots был для всех изначально правильным. :)

        в 15:52 | Ответить
        • Александр Борисов

          Так он у меня правильный и для всех один! :)

          в 16:29 | Ответить
          • Ольга

            Значит, можно смело брать ваш и ставить себе без внесения каких либо изменений?

            в 16:45 | Ответить
            • Александр Борисов

              Только ompin уберите.

              в 17:11 | Ответить
          • Ирина

            Саша, а что означает директива Disallow: /ompin в Вашем robots.txt? В интернете не нашла, если брать Ваш robots.txt эту строчку сохранить или не нужно?

            в 21:23 | Ответить
    76. Жан Абрамов

      Странно, я проверил как вы указали в гугле на дубли, я так понял у меня их нет ? Гляньте пожалуйста — netboleznej.ru один из моих сайтов, я даже ОТВЕТИТЬ не могу открыть в новом окне...

      в 13:34 | Ответить
      • Александр Борисов

        Да у вас нет!

        в 16:30 | Ответить
    77. Любовь

      Саша, прочитала статью внимательно. О дублях задумалась около месяца назад. При общении с блогерами узнала, что у некоторых при проверке траста сайта выдаются дубли. У меня этого нет. В таких технических моментах я плохо разбираюсь. По статье проверила методом сравнительного анализа. Когда открыла блог Александра, то у него при проверке скрытых страниц перед его именем стоит "Ответить". Проверила, как у тебя. Перед УРЛ нет этого "ответить" А внизу после УРЛ страницы:

      "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее..." У меня тоже так, как у тебя. Правда некоторые ссылки с УРЛ заканчиваются № статьи. Не знаю, правильно это, или нет. Но тему эту последнюю я поставила в конце января. До этого с сентября по декабрь с "модернизацией" и всякими настройками сайта умудрилась 4 раза "уронить" сайт до нуля. Может это отголоски еще прошлых моих рукотворств. Сижу и не знаю, что делать. Есть эти самые дубли у меня или нет.

      в 13:42 | Ответить
      • Александр Борисов

        Любовь у вас более 6000 дублей. Посмотрите видео. Или курс 3.0

        в 16:31 | Ответить
    78. Альберт

      Александр, РЕСПЕКТ [good]

      Грамотно подошел к презентации КСБТ-3, прямо загорелось прикупить себе его. Цена правда кусается маленько.

      в 13:46 | Ответить
      • Александр Борисов

        Цена должна быть на такой курс около 10к. По идее... Я курсы смотрел по SEO за 17к. Все то же я вам сказал в курсе )))

        в 16:32 | Ответить
        • Альберт

          Ого себе, расценочки! Но самое главное, что я уверен в качестве твоего курса, так как смотрел другие. Куплю всетаки ;-)

          Жизнь живи жизнь учись, как говориться.

          в 18:47 | Ответить
    79. Альберт

      У меня, кстати и с дублями все было нормально, но все же последовал твоему примеру. Спасибо

      в 13:51 | Ответить
      • Александр Борисов

        У тебя более 3000 дублей [:-))]

        в 16:32 | Ответить
        • Альберт

          Да я в курсе, что их море, давно уже заметил. Я обычно все сравниваю с твоим блогом, глянул как-то, у тебя их тоже куча была, вот и не стал заморачиваться [:-))]

          в 18:29 | Ответить
          • Александр Борисов

            Я тоже не заморачивался раньше, а щас заморочился.

            в 18:33 | Ответить
    80. Валентина

      Александр, спасибо за статью. Хоть у меня и нет потерь, из-за которых я могла бы огорчаться, так и блог недавно веду, и посетителей нет, но все равно, спасибо, что ты такой человек, что и сам трудишься много и зарабатываешь, и другим стараешься помочь. А знаешь, кто много дает другим, тот и сам получит много. Я запрашивала в Гугле о моем сайте, он ответил, что у меня все нормально. Я зашла в настройки блога и убрала галочку, разрешающую древовидные комментарии. Этого достаточно или нет?

      в 13:53 | Ответить
      • Александр Борисов

        Валентина у вас 64 дубля. далеко еще не ушли. Вам надо еще в robots.txt убрать:

        Disallow: */trackback

        Disallow: */feed

        Disallow: */comments

        Disallow: /*?*

        в 16:33 | Ответить
        • Валентина

          Ну, надо же! И когда это я успела? Я считала, что если у меня мало посетителей, то и дублей не будет. Большое спасибо, Александр! И как ты знаешь, что у меня там делается? Всех благ тебе!

          в 03:42 | Ответить
          • Александр Борисов

            Проверил согласно статье.

            в 11:21 | Ответить
    81. Анна

      Спасибо огромное! Глянула у себя и правда — жесть, а я думаю, что с посещаемостью, на лето, да, грешила... Ценная статья, пойду поделюсь с остальными.

      в 13:57 | Ответить
    82. Эрик

      Александр. Удалил из robots.txt не нужное. Теперь дубли страниц разрешены роботу, но в коде страницы я не нашёл <meta name='robots' content='noindex,follow' />. Как быть?

      в 13:57 | Ответить
    83. Vadar

      Вот это да! У меня аж 59 400 этих зараз!!! Мой поклон тебе ДОРОГОЙ ТОВАРИЩ !!!

      в 14:00 | Ответить
    84. Vadar

      Дорогой Александр, у меня в robots.txt в двух местах есть эти

      Disallow: /*?*

      Disallow: /?s=

      Скажите пожалуйста, их везде убрать к черту да? Заранее благодарю за ответ!

      в 14:07 | Ответить
      • Александр Борисов

        Да, убрать!

        в 16:35 | Ответить
        • MacNoob

          Саша, а у себя ты забыл убрать строчку Disallow: /*?*

          Проверь 4-ая сверху

          в 15:59 | Ответить
          • Александр Борисов

            Нет, я спецом оставил. Эксперимент у меня сейчас идет. Действует ли Alow или нет.

            в 20:29 | Ответить
    85. Александр Крутицких

      Саш, дай, пожалуйста ссылку прямо в статье на файл robot.txt (чтоб скачать)

      Хорошо, что ты его в материалы к бесплатному курсу добавил добавил.

      Думаю, не мне одному пригодится. 😉

      в 14:07 | Ответить
      • Александр Борисов

        Дак мой посмотреть можно и все. Только ompin убрать )

        в 16:35 | Ответить
    86. Артем Меллум

      Бодрая статейка. Пару сотню дублей обнаружил.

      Саша, скажи, пожалуйста, достаточно закрыть кнопку "Ответить" nofollow и открыть в robots.txt доступ роботу? Без редиректов и 404?

      в 14:08 | Ответить
      • Александр Борисов

        Да, достаточно по идее. Кнопку не nofollow надо закрывать, а скриптом.

        в 16:36 | Ответить
    87. Ольга Суворова

      Александр, странное у вас зеркало домена...Автомобильный сайт...Или это глюк какой-то на linkpad?

      в 14:10 | Ответить
      • Александр Борисов

        Глюк линкпад.

        в 16:36 | Ответить
    88. Наталья

      Добрый день! Спасибо за статью.

      У меня на запрос в Гугле выдается вот такая инфо

      По запросу site:razpetelka.ru replytocom ничего не найдено.

      Рекомендации:

      Убедитесь, что все слова написаны без ошибок.

      Попробуйте использовать другие ключевые слова.

      Попробуйте использовать более популярные ключевые слова.

      Попробуйте уменьшить количество слов в запросе.

      Надо понимать — дублей нет или что-то другое?

      в 14:32 | Ответить
      • Александр Борисов

        У вас все хорошо!

        в 16:36 | Ответить
        • Наталья

          Спасибо, порадовали.

          в 16:17 | Ответить
    89. Артём Черкасов

      Действительно мощная статейка, спасибо!

      Но дто не единственная причина почему блоггеры сдуваются, просто у большинства пыл заканчивается и лень самому писать статьи [:-))]

      в 14:35 | Ответить
      • Александр Борисов

        Я скоро видео запишу как побороть лень. :)

        в 16:43 | Ответить
    90. Дмитрий

      Александр, с robots.txt у меня всегда проблемы. Что в моём сейчас лишнее. Вроде бы о том, что Вы говорили нет. Хотя посмотрите, надеюсь на ответ:

      ФАЙЛ ROBOTS.TXT УДАЛЕН АВТОРОМ БЛОГА

      в 14:49 | Ответить
      • Александр Борисов

        Дмитрий возьмите мой роботс и поставьте к себе.

        в 16:43 | Ответить
        • Дмитрий

          Он подойдёт без проблем?

          в 16:47 | Ответить
          • Александр Борисов

            100%

            в 17:12 | Ответить
    91. Светлана

      Большое спасибо за Ваш труд и помощь нам. Сегодня все сделала так, как Вы написала в своей статье. Заодно исправила ошибку в robots.txt. Надеюсь, все будет в порядке.

      в 14:53 | Ответить
    92. Марина

      Александр, Гугл ничего не нашел.

      Я использую Cackle для комментариев.

      в 14:54 | Ответить
      • Александр Борисов

        Он не нашел, а я нашел ) Но не replytocom [:-))] Другие дубли.

        в 16:44 | Ответить
    93. Архи Яна

      Александр, здравствствуйте! Буду банальна: спосибо огромное! Оно и за статью и за видеокурс "Как создать блог за час". Уже давно хочу Вас поблагодарить, и не знаю где) Ведь у меня получилось, допоследнего не верила, что это возможно. Но пока в большей степени пытаюсь разобраться что же я такое сделала, чем пишу в блог :)

      Очень приятно, что Вы подаете все очень простым языком и детально. Увидев объем сегодняшней Вашей статьи и, я прямо испугалась, что не соображу о чем речь.

      Что же, написали Вы доступно, даже до меня дошло. Пойду исправлять.

      Еще раз СПАСИБО!

      в 14:59 | Ответить
    94. Максим

      Саня спасибо огромнейшее за статью! У меня хоть комментариев сейчас немного не блоге, но все они, увы, сожрались Гуглом. Через оператор site проверил. Только я вот одного не могу понять, прочитал статью, а конкретно пошаговый алгоритм избавления от replytocom как-то размазан. Можешь кратко по пунктам сказать, что сделать? Спасибо и удачи в развитии

      в 15:03 | Ответить
      • Александр Крутицких

        Максим, здравствуй! Тоже прочитал и с первого раза показалось размазано. Но прочитал второй раз. посмотрел видео, всё предельно понятно и стройно. Сделай также.

        в 15:23 | Ответить
        • Александр Борисов

          Точно! Макс посмотри видео и все поймешь! :)

          в 16:45 | Ответить
    95. Николай

      Александр, спасибо за предупреждение! У меня нашлось восемь дублей. Спасибо что еще не далеко зашел . Но у меня директ 301 не работает. Залил две строчки, как и положено в htaccess. Сделал их пятой и шестой строчкой согласно видео. Но результата нет Плагином не хотелось бы нагружать сайт. А человечество блогеров обязано тебе поставить памятник при жизни. Это сколько же ты блогеров спас от разочарований и напрасной работы!!! СПАСИБО,

      в 15:06 | Ответить
      • Александр Борисов

        Николай, я не знаю как у вас там в .htaccess, напишите может в поддержку.

        в 16:46 | Ответить
      • Александр Крутицких

        Николай, я поставил первыми двумя, работает.

        в 21:22 | Ответить
        • Анатолий

          Александр, у меня та же самая проблема была — ваше решение помогло, спасибо!

          в 11:48 | Ответить
    96. Елена Картавцева

      Боюсь,Александр, что фото блогера, которое вы разместили как раз соответствует выражению моего лица. Да, я уже вторую неделю пыталась что-то делать но наведению порядка с replytocom . Технические вопросы для меня, как высшая математика для первоклассника, но что-то успела "нахимичить". Те ссылки на комментарии, которые раньше показывали 404, теперь открываются текстом, а проверила в Гугле вебмастере, то количество replytocom шкалит — 17019!!!!

      Купить курс, который вы предлагаете, не проблема, только боюсь, что это, как обезьяне дать сварочный аппарат: или себя сожжет, или кого нибудь! :) Мне бы спеца найти, чтобы исправил мой косяк за соответствующее вознаграждение...

      в 15:07 | Ответить
      • Александр Борисов

        Елена курс вам покажет все. Уберете не только replytocom, но и другие дубли, которых я у вас нашел ого го сколько!

        в 16:47 | Ответить
    97. Евгения Куварина

      Да, тоже совершала все эти ошибки, так что теперь понадобится время, чтобы дубли ушли, а я все пыталась понять, почему я принимаю меры, а дубли не исчезают. Теперь ясно.

      У меня стоит плагин Seo by Yoast и там есть функция удалить replytocom, ее тоже включила, но развернутые ответы в этом случае перестанут работать, если нет javascripta, но у меня к счастью работает.

      в 15:12 | Ответить
      • Александр Борисов

        Евгения если бы ваш плагин работал, то у вас бы не было более 14 000 дублей :)

        в 16:48 | Ответить
    98. Сергей

      Саша, просто замечательная статья!

      Помоги разобраться с моим robots.txt

      ФАЙЛ ROBOTS.TXT УДАЛЕН АВТОРОМ БЛОГА

      в 15:14 | Ответить
      • Александр Борисов

        Сергей возьми мой роботс и все.

        в 16:49 | Ответить
    99. Инна

      По запросу site:мои сайты.ru replytocom ничего не найдено. Значит все ОК???

      в 15:30 | Ответить
      • Александр Борисов

        Да, у вас все ок.

        в 16:50 | Ответить
    100. Любовь Годзинская

      Наверняка и на disqus.com есть такие же проблемы, что на wordpress-е... В любом случае, благодарю за инфо.

      в 15:35 | Ответить
      • Александр Борисов

        Нет, там нету.

        в 16:51 | Ответить
    101. Наталия

      Прочитала письмо из рассылки Александра и попала на эту статью блога. 2 года ничего не писала на своем блоге. А тут сразу открыла админку и стала рыскать в соответствии со статьёй. Фух, replytocom не нашла, на всякий случай отключила древовидные комментарии.

      С остальными потом разбираться буду :)

      Огромное спасибо [flower]

      в 15:37 | Ответить
    102. Алевтина

      А у меня в исходном коде любой статьи нет такого

      <meta name='robots' content='noindex,follow' />

      Он точно на всех ворпрессах есть?

      в 16:15 | Ответить
      • Алевтина

        и с дублями непонятки пишет

        www.hronicheskiy-pankreatit.r...lo-world.html?re...

        Описание веб-страницы недоступно из-за ограничений в файле robots.txt.

        В роботсе убрала что Вы сказали, все равно так пишет.

        Что это означает. Пожалуйста объясните. Не могу понять есть дубли или нет?

        Кстати у меня было вкл. древоидн, комментарии, но кнопки "ответить" не было само по себе. Сейчас еще поставила плагин WordPress Thread Comment вот теперь появилась кнопка "ответить"

        в 16:24 | Ответить
        • Александр Борисов

          У вас все нормально, дублей нет!

          в 17:07 | Ответить
          • Алевтина

            Спасибо огромное !!!!!!!!! Уф-ф-ф!!! Аж легче стало! Блин, какой Вы умница!

            в 08:29 | Ответить
      • Александр Борисов

        А вам не нужны любые страницы. Вам нужны страницы replytocom

        в 16:54 | Ответить
    103. ITишник

      Саша, подскажи, с помощью какой проги ты снимаешь видео с экрана?

      в 16:18 | Ответить
      • Александр Борисов

        Камтазия студио!

        в 16:54 | Ответить
        • ITишник

          Спасибо, не рискнул перебирать. Проще спросить у опытного )

          в 18:35 | Ответить
    104. Михед

      Плюсанул, нужная статейка! Благодарочка 😉

      в 16:20 | Ответить
    105. Иван

      Да, есть при такой проверке моего сайта 7500 результатов в google, но называть это дублями, в прямом смысле, я бы не стал. Там ведь даже снизу каждой есть надпись "Описание веб-страницы недоступно из-за ограничений в файле robots.txt". Поэтому гугл и отправляет эти страницы в дополнительный, а не основной индекс. Трафик на мой сайт как с гугла, так и с яндекса вполне нормальный, эти страницы этому явно не мешают. Статья на мой взгляд напускная, не надо на людей ужас наводить. Даже если они и избавятся от этих страниц в дополнительном индексе гугла, боюсь это никак не повлияет на трафик. А теперь по тому что вы советуете: убираем строчки из robots.txt: т.е. после этого уже и гугл и яндекс свободно индексируют эти страницы без всяких ограничений, заносят их в основной индекс, и теперь у вас уже по настоящему куча в прямом смысле дублей — так их теперь я могу назвать. И это уже полная ж...

      в 16:30 | Ответить
      • Александр Борисов

        Иван! Я вас прошу, не сбивайте с толку новичков а? Ок?

        Сначала изучите эту тему как я пол года, а потом говорите. на всех дублях replytocom есть метатег noindex и тогда ни какие дубли не идут в выдачу. А сопли опаснее кучи страниц в основном индексе.

        в 17:09 | Ответить
        • Иван

          Во-первых сопли не опаснее кучи дублей в основном индексе, это как оптимизатор вам говорю. Во-вторых "на всех дублях replytocom есть метатег noindex" — у меня такого тега нет, только что проверил, где вы его нашли?

          в 17:56 | Ответить
          • Александр Борисов

            Будь по вашему :) У вас кстати нету noindex вот это прикол. первый раз вижу такое. Что-то в движке значит. Может all in one seo не так настроен.

            в 18:11 | Ответить
        • Надежда Давыдова

          Александр, у меня их два: один разрешает, второй запрещает. Наверное в итоге будет разрешено. Что делать?

          в 15:06 | Ответить
    106. Артём Телегин

      Саша, у меня при проверке в ЯндексВебмастере пишет "разрешены" (проверял всё по видеоуроку), но дубли всё равно почему-то есть. Почему?

      P.S. БлагоДарю за статью)) Установил плагин для кнопки "Ответить"))

      в 16:38 | Ответить
      • Александр Борисов

        Запрещены:

        Disallow: /*?*

        Disallow: /*?

        в 17:09 | Ответить
    107. Ольга

      Спасибо, Александр, за такую полезную статью! У меня с некоторых пор резко упал трафик, но я решила, что это из-за того, что перетащила блог на другой движок и провела редизайн. Я была в шоке, когда увидела в результатах анализа, что у меня 65% дублей! Статьи пишу сама, с дополнительным индексом google разобралась, а дубли откуда-то берутся. Теперь понятно, откуда ноги растут. Но меня еще один вопрос волнует: до сих пор висит в Сети блог на blogspot, который, практически, полностью скопирован с моего. Причем, вор даже не потрудился убрать статьи, где есть мое имя.Помимо этого, много статей растиражировано под другими именами, не раз отлавливала этих воришек. Может ли этот факт нанести серьезный урон блогу?

      в 16:40 | Ответить
      • Александр Борисов

        Может. Напишите в блогспот пожалуйтесь.

        в 17:10 | Ответить
    108. Евгений

      От души Александр, кто предупреждён, тот вооружён, у себя всё поправил.

      в 16:41 | Ответить
    109. Сергей

      Александр, не понял две вещи:

      1 Надо ли для Яндекс тоже убирать запись из robots.txt?

      2. У Вас сейчас стоит 301 редирект в htaccess? Если да, то не будет ли негативно сказываться такое огромное число 301 редиректов (более 10 тыс.)? Ведь это тоже не очень хорошо, тем более в этом случае робот так и не увидит на страницах с replyotocom запись noindex, follow — ведь он на них физически попасть не сможет.

      в 16:45 | Ответить
      • Александр Борисов

        1. Надо! Возьмите мой роботс.

        2. Не будет. Редирект идет на мой же домен, а не на другой.

        в 17:12 | Ответить
    110. Оля

      У меня сейчас 22 тысячи этих ужасных дублей...Но очень надеюсь и жду, что благодаря твоей помощи, Саша, они скоро исчезнут ... :-D

      в 17:10 | Ответить
    111. Галина

      Саш, а у меня в роботс.тхт вот такие строчки:

      Disallow: /*?*

      Disallow: /?s=

      Allow: *?replytocom

      Не помню уже кто мне посоветовал поставить именно Allow вместо Disallow и Гугл не показывает, что есть дубли replytocom.

      Но RDS бар тоже показывает много ссылок, есть ссылки с записью /feed, немного с /trackback и как я понимаю, много ссылок на изображения. с хвостиком img. Нужно ли избавляться от них? И как?

      в 17:18 | Ответить
      • Александр Борисов

        Да, конечно нужно от всего избавляться. Весь шлак и мусор в топку. В выдаче должна быть главная, все страницы, все статьи. ВСЕ! Вот в курсе КСБТ 3.0 я показал как сделать так чтобы только это и осталось, остальное в мусор.

        в 17:26 | Ответить
    112. Оля

      А с древовидными комментариями у меня тоже какой то глюк происходит. Когда их отключаю в настройках, то просто комментарии все выравниваются друг под дружку, а кнопка "ОТВЕТИТЬ" не исчезает. А если еще включаю плагин WordPress Thread Comment, то появляются две кнопки "ОТВЕТИТЬ". Странно... [:-|]

      в 17:20 | Ответить
      • Александр Борисов

        Ольга вам уже все сделали :)

        в 17:24 | Ответить
        • Оля

          Понятно:)

          в 17:27 | Ответить
        • Ирина

          Спасибо, Александр! Взяла ваш robots.txt и плагин установила.

          Только не нашла у себя <meta name='robots' content='noindex,follow' />

          в 18:02 | Ответить
    113. Елена

      Большое спасибо за такую развернутую и очень нужную и полезную статью. [good] [good] [good] Видно, что вы постарались очень хорошо над ее созданием. Все сделала как в видео. Теперь дубли не страшны [:-))]

      в 17:42 | Ответить
    114. Андрей

      Да я сам догадался, убрал уже давненько дубли. Жаль что не что не сказано про яндекс. Яндекс тот еще выдумщик например у вас на блоге тоже ошибка есть, в следующие 2 апа проанализируйте какие страницы попали в выдачу яндекса и удивитесь) я как то писал в предыдущем посте но меня наверное Александр не воспринял серьезно) есть еще тайны вордпреса ;-) Удивительно почему я не продаю курсы по раскрытию всяких тайн и оптимизации и даже не веду свой блог.

      в 17:55 | Ответить
      • Александр Борисов

        Андрей буду благодарен если напишите про ошибку, но по идее все четко у меня.

        в 18:10 | Ответить
      • Андрей

        Кстати проблема по серьезней будет.

        в 18:11 | Ответить
    115. Лана

      Я так испугалась, когда нашла в комментарих этот злополучный replytocom. Но по запросу Яша и Гугл говорят, что у меня такого не найдено! То есть каким-то чудом этот replytocom никуда не попадает. Наверное, что-то чудесное у меня на сайте уже есть...

      в 18:15 | Ответить
    116. Ирина

      Спасибо за информацию, Александр! У меня 6500 дублированных страниц.

      Взяла ваш robots.txt и плагин установила.

      Только не нашла у себя <meta name='robots' content='noindex,follow' />

      в 18:17 | Ответить
    117. Александр Быкадоров

      Саня, друзья, привет. На связи легендарный Александр Быкадоров )))

      Начну по порядку.

      1. Саня, огромнейшее тебе спасибо за конкретный разбор моего блога — это дорогого стоит, на самом деле. Думаю объяснять не надо почему. Я ждал этого момента, когда придет кто либо и сделает разнос, вот и дождался — супер ! А то хвалебные песни про мой контент и пользу для других начинал расслаблять )))

      2. Начинают все входить в ступор и офигевать, как же так... Что делать? Что — что... Вешаться, естественно )))

      Да нифига ничего не делать ))) Исправить ошибки и идти дальше ! Лично я это и собираюсь сделать. Блогговодство это такой же труд и успеха тут добьются вожделенные 3-5%, и я буду в их числе. И если хотите — я уже в их числе )))

      3. Радует одно — во внутренней статистике не все так печально. Рост ссылок есть, но есть и прирост трафика с Гугла, а поэтому: исправлю и все наладится. Мне не привыкать.

      4. Я стою на пороге смены дизайна и 100% новой верстки блога. Вот только думаю, обратил бы внимание на это мой верстальщик или нет? Как по мне — фигушки )))

      5. Рост посещаемости был слабый и я нутром чуял, что причина именно техническая. Ну не может на блоге с 270 уникальными постами и 5000 комментариями быть посещалка в 300 уников, это мало. Таким образом за эти 2 года я выработал чутье на это дело, а вот опыт подвел...

      Поэтому друзья, все нормально — работаем, внедряем, слушаем грамотных парней и набираемся опытом.

      Заходите на блог, смотрите как надо все быстро исправлять!

      Всем удачи друзья, и отличного настроения. :)

      в 18:38 | Ответить
    118. Баяс

      Здравствуйте, Александр. В апреле этого года я создал блог по вашему видеокурсу, спасибо большое. И почти с самого начала я обратил внимание на этот вопрос, довольно долго изучал, вследствие чего у меня родилась статья, где решил проблему совсем другими способами. И они тоже рабочие, поскольку дубли страниц replytocom перестали появляться. Кстати, в Гугле также добавил параметр feed и они также исчезли. Но у меня вопрос: в robots /*? запрещает индексировать не только ?replytocom, но еще и URL такого вида- /?p=132, которые в не меньшем количестве могут быть сгенерированы движком. Получается, расправившись с одними дублями, расплодим других.

      в 19:01 | Ответить
    119. Галина

      Классная статья.Обнаружила у себя огромное количеству дублей комментариев. Все сделала:убрала древовидность,поставила плагин и редирект. Правда не решилась сносить все запреты в роботсе,убрала только те,что касаются комментариев.Спасибо огромное.

      в 19:18 | Ответить
      • Александр Борисов

        Галина вы видео смотрели? Роботс это самое главное. Ни чего не уйдет если его не поправите.

        в 19:24 | Ответить
    120. Александр

      Файл robots.txt уже изменил, ещё собираюсь добавить 301 редирект, только ещё раз прочитаю статью. Спасибо за информацию.

      в 19:18 | Ответить
    121. Алексей Гончарук

      у меня в robots прописана эта строка: Disallow: */replytocom. Дублей в google нету. Может повезло?

      в 19:42 | Ответить
      • Александр Борисов

        Повезло!

        в 20:12 | Ответить
    122. Андрей

      Александр спасибо. Отличный подарок для подписчиков и друзей. Вероятно кто то пойдет глотать таблетки и пить корвалол, а я пойду выкурю сигарету и буду бороться с дублями. [good]

      в 19:57 | Ответить
    123. Елена

      Александр! Вот что у меня в Robots.txt:

      Disallow: */*/feed/*/

      Disallow: */feed

      Disallow: /*?*

      Disallow: /?s=

      И никаких replytocom там нет. Может, мне повезло?

      в 20:00 | Ответить
    124. Ольга

      А если нет файла htaccess что делать как его создать? И еще вопрос ссылок много а древовидные комментарии отключены, что не так.

      в 20:10 | Ответить
      • Александр Борисов

        htaccess должен быть, он лежит в корне блога, а не темы.

        Нужно смотреть какие ссылки, убирать массу.

        в 20:14 | Ответить
    125. Артём Черкасов

      Александр, а вот вы написали про дубли, а у вас на главной ссылка читать запись полностью дубль не создаёт? Может её тоже стоит сделать через скрипт?

      в 20:21 | Ответить
      • Александр Борисов

        #more-6594 не создает дубль, так как то что идет после решетки роботы не индексируют (и решетку тоже).

        в 20:23 | Ответить
        • Артём Черкасов

          Есть официальный пруф от пс? :)

          в 22:24 | Ответить
          • Александр Борисов

            Что такое пруф?

            в 22:54 | Ответить
          • Александр Борисов

            Артем ты кстати в курсе что ты до двумя фильтрами google и yandex?

            в 15:24 | Ответить
            • Артём Черкасов

              Нет не вкурсе, какими фильтрами?

              Я купил ксбт 3, начал изучать, сразу увидел что у меня такая же фигня, как и у тебя, Саша, была. Но только мой блог пс пока не наказали за это. Сейчас буду решать дти проблемы и думаю наказания не будет мне :)

              А про какие фильтры речь? У меня вроде позиции растут, вот был ап яндекса, трафик до 500 посетителей поднялся.

              в 13:21 | Ответить
            • Александр Борисов

              Посмотри видео — моя история самоубийства блога. Ошибка №3 ))

              в 16:02 | Ответить
            • Артём Черкасов

              Про редиректные ссылки я уже посмотрел, приятно кстати. :)

              Исправлю [good]

              в 19:36 | Ответить
    126. Елена

      Александр! Гугл мне выдал 16000 страниц с replytocom , однако на вебмастере яндекса введенные адреса разрешены. Значит, у меня все в порядке и не надо ничего менять?

      в 20:31 | Ответить
      • Александр Борисов

        16000 значит надо срочно что-то менять. :)

        в 20:38 | Ответить
        • Илья

          Убрал из Robots запрет на replytocom, добавил 301 редирект (хотя немного опасаюсь его). А у вас на видео в фафле .htaccess RewriteBase / прописан 2 раза. Не лишний 2-й?

          в 00:18 | Ответить
          • Александр Борисов

            Возможно лишний кстати!

            в 12:21 | Ответить
    127. Таисия

      Александр, большое спасибо! Потрясающий урок! Все про меня! Блогу 1,5 года, совсем начала падать посещаемость. Порой сама и другие не могут зайти на сайт: появляется окно, что сайт перегружен. Уже не раз писала в службу спринхоста, но ничего толком мне не подсказали. Но когда зашла в вебмастер, увидела, что творится, стало страшно. Блог забрасывать не хочу. Скачала и установила WordPress Thread Comment, но ( может быть не тот скачала?), нигде не найду "настройка". Что вы мне подскажете?

      в 20:45 | Ответить
      • Александр Борисов

        Таисия по поводу плагина. Я советую обратиться к верстальщику, он вам все сделает. В плагине настраивать ни чего не надо, установили и все. В админке — настройки обсуждения отключили деревовидные комментарии.

        в 22:43 | Ответить
    128. Алексей

      Классный видеоурок! Саня, у меня все эти правила стояли в robots, я их удалил наф... Еще у меня в Google инструментах прописано правило replytocom, наверное и там удалю. У меня и другие правила в robots стоят. Этот файл у меня вообще очень длинный. Как думаешь, может просто взять robots какого-то успешного блога и поставить его к себе?

      За редирект спасибо! Сейчас поставлю.

      в 20:49 | Ответить
      • Александр Борисов

        Возьми мой и все. Посмотри курс и сделаешь все остальное.

        в 22:43 | Ответить
        • Алексей

          Спасибо! Так и сделаю.

          в 23:10 | Ответить
    129. Elenka

      А если у меня вот так написали — По запросу site:superelenka.ru replytocom ничего не найдено.

      Значит это хорошо?!

      в 20:58 | Ответить
      • Алексей

        Elenka, у Вас в поиске Google 2 870 страниц. Это по вашему хорошо? Удаляйте правила в robots не пожалеете!

        в 22:07 | Ответить
        • Elenka

          тогда почему мне так написали????

          в 12:13 | Ответить
    130. Евгений Ванин

      Спасибо ! Я проверил у меня 23 дубля получилось, думаю куда же трафик с гугла ушел, а тут вон ано что )

      в 21:09 | Ответить
    131. Нина Жуперина

      Александр, а у меня УРЛ страницы с комментарием заканчивается вот этим: #respond и когда я сделала редирект, то и редирект происходит на страницу, где в основной УРЛ добавлен этот респонд. Что это и как от него избавиться? Ведь получается, что дубль все равно остается?

      в 21:33 | Ответить
    132. Laralaram

      ой, как интересно и... страшно! только не знаю, я хотела проверить, а мне не выдает ничего на мой блог... может, я одаренная?

      в 21:35 | Ответить
      • Александр Борисов

        Да, у вас все ок!

        в 22:47 | Ответить
    133. Таисия

      Александр! Я сейчас посмотрела свой Robots.txt:, там нет replytocom. А в вебмастере -есть. И комментарии разрешены. И гугл выдает "Результатов: примерно 24 000 ". Теперь я понимаю, отчего проблемы у меня на сайте. Что мне теперь делать: убрать эти в анализе вебмастера? Раз в Robots.txt — replytocom нет?

      в 21:35 | Ответить
    134. Николай

      Ох, уж мне эти дубли.

      Полгода с ними борюсь, прикольно скрин своего блога увидеть :) 🙂

      Я использую плагин, новые дубли не возникают, хотя старые еще не все вылезли с индекса.

      в 21:41 | Ответить
      • Александр Борисов

        Николай быстро у тебя они ушли! Почти все кстати!

        в 22:50 | Ответить
    135. Odessit

      Спасибо большое за статью. Роботс поправил, правда у меня дублей всего 4280, но и статей всего 165. А можно вопрос, редирект 301 обязательно делать или нет? Если дубли уйдут, то новые и не появятся, смысл редиректа?

      в 21:43 | Ответить
      • Александр Борисов

        Да вообще 404 и редирект не обязателен. Это просто как фишки. Главное открыть все в роботсе и на всякий пожарный ))) убрать кнопку ответить.

        в 22:51 | Ответить
      • Odessit

        В общем отпишусь о результате, все дубли реплитуком ушли ( было4280 на 179 статей сайта), в вебмастере гугла, в статусе индексирования было 1017 страниц, на данный момент 324. Посещаемость на тот момент была 130-150 человек, дошла до 350-360 человек, т.е. результат уже был и довольно таки неплохой, но 23-го сентября, как я понимаю сайт попал под фильтр Панда и с того дня по сегодня, всего лишь 10-20 посетителей с гугла(((( Остальных дублей было немного (feed и page, а tag я до последнего не убирал, так как на кулинарных это нужное) они потихоньку уходят, их не много там осталось. В общем не знаю, из-за резкого ухода большого числа дублей или это просто совпадение, но есть что есть. Смущает именно то, что рост был. Может наказали и за рекламу, кто его знает, ручных мер по сайту принято не было(((

        в 18:01 | Ответить
    136. Odessit

      И забыл ещё спросить, вот такую красоту тоже надо убрать или оставляем? Disallow: /?s=

      в 21:49 | Ответить
      • Александр Борисов

        Убирайте.

        в 22:51 | Ответить
    137. Владимир

      Александр а скрипт комментариев SV KAMENT вроде бы не создает дубли?! Или я ошибаюсь? [:-|]

      в 21:56 | Ответить
      • Александр Борисов

        Скрипт SV KAMENT это вообще к теме не относится. Там дубли не создаются потому что там просто код вставляешь в шаблон и все.

        в 22:52 | Ответить
    138. Ivanovskij

      Ох и статейка! Саня мега мощно. Спасибо! ;-)

      в 22:08 | Ответить
    139. Артём Черкасов

      И кстати у вас смысловая ошибка:

      Ну 25 000 дублей умножим на примерно 6 000 исходящих ссылок = 150 000 000 исходящих ссылок. Мне сейчас станет плохо! ))) Слава богу все не успели залететь в индекс:

      Это не исходящие ссылки, а внутренние =)

      в 22:22 | Ответить
      • Александр Борисов

        Артем ты слишком много ошибок ищешь у меня на блоге. А ссылки не внутренние, а исходящие. Внутренние это свои.

        в 22:54 | Ответить
    140. Андрей

      Саша классная статья. У меня статистика упала вообще. Я уже стал задвигать на блог. А тут твоя статья. О думаю, вот в чем проблема, но посмотрел в гугле, вроде все нормально, соплей вообще не показало, может конечно я что-то не так сделал. Можешь глянуть.

      А вообще то ты прав мотивация здорово падает когда смотришь на график посещений, который стремиться к нулю и как то грустно((( становиться...

      в 23:00 | Ответить
    141. Раиль

      Привет всем! Саня, спасибо за статью, хотя у меня блог работает на CMS Drupal 7, и таких проблем с дублями не возникало. Но там есть другая проблема, для каждой статьи Друпал создает по 2 дубля, но тэг каноникал показывает правильную страницу, и вроде дублей гугл не забрал к себе.

      Однако, в роботс у меня дубли закрыты от индексации, возможно это так же мешает, как и при вашем случае с Вордпресс, надо будет проверить, возможно не стоит их через роботс закрывать, робт гугла поймет и по мета тэгам.

      в 23:04 | Ответить
    142. Андрей

      Спасибо, Александр, за статью. Нашел дубли, хоть и не много, но были. Все настроил, как написано в статье. Однажды посещаемость моего блога резко упала, не знаю в чем причина. Может быть причина как раз в том, о чем вы, Александр, пишете в этой статье? Время покажет. Еще раз спасибо.

      в 23:15 | Ответить
    143. Геннадий Ольховский

      Саша, даже не знаю, что сказать!!! Я просто в шоке. Статья конечно — бомба, слов НЕТ, но я в шоке от твоей проделанной работы. Молодец. К тому же ты помог не только себе, но многим, многим блогеров. К сожалению или к счастью не знаю как это определить, но после долгих поисков на своем блоге я так и не нашел replytocom, где эта зараза укрылась от меня. Хотя поисковик выдает 650 страниц, 11 моего блога и остальные с поддоменов. Как разобраться и не знаю, может чЁ посоветуешь? :-|

      в 23:15 | Ответить
    144. Валерий

      Здравствуйте.

      Я ваш давнишний читатель и ученик по вашим курсам.

      Проверил свой блог по вашему примеру на Гугл. И ничего не понял — он вообще непонятно что выдал. Прошу если можно — взгляните: site:purichvalera.com replytocom

      Дайте комментарий, Александр.

      И второй вопрос. Если не слишком во всем этом разбираешься. Есть ли на примете спец, который сможет помочь все настроить как надо?

      в 23:39 | Ответить
      • Александр Борисов

        Валерий у вас все нормально! Так как в роботсе все открыто!

        в 00:06 | Ответить
        • Валерий

          Спасибо за оперативный ответ. Но в веб-мастере у меня все равно вот такой текст:

          Количество отслеживаемых URL Дата настройки Действие Сканирование

          replytocom 3 671

          Т.е. все равно 3671 страница. Хотя статей всего штук 500. Откуда же взялось столько. Где искать проблему? [:-|]

          Исходящих ссылок тоже очень много. Приобрету курс и буду проводить зачистку. А что делать по информации веб-мастера с этими УРЛ?

          в 00:54 | Ответить
          • Александр Борисов

            Нужно делать все по курсу и ждать. В вебмастере информация сразу не обновляется.

            в 12:25 | Ответить
    145. Людмила

      Статья очень полезная. Проверила, дубли не обнаруживаются, но исходящих ссылок тысячи. Что с ними делать и как избавиться — вот вопрос. :)

      в 23:42 | Ответить
      • Александр Борисов

        Про это я говорил в курсе операция зачистка. Беда блоггеров в том, что на блоге исходящих ссылок больше чем входящих. Поэтому мы топчемся на месте.

        в 00:07 | Ответить
    146. Ирина

      Сделала запрос site:irynaroma.ry replytocom. Гугл ответил "Ничего не найдено" Это хорошо? Я обучаюсь в тренинг центре "Твой старт", был урок про это, но я уже не помню, чего я там устанавливала. Надо еще раз пересмотреть.

      в 00:09 | Ответить
      • Александр Борисов

        У вас пока все нормально, но в роботсе закрыто и это плохо. Скоро гугл и к вам придет. Открывайте Роботс.

        в 00:11 | Ответить
    147. Елена Русакова

      Спасибо, Александр, за полезный материал. Пошла править robots.txt

      в 00:18 | Ответить
    148. Сергей

      Не поленился спросить у Яндекса:

      Какой вариант дает 100% гарантию непопадания дубля в выдачу?

      Закрытый в robots.txt параметр replytocom

      Disallow: /*?*

      Disallow: /*?

      Disallow: /*?replytocom

      Disallow: /?replytocom

      Или запрет мета-тегом на странице дубля

      <meta name='robots' content='noindex,follow' />

      Ответ: В данной ситуации достаточно использовать запрет в robots.txt!!

      Еще раз убеждаюсь, что к каждому поисковику нужен особый подход

      в 00:36 | Ответить
      • Александр Борисов

        Это не правильный подход. Я все объяснил в статье. Это единственный метод. Закроете дубли, он все равно все страницы загрузит.

        в 00:39 | Ответить
        • Сергей

          И тем не менее не загружает уже на протяжении 2 лет, в отличии от гугла. Вот с ним беда...

          в 09:19 | Ответить
    149. Ольга

      Александр, а если у меня комментарии разбиваются на страницы, то это значит, что у меня тоже дубли страниц в этом случае появляются?? Может, лучше их не разбивать на страницы? А будет ли это влиять на скорость загрузки страницы, у меня много комментариев бывает к каждому посту...

      в 00:43 | Ответить
      • Александр Борисов

        Не надо разбивать на страницы, потому что будут появляться дубли comment-page

        в 12:24 | Ответить
      • Александр Борисов

        Влиять на скорость будет само собой! Так как много аватаров. Тут надо выбирать из двух ЗОЛ )))

        в 12:24 | Ответить
    150. Бронислав

      Спасибо, Александр, за уникальную информацию! Александр, а если у меня только вот такие похожие две строки есть в robots.txt — Disallow: *? их удалять, или удалить просто значения *?, как у Вас в robots.txt.

      в 01:10 | Ответить
      • Александр Борисов

        Удалите все и сделайте роботс как у меня. Только уберите ompin. Остальное все по курсу.

        в 12:26 | Ответить
        • Бронислав

          Хорошо, спасибо, Александр! [good] :)

          в 19:30 | Ответить
        • Бронислав

          Александр, а в Ваш роботс по ходу ни чего не надо будет добавлять? В каком-то из видео по курсу, по моему Вы упоминаете добавление в роботс Disallow: со значением "коментс". И еще, Александр, не могу в курсе открыть дополнительные материалы, там какие-то абракодабры, и служба поддержки тоже не корректно открывается, а соответственно не могу дальше изучать курс — "Как стать блоггером тысячником 3,0" ?

          в 23:55 | Ответить
          • Александр Борисов

            Напишите в поддержку. По идее все должно быть нормально! На днях тогда перезалью коды, по ходу дела у кого-то кодировка слетает.

            в 00:01 | Ответить
            • Бронислав

              Так там же и в поддержку не реально написать, все криво отображается?

              в 00:36 | Ответить
    151. Надежда

      Александр, поделилась во всех соцсетях. Один вопрос: у меня в страницах риплитуком тег роботс контент встречается два раза: вверху там все разрешается, чуть ниже есть роботс метататег нофоллоу. Просто в теме через специальные скрипты выводятся метатеги. Наверное поэтому они продублировались... Сайт incomeeasily.ru Ой, да, уже не проверите, поставила 301 редирект по Вашему совету. Только что мне теперь делать: редактировать роботс или нет?!!

      в 01:25 | Ответить
      • Александр Борисов

        Это вам к верстакам. Должен быть один!

        в 12:46 | Ответить
    152. Татьяна

      Здравствуйте, Александр. Судя по комментариям, я повторяюсь с вопросами, но все же хотелось услышать ваш ответ:

      — тоже отредактировала robots.txt, плагин установила, убрала древовидные комменты, но, хоть убейте, не нахожу у себя <meta name='robots' content='noindex,follow' />.

      Все ли у меня правильно?

      Спасибо огромное.

      в 01:46 | Ответить
      • Александр Борисов

        По статье да, у вас все хорошо! Но есть другие дубли. Об этом в курсе 3.0

        в 12:47 | Ответить
      • Валентина

        я тоже не находила, помог вот этот Сашин ответ — А вам не нужны любые страницы. Вам нужны страницы replytocom

        в 13:06 | Ответить
    153. Валентина

      У меня вроде нормально прочитала поверхностно, проверяла ди ньз внешних ссылок нет и с роботом вроде такого нет значит мне не грозит.ура?

      в 01:50 | Ответить
    154. Юрий

      Это не статья, а триллер какой-то. Сюжету Стивен Кинг позавидовал бы :)

      в 01:52 | Ответить
    155. Vlad

      Когда-то что-то слышал про вред древовидных комментариев, а когда начинал искать инфу и всех спрашивать, то никто о таком даже не подозревал...

      Придется исправлять: Результатов: примерно 4 130...

      Александр, а вот у тебя robots совсем небольшой в последнее время... Ты советуешь ставить данный robots всем блоггерам?

      В принципе стандартный набор и ничего лишнего! :)

      Или все-таки лучше использовать базовый, который ты предоставляешь в своих курсах?

      ROBOTS.TXT УДАЛЕН АВТОРОМ БЛОГА

      У меня robots что-то вообще стремный... [:-|]

      Только не говори опять, что в КСБТ 3.0 все есть!

      в 02:21 | Ответить
      • Vlad

        Опять меня пропустили... [:-|]

        в 12:39 | Ответить
      • Александр Борисов

        Все верно! Все остальное есть в курсе 3.0 А здесь я рассказал как убрать дубли только replytocom. Объяснять все долго. Я там говорил как убрать и tag, page, attachment и прочее.

        в 12:49 | Ответить
        • Vlad

          В вебмастере гугл робот нашел только:

          replytocom 1 493

          А еще вот такие фишки:

          srp 86

          sra 86

          в 13:31 | Ответить
    156. Лилия

      [star] Спасибо, Александр! [star]

      Читала действительно как ужастик, захватывающе и внимательно! Посмотрела, вроде у меня ничего нет подобного... Утром мужа попрошу посмотреть, может разберется. А так если честно, не могу понять, почему блог мало посещаем (очень малопосещаем), может статьи чаще писать нужно, или забанили где? Рекламы нет, ссылки пока не умею не продавать не покупать. МОжет заказать анализ блога или совет какой кто может дать?

      По мере занятости учусь на Ваших курсах.

      Еще раз спасибо!

      в 03:40 | Ответить
    157. Владислав

      150 000 000 исходящих ссылок!!! и блог ещё живой и в поисковике! немедленно надо продать эти ссылки по 1 рублю и вообще ни о чём не беспокоиться :) ну, а если серьёзно, то я проштудировал эту статью несколько раз и возникло много вопросов, буду искать ответы.

      в 06:28 | Ответить
      • Александр Борисов

        :)

        в 12:26 | Ответить
    158. Дмитрий

      Хорошая статья, неохота ни чё в роботе менять легче отключить древовидные комментарии. А прирост мне кажется, даёт совсем другое. Ваши партнёрские статьи ))

      в 09:03 | Ответить
      • Александр Борисов

        Прирост с google в два раза партнерские ссылки не дают так быстро. Здесь просто моя метода работает из курса. А дубли не уйдут если просто отключить деревяшки. Урлы остаются в соплях.

        в 12:28 | Ответить
    159. Наталья

      Скажите, а где в seolib вы нашли процент sypplemental? Искала по всему сервису, не могу найти эту функцию, подскажите, пожалуйста!

      в 09:24 | Ответить
    160. Иришка

      Раз 5 перечитала статью, потом решила проверить и свой блог. Слава богу у меня такого нет, но почему то трафика с гугла тоже нет(

      в 10:23 | Ответить
      • Александр Борисов

        Иришка везуньчиггг!

        в 12:29 | Ответить
        • Иришка

          Ну хоть в чем-то мне везет)

          в 13:21 | Ответить
    161. Alex

      Спасибо большое за информацию

      в 11:10 | Ответить
    162. Лариса

      Нашла у себя 6200 дублей.

      Александр, установила плагин, отключила в Настройки обсуждения древовидные комментарии. А в robots.txt такие строчки:

      Disallow: /*?*

      Disallow: /?s=

      Обе удалять или только первую? проверьте, пожалуйста, мой robots.txt. Что в нем не так, что надо еще изменить? Или написать в службу поддержки?

      в 11:21 | Ответить
      • Александр Борисов

        Обе удалить! Роботс можно взять мой. Но он настроен так, что есть еще кое какие настройки, про них я говорил в курсе.

        в 12:30 | Ответить
    163. Yurbol

      Спасибо тебе большое. Убрал дерево, поставил плагин, и открыл доступ в robot.txt :) Вовремя твою статью мне показали, еще в гугл попало только 7 дублей.

      в 11:22 | Ответить
    164. Макс

      Всем привет! Мне, наверное, повезло. При создании блога попалась тема не поддерживавшая древовидные комментарии, и для их создания, а было это еще в 2009м году, я сразу установил плагин WordPress Thread Comment. В этом смысле дубликатов нет. Но поскольку тема не поддерживает новые версии WordPress, то видимо поэтому, в других дублях строки

      <meta name='robots' content='noindex,follow' />

      просто нет. Вместо неё присутствует

      <meta name="robots" content="follow, all" />

      Думаю что в этом случае robots редактировать смысла нет, а дубли типа tag, page,category и т.д. — страницы малозначимые и попадание их в сопли, большой роли не сыграет. Посему вопрос — верно ли такое суждение? Могут ли быть санкции от поисковиков от дублей превьюшек из тегов или категорий?

      в 11:25 | Ответить
      • Александр Борисов

        дубли типа tag, page,category создают дублированный контент. поэтому их надо тоже убирать. Про это я как раз рассказал в курсе 3.0

        в 12:32 | Ответить
    165. Светлана

      Все правда! Особенно тяжело, когда пашешь-пашешь, что-то постоянно меняешь, корректируешь, редактируешь и все твои старания оказываются вымыслом блоггеров, возомнивших себя гуру...

      Сейчас мне делают анализ блога по твоей методике (в модуле описано) — результаты неутешительны, а тут еще дубли...(только одно не могу понять: 2 блога в одно и то же время: у 7yafelicita.ru — более 7 тысяч дублей, а у prostofelicita.ru — 6 дублей, разве так может быть???) Такое ощущение что на себя взвалила неподъемный груз, получается что 3 года просто так фигней страдала...

      Что ж постараюсь вздохнуть поглубже и продвигаться по одному шагу, может тогда будет не так страшно преодолевать все косяки :)

      За статью огромное спасибо!

      Как сыночек? растет?

      в 11:40 | Ответить
      • Александр Борисов

        Пожалуйста! Да, растет. Щас вот гулять пойдем.

        в 12:33 | Ответить
    166. Сергей

      Нашёл у себя 58000 дублей!!! Александр, если бы не эта статья, так бы и не знал, почему с Гугла у меня трафика в 4 раза меньше, чем с Яндекса. Удалил в robots.txt строку Disallow: /*?*. Ещё у меня есть строки Disallow: /?s= и Disallow: */comments. Они тоже приводят к дублям?

      в 12:10 | Ответить
      • Александр Борисов

        Тоже удалите.

        в 12:34 | Ответить
    167. Ольга

      Ну вот, появилась головная боль, а я то думаю, почему мой сайт больше 40 посетителей в день не набирает? Теперь все понятно, буду действовать. А вот со вторым сайтом все в порядке. Спасибо Александр, как всегда выручаете полезной и просто необходимой информацией. :-D

      в 12:22 | Ответить
    168. Александр Борисов

      РЕБЯТА ЗАБЫЛ В СТАТЬЕ СКАЗАТЬ! НОВОСТЬ ЕЩЕ КРУТАЯ! SNIPER ELITE III ВЫШЕЛ :) :) :) :) КТО РУБИТСЯ?

      в 15:17 | Ответить
      • Алексей

        Сейчас все рубятся над устранением ошибок на блогах :) :) :)

        в 17:06 | Ответить
        • Александр Борисов

          [good]

          в 17:17 | Ответить
          • Александр Борисов

            А да точно я забыл. Я свое отрубился за пол года )

            в 17:17 | Ответить
      • Александр Быкадоров

        Саня, офигеть ! Ты что еще нет нет да в игрушки рубишься? Я лет 5 уже не прогревал видюху играми )))

        в 18:49 | Ответить
        • Александр Борисов

          Я и не играю, только в снайпер элиту. Это АДСКАЯ игруха!

          в 23:27 | Ответить
    169. Odessit

      Александр, вот Вы ответили Сергею что Disallow: */comments тоже надо удалить, а если посмотреть роботс разбираемого в статье блога Александра Быкадырова, то мы увидим что у него это тоже присутствует. Он его тоже должен убрать? Спасибо.

      в 15:22 | Ответить
      • Александр Борисов

        У 99% блоггеров в интернете Robotx.txt не правильные. Я бы даже 100% сказал :)

        Есть четкая конкретная методика настройки пресса при помощи роботса, метатегов и htaccess с редиректами. Она в курсе 3.0. Здесь как я вам в комментариях объясню, ни как.

        в 15:26 | Ответить
    170. Вячеслав

      Огромное спасибо за статью. У меня блог новый, потому дубликатов не найдено. Древовидные комментарии отключил — не очень они мне и нравились)

      А вот что касается файла robots.txt — если древовидные комменты отключены, то и две строчки с "?" убирать не нужно верно? Ведь они изначально для помощи туда положены.

      Буду рад любой подсказке и

      еще раз спасибо за сей труд!

      в 15:26 | Ответить
      • Александр Борисов

        Все равно надо убрать!

        в 15:33 | Ответить
    171. Николай

      Привет Александр,вот сделал как ты написал,поставил плагин,убрал галочку древовидные комментарии. Но вот сейчас нажимаю кнопочку ответить выходит ошибка ERROR:

      Can't find the 'commentformid' div. что за беда подскажи.

      в 15:27 | Ответить
      • Александр Борисов

        Значит надо к верстакам идти!

        в 15:34 | Ответить
      • Алексей

        У меня аналогичная проблема...

        в 16:53 | Ответить
    172. Мария Зазвонова

      Александр, благодарю за статью! Когда подвожу курсор на ОТВЕТИТЬ, то внизу экрана слева отсутствует в ссылке фраза replytocom, но проверив в гугл мне пишут ПРИМЕРНО 13 дублей. Нужно ли устанавливать плагин для WordPress Thread Comment

      в 16:44 | Ответить
      • Александр Борисов

        Мария почитайте статью полностью + посмотрите видео. Дело не в плагине, вам надо robots.txt открывать.

        в 16:53 | Ответить
        • Алексей

          Кстати, робот поменял, но запрета на индексацию дублей не обнаружил в коде, как показано в твоём, Александр, видео...

          в 16:56 | Ответить
    173. Алексей

      Да, уж... Бомба, [good] пущенная автором блога, взорвалась : столько комментариев, с ума сойти... :)

      в 16:52 | Ответить
    174. Галина

      Добрый день.

      Саша, подскажи пожалуйста, ты нашел решение для attachment?

      в 18:29 | Ответить
      • Александр Борисов

        И для attachment и для tag и для page и для attachment_id и для category и для feed и прочего мусора. Все есть в курсе 3.0. Здесь в комментариях все не объяснить по переписке.

        в 18:43 | Ответить
    175. Ольга

      Александр, разбираюсь со своими дублями. Их у меня куча. Но! В роботс у меня стоят вопросики, как у всех, но когда я проверяю в вебмастере яндекс, у меня реплитуком разрешен! И потом, когда я нажимаю Ctrl+u, у меня тоже прописано в исходном коде страницы ноиндекс, фолоу, как в видео на "правильных" блогах. Как такое может быть и что теперь делать?

      в 18:41 | Ответить
      • Александр Быкадоров

        Оля, привет. Убрать все равно надо эти "вопросики"...

        в 18:50 | Ответить
      • Александр Борисов

        Удалить вопросики :)

        в 23:26 | Ответить
    176. Маргарита

      Та ну реально чес а не статья) Ну то что этих соплей быть не должно это да. А вот на счет того что не нужно прописывать правила в роботс — это чес!

      в 18:53 | Ответить
      • Александр Борисов

        Чес это что такое? :)

        в 18:55 | Ответить
        • Александр Быкадоров

          Чес, это имеется ввиду "чёс", т.е. как бы не правильное толкование, обман ))) [:))]

          в 19:14 | Ответить
          • Александр Борисов

            А теперь понятно, ну да пусть будет "чес"... Пусть...

            в 19:16 | Ответить
            • Александр Быкадоров

              Нет, на самом деле никто как бы и не говорит делать так, а не иначе. У каждого есть голова и каждый сам решает.

              Время рассудит, думаю...

              в 19:29 | Ответить
    177. Александр Борисов

      Офигеть комментариев. Прикол и столько же дублей. ))) У меня были статьи по 800 комментариев когда еще replytocom стояли. Вот это был треш!

      в 19:12 | Ответить
      • Александр Быкадоров

        Нет, не треш — жесть )))

        в 19:14 | Ответить
    178. Tanya Vega

      А у меня, всё-таки, нету <meta name='robots' content='noindex,follow' /> . Вроде, внимательно посмотрела. Что можно/нужно сделать в таком случае?

      в 19:31 | Ответить
    179. Майя

      Здравствуйте, Александр. Я первые у Вас на блоге и большое Вам спасибо за статью, первый раз такое слышу. У меня вопрос: есть ли электронные версии Ваших курсов, чтобы просто заплатил — скачал. Мне многое известно по WP, но уверенна, что что-то новое у Вас найду? [good] [good] [good]

      в 19:34 | Ответить
      • Александр Борисов

        Конечно есть. Оплачиваете, скачиваете и смотрите.

        в 19:40 | Ответить
        • Майя

          Ничего себе! Самый быстрый ответ, который когда либо я получала в сети. Большое Вам спасибо! :)

          в 19:50 | Ответить
    180. Андрей

      Полезная статья...уже применил и увидел результаты по гуглу... У меня тоже оказалось куча всего того о чем здесь говорилось. Но это что касается гугла, А на счет того что что файл роботс.тхт должен быть максимально открыт для поисковых роботов, — я с этим вообще не согласен, это я имею ввиду по Яндексу. У меня уже есть с этим опыт, сайт, по посещаемости, падал в 2 и даже в 3 раза пока я не стал разбираться и как то до самого дошло что дело может быт ьв дублях страниц и в тех страницах которые просто не нужно индексировать. Это кстати. ещё от шаблона(темы) сайта зависит. Так что искать и запрещать для Яндекса в роботс.тхт нужно обязательно и нужно не мало чего, смотря что за шаблон у вас и как вы изначально стали вести сайт. ... Как искать? Заходим на сервис Вебмастер Яндекс в разделе "Мои сайт" — далее- "Страницы в поиске" — находим там все видимые роботом, ссылки. И рядом открываем ещё одно окно этого сервера, В котором находим раздел "проверить роботс.тхт." вставляем в спец. окно свой файл роботс.тхт. и смотря на ссылки в первом открытом разделе, находим ненужные. Копируем, вставляем туда где раздел роботс и проверяем кнопочкой. запрещена ссылка или нет... ...Если надо, Меняем директорию в файлье роботс, подставляем и ищем до тех пор пока ненужная ссылка не закроется... Короче. для Яндекса этот файл просто необходим и с этим надо не мало поработать...

      в 20:09 | Ответить
    181. Ольга Коновалова

      Спасибо, Саша! Уже действую!!!! Дубли зашкаливают, так что все будет долго. Спасибо огромное от всей души. [flower]

      в 20:13 | Ответить
    182. Андрей

      Прописывать, запрещающие директории, нужно в той части файла роботс.тхт. где касается именно Яндекса

      в 20:21 | Ответить
    183. Надежда Давыдова

      Сделала 301 редирект, запреты в роботсе не убирала. Утром было 6000 дублей с хвостиком. Сейчас, вечером, уже 3700 [:--_)]

      в 20:52 | Ответить
      • Ольга

        Надежда, у меня в течение 5 минут были разные показатели при том, что я тогда еще ничего не делала :) То 20 тысяч, то 4.

        в 21:48 | Ответить
        • Надежда Давыдова

          У меня один результат, сколько ни смотри. Переходишь на последнюю страницу и дублей всего 100 [:-))]

          в 23:51 | Ответить
          • Ольга

            Надежда, мне кажется это у всех так :) На последней 10 странице пишет 10 страница из 100 результатов. Что-то тут не то.

            в 10:45 | Ответить
    184. Надежда Давыдова

      Ааааааааааа прошла на последнюю страницу, результатов всего 100!!!! Александр, спасибо!!!!!!!!!!!!

      в 20:54 | Ответить
      • Александр Быкадоров

        Будут скакать... Не хочу расстраивать, но сегодня будет больше возможно )))

        в 16:25 | Ответить
      • Александр Борисов

        Надежда так вы ни чего не сделали.

        в 16:33 | Ответить
        • Надежда

          Сделала редирект. Роботс еще не весь переделала, у меня в теме даже дубли в метароботс разрешены! Надо правда идти к верстальщикам, вот так сеооптимизированная тема... Уже много в ней исправила, и все равно ошибки. Даже если пропишу ноиндекс на дублях, в самом верху страницы все равно метароботс все разрешает. Капец!

          в 13:43 | Ответить
        • Надежда Давыдова

          И рекомендованный плагин с моей темой не работает: кнопки ответить не выводятся. Да еще и аватары размытые получаются. Но не это главное: если бы добавлял кнопочку ответить, отключила бы древовидные комменты. В роботсе вопросики убрала, надеюсь на редирект. Достаточно ли его будет?

          в 14:07 | Ответить
          • Александр Борисов

            Желательно все. И в роботсе все открыть и кнопочку убрать и редирект.

            в 16:13 | Ответить
    185. Tatiana

      Вот так всё было и у меня, и уже хотела забрасывать блог сегодня потихоньку, а оказывается вот в чём проблема. У меня аж 50 000 таких ссылок в гугле, в самый подходящий момент, огромное спасибо Александр.

      в 22:07 | Ответить
    186. Алексей

      Александр как в htaccess вставить редирект?

      Я имею ввиду в любое место? открыл файл и вставил, не имеет значение после каких фраз?

      в 22:24 | Ответить
      • Александр Борисов

        После RewriteBase /

        в 22:27 | Ответить
        • Ольга

          А мне нужно было еще после этих двух строк прописать RewriteBase /, как у вас в файле, Александр, иначе редирект не работал. То есть я не две строки вставляла новые, а три. Вроде так работает редирект теперь.

          в 23:43 | Ответить
          • Александр Борисов

            Гут!

            в 01:36 | Ответить
        • Алексей

          Спасибо! :)

          в 20:13 | Ответить
    187. Юлия

      Интересно, что за проблемы на моем блоге? Посещаемость, как была 3 копейки вначале, такой же и осталась. У меня в бесплатном дневничке Ли.ру, где статей в 2 раза меньше, порой больше бывает.

      Что не так я делаю, ума не приложу

      в 22:30 | Ответить
    188. Сергей

      Давно искал ответ на тему дублей, но везде было не то что нужно. А блог тем временем загибался. Теперь попробую реанимировать. Статья оказалась кстати.

      в 00:29 | Ответить
    189. Степа

      Спасибо, Александр, за полезную статью! Честно, я этого не знал!

      Я то думаю, почему у меня трафик с Гугла не растет!!! [good]

      в 01:20 | Ответить
    190. Екатерина

      Александр, спасибо за такую полезную статью. Сразу когда начала читать- очень испугалась, но теперь разобралась. Чтобы я без ваших статей делала? :) Спасибо!

      в 02:50 | Ответить
    191. Сергей

      Все сделал как написано в статье — Количество отслеживаемых URL в ПУ вебмастера увеличилось на 600 штук. Так и должно быть? Число страниц в дополнительном индексе также увеличилось. [:-|]

      в 08:50 | Ответить
      • Александр Борисов

        Оно не могло так быстро увеличиться. Что за ПУ?

        в 11:22 | Ответить
        • Сергей

          ПУ = Панель Управления. У Гугл есть панель управление вебмастера — вы же знаете.

          в 15:28 | Ответить
          • Александр Борисов

            А понял... Все равно увеличиться не может сразу.

            в 16:16 | Ответить
    192. Антон

      У меня google индексирует дубль страницы по такому адресу: мойсайт.ru/feed. Кто-нибудь знает, как это лечится? В роботсе есть строки :Disallow: /feed/

      Disallow: */feed

      в 09:35 | Ответить
      • Александр Борисов

        В курсе 3.0 я показал как лечится. И не только feed

        в 11:22 | Ответить
    193. Кристина Джусти

      Или я что-то напутала или у меня нет такой штуки replytocom [:-|]

      в 09:37 | Ответить
      • Александр Борисов

        Да, у вас все хорошо!

        в 11:23 | Ответить
    194. Глеб

      Александр, добрый день!

      Подскажи пожалуйста, у меня в роботсе вот эти строчки нужно ли убрать?

      Disallow: /trackback

      Disallow: */trackback

      Disallow: */*/trackback

      Disallow: */*/feed/*/

      Disallow: */feed

      Disallow: /*?*

      Disallow: /tag/

      Спасибо

      в 10:40 | Ответить
      • Александр Борисов

        Да, все убрать надо! Но просто взять и убрать кое что не настроив по курсу 3.0 нельзя.

        в 11:24 | Ответить
    195. Жук Юрий

      А почему у меня выдавало на сеолиб:

      56%. Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.

      РОботс.тхт был закрыт, а кнопок ответить просто не было. :)

      в 11:03 | Ответить
      • Александр Борисов

        Потому что у вас есть другие дубли страниц.

        в 11:27 | Ответить
    196. Андрэ

      Почитал немного и удивился на какой это всякий случай робот забирает дубли)) и про бонус новичка хотел бы развеять миф, когда человек начинает вести блог на вордпресе он изначально подготовлен к всему этому борьбы с дублями и прочим. В движке прописаны кононические страницы плюс в теле прописаны мета теги для запрета индексирования. Все готово для полноценного ведения но проходит мес. 3 — 4 и Блогер понимает что ему не хвотает чего то а чего писать уникальные титлы и снипеты ставит плагины для сео )) и все так как плаги не часто обновляются всегда включена опция кононикал которая не правильно отображает кононические страницы по тому как эта функция уже включена в движок. Вот по этому и живут те блоги у которых не настроен редирект с реплик и прочее. По тому что не стоят те самые плагины для мега сео и тд. Но да самое главное конечно не ставить роботу запрет в robot.txt по тому как робот не пройдет на страницу и не увидит что там мета теги и rel='canonical'

      в 11:53 | Ответить
      • Александр Борисов

        Вот на такой вот всякий самый случай. Так же как и другие страницы закрытые в роботсе.

        А то что он подготовлен это ясно, но когда люди ставят не правильный Роботс, то вся подготовка коту под хвост. В том то и фишка что роботс сбивает все метатеги.

        Снова вы про свои каноникалы. Да не помогают они. Я уже устал что-то доказывать кому-то. Будь по вашему в общем.

        в 16:13 | Ответить
    197. Юлий

      Александр, привет! Статья — БОМБА [good]

      Сразу же начал проверять свой блог! Дубли есть, но их пока всего 34. У некоторых ребят, конечно, дела куда хуже! Вероятно, статьей еще мало, хотя их число уже приближается к первой сотне. Сейчас буду все убирать! Спасибо!

      в 13:10 | Ответить
    198. Валентина

      Обнаружено значительное увеличение числа URL, которые возвращают ошибку 404 (страница не найдена). Проанализируйте эти ошибки и при необходимости исправьте их, чтобы обеспечить успешное сканирование страниц сайта.

      Так и должно быть или нужно что то делать? Сама еле-еле понимаю все эти настройки, убрала вопросы в роботе и кнопку ответить.

      в 13:18 | Ответить
      • Егор

        Валентина, а от куда вы получили это замечание?

        в 14:23 | Ответить
      • Александр Борисов

        Пришлите скрин.

        в 16:13 | Ответить
    199. Yulia

      Талантливо написано и коммерчески грамотно)))

      Продающе-мотивирующий текст.

      А проблема решается проще. Давно уже есть более совершенные сео плагины, чем All in One, что у вас на блоге, Александр. В них уже встроена функция удаления дублей страниц., плюс другие полезности.

      Yoast WordPress SEO например

      Это удобнее, чем к верстальщикам обращаться

      Да, настроек там много. Но оно того стоит. Хотя на вкус и цвет...

      в 16:03 | Ответить
      • Александр Борисов

        Юлия вы сами поняли что написали? :)

        И проверьте сами свои дубли, у вас их куча.

        в 16:10 | Ответить
      • Александр Крутицких

        Согласен, талантливо и ГРАМОТНО! И очень правильно интерес пробуждается у потенциального клиента, можно только поучиться и сказать за это спасибо! А где вы видели интернет предпринимателей, которые сходу присылают письмо с предложением своего нового курса?

        Только вот в чём вопрос!!! Что внутри? Пустота или польза? Александр не раз доказал, что у него польза. Тема старая...

        в 07:48 | Ответить
        • Александр Борисов

          Спасибо Сань!

          в 12:13 | Ответить
    200. Макс

      А, если зрить в корень проблемы? Ну с комментариями понятно. Поставил плагин, превратил в скрипт и дело с концом. А вот остальные страницы? Допустим, мы закрыли все дубли, остались только значимые, текстовые страницы. Мы, можно сказать, потеряли несколько десятков, а то и сотен страниц из категорий и тегов, которые можно продвигать по низко и средне частотникам, а там, и, возможно, по ВЧ. Как получится. Ведь можно все это сохранить. Просто заточить тему под вывод самостоятельно написанного анонса. Здесь мы прощаемся с дублями на главной и на страницах. На категориях или тегах, в качестве анонса выводим живописный description, который уникален, и качественно сделан для каждой статьи индивидуально. Ну а остальное уже закрываем robots noindex, на шаблонных страницах. И страницы сохраняем и уникальность и нет санкций от дублирования. Сегодня мне эта мысль пришла в голову, и сегодня на экспериментальном сайте такое сотворил. Теперь перепишу качественно дескрипшны к статьям, и посмотрю, что из этого выйдет. ;-)

      в 17:12 | Ответить
    201. Надежда Введенская

      Я как раз знала, что у меня есть такая проблема. Только вот решения никак не могла найти. Подсознательно подозревала Robots. Жаль, что технических знаний не хватает. После этой статьи теперь уже подчищу все.

      в 18:15 | Ответить
    202. Александр

      Александр здравствуй!

      У меня новый блог (3 месяца от роду). Я проверил как ты объяснил в статье. Никаких дублей не нашел.

      Я скопировал у тебя файл — robots.txt и вставил себе. Подскажи, нужно еще ставить — 301 редирект или прописывать код, который ты указал в статье, в файл — function.php.?

      Заранее благодарен за ответ.

      в 18:20 | Ответить
      • Александр Борисов

        Саша посмотри видео из статьи. А зачем в robots.txt ompin? Это же мой каталог ))

        в 21:37 | Ответить
        • Игорь

          ВЫ обещали статью по robots.txt. Или можно уже сейчас где-то взять нормадбный?

          в 21:07 | Ответить
          • Александр Борисов

            Вообще то статья вышла уже давно :)

            в 21:15 | Ответить
            • Игорь

              Где она?

              в 21:26 | Ответить
    203. Юлий

      Дискуссия разгорелась жаркая!

      Вроде все поправил) Но всегда возникают какие-нибудь мелочи! [:-|]

      в 19:00 | Ответить
    204. Валерий

      Спасибо, Александр!

      Мощная статья, проверил свой сайт, тоже куча дублей.

      Иду править. [good]

      в 19:40 | Ответить
    205. Ион

      По запросу site:мои сайты.ru replytocom ничего не найдено. Значит все ОК???

      У меня тоже самое, что у Инны. Это не означает что нет дублей. Один раз по данному запросу все таки вышел, оказалось у меня 300 дублей, правда я точные расчеты не сделал.

      Спасибо, Александр. Сделал как вы написали. Хотел проверить, что-то изменилось и опять ответ

      По запросу site:мои сайты.ru replytocom ничего не найдено. Может что-то я не так делаю?

      в 20:04 | Ответить
    206. Таисия

      Александр! Я ничего не пойму... По site: taiafilippova.ru replytocom позвавчера было 24000, вчера 23000. А сегодня посмотрела — 56. Такое может быть? Я всего лишь убрала строчки в роботсе. Переходы с поисковых систем вчера и сегодня: Гугл было 252, стало 399, Яндекс было 143, стало 252. Это хорошо или плохо?

      в 21:52 | Ответить
      • Александр Борисов

        Да, может. Оно постоянно прыгает. Завтра будет снова 24000. Вам как и мне ждать около года ))) Ну может меньше.

        в 21:56 | Ответить
    207. Александр

      Добрый вечер! У меня в Яндексе все статьи индексируются правильно, а В Гугле их в 5 раз больше. Стоит ли убирать в robots строки Disallow: /*?* Disallow: /*?

      По мнению Seolib 82%. Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.

      в 23:51 | Ответить
      • Александр Борисов

        Александр у вас в поиске gogole более 5000 страниц, первые несколько сотен страниц page. У вас не так как надо настроена индексация блога.

        в 01:03 | Ответить
        • Александр

          Добрый вечер! Александр, я уже несколько месяцев пытаюсь найти ответ на правильный robots. Вариант, который на моем блоге посоветовал гуру по созданию блогов на WP. Стоит запрет на индексацию страниц Disallow: /page/ в Яндексе. Там дублей страниц нет. Как же запретить индексацию page в Гугле?

          в 20:52 | Ответить
    208. Таисия

      Александр, вы меня извините, но объясниет еще, пожалуйста. У меня не убирается кнопка "ответить". Если я нажимаю на нее и пишу ответ на комментарий, коммент уходит в самый низ, даже если это не последний комментарий. А там, где ссылка на ответить, там вообще не работает. В древовидных комментариях в настройках формы комментариев этого плагина в окне Comment Form ID прописала "commentform". Почему же у меня эти кнопки не правильно работают, подскажиет, пожалуйста.

      в 23:52 | Ответить
      • Александр Борисов

        Таисия напишите мне в поддержку, возможно поможем.

        в 01:04 | Ответить
    209. Мария

      Александр, спасибо за статью! Правда, мой блог совсем "зеленый" (комментов пока мало и поэтому дублей всего 20 штук). Подправила robots, установила плагин (правда, настроила очень быстро, не факт что правильно). Проверила на всякий случай через яндекс вебмастер — разрешено. я так понимаю, что редирект это просто на всякий случай, пока не прописывала его. Хочу какой-нибудь курс приобрести (когда осилю все что могу сама=).

      в 01:20 | Ответить
    210. Юрий Йосифович

      Интересная оказывается история с блогами на WP — хотя, мне кажется, что этот момент должен бы по умолчанию решаться именно создателями движка и плагинов.

      Примерно так у меня происходит на Joomla (хотя и своих велосипедов хватает).

      Спасибо за ценную информацию.

      в 07:55 | Ответить
      • Tanya Vega

        Тоже так считаю. Удивило, что самим Вордпрессом этот момент изначально не продуман.

        в 10:22 | Ответить
        • Александр Борисов

          Он продуман Татьяна, не продумали мы со своими роботсами!

          в 12:18 | Ответить
          • Tanya Vega

            Ясно! Тогда не буду ни на каплю разочаровываться в Ворпдрессе — грамотный и умный движок)

            в 14:15 | Ответить
      • Александр Борисов

        По идее этот момент решен разработчиками wordpress, просто потом начинают учить "умные" специалисты, которые говорят, что надо в Роботс толкать вот и начинается. А у нас один написал, второй повторил, за ним еще 10-20-30 и так в геометрической прогрессии. В итоге катастрофа.

        в 12:14 | Ответить
    211. Галина

      Здравствуйте, Александр. Проверила сегодня в поиске гугл свой сайт — 8690 дублей ( а 2 дня назад было 6400 дублей). Зашла в инструменты веб-мастера гугл, в параметрах replytocom показывает что количество отслеживаемых страниц 899. Почему такая большая разница в цифрах? Не могу понять на какую цифру ориентироваться — в поиске гугл или в вебмастере гугл?

      в 09:51 | Ответить
      • Александр Борисов

        Держите ориентир на выдачу. В вебмастере показывается за сколькими страницами он следит. А он не все их в панель захапывает, медленно, но верно!

        в 12:17 | Ответить
    212. Валентина

      Саша, огромное спасибо и за тему из курса и за эту статью и за помощь в разборке!!! Это сколько же надо знать, чтобы просто вести свой сайтик!!!..да, точно...ЖЕСТЬ!!!

      в 13:24 | Ответить
    213. Виктория

      Спасибо за материал! Не могла пройти мимо. У себя в блогах не обнаружила данной проблемы, но, возможно, из-за молодости проектов и совсем небольшого числа текстов. Лучше следить заранее за дублями)))

      в 13:50 | Ответить
    214. Светлана

      Александр, здравствуйте! Ссылку со статьей прислала посетитель блога, за что ей огромная благодарность. Второй день читаю, сначала подкорректировала свой роботс, потом поставила Ваш. Не знаю, правильно ли, или придется что-то дополнительно настраивать с Вашим роботсом?

      В вебмастере гугл все было настроено, как в видео. Дублей много, почти 4 тысячи. Не знаю, как закрыть кнопку (омментарии на блоге выводятся без плагина.). И 301 редирект не могу поставить, выдает ошибку.

      в 13:53 | Ответить
    215. Наталья

      Здравствуйте, Александр. Я ученица Твоего Старта и у меня молодой блог. В видео уроках нам говорили о replytocom, о их вреде,и о том как с ними бороться. Один из вариантов — снять галочку в настройках "показывать древовидные комментарии" и тогда страницы лишние будут уходить из выдачи (если они уже у кого-то есть), другой альтернативный вариант — предлагалось сделать изменения в роботсе и в панели инструментов для вебмастера (Сканирование — Параметры URL) так как Вы описали у себя в статье . На тот момент, когда я проходила этот видео урок, у меня не было не одного комментария на сайте, и я решила просто убрать галочку в настройках о древовидных комментариях (как я тогда подумала "от греха по дальше, на всякий случай"). Прошло несколько месяцев, блог я развиваю, тут у меня стали появляться комментарии, а ответить на них нельзя (кнопочки "ответить" то нет). Я совершенно забыла про то, что убрала галочку в настройках. В поисковике стала искать решение вопроса, нашла много статей где рекомендовался плагин WordPress Thread Comment. Установила его, кнопка "ответить" появилась. При наведении на нее всплывает javascript:void (0). Проверяю в поиске гугл свой сайт site: vash-fenshyu.ru replytocom выдает 6 каких-то ссылок, но совершенно не на мой сайт, про мой сайт вообще ничего. Я так понимаю, это считается хорошо. И вроде бы все правильно. Но когда читала Вашу статью, проверила свой сайт через seolib и мне выдало:

      75%. Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.

      Я в шоке. Статьи пишу уникальные и правильно оптимизирую их. Значит все таки дело в replytocom.

      Как быть? помогите разобраться?

      в 13:57 | Ответить
      • Александр Борисов

        Наталья дублей replytocom у вас нет, у вас много других дублей. О них я говорил в курсе 3.0 + на днях выйдет еще одна статья.

        в 16:13 | Ответить
        • Наталья

          Александр, я докопалась до истины. Поняла, что у меня все было настроено так как Вы описали, за исключением корректировки robots.txt. Подкорректировала его так Вы рекомендуете, проверила через яндекс вебмастер. Выдает "разрешен" при проверке. Спасибо, Вам, огромное за полезную информацию. У меня Ваш сайт давно в закладках, регулярно посещаю ваш блог, если возникают какие-то вопросы я сразу к Вам ;-) Буду с нетерпением ждать следующую статью, хочу разобраться что еще за дубли у меня там притаились :)

          в 19:12 | Ответить
    216. Милена

      Саш, спасибо за статью! Мега-полезная. Только я не могу понять вот что. Эти "сопли" в выдаче показываются, но они запрещены к индексированию роботом и в выдаче это видно. Или всё равно считается, что проиндексированы? Объясни, пожалуйста, чайнику.

      в 14:53 | Ответить
      • Александр Борисов

        Это еще не переиндексировалось, старые данные показываются в выдаче.

        в 16:14 | Ответить
    217. Ион

      Почему у меня не срабатывает запрос. Что я неправильно делаю?

      Результаты не найдены: site:leceniemedom.ru replytocom.

      Советы по поиску:

      Проверьте правильность написания слов.

      Попробуйте перефразировать ключевые слова или использовать синонимы.

      Попробуйте использовать более общие ключевые слова.

      Максимально сократите запрос.

      Другие полезные ресурсы:

      Дополнительные советы по поиску см. на веб-сайте Справка по поиску в Интернете.

      Если не удалось найти веб-страницу, которая точно существует, отправьте нам ее адрес.

      в 15:06 | Ответить
    218. Евгений Савостин

      Странно — по запросу в Google — нет дублей

      А в оценке:

      75%. Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.

      в 18:59 | Ответить
      • Александр Борисов

        Значит есть другие дубли!

        в 19:03 | Ответить
    219. Елена

      Александр, у меня в robots.txt запрет стоит, но дубли не показывает, выдает about:blank и чистую страницу. Я что-то не пойму — это хорошо или плохо? [:-|]

      в 20:48 | Ответить
    220. Игорь

      Здравствуйте, Александр!

      Пока не всю статью прочитал, но вынужден задать вопрос (могу забыть).

      При проверке в Google Инструментами для вебмастеров параметров URL на моем блоге две графы: replytocom и p.

      Про первую ВЫ рассказали, а что такое Р?

      в 00:44 | Ответить
    221. Игорь Черноморец

      Спасибо за эту популярную и полезную статью! я сделал как ты сказал, то есть убрал из robots закрытые страницы к дублям, поставил редирект в файле .htaccess и когда открываю ссылку с replytocom, то редирект происходит, но в конце ссылки остаётся это — #respond! Что это значит?

      в 00:54 | Ответить
      • Александр Борисов

        Все что после # поисковиками не индексируется. У вас все хорошо!

        в 01:00 | Ответить
    222. Олия

      Александр прочитала вашу статью , всё исправила .Спасибо. Дубли у меня есть с чем связаны ... Для меня загадка...?

      но не только replytocom , почитала ...поискала информацию ...очень много древних постов...) толком не разобралась. Решение принято покупаю ваш новый курс КСБТ 3.0 [good]

      Всем удачи )

      в 01:01 | Ответить
      • Александр Борисов

        Да, посмотрите курс и еще много чего интересного найдете.

        в 01:04 | Ответить
    223. Игорь

      По ходу чтения вопросы.

      Не совсем понятно.

      В robots.txt есть запреты "Disallow: /*?*"

      Есть запрещающее правило "запрещен правилом /*?*"

      В коде страницы есть тег "<meta name='robots' content='noindex,follow' />"

      Это как-то входит в противоречие по тексту статьи.

      в 01:03 | Ответить
      • Александр Борисов

        Посмотрите видео из статьи!

        в 01:05 | Ответить
        • Игорь

          Видео посмотрел внимательно. Вы там и в тексте статьи говорите, что такой мета тег это появляется если в robots.txt нет запретов.

          в 01:09 | Ответить
          • Александр Борисов

            Он не появляется :) Он там изначально есть на странце дубля replytocom, но мы своими роботсами закрываем досуп роботу к этому метатегу.

            в 01:10 | Ответить
            • Игорь

              Кажется "въехал"

              в 01:19 | Ответить
            • Александр Борисов

              [good]

              в 01:21 | Ответить
    224. Игорь

      А Вы даете "правильный" файл robots.txt

      Их вариантов я встречал много, но, кажется Новиков показывал Ваш и совсем не такой как я использую.

      в 01:18 | Ответить
      • Александр Борисов

        Игорь скоро будет статья про правильный файл robots.txt для блога :) И про нахождение оставшихся дублей.

        в 01:20 | Ответить
    225. Игорь

      Где ошибки в этом файле. Такое поучит в StartUpе

      Файл удален автором блога

      Игорь скоро будет вторая часть статьи все узнаете!

      в 01:26 | Ответить
    226. Азик

      Привет!) я ввел такой запрос в поиске, показывает что ничего не найдено...

      Или я не правильно ввел? Александр, посмотрите, пожалуйста!!

      в 10:43 | Ответить
      • Александр Борисов

        Да, у тебя все хорошо, кроме robots.txt

        в 10:52 | Ответить
    227. Александр Борисов

      Буду 600-м комментаторов [:-))]

      в 10:56 | Ответить
    228. Алия

      Александр, спасибо большое за полезную и нужную информацию (на мой взгляд)! Когда я создала блог посещаемость за месяц была — 6-значное число, затем все поменялось. Когда он был совсем легкий — дважды атаковали хакеры (зачем им нужен был молодой блог — не понятно), пришлось заново создавать. По рекомендации моего учителя поменяла robots.txt (учитель очень хороший, возможно он сам не знал об этих нюансах). Обнаружила то, о чем вы поведали и все исправила, время покажет, надеюсь на лучшее. Спасибо еще раз!

      в 14:58 | Ответить
    229. Ксения

      Я с дублями начала бороться 4 месяца назад, сделала тогда 301 редирект. Сейчас дублей практически нет. Несмотря на лето поисковый трафик с Гугла начал расти. Единственное, что мне не нравилось, отвечать на комментарии могла только я из админки, а остальные ответы просто появлялись внизу. Теперь, благодаря плагину, который Вы предложили, я это исправила. И, кстати, в роботсе у меня оставалась-таки 1 ненужная строчка, сейчас я ее убрала. Но дубли ушли несмотря на то, что она была.

      в 16:53 | Ответить
    230. Игорь

      А какое расширение должно быть у файла htaccess?

      Он у меня не читается (файл с не правильным расширением).

      Не будут мешать друг другу редирект 301 и плагин WordPress Thread Comment, если сделать то и другое

      в 19:49 | Ответить
      • Александр Борисов

        А плагин и редирект как то связаны?

        в 01:41 | Ответить
        • Игорь

          Ну я не спец в этом. Поэтому и спрашиваю.

          А что насчет .htaccess. Я "заглянуть" в него не могу.

          И чуть ниже еще вопрос о "Ответить". Как Вы прокомментируете эту ситуацию. Даже при установленном плагине есть возможность дублирования страниц (это я знаю куда нажимать, а другие нет)...

          в 19:47 | Ответить
          • Александр Борисов

            .htaccess я не знаю какое оно у него. Я просто открываю при помощи notepad++.

            Про кнопку я говорил, уберите галочку — разрешить деревовидные комментарии в админке.

            в 19:54 | Ответить
            • Игорь

              Спасибо!

              Натолкнули на мысль — открыл через файловый менеджер на хостинге.

              .htaccess — это и есть расширение (нашел на сайте).

              Поставил и плагин и сделал редирект 301. Убрал на разрешение древовидных комментариев.

              Буду надеяться на положительный результат.

              в 21:02 | Ответить
    231. Игорь

      У меня на блоге в комментариях стояли две надписи: "Изменить" и "Ответить ↓"

      После установки плагина появилась сверху "[Ответить]".

      Появившаяся "высвечивает" javascript.void (0), а старая "ответить" так и дает адрес дубля.

      в 22:06 | Ответить
    232. Михаил

      Отличный сайт . Отличная статья . Немного пугающая . Но блог у меня молодой . Сильно испугаться не успел . Некоторые вещи для меня вообще темный лес . Буду потихоньку разбираться . Александр может глянете на досуге , профвзглядом , что у меня не так .

      Заранее спасибо .

      в 22:32 | Ответить
    233. Дмитрий

      Александр, а ссылки типа site.ru/page.html#bla ничего плохого не делают?

      p.s. Лучше на своём движке делать)))

      в 01:12 | Ответить
      • Александр Борисов

        Все что после # не индексируется.

        в 01:46 | Ответить