
Здравствуйте уважаемые читатели! С вами Александр Борисов. Сейчас отложите все свои дела куда по дальше, отвлекитесь от всех забот и людей, закройтесь у себя в комнате на замок и ВНИМАТЕЛЬНО читайте данную статью от корки до корки.
ШОК! Именно такое состояние должно быть у 90% аудитории моего блога (вас) после прочтения этой статьи! ШОК и ни как иначе я его назвать не могу.
Блоггеры новички — прыгайте от радости, потому что вам повезло. Блоггеры, которые не понимают, почему их блоги не продвигаются - рвите на голове волосы (потому что узнаете, что за дрянь сидит у вас на блоге), а блоггеры десятитысячники — бойтесь, потому что скоро у вас появятся конкуренты!
Сегодня вы узнаете как избавить ваш блог от той заразы (дубли страниц replytocom), которая уже убила не один десяток тысяч блогов (а то и больше), убивает ваш блог и будет убивать дальше, если сейчас вы не примите меры. Я анализировал многие блоги своих читателей (вас) и увидел, что на 90% всех этих блогов эта зараза присутствует.
И зараза эта не позволяет вам дальше нормально развивать блог, эта зараза заставила уже многих блоггеров забросить свои блоги, эта зараза, как бомба замедленного действия, которая изначально появляется после создания блога, тихо сидит ни кого не тревожа, но потом взрывается и блог погибает.
Эта бомба рванула на моем блоге в феврале 2012 года. Ну тут вообще другая история (я ее сам поджег). Эта бомба рванула уже на многих блогах моих читателей и прибила их. Они вели свои блоги, кайфовали от этого, писали статьи, заводили движуху, был мощнейший стимул, они думали, что будут писать, раскрутят, заработают... Но что потом?

Ни чего хорошего. Много стараешься, а все как-будто стоишь на месте. Не растет трафик и хоть ты тресни. Мотивация падает, тебе уже лень писать статьи, потому что кажется, что это все напрасно и ты забрасываешь блог. С этим столкнулись уже десятки тысяч блоггеров...
С этим столкнулись и многие мои читатели. Я вот хожу по старым статьям своего блога. Вижу в комментариях знакомые мне аватарки, их восторженные комментари, «спасибки» за полезную статью, радость у людей была, писали, надеялись, что скоро и они раскрутят свои блоги и начнут на них зарабатывать, но...
Сейчас я кликаю по ссылкам в комменатриях и тю тю... Нет уже этих бложиков. ( Пропали они. Авторы их забросили. А как все бурно начиналось. Какие были грандиозные планы и цели по раскрутке и заработку... Печально...
А что стало с теми блоггерами тысячниками, подборки которых я публиковал? РАЗ, ДВА. Давайте посмотрим на них. Кто-то свой блог продал вообще, кто-то просто сдулся и забросил, кто-то встрял на 1000—2000-3000 посетителей в сутки и дальше не идет, кто-то обленился и на мой вопрос, — «В чем дело? Почему так мало пишешь?», отвечает:
Что-то лень писать, пишу пишу, а толку нет. Не растет посещаемость и все. Надоело сутками зависать за блогом бестолку.
А кто-то знаете мне что сказал?
Я повел свой блог и понял, что это не мое.
Странно! А как так? А почему на начальном этапе ведения блога так горели глаза, статьи штамповались пачками, конкурсы проводились, движуха была? А что случилось потом? Ну а случилось как раз то, что случилось и с остальными 90% блоггеров, которые так же слились из-за того что ты много работаешь, но не получаешь результата.
В общем если вы еще живы и читаете данную статью, то читайте ее дальше и офигевайте от этой глобальной проблемы в блогосфере с дублями страниц replytocom, но на самом деле, решаемой быстро и просто. И решение этой проблемы я вам покажу в данной статье.
Это единственное решение проблемы. Других просто больше не существует. В интернете написано очень много статей по теме избавления wordpress блога от дублей replytocom, но в большинстве случаев они не решают проблему. Какие-то рекомендации наоборот еще больше усугубляют ситуацию.
Итак, из данной статьи вы узнаете:
Что такое дубли replytocom и чем они опасны Как понять есть ли на вашем блоге дубли replytocom Как я грохнул свой блог из-за дублей в 2012 году Как развиваются блоги с дублями и без Как 100% избавиться от дублей replytocom Почему некоторые блоги хорошо живут и с replytocom
Ну что вы готовы? Начнем.
Что такое дубли replytocom и чем они опасны?
Дубли replytocom — это такие же страницы как и страницы статей вашего блога (только с другим url адресом типа ?replytocom=1234), которые создаются из-за включенной на wordpress блоге функции вывода деревовидных комментариев.
Посмотрите включена ли функция у вас:
Если у вас включена эта функция и у каждого комментария на вашем блоге имеется кнопочка «Ответить», то вы уже в опасности, если у вас кое что не правильно настроено:
Для того чтобы вам было проще все понимать, давайте я возьму любой блог, кого-нибудь из своих читателей и покажу вам все на конкретном примере. Любой. Вот например блог легендарного Александра Быкадорова. Зайдите на него и посмотрите есть ли у него эти кнопочки «Ответить» в комментариях к статьям.
Да, они там есть. И вот сейчас я покажу вам как потихоньку умирает блог Александра и ситуация становится все хуже и хуже с каждым днем. К сожалению Александр, как и остальная масса блоггеров, этого даже не подозревает и не знает об этом.
Александр по натуре своей очень целеустремленный человек, это чувствуется через его блог, посмотрите как он вкладывается в статьи, а посмотрите сколько их у него на блоге. Несколько сотен. И как вы считаете это справедливо вообще, получать 100 посетителей в сутки, когда у тебя столько контента на блоге?
А посмотрите на комментарии. Сколько их к статьям. То есть аудитория на блоге постоянная имеется, статьи публикуются, а где результат? А результата и не будет пока сидит эта зараза на блоге в виде дублей replytocom.
Итак заходим на блог Саши, находим любую кнопочку «Ответить», жмем по ней правой кнопкой и открываем страницу в новой вкладке:
И смотрим. Вот url основной статьи:
http://alexandrbykadorov.ru/lichnostnyj-rost/o-vrede-alkogolizma-i-kureniya/
А вот url страницы дубля:
http://alexandrbykadorov.ru/lichnostnyj-rost/o-vrede-alkogolizma-i-kureniya/?replytocom=9041
Текст абсолютно одинаковый на обеих страницах, а url адреса разные. То есть получается на блоге имеется дублированный контент. За это блог Саши автоматически наказан таким алгоритмом google, который называется ПАНДА! Слышали о таком?
Но пока без паники, надо еще проверить, занес ли google копии этих дублированных страниц в выдачу (индекс). Может Саша и не наказан вовсе!
И вот сколько таких кнопочек «ответить», столько и одинаковых страниц с одинаковым контентом и ИСХОДЯЩИМИ ССЫЛКАМИ. Последнее я выделил жирным. Но пока не стоит паниковать, повторю. Дубли replytocom могут быть на блоге, но они могут быть и не опасны, если все верно настроено. Об этом чуть ниже.
Смотрите на следующую жесть! Продолжим издеваться над блогом Александра. Посмотрите к примеру вот эту статью. 45 комментариев. Что это означает? А это означает, что на блоге Александра имеется 45 кнопочек «Ответить» (ну может чуть меньше).
45 кнопочек «Ответить» = 45 дублей страниц replytocom. А ОДНА страница replytocom = 31 (я посчитал) исходящая ссылка в комментариях:
О да, ссылки комментаторов закрыты noindex и nofollow, скажете вы =))) Я знаю, но это не важно! Это исходящие ссылки и они есть. А вот что самое страшное.
45 дублей умножаем на 31 исходящую ссылку и получаем 1395 исходящих ссылок только с одной статьи. ТОЛЬКО С ОДНОЙ СТАТЬИ (с ее погаными отростками в виде дублей replytocom)!
А сколько их всего на блоге? Саша ты там еще не в обмороке? Если нет, то смотри дальше. Проанализировав блог Александра через один секретный сервис, я вижу, что на его блоге всего 26 659 ссылок:
и это при том, что входящих ссылок со всего интернета (входящие это те которые стоят на других сайтах и ссылаются на блог Саши) 126, их еще называют доноры. Исходящих ссылок в несколько раз больше чем входящих и какое тут вообще может быть продвижение блога??? ЭТО ГИТЛЕР КАПУТ!
Саша ты там еще нашатыря не принял? Если нет, то смотри дальше.
Как понять есть ли на вашем блоге дубли replytocom?
Очень просто! Опять же я продолжаю издеваться над блогом Александра, а вы проверяйте свой. В общем заходим в goоgle и набираем:
site:alexandrbykadorov.ru replytocom
Вот что я получил:
Нажимаем «Показать скрытые результаты» и видим:
16 500 дублей страниц. ТРЕШ! Саша, мне тебя жаль. (( Я понимаю, что ты не специально, ты просто не знал. Как и не знают про это остальные блоггеры, а это каждый 2 читатель моего блога. Я даже скажу больше. У 90% читателей моего блога на их блогах имеются такие же дубли.
Ну и давай уже добьем тебя до конца. Вот нам выдал сервис seolib о твоем блоге:
Ну что вы проверили свой блог на дубли? Как результаты? Если вы совсем зеленый блоггер, то дублей вы можете и не найти (или их мало), так как google их еще и не сожрал. Но он сделает это поверьте мне на слово, если у вас не будет все настроено так, как я вам сейчас скажу.
Ну а если вы блоггер матерый, проанализировали свой блог и видите, что дублей у вас тьма, то я вас в кавычках «поздравляю». Вот я вам и отвечаю на вопрос, почему ваш трафик не растет с google. Да, Яндекс еще как-то не особо наказывает за дубли, потому что он не забирает их в выдачу, а гугл беспощаден.
НО! Яндекс, поверьте вас тоже не погладит по головке, когда робот забирает в базу тысячи страниц соплей replytocom (а он их забирает и я вам это покажу дальше).
Вы хотите сказать мне, что у вас есть дубли, но с трафиком в google у вас все в порядке? Окей, сейчас я и про это расскажу вам. Существует несколько причин, почему google может не наказывать вас за дубли даже если они имеются в выдаче.
Я изучал эту тему ребята, несколько месяцев, так что знаю, о чем сейчас пишу. То есть я не просто «так думаю», я просто знаю это.
Чем больше комментариев, тем больше дублей replytocom и больше исходящих ссылок. И с каждым днем их становится все больше и больше, и больше и больше. И трафик не растет и не растет, и не растет и не растет. А потом в один прекрасные день ты просыпаешься и говоришь, — «Да пошел он этот блог к черту»... И пошел...
Да, можно получать хороший трафик с Яндекса и забить на Google. Смотрите вы на статистику посещаемости с поисковых систем, видите что с google трафика в 5-7 раз меньше чем с Яндекса и пофигу. Но представьте если и с Google вы будете все выжимать по максимуму?
Я лично все равно считаю, что Яндекс так же снижает трафик из-за дублей, не так сильно и жестко как google, но снижает. Нормальный блог по мнению роботов — это блог, на который он пришел, загрузил главную страницу в базу, остальные страницы блога и статьи! ВСЕ! А по факту он грузит десятки тысяч шлака и это не есть гут!
Итак! Вы выявили, что у вас на блоге есть дубли replytocom, вы понимаете, что от них надо избавляться и сейчас мы этим как раз и займемся, но для начала послушайте мою историю. Историю о том, как я буквально грохнул свой блог в 2012 году из-за этих гребаных дублей replytocom.
Как я грохнул свой блог из-за дублей в 2012 году!
Итак! За 7 месяцев ведения блога, с нуля я вышел на посещаемость более 1000 посетителей в сутки... Потом 2000, 3000, 4000, 5000 и вот февраль 2012 года, мой счетчик показывает 6200 посетителей в сутки. Я прыгаю от радости, бегая по комнате в трусах и счастья моему нет предела.
Ну сами подумайте 6200 посетителей в сутки. Блог комментируют 200-300 человек каждый день. Очень не удобно отвечать каждому на комментарий если нет удобной (черт бы ее побрал) кнопочки «Ответить», а у меня ее не было до февраля 2012 года. Смотрите сами старые статьи:
То есть видите как я отвечал. В стопку каждому. Меня это как говорится задрало, и я попросил Артема поставить мне эти кнопки «Ответить». То есть я включил функцию replytocom (деревовидные комментарии). Обратите внимание на дату этой статьи. 20.02.2012, то есть как мне сделали комментарии, так я статью и написал. Похвалился...
Что одновременно с этим произошло? А произошло то, что у меня на блоге уже было 25 000 комментариев и у каждого комментария родилась кнопочка «Ответить». Из этих 25 000 кнопочек «Ответить» родилось 25 000 дублей страниц.
Ну 25 000 дублей умножим на примерно 6 000 исходящих ссылок = 150 000 000 исходящих ссылок. Мне сейчас станет плохо! ))) Слава богу все не успели залететь в индекс:
Я отделался только 1 333 946. ОДИН МИЛЛИОН ТРИСТА ТРИДЦАТЬ ТРИ ТЫСЯЧИ ДЕВЯТЬСОТ СОРОК ШЕСТЬ ССЫЛОК! Вызовите мне кто-нибудь скорую а...
А вот что случилось дальше. Вот результат:
Трафик с google рос как на дрожжах до 2012 года до февраля, а потом грохнулся резко до 200 посетителей в сутки. А был более 1000. И это только с google. + с яндекса 2000. Итого 3000 только трафик с поисковых систем. ТОЛЬКО с поисковых систем.
У меня был бешеный стимул действовать, развивать блог, писать статьи, но потом медленно и верно все это начинало угасать, энтузиазм уже не тот, статьи писать лень, потому что ты пишешь и понимаешь, что все равно все бесполезно, трафик все равно не растет.
Из-за того, что я стал лениться, перестал продвигать свой блог теми методами, которыми я его обычно продвигал, то потерял трафик и с Яндекса с 2500 в сутки до 900 в сутки. Вот такая вот печальная история. Зато честная.
Да, бывают взлеты и падения в жизни, нужно уметь их переживать, но когда на протяжении 1-1,5 лет ты херачишь, а трафик все на нулях, то как тут не будет упадок сил? У кого похожая ситуация? К сожалению многие ребята, которые шли со мной нога в ногу с начала ведения блога из-за этих дублей уже слились.
Я же, буквально несколько месяцев назад, решил разобраться во всем, психанул и начал копать. Я не могу оставить вот так все как есть. Должно же быть какое-то объяснение тому, почему трафик падает с каждым днем. Как оказалось решение проблемы было на поверхности. Это ДУБЛИ REPLYTOCOM.
Сейчас я устранил проблему появления новых дублей replytocom, а старые постепенно уходят из выдачи, но все еще там остаются. Для реабилитации моему блогу нужно как минимум 8-10 месяцев. Это вам не 1000 дублей, а целых 49 000. И вот уже мои результаты:
Отслеживание replytocom в инструментах для вебмастеров google. Было:
Стало:
А вот что показывает уже сервис seolib. Было:
Стало:
А вот анализ по исходящим ссылкам. было:
Стало:
А вот результаты по загруженным страницам Яндексом. Было:
Стало:
Ну и последнее это трафик. Есть ли какие-то подвижки? Есть. С google было 140-170 человек, а сейчас 200-220 и продолжает расти:
Сейчас мне еще рано рыпаться, надо просто ждать и дальше развивать блог вот такими вот полезными статьями. Результаты будут позже, когда гугл полностью все переиндексирует и выкинет все сопли из выдачи.
Например у Ирины Зайцевой трафик вырос только через 8 месяцев и так же еще не все дубли до конца ушли. Ну и обратите внимание на посещаемость блога. 9 000 — 14 000 (осень-зима) посетителей в сутки.
Как развиваются блоги с дублями replytocom и без!
Всех показывать не буду, покажу несколько. Начнем с тех, у кого нет дублей в выдаче Google (или они почти ушли) и посмотрим какой у них трафик на блоге. Я буду показывать 2 цифры, первая цифра — это трафик сейчас (когда лето, солнце, пляж, короче спад), а вторая — трафик который был в холодное время года и будет снова совсем скоро.
Примеры: Блог Ирины Зайцевой (9000 /14000). У Ирины еще остаются дубли в выдаче. Она начала избавляться от них где-то 8 месяцев назад, вот еще уходят. 8 месяцев назад трафик с гугла был 200-300 человек, сейчас 2500—3000 и продолжает расти. Передаю вам слова самой Ирины.
Дальше. Блог Нижегородского предпринимателя (6000/9000). Блог изначально живет без дублей страниц. Блог Василия Прохорова (более 5000). Так же блог живет без дублей страниц. Школа рыбалки (более 7000). Блог Евгения Пешкова (более 5000). Думаю достаточно...
Нет ну естественно я знаю и много других блоггеров, которые имеют хороший трафик и с дублями, но трафик этот как раз таки с Яндекса в основном, а с google с гулькин клюв. Вот вам пример хорошего блога (wunderkind-blog.ru), который мне очень нравится. Давайте посмотрим на старания Людмилы (автор блога) и на трафик с поисковых систем который она получает:
Как считаете это заслуженно? В карту сайта загляните, более 2000 статей! Вы представляете себе вообще, сколько сейчас вот таких вот блоггеров-мучеников в интернете, которые из-за этих поганых дублей вот так вот медленно развиваются? Точнее не медленно, а никак...
Ну чтобы посмотреть как развиваются блоги с дублями, то можете взять мою любую статью на блоге, спуститься вниз до комментариев и ходить по ссылкам в комментаторов, смотреть есть ли у них дубли и смотреть на их трафик. Там все будет ясно.
У каждого второго, если не первого, вы будете находить эти дубли replytocom в выдаче. Не знаю, поняли вы вообще все что я написал или нет, но я лично считаю это глобальной катастрофой в блогосфере.
Вам нужны еще какие-то комментарии? Я думаю, что здесь комментарии излишни! О да, конечно же, я не говорю о том, что сейчас вы все уберете свои дубли replytocom по той методике, которую я вам расскажу ниже и ваш трафик взлетит до небес. =)
Нет, нужно раскручивать свой блог, но если у него изначально есть дубли, то в 95% случаев вы просто не сдвинетесь с места. Вот результаты моих недавних экспериментов по устранению дублей replytocom на троечке блогов:
А говорят спад летом. =) Кстати просьба тех ребят, которым я помог с дублями, подтвердить в комментариях то, что рост трафика с Google реально заметен.
Как 100% избавиться от дублей replytocom?
Приступаем к самому ответственному этапу. Нам надо избавиться от дублей replytocom. Как это сделать? Для начала надо вообще понять суть. Почему у кого-то есть эти кнопочки «Ответить» в комментариях и у них есть дубли в выдаче google, а у кого-то нет дублей в выдаче?
Давайте я вам расскажу почему дублей в выдаче не появляется? Причины здесь всего ДВЕ:
1. Кнопка «Ответить» выводится скриптом или replytocom отсутствует.
2. Кнопка «Ответить» НЕ ЗАКРЫТА В ROBOTS.TXT даже если выводится replytocom.
Кто что понял? Думаю что многие не поняли. Ок. Объясняю в подробностях в видео:
Вот теперь я думаю вам все понятно! Главное вам понять саму суть! Нельзя закрывать роботу поисковых систем доступ в robots.txt к replytocom и тогда он натыкается на вот такой мета тег:
<meta name='robots' content='noindex,follow' />
и вот тогда не заносит в выдачу replytocom дубли. Что мы видим у тех ребят, у которых есть дубли? У них у всех закрыт доступ в robots.txt к страницам replytocom примерно вот такими директивами:
из этого следует вот это:
Если что это проверка файла robots.txt. Просто введите адрес своего сайта в первой строке и загрузите его. Далее просто внизу во второй форме вставьте любой url дубля. Короче если видите у себя в robots.txt картинку, что я показал выше, то хреновые у вас дела. Значит в вашем robots.txt есть что то вот такое:
Disallow: /*?*
Disallow: /*?
Disallow: /*?replytocom
Disallow: /?replytocom
УДАЛЯЙТЕ К ЧЕРТОВОЙ БАБУШКЕ!
Получается так. Робот приходит на страницу дубля replytocom, видит, что в robots.txt он закрыт и НА ВСЯКИЙ СЛУЧАЙ все равно забирает его в сопли, потому что дверь вы ему закрыли и он не увидел:
<meta name='robots' content='noindex,follow' />
Знайте, что запрет в robots.txt и запрет мета-тегами это две разные вещи. Мета-теги говорят что индексировать можно/нельзя, а robots.txt это просто предложение роботу, типа, — «Дорогой, пожалуйста, сюда не ходи а вот сюда ходи». Google все наши роботсы игнорирует.
Кстати смотрите как на блоге Людмилы закрыто в Роботсе индексация replytocom:
То есть конкретно! =))) С пояснениями для робота... Простите, что смеюсь, но если честно, на самом деле плакать хочется... Очень жаль Людмилу и всех остальных кто вот так вот мучается с дублями.
Жесть? Вот вроде бы какая мелочь да? 1-2 не правильные строчечки в Роботсе и тысячи блогов лежат на лопатках поверженные... Ну признайтесь честно, кто сейчас схватился за голову? В общем открывайте свои роботсы и будет вам счастье.
Можете в добавок поставить 301 редирект. Вот это тогда надо добавить в ваш файл .htaccess который лежит у вас на хостинге в корне где лежат папки wp-content, wp-admin и т.д:
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
Что сделает 301 редирект? Ну давайте объясню все на блоге того же нашего бедного Саши. Теперь когда робот придет на страницу:
http://alexandrbykadorov.ru/lichnostnyj-rost/o-vrede-alkogolizma-i-kureniya/?replytocom=9041
то робота автоматически будет перебрасывать на эту страницу:
http://alexandrbykadorov.ru/lichnostnyj-rost/o-vrede-alkogolizma-i-kureniya/
Саша включи редирект. =) Покажи людям как это работает. Хотя вот вам мой пример. Зайдите:
https://isif-life.ru/news/itogi-marafona-po-razgadyvaniyu-krossvordov-vazhnye-novosti-ot-isif-life.html?replytocom=1234
Куда вас перекинуло видите? Ок.
А можете и не ставить 301 редирект. Тут без разницы, главное чтобы в robots.txt все было открыто! Google и так все выкинет со временем. Так же можно использовать не 301 редирект, а отдачу 404 ошибки каждому дублю. Вот это пропишите в function.php и все:
add_filter('template_redirect','Redirect404');
function Redirect404()
{
if ( isset( $_GET['replytocom'] ) ) {
@header("HTTP/1.0 404 Not Found");
die();
}
}
То есть теперь робот будет попадать на страницу 404 ошибки и выкидывать такие страницы из выдачи. Тоже работает. Проверено! Кстати вот график проиндексированных страниц моего блога:
Вот уже 20 914, а было 24 557. За 2 месяца ушло уже 3500 дублей. Это радует.
Ну а сами стандартные кнопочки «Ответить» которые выводятся через replytocom я бы скрыл от греха по дальше. Или плагином WordPress Thread Comment, либо же через тег <спан>, как у меня, либо еще как-то.
Как закрыть через тег <спан>? Об этом я рассказал в новом курсе КСБТ 3.0. А вот WordPress Thread Comment скачайте в интернете этот плагин и поставьте. После установки зайдите в Настройки — Обсуждения и ОТКЛЮЧИТЕ деревовидные комментарии. Теперь кнопку «ответить» будет выводить плагин.
И обратите внимание, что вы видите при наведении на эту кнопку «Ответить»? А видите вы вот что:
javascript:void (0)
Единственное что в нем плохо в этом плагине, так это то, что ответ на комментарий выводится внутри другого комментария. Вот пример:
Вы видите, что Николай ответил на комментарий и он вывелся внутри рамки основного комментария. У меня же на блоге вы видите, что каждый комментарий выводится отдельно.
Скажу по секрету, я заказывал индивидуально доработку плагина программистам и они сделали мне рабочий вариант плагина, который выводит ответы на комментарии вне другого комментария.
Этот доработанный плагин WordPress Thread Comment я даю всем клиентам в своем новом видеокурсе Как стать блоггером тысячником 3.0.
Ну и самое последнее. Многие пишут в статьях про параметр replytocom в панели инструментов для вебмастера (Сканирование — Параметры URL). Рекомендуют ставить вот так:
Я совершенно иного мнения. Не рекомендую вам так ставить. Оставьте НА УСМОТРЕНИЕ РОБОТА! Он сам во всем разберется. Вот так должно быть:
Вообще на самом деле в интернете 100500 статей на тему удаления дублей replytocom и «правильных», в кавычках, Роботсов, но к сожалению более 80% из них несут только вред. И я сейчас не критикую авторов таких статей, так как понимаю, что когда они писали эти статьи, просто сами ни чего не знали по этой теме.
У нас же как обычно все происходит в блоггинге (особенно в теме ковыряния в кодах) — один написал, другой почитал и повторил, написав уже на своем блоге подобную статью на эту же тему. Лишь бы что-то написать...
Я сам не без греха ребята! У меня тоже такой же роботс стоял до недавнего времени (начитался в интернете «умных» советов) и я сам даже советовал такой же robots.txt ставить и другим. Просто НЕ ЗНАЛ! Не знал, какое это зло на самом то деле! Как и не знают остальные блоггеры.
Скажу прямо и откровенно — простите засранца =(( Не специально! Самое главное это то, что я нашел спасение... И это главное.
Почему некоторые блоги хорошо живут и с replytocom?
Есть такие уникумы, у которых куча дублей replytocom в выдаче, но google дает им хороший трафик и они хорошо развиваются. Я очень долго копал в этом направлении и выяснил почему. Здесь несколько причин:
1. Блог молодой и ему дан бонус новичка Google. О нем можете почитать в интернете, наберите «бонус новичка Google» в любом поисковике и найдете кучу статей на эту тему. То есть Google прощает все молодым. Мол ни чего страшного брат, ты еще молод, у тебя все впереди так что давай покажи на что ты способен.
2. Блог имеет кучу дублей страниц, но не имеет массовости исходящих ссылок. Выше я говорил про то как много появляется исходящих ссылок из-за дублей. Так вот смотрите на этот блог например — Блог Александра Крутицких. У него есть дубли в выдаче, но смотрим на трафик с Google и Yandex:
А вот кстати что было 4 июня. Это я как понимаю были экзамены по математике в школах =)
Что мы видим? Google дает трафик, а Яндекс наоборот не дает. Ну про Яндекс это отдельный разговор. Я кстати знаю почему не растет трафик с Яндекса, про это я рассказал в новом курсе КСБТ 3.0. Вернемся к Google. Почему он не наказывает блог? То есть трафик больше чем с Яндекса?
Ну во первых начнем с того, что НЕ НАКАЗЫВАЕТ это еще громко сказано. Может и наказывает и без дублей у Саши был бы трафик не 800 в сутки, а 3000. Ну ладно, представим, что не наказывает. Почему?
Дело в том, что основная масса комментаторов данного блога, это люди не имеющие своих блогов и сайтов и когда они оставляют комментарий на блоге, то следовательно сайт свой не указывают и исходящих ссылок очень мало. Практически нет. Вот и все дела.
Возможно тогда гугл прощает. Так же прощает и некоторых других блоггеров, у которых и трафик с google хороший и дублей куча в выдаче, но почему так происходит никто не знает. Одним словом фантастика, но это редкость. 1 на 10 000.
Так же есть блоги которые живут без дублей в выдаче, хотя у них зарыты replytocom в robots.txt. Вот вам пример — http://deti-burg.ru. Почему, из-за чего? Никто не знает. Я думаю просто везение. Реально везение.
И таких везуньчиков единицы. НО! Это не говорит о том, что Google однажды не переклинет и он махом не заберет дубли в сопли! Все равно надо быть осторожным!
В общем давайте буду заканчивать уже писать! Статью писал два дня и уверен она станет лучшей в Рунете по решению проблемы с дублями Replytocom. Я от всей души желаю вам избавиться от этой заразы и стремительно продвигаться в поисковиках...
Ну и в заключение статьи у меня для вас еще одна неприятная новость. Дубли replytocom — ЭТО ЕЩЕ НЕ ВЕСЬ ШЛАК, КОТОРЫЙ ИМЕЕТСЯ В ВЫДАЧЕ ДЕСЯТКОВ ТЫСЯЧ БЛОГГЕРОВ. Есть еще другие дубли и мусорные страницы от которых нужно так же избавляться.
Что это за дубли и мусор я рассказываю в своем новом обучающем видеокурсе Как стать блоггером тысячником 3.0 который уже вышел в свет! Вся информация в этой статье или на продающей странице курса.
Ребята, давайте спасать блогосферу. Посмотрите что сейчас твориться. Возьмите 10 блоггеров и 8 из них уже изначально обречены на погибель из-за этих дублей. Помогите им, дайте им почитать эту статью, наведите людей на путь истинный.
Чтобы вы охотно рекомендовали эту статью другим, я даже добавил в кабинеты партнерской программы партнерские ссылки:
То есть можете давать почитать статью людям да еще и заработать комиссионных если кто-то решит приобрести видеокурс КСБТ 3.0 (КОМИССИОННЫЕ 50%). А сам курс КСБТ 3.0 я называю просто — реанимация блогосферы. Смотрите, изучайте и офигевайте от того как все мы блоггеры жестко косячим и как следствие более 90% ВЫМИРАЕМ...
На этом я статью буду заканчивать. Статья получилась просто СОК. Самому понравилась. Я представляю что сейчас произойдет после того, как хотя бы моя аудитория читателей внедрит данные фишки у себя на блоге. Обязательно потом поделитесь своими результатами в комментариях.
Рост трафика неизбежен. Чувствую блоггеры-тысячники полезут как грибы после дождя. Если конечно же у вас нет других косяков на блоге, про которые я говорил в своем новом курсе КСБТ 3.0.
Смотрите курс КСБТ 3.0, благодаря ему вы произведете полную зачистку своего блога от шлака, спама, вирусов, дублей и прочего «г». Ну и конечно же в курсе есть еще много чего интересного. У кого есть какие-то вопросы задавайте в комментариях. Постараюсь ответить. Чувствую шороха этот пост наведет конкретного...
Всем пока и до скорых встреч!
P.S. Если вы много чего не поняли, то в курсе КСБТ 3.0 все в голове встанет на свои места.
P.P.S. Ну и давайте в заключение статьи немного посмеемся. Не знаю какое сейчас лицо у вас после прочтения данной статьи, но лицо блоггера, который несколько месяцев или лет вел свой блог и вот только сейчас узнал, что у него есть куча дублей, я представляю вот так:

С уважением, Александр Борисов
Когда из почты сюда заглянул, то выскочило предупреждение , что ваш сайт атакуют компьютеры. Ранее такого не наблюдалось.
У меня не показывает никакой атаки. Ни раньше, ни сейчас.
Глюк какой-то! у меня такого никогда не было
в Александра нормальный ресурс, а по поводу replytocom я поставил себе адаптированный шаблон (где отредактированы кнопки ответить). Лично я советую сделать также, потому, что пробовал ставить древовидный плагин, не понравилось!
Статья хорошая! Во время наткнулся, так как дубли этого типа ещё не индексированы
. Но вот Гугл Вебмастерс показывает дубли типов "user" и прочих. Как быть?
офигеть... Больше пока ничего не скажу...
Отличный разбор. Одно лишь не ясно: почему ответы на комментарии в этом же комментарии (сорри за каламбур) — это плохо?
Это не плохо, это просто не красиво смотрится. ИМХО!
Спасибо за статью, пошла разбираться и копаться... когда все перекопаю, обязательно поделитесь результатами.
Мощная статья! Переворачивающая сознание
Пойду наводить порядок на своем блоге
Вот это статейка! Читала уставшая посреди ночи и поняла, что все очень страшно и нужно действовать. И чем скорее, тем лучше. Утром, на чистую голову, буду перечитывать и исправлять все косяки
Спасибо огромное за такую бесценную информацию!
Очень актуально! Недавно я заметила, что стало выводится в поиске больше 22000 тыс страниц в поиске у Яндекса! Мало того, получила санкции, забила тревогу и грешила на роботс. Буквально на днях поменяла его, слизнув у Ирины Зайцевой, пока результата нет, все так же. Теперь понятно, поставлю плагин, а древовидные комментарии у меня запрещены. Спасибо за своевременную, но для меня немного опоздавшую статью...
Да... Тут после прочтения статьи выдашь только одно (любимое Сашино слово): ЖЕСТЬ
Прочли, ушли переваривать, утро вечера мудренее)))
Да кстати. Советую статью читать утром!
Блин, Вы как такое на ночь читаете? )))
Приснится еще что нить ночью, не отмашешься )))
Ю П Р С Т. Побежал проверять свой блог. Похоже у меня эта же беда.
Да, беда есть!
У меня самописный сайт. Поэтому я не нашел дублей вашим способом.
Ну так у вас не wordpress все верно!
Все верно. Я жду когда деньги зачислятся на webmoney. Сегодня Ваш курс возьму. Все равно ошибки есть. Да мне и просто нравиться Вас слушать.
Александр, большое спасибо за полезную статью.
Слава Богу у меня дублей таких не наблюдается.
Хотя руки чесались как-то включить эти самые древовидные комментарии.
Теперь, после прочтения статьи, уж точно не включу во веки веков
Здравствуйте, Александр! Большое спасибо за статью, очень интересно теперь проверить свой блог, давно знаю блог Саши Быкадорова, даже страшно стало)))))
У вас все в порядке. Дублей нет. Так как в роботсе все открыто!
Спасибо Александр, все сделала как вы сказали, вот только кнопка "Ответить" с установкой плагина стала не активна. Даже не знаю что делать.
Марина, привет — рад тебя видеть.
Вот видишь до чего я докатился? Меня уже не в пример ставят )))
У тебя там все ок. А я справлюсь, я смогу. я сильный )))
Статья просто СУПЕР! Огромное спасибо Вам Александр! Хотя моему блогу всего две недели от роду, я считаю эту информацию сверх важной! Утром займусь robots_om
Блин, я ведь знал про эти дубли на своем сайте. Искал способ борьбы, но так и забросил это дело. Спасибо, Александр, за подсказку!!!
Станислав 80% не знают.
Мда...ужас ужасный... радует то, что у меня блог молодой...Спасибо за статью, Александр!
Александр,спасибо за содержательную статью.Я внимательно прочитал и проверил все три своих блога.Но Google выдал в ответ на запросы с replytocom по всем трем,что ничего не найдено.Хотя два из них у меня уже более 3 лет и 1 более года,Комментарии имеются на всех от 3500 до 1250.
Заказал Ваш курс на DVD буду изучать,так как доверяю вам как специалисту высокого класса.Два своих блога делал используя Ваш курс "Как стать блогером тысячником" и доволен результатами.Хотя посещаемость за последнее время упала из-за мой лени,стал редко писать в них.
С уважением,Александр
Что же, лучше узнать поздно, чем никогда.
Это точно!
Интересно...
Открою в robots.txt — понаблюдаю.
Вот кнопку пока спрятать не удается — плагин на новом шаблоне работать не хочет
Тогда кодом. В курсе я говорил как.
Да, понаблюдай Сергей. У меня сегодня посещалка с google бъет все рекорды!
Саша, большое спасибо за эту ценную информацию, и за то, что ты потратил много времени на изучение этой проблемы. Буду очень рад, когда трафик твоего сайта восстановится до прежних 6200 и будет расти дальше. Завтра начинаю исправлять эти косяки у себя, благодаря твоим советам. Ещё раз спасибо!
Пожалуйста! Уже пошло дело. Еще нет 12:00, а уже с google 100 человек хотя всегда было 50. А за сутки максимум 170. Поехали...
Александр, здравствуйте! Замечательная статья. Очень полезная и нужная информация всем , а особенно чайникам. Всего тебе доброго и твоей УДАЧИ!
А у меня все отлично. Никаких дублей нет.
Мария все верно! Я вас в статье в пример показал! В видео =)
Ого! А я и не в курсе. У меня интернет настолько "скоростной", что я видео смотреть не могу. Спасибо что сказали ))))) Приятно то как!
Ооооо! Теперь я понимаю, Саша, почему ты написал мне в письме: " Елена! Срочно удали эти две строчки из robots.tst!" Я в шооооке! И спасибо тебе огромное! Теперь мне нужно срочно провести реанимационные процедуры двум моим старым "блогам-жмурикам", которые опрокинули эти чертовы дубли-реплитокомы!!!!! А моему младенцу deklife.ru просто крупно подвезло, что он народился полтора месяца назад. Дублей правда уже успел нахватать, засранец! О результатх медицинских процедур отпишусь позже...думаю они будут оооочень интересными!
Да вам повезло, у вас дублей по минимуму!
Спасибо большое за познавательную статью, у меня только открылся мой сайт, скоро в свет появиться и мой блог, буду знать чего не надо делать. Все мы учимся на своих ошибках и потом со времен их исправляем.
У меня сейчас такое лицо...
Доброй ночи Александр!
Афигеть просто слов нету. Благо у меня еще статей немного на блоге. А трафика с Google действительно очень мало. В основном идет с Яндекса. Спасибо за такой подарок. Теперь благодаря тебе многие блоги поднимут посещаемость и это будет реальный стимул для дальнейшего ведения блога. Вот у кого действительно надо учится как надо работать в интернете.
Саша подскажи какой robots.txt, лучше тот который у тебя сейчас стоит или который ты давал в своем курсе "Как создать блог за час и заработать на нем".
Лучше тот, который сейчас у меня. В курсе Блог за час я его уже тоже положил в доп.материалы.
Я так и подумал и уже у себя заменил на твой. Спасибо!
Александр, спасибо за статью!
Делала блог по Вашему курсу, он не то, что молодой, а только-только родился, соответственно и "соплей" еще нет. Будет ли достаточно заменить только роботс? я его прописала как у вас сейчас. Или лучше еще и 301й редирект прописать и плагин поставить? подскажите, пожалуйста?
Спасибо за статью! Статья просто супер!!!
Александр, ты патриот блогосферы! Так тщательно изучил проблемы и одну подробно описал. Мне кажется, не у каждого на этого хватило бы желания, сил и времени. Но ты относишься к своему делу со всей ответственностью и даешь ценную информацию, что очень похвально. Респект тебе Саня! Спасибо за твой вклад в блогосферу и помощь блогерам!
Эта статья писалась 2 дня
Получился шедевр! Я сам горд за нее.
Статья потрясающая
Других слов нет
Поверил каждой мысли и каждому выводу
Буду с утра покупать курс КСБТ 3.0, тем более, что у меня двойная скидка, как клиента КСБТ 1.0 и КСБТ 2.0
Наверное, уже поздно, так как я не поняла, как от этих дублей избавляться. Завтра с утра разбираться буду. Или я не одна такая ?
Ольга зайдите в google наберите — site:knowabroad.com replytocom. Жаль, у вас 19800 дублей. Это вилы.
Вот так стараешься, стараешься... А получается тут такое дело: чем больше постов и комментов, тем хуже...
Спасибо, Александр за такую полезную информацию. У меня сайт молодой и эта информация очень кстати.
Охренеть просто! (Это я постаралась цензурно сказать). Александр, просто огромнейшее спасибо за статью!!!
Днём на свежую голову попробую внедрить.
Вот оказывается, где начинается нелюбовь гугла. Я тоже в роботс вопросики ставила, думала, не будет индексировать. Я в шоке! Хотя на начальном этапе (может, года 1,5 назад или чуть больше) был момент, когда я боролась с дублями страниц и их число тогда заметно упало. Но всё меняется, походу.
Стала разглядывать свой файл роботс, нашла ещё вот такую штуку: /?s= Тоже надо удалять, получается?
Лена, а у тебя сколько дублей? Наверно, проще все же древовидные отключить...
Лариса простое отключение не поможет. Дубли остаются.
Александр, не могу понять причину: у меня на всех сайтах после replytocom=... идет еще "#respond", поэтому после 301 редиректа это окончание "#respond" остается.
Есть подозрение, что таки образом будут создаваться уже новые дубли!!!!
Подскажите, пожалуйста, как решить проблему?
Лариса, 5200 согласно вебмастеру. Отключать древовидные — не вариант. Я ещё в самом начале блогерства пробовала отключать, но это просто ужасно неудобно с пользовательской точки зрения. К тому же все те комменты, что у тебя уже с ответами, выстроятся в рядок согласно поступлению, представляешь, какой бред получится.
Согласен, отключать не вариант. Лучше поставить кнопку скриптом. Делается быстро!
Елена наберите в google — site:domovenok-art.ru replytocom
15700 дублей. Жесть
Уберите все из роботса, поставьте как у меня. А остальное надо настраивать через .htaccess Про это в курсе 3.0.
Александр, спасибо!!! Жесть не то слово (цензура не пропустит). Иду роботс кромсать
Саща, статья действительно бомба. Загрузил конкретно...
Не могу сказать, что всё поняла, но плагин поставила и сделала нужные настройки пока.
А я-то смотрю, что Яндекс лучше индексирует, и радуюсь: думаю, чего мне этот Google, а там "вон оно чо, Степаныч!"
Проверила твоими сервисами и пришла реально в ужас :)))
Спасибо за науку, Саша и низкий поклон!
И я примерно так думал, пишу себе под НЧ запросы из яндекса и грешил на то, что в гугле другие НЧ, а тут оказывается вот в чем дело.
Шок! Это моё состояние. Читала статью ночью, с особым тщанием, вникая во все детали. Вникла... и мне теперь реально не до сна... Это просто жесть, что присходит. И мне действительно искрнее жаль, блогеров, которые имеют бесценный контент на блоге, огромное количество статей и практически нулевую посещаемость... Вот, к примеру, Александра Быкадорова, о котором вы писали в статье.
Это же сколько времени было вложено, сил, эмоций, а сколько обманутых надежд... ведь верилось, хотелось, оттого и писалось... и время не вернёшь...
Кнопка " ответить" есть и у меня и даже если это также жёстко коснулось и моего блога ( буду проверять завтра днём), то всё- таки мне не так обидно, статей немного и веду его нерегулярно, НО каждая статья написана с любовью и трепетом.
Спасибо Александр, за реально мощную статью, за ваш труд и огромную проделанную работу, а также за стремление реанимировать блогосферу. Поделилась статьёй везде и также рассылаю всем своим друзьям- блогерам. Пусть это будет моей внесённой лептой, в наше общее дело- реанимация (возвращение к жизни) блогосферы.
С огромным респектом к Вашему труду.
Пожалуйста. Мне тоже раельно жалк всех. Я представляю что сейчас начнется когда все избавятся от дублей.
Светлана, привет.
Рад Вас приветствовать. Давно не общались ))) Хоть на блоге Саши увидились )))
Насчет постов и вложенных сил — Вы абсалютно правы, но я к этому отношусь спокойно.
Да, "накосячили", ну что уж тут поделаешь )) Издержки производства, так сказать.
Спасибо, что есть ребята, которые не жадничают и рассказывают о всем как есть.
Саша, спасибо тебе еще раз!
С меня могар на следующих год, как повидаемся !
Можно было и не писать эту "портянку", решение проблемы — установка комментариев Disqus на блоге.
Это не решение проблемы. Дубли останутся все равно. Нужно все равно избавляться от них.
Я древовидные никогда не включаю. По моему эта ситуация с replytocom давно всем известна. Хотя наверно не всем.
Ну если бы была известна всем, повторю, то у каждого 2-го читателя моего блога не было бы дублей.
Статья класс! Сочная. Блог у меня молодой, но replytocom убил в зачатии
Спасибо, Саш! Чувствуется сколько энергии было вложено в данный материал
"А сколько их всего на блоге? Саша ты там еще не в обмороке? Если нет, то смотри дальше. Проанализировав блог Александра через один секретный сервис
, я вижу, что на его блоге всего 26 659 ссылок:"
sollomono.ru
linkpad.ru
Еще на почте стало ужасно страшно-любопытно, что же там за беда такая
Спасибо за статью. Древовидность я уже давно отключила и выводила плагином, но вопросики в robots все еще висят.
Иду чистить. Спасибо!
Татьяна посмотрите видео и вопросик отпадет.
Александр, а в ручную удалять эти дубли никак нельзя? Например через Вебмастер Гугла.
Роботс я подправила. Но ждать пока все сопли исчезнут — это ж состариться можно. Ну... почти
Или если вручную удалять, то могут санкции быть?
Ни в коем случае нельзя удалять через вебмастер — Удаление URL, а то потом весь сайт пропадет в выдаче.
Саша, такой вопрос: "Если ставить редирект в файле .htaccess, а не прописывать скрипт в файле function.php — в этом случае дубли страниц будут выкидываться из индекса? Или можно сделать и то и другое?
Не понял
1. Обязательно надо убрать строки в роботсе.
2. Убрать кнопку Ответить (заменить скриптом или плагином)
3. По желанию htaccess
Про роботс.тхт мне все понятно, и у меня в роботсе изначально таких строк не было, поэтому я спрашивал только про 2 метода избавления от индексации уже имеющихся дублей страниц, а они как раз у меня есть. Кнопку заменил, но плагином не тем, что ты рекомендовал(ошибку выдает) а вот этим: Comment Toolbar Plugin
А зачем потом заменять кнопку ответить плагином, если новый роботс уже будет работать, как нужно?
У кого-то и с нормальными роботсами google кушает все. Так же как и с закрытыми роботсами дублей нет. Так что лучше на 100%.
Да. Это что то! У меня 35 500 этих ... replytocom. Сделала все как здесь написано и все получилось! Радости нет предела, спасибо, Александр!!! Только у вас все понятно и доступно. У меня 5 блогов, попробую все исправить на всех... Главное понятно почему такой маленький трафик с гугла и посещаемость не увеличивается.
Пожалуйста! Ждите взрыв роста в Google.
Как это у вас так быстро все получилось? )))
Я то думал катастрофа, а тут дубли страниц. Да у вордпресса есть такой парок, но дубли страниц, это тема которую проходят в начале обучения ведения блога на вордпрессе. Там есть такая каверза, как сохранение поста в дневнике, это сам вордпресс делает, создаёт дубли ваших записей, эту функцию тоже надо отключать. Дубли конечно тормозят блог, но как я говорил ранее, всё зависит от темы блога, и от умения владельца блога, грамотно и красиво писать статьи, чтобы людям было интересно.
Не знаю где проходят эту тему. Я через 2 года ведения блога узнал про них. Где-то есть школа обучения? А 80% статей про replytocom еже жестче убивают блоги советами по поводу ЗАКРЫТИЯ replytocom в robots.txt
Согласна с Александром, где это вы учились, что сразу узнали при создании блога про дубли страниц?
Во сне
YuuuuuuuHuuuuuuuu!!! — Jackpot! — более чем 22.600 дублей!
Значит это не лыжи не едут...!!!
Честь имею!
УРА!!!!!!!!!!!
Мои поздравления!
Александр — вы просто Гений!
Какая колоссальная работа проделана! Это просто — бомба!
Я давняя подписчица вашего блога. Постоянно заглядываю к вам в гости и нахожу для себя много полезностей.
К счастью, у меня дублей нет, благодаря правильно составленному роботу.
Непременно поделюсь Вашей статьей со своими друзьями.
Мой блог ориентирован на помощь людям старшего поколения и ваши рекомендации как раз кстати. Надеюсь, прочитав вашу статью, новички обезопасят свои ресурсы.
Искренне благодарю Вас за помощь всем блогерам.
Развития вашему Детищу и побольше благодарных последователей.
И еще вопрос, Саша! У меня плагин WordPress Thread Comment работает не корректно и выдает ошибку, при нажатии кнопки "ответить". Поэтому мне пришлось не убирать галочку разрешающую в настройках древовидное комментирование. Однако редирект работает корректно. При таком раскладе будут ли у меня увеличиваться исходящие ссылки с блога, попадающие в индекс гугла?
Если в роботсе не закрыты replytocom то все будет ок, НО! Все таки лучше избавиться от кнопки. Google непредсказуем!
Александр, статья получилась очень классная. В интернете более подробной и понятной просто нет! А главное — действенной!
Ух... спасибо, у меня этих реплетуком 10000, теперь ждать буду, а то я уже почти забросил сайтик свой, была посещаемость 1700, я был рад, когда упала на 300 чел. я был готов бросить это дело, но решил подождать, когда вы напишете этот пост, теперь буду продолжать заниматься сайтом, но теперь долго ждать, чтобы все вернулось...
=) Вам повезло, у меня более 200 000
Александр, спасибо большое за статью! Невероятно полезная информация.
Посмотрел сейчас на свой блог — более 6000 дублей! Это жесть! Пойду сейчас robots.txt перекраивать
Я сейчас зашел в панель вебмастера гугл и увидел, что в статусе индексирования у меня проиндексирована всего 1 ссылка за последний год! А rds-бар показывает 1360. Не пойму, хорошо это или плохо?.. В индексе гугла есть, даже по некоторым запросам в топ-е.
А вот вебмастер от Яндекса показывает "загруженных роботом" 2469 страниц. И тенденция положительная
Проиндексирована 1 ссылка? Странно! У вас роботс странный. Поставьте мой, изучите курс 3.0 и все пойдет в гору с двумя поисковиками. Загружено 2469 страниц это много. Должно быть загружено столько сколько и статье + страниц блога. ВСЕ!
Печалька!
Вот оно счастье , проверил , облом.
Дубликатов нет, (роботс и комментарии изначально правильно были настроены),
Да и в комментариях запрещено указывать свой сайт, убрано поле сайт.
Не светит мне увеличение посещаемости от гугла, соотношение 53,8% яндекс / 40,9 % от гугла , хотя посещаемость радует (5к-10к). Веду правда не блог, а сайт финансовой тематики.
Приобрел ваш новый курс 3.0
Буду изучать новые возможности раскрутки сайтов и добиваться новых результатов, чего и вам желаю!
Спасибо!!!Пошла исправлять погрешности,очень нужен трафик.
Вы прямо окрылили меня.Очень полезная и нужная статья.Все понятно и доступно донесено до читателей.
Проверила сайт,все проблемы на лицо,а я еще все думала,почему Яндекс загружает очень много страниц а индексирует одну десятую. Теперь все ясно стало.Очень вам благодарна,действительно бомба!
Недавно (буквально вчера) закончил оптимизацию html кода моего блога — не знаю как с этими репликами, КОММЕНТАРИИ вроде тоже изменились (Евгений Морозов — нашел твою рекомендацию у тебя на блоге и воспользовался его услугами). Про реплики спрошу у него — сам я вряд ли настрою — каждому свое. Я — Бог в психологии, он — Бог в программировании. Гугл с Яндексом сейчас приводят 50 на 50, еще неделю назад было: 70 на 30. и я считал это нормальным, раз поисковое соотношение в России такое же.
Александр, как показала предыдущая статья и как показывает эта. Вы — опытный рыбак, несмотря на то, что несколько щук срывается, вы все-таки ловите достаточно рыбы, чтобы накормить досыта свою команду — огромный респект Вам :), как психолог пси... тьфу-ты как рыбак рыбаку ответственно заявляю.
Александр, у меня вопрос. В роботс.тхт у меня не было запрещено индексировать дубли, но они все же есть, как я поняла после проверки и ужас как много. Вы говорили, что в вордпрессе дубли не дает индексировать их тэг ноиндекс, но у меня если посмотреть код страницы написано так <meta name="robots" content="index, follow" /> А ведь правильно должно быть noindex. Почему так получается?
Юлия в том то и дело, что надо в роботсе открыть все, а не запрещать. Посмотриет видео!
Александр, так у меня же открыто как раз. В роботсе нет тех самых строк, которые вы говорили убрать
Как нет? Есть!
Disallow: /trackback
Disallow: */comments
Disallow: /category/*/*
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Disallow: /?s=
Disallow: /?print=
И еще момент. Плагин я установила, но при нажатии кнопки ответить ничего не происходит. Вот у вас на блоге, если я нажму ответить, то под тем комментом, где я хочу написать появляется форма для текста, а у меня ничего не появляется, как будто вообще не реагирует
Юлия, если используете плагин WordPress Thread Comment, то в настройках формы комментариев этого плагина в окне Comment Form ID пропишите:
commentform
После этого можно будет отвечать своим комментаторам и проблем не будет. У меня по крайней мере их не было.
Столкнулась с таки ми же затруднениями,ваш совет мне помог,спасибо,все теперь работает!
Спасибо, Сергей, что написали. Но дело в том, что commentform уже по умолчанию там стояло, а все равно не срабатывает
Юля, тогда не знаю. Может конфликтует с какими-то плагинами для комментариев или тема такая. Тут точно не скажу. Попробуйте на локальном сервере протестировать. Например, по одному отключать плагины для комментариев (например, плагины подписки, антиспам и т. д) может появится форма для комментариев.
А вообще, я бы не использовал плагин WordPress Thread Comment. Он уже 5,5 лет не обновлялся, что плохо для защиты и совместимости с новыми версиями плагинов и CMS!
В борьбе с реплитокомами отлично подойдет WordPress SEO by Yoast. Он эти реплитокомы с кнопки Ответить полностью удаляет. В итоге получается ссылка, как в дате. Ну и кроме этого у плагина есть еще много полезных функций. К тому же он вовремя обновляется и совершенствуется.
А причем тут вывод древовидных комментариев (сам процесс их формирования) и этот плагин?
Спасибо огромнейшее, Сергей за дельную подсказку! У меня была та же проблема- не выводилась Форма для комментариев на сайте при нажатии на кнопку "Ответить". А все оказывается так просто!
Сергей, спасибо! Все получилось, теперь и у меня "ответить" заработало!
Если ни чего не происходит, значит нужно обратиться к верстакам, они настроят. Я не силен в java.
А другого, похожего плагина для древовидных комментариев не подскажите, Александр. У меня WordPress Thread Comment не работает, как я с ним не бился.
Я плагин просто как вариант посоветовал. Ребята, все делается парой строк кода. Рассказал в курсе 3.0 Подойдет для 80% блогов.
Дмитрий читайте чуть выше, похожий плагин, но более свежий, Сергей посоветовал.
В исходном коде вижу — <meta name='robots' content='noindex,follow' /> Это все нормально!
В гугле 1000 дублей страниц!!! Збс!!! 😉
Правильно ли я понял, что нужно убрать в роботсе 2-е строчки (2 раза)... и можно на время дышать ровно?!
Да, надо убрать + все таки лучше избавиться от кнопки, replytocom
Большое спасибо как раз искал этот момент.
В исходном коде у меня стоит — <meta name='robots' content='noindex,follow' />
Вроде всё нормально, но почему то при наведении в комментариях (у меня их мало) на любую из кнопок "Ответить", высвечивается внизу replytocom= ... и т.д. но не высвечивается Java seript: ...и т.д... Подскажите пожалуйста кто знает, стоит устанавливать плагин WordPress Thread Comment или оставить всё как есть? Заранее спасибо.
И к тому же с Гугла трафика больше чем с Яндекса.
Олег если не разбираетесь вам лучше к программистам. А вообще курс 3.0 в помощь! Во всем разберетесь!
Спасибо.
А у меня состояние — недоверия... Ни к Вашей статье, Александр, а к тому что ЭТО сработает на моем блоге.
Дело в том, что с гугла трафик лучше, чем с яндекса — это раз.
Когда проверяю по Вашей схеме сайт в гугле, то не выдает никаких результатов, то есть получается дублей нет? Но на сайте replytocom — есть.
И третье — страх сделать еще хуже...
В общем, не буду бросаться все переделывать, а лучше подумаю над этим денек-другой.
Но в любом случае — за информацию спасибо.
И нашла у себя в роботсе вот такую вот директиву:
Disallow: /*/?replytocom=*
Её получается нужно снести?
У вас дублей я не вижу. Да, лучше уберите эту строчку. А кнопочку лучше все таки сделать скриптом.
Спасибо, пошли править. Я такие "вложенные" комменты уже видела на других сайтах. Значения особого не придавала, а зря
Не ожидал, что мой сайт будет упомянут в этой статье. Спасибо Александр.
Подтверждаю, что дубли с replytocom очень негативно влияют на поисковую выдачу. После удаления дублей на моем сайте, поисковый трафик с Google вырос в два раза.
Я тоже написал об этом статью, где рассказал, что именно я сделал.
Василий вас блог тоже был однажды под моим особым контролем
Был изучен от А до Я!
У меня две строчки:
Disallow: /*?*
Disallow: /?s=
Их обе сносить? Я дублями страниц озабочена уже некоторое время, все вы написали, Александр, правильно — стоит посещаемость, хоть тресни, и было подозрение, что с роботсом непорядок. С работы приду, буду статью, как "Отче наш" изучать. Спасибо вам, работу вы проделали огромную, и для нас, бедолаг, стараетесь.
Да Галина. Снесите все.
Саша, спасибо вам огромное! Вы — лучший друг всех блоггеров!
Блин, и у меня была такая проблема, даже не обращал внимания на эту кнопку "Ответить". Хорошо, что узнал и оперативно исправил. Больше этой проблемы нет. Спасибо, Александр
Классный пост.Спасибо!
Интересно, странно, я думала что счас я что-то изменю и мой сайт пойдет вверх, но по запросу мой сайт на replytocom выдал "ничего не найдено", я даже расстроилась. Ну хорошо, что я узнала об этом сейчас
Александр, почему вы на выходных не написали статью с новым продуктом? счас с понедельника некогда этим заниматься
Вы кстати еще один уникум у кого есть replytocom, в роботсе все закрыто, а в выдаче нет дублей. Повезло. Но это везение может быть не вечно!
Спасибо, Александр, с вашим новым курсом буду исправлять сайт пока он еще не вляпался.
Интересно посмотреть вашу посещаемость за сегодня, наверняка Гугл оценит
Сегодня будет рекордная посещаемость. Почти 300. Хотя раньше только 160. То есть пошло в верх все.
Александр,подключила плагин,отключила древовидные комментарии,но у меня при нажатии на "ответить" какое то окошко выскакивает ERROR:cant find the commentfomid div Наверное что то не так сделала.Что мне сейчас сделать?Спасибо!
Александр,все получилось,исправила,благодаря прочтению и советам вышенаходящихся комментариев Сергея.
Вот у меня такой же трабл, Алевтина! Я пошарил в инете и нашел замену этому плагину, вот этим: Comment Toolbar Plugin — тоже кстати можно скачать с официального сайта wordpress, установил и работает отлично. Попробуйте, может вам он тоже подойдет!
Алевтина это вам к верстальщикам. Они 100% помогут!
Здравствуйте, Александр.
У меня нет в выдаче такого мусора но есть проблемка:
<meta name='robots' content='noindex,follow' />
У меня index стоит.
У вас уже все нормально
Спасибо за проверку;) А в сеолибе проверил и страниц в доп. индексе показал 66% Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.
Но дело в том, что на сопли по вашей ссылке в выдаче гугла проверял и ничего не оказалось. На что грешить: на сеолиб или на гугл?)
Ух...ты вот это новости!
Благодарю! Бежим наводить порядок!
Мне вот интересно еще другое, как ты Саша пишешь такие статьи в 30К знаков.
А именно, буду благодарен, если ответишь на следующие вопросы:
1. Все ли написал сам?
2. Сколько времени ушло, чтобы написать такаю статью?
3. Сколько средств затрачено на аутсорсинг?
Эта статья особенная.
1. Сам. Здесь все статьи на этом блоге мои.
2. 2 дня.
3. Ни сколько.
Александр, а в какое место function.php нужно вставить код? Я добавила в конец, так весь этот код вылез над шапкой сайта.
В смысле в function.php )) Туда ни какой вроде бы. Если вы про 404, то в начало между <?php
Да, про 404. Это ж для того, чтобы дубли быстрее исчезли, правильно?
Это просто как вариант. И редирект и 404 все равно. Можно вообще ни чего не использовать. Главное открыть robots.txt и убрать кнопку.
Ага, после <?php получилось, спасибо!
ФУУУ вроде проверил нету дублей. Насколько я понимаю, если у меня стоит виджет CACLE (как у тебя вверху) то, как бы это сказать, все комменты находятся на стороннем ресурсе и дублей не должно быть??? Или я чего то не понял???
P.S. Кстати да при переходе по ссылке из письма вылетает какая-то ересь и антивирус не хочет пропускать на сайт.
Кал это совсем другое. Не относится к стандартным комментария wordpress.
Да, там смарт глючил.
Я давно читаю статьи на блоге Александра, и думаю начать свой блог. Но я сомневаюсь воспользоваться мне ВордПрессом или самому создавать коды страниц. После этой статьи я понял что все коды лучше делать самому, тогда не возникнет таких проблем и уникальность будет высокая.
Нет, лучше пользоваться wordpress. Поверьте!
А если использовать clean-param в роботсе?
Он же как раз и нужен для борьбы с дублями GET запросов.
Про это не знаю если честно!
Спасибо! А я давно заметила эти дубли, но не понимала, почему они возникли и как от них избавиться. Все рекомендации учту.
Хорошая статья Александр, но немного не по теме, я подписан на Вашу рассылку и мне на почту пришло Ваше уведомление о статье, я начал переходить, но яндекс обнаружил на Вашем блоге, вредоносный код, примите к сведенью и проверьте блог на вредоносные коды, этот код часто встречается в банерной рекламе, в счетчиках посещаемости и так далее.
Это браузер на ссылку от смарта ругался. Я сегодня другое письмо отправил!
А я с самого начала отключила выдачу древовидных комментариев и установила плагин WP Thread Comment. Посещаемость с гугла достигала 1000 чел зимой, сейчас немного упала. Дублей у меня сейчас 41, но, наверно, по другим причинам. Вот не знаю, стоит ли менять роботс?
Ольга посмотрите мой курс и поймете. В роботсе конечно уберите, сделайте как у меня. дубли уйдут еще быстрее.
Большое спасибо за статью! Уже несколько месяцев тоже искала причину "ступора" с развитием блога. Чтобы исключить дубли страниц, редактировала роботс, закрывала категории и другие разделы... А, получается, его опять править нужно:)))
Я правильно поняла, что из Роботса нужно вообще удалить эти строки:
Disallow: /*?
Disallow: /*?*
Слова replytocom в этом файле у меня вообще нет.
И, конечно, в настройках Вордпресс древовидные комментарии лучше отключить. Я все правильно поняла?)
Отличного начала недели и заранее спасибо за ответ!
Да, все верно! В настройках можно не отключать, надо кнопочку ответить заменить на вывод скриптом!
Саша, С-П-А-С-И-Б-О!!!
Cпасибо за интересную статью! После проверки дублей оказалось, что у меня тоже есть эти же самые дубли. По Вашей рекомендации отредактировал файл Robots.txt- у меня была только строчка-Disallow: /*?* — убрал. Также в файл .htaccess добавил редирект. После этого сайт немного поглючил-перестал отображаться, а после более внимательного редактирования стал работать. Плагин WordPress theread comment пока ставить не стал. На сайте автора написано, что он 2 года не обновлялся. Теперь буду ждать, когда ПС удалят дубликаты страниц. Еще раз спасибо!
Саша, спасибо за курс! Многие говорят, что проблема replytocom давно всем известна. Это так, но не все представляют последствия, и тем более не все знают, как с ней бороться. Я вот давно знаю, что это плохо, но не хотелось отключать древовидные комментарии, ведь это удобно, особенно для блога.
У меня, как и многих, тоже трафик с Google упал с февраля 2013 года. Все не мог понять причину. Дубли имел в виду, но все же надеялся, что не это главное. Продвигать статьи кое-как умею, значит дело не в оптимизации. Решил, что просто Гугл не особо жалует блоги о SEO и заработке и успокоился. Смотрю почти у всех такая картина — подумал, значит просто такая тенденция, раз у всех, то не страшно. Теперь смотрю на все совсем другими глазами.
Реально этот курс самый полезный из всех курсов по настройке WordPress, которые я видел! Реально круто
! Завидую новичкам, у них есть шанс сразу все делать правильно. А я 3 года назад тоже думал, что делаю правильно... и все так думали. Тоже "правильный" robots всем советовал...
Было бы хорошо, если бы ПРАВИЛЬНЫЙ robots был для всех изначально правильным.
Так он у меня правильный и для всех один!
Значит, можно смело брать ваш и ставить себе без внесения каких либо изменений?
Только ompin уберите.
Саша, а что означает директива Disallow: /ompin в Вашем robots.txt? В интернете не нашла, если брать Ваш robots.txt эту строчку сохранить или не нужно?
Странно, я проверил как вы указали в гугле на дубли, я так понял у меня их нет ? Гляньте пожалуйста — netboleznej.ru один из моих сайтов, я даже ОТВЕТИТЬ не могу открыть в новом окне...
Да у вас нет!
Саша, прочитала статью внимательно. О дублях задумалась около месяца назад. При общении с блогерами узнала, что у некоторых при проверке траста сайта выдаются дубли. У меня этого нет. В таких технических моментах я плохо разбираюсь. По статье проверила методом сравнительного анализа. Когда открыла блог Александра, то у него при проверке скрытых страниц перед его именем стоит "Ответить". Проверила, как у тебя. Перед УРЛ нет этого "ответить" А внизу после УРЛ страницы:
"Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее..." У меня тоже так, как у тебя. Правда некоторые ссылки с УРЛ заканчиваются № статьи. Не знаю, правильно это, или нет. Но тему эту последнюю я поставила в конце января. До этого с сентября по декабрь с "модернизацией" и всякими настройками сайта умудрилась 4 раза "уронить" сайт до нуля. Может это отголоски еще прошлых моих рукотворств. Сижу и не знаю, что делать. Есть эти самые дубли у меня или нет.
Любовь у вас более 6000 дублей. Посмотрите видео. Или курс 3.0
Александр, РЕСПЕКТ
Грамотно подошел к презентации КСБТ-3, прямо загорелось прикупить себе его. Цена правда кусается маленько.
Цена должна быть на такой курс около 10к. По идее... Я курсы смотрел по SEO за 17к. Все то же я вам сказал в курсе )))
Ого себе, расценочки! Но самое главное, что я уверен в качестве твоего курса, так как смотрел другие. Куплю всетаки
Жизнь живи жизнь учись, как говориться.
У меня, кстати и с дублями все было нормально, но все же последовал твоему примеру. Спасибо
У тебя более 3000 дублей
Да я в курсе, что их море, давно уже заметил. Я обычно все сравниваю с твоим блогом, глянул как-то, у тебя их тоже куча была, вот и не стал заморачиваться
Я тоже не заморачивался раньше, а щас заморочился.
Александр, спасибо за статью. Хоть у меня и нет потерь, из-за которых я могла бы огорчаться, так и блог недавно веду, и посетителей нет, но все равно, спасибо, что ты такой человек, что и сам трудишься много и зарабатываешь, и другим стараешься помочь. А знаешь, кто много дает другим, тот и сам получит много. Я запрашивала в Гугле о моем сайте, он ответил, что у меня все нормально. Я зашла в настройки блога и убрала галочку, разрешающую древовидные комментарии. Этого достаточно или нет?
Валентина у вас 64 дубля. далеко еще не ушли. Вам надо еще в robots.txt убрать:
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Ну, надо же! И когда это я успела? Я считала, что если у меня мало посетителей, то и дублей не будет. Большое спасибо, Александр! И как ты знаешь, что у меня там делается? Всех благ тебе!
Проверил согласно статье.
Спасибо огромное! Глянула у себя и правда — жесть, а я думаю, что с посещаемостью, на лето, да, грешила... Ценная статья, пойду поделюсь с остальными.
Александр. Удалил из robots.txt не нужное. Теперь дубли страниц разрешены роботу, но в коде страницы я не нашёл <meta name='robots' content='noindex,follow' />. Как быть?
Вот это да! У меня аж 59 400 этих зараз!!! Мой поклон тебе ДОРОГОЙ ТОВАРИЩ !!!
Дорогой Александр, у меня в robots.txt в двух местах есть эти
Disallow: /*?*
Disallow: /?s=
Скажите пожалуйста, их везде убрать к черту да? Заранее благодарю за ответ!
Да, убрать!
Саша, а у себя ты забыл убрать строчку Disallow: /*?*
Проверь 4-ая сверху
Нет, я спецом оставил. Эксперимент у меня сейчас идет. Действует ли Alow или нет.
Саш, дай, пожалуйста ссылку прямо в статье на файл robot.txt (чтоб скачать)
Хорошо, что ты его в материалы к бесплатному курсу добавил добавил.
Думаю, не мне одному пригодится. 😉
Дак мой посмотреть можно и все. Только ompin убрать )
Бодрая статейка. Пару сотню дублей обнаружил.
Саша, скажи, пожалуйста, достаточно закрыть кнопку "Ответить" nofollow и открыть в robots.txt доступ роботу? Без редиректов и 404?
Да, достаточно по идее. Кнопку не nofollow надо закрывать, а скриптом.
Александр, странное у вас зеркало домена...Автомобильный сайт...Или это глюк какой-то на linkpad?
Глюк линкпад.
Добрый день! Спасибо за статью.
У меня на запрос в Гугле выдается вот такая инфо
По запросу site:razpetelka.ru replytocom ничего не найдено.
Рекомендации:
Убедитесь, что все слова написаны без ошибок.
Попробуйте использовать другие ключевые слова.
Попробуйте использовать более популярные ключевые слова.
Попробуйте уменьшить количество слов в запросе.
Надо понимать — дублей нет или что-то другое?
У вас все хорошо!
Спасибо, порадовали.
Действительно мощная статейка, спасибо!
Но дто не единственная причина почему блоггеры сдуваются, просто у большинства пыл заканчивается и лень самому писать статьи
Я скоро видео запишу как побороть лень.
Александр, с robots.txt у меня всегда проблемы. Что в моём сейчас лишнее. Вроде бы о том, что Вы говорили нет. Хотя посмотрите, надеюсь на ответ:
ФАЙЛ ROBOTS.TXT УДАЛЕН АВТОРОМ БЛОГА
Дмитрий возьмите мой роботс и поставьте к себе.
Он подойдёт без проблем?
100%
Большое спасибо за Ваш труд и помощь нам. Сегодня все сделала так, как Вы написала в своей статье. Заодно исправила ошибку в robots.txt. Надеюсь, все будет в порядке.
Александр, Гугл ничего не нашел.
Я использую Cackle для комментариев.
Он не нашел, а я нашел ) Но не replytocom
Другие дубли.
Александр, здравствствуйте! Буду банальна: спосибо огромное! Оно и за статью и за видеокурс "Как создать блог за час". Уже давно хочу Вас поблагодарить, и не знаю где) Ведь у меня получилось, допоследнего не верила, что это возможно. Но пока в большей степени пытаюсь разобраться что же я такое сделала, чем пишу в блог
Очень приятно, что Вы подаете все очень простым языком и детально. Увидев объем сегодняшней Вашей статьи и, я прямо испугалась, что не соображу о чем речь.
Что же, написали Вы доступно, даже до меня дошло. Пойду исправлять.
Еще раз СПАСИБО!
Саня спасибо огромнейшее за статью! У меня хоть комментариев сейчас немного не блоге, но все они, увы, сожрались Гуглом. Через оператор site проверил. Только я вот одного не могу понять, прочитал статью, а конкретно пошаговый алгоритм избавления от replytocom как-то размазан. Можешь кратко по пунктам сказать, что сделать? Спасибо и удачи в развитии
Максим, здравствуй! Тоже прочитал и с первого раза показалось размазано. Но прочитал второй раз. посмотрел видео, всё предельно понятно и стройно. Сделай также.
Точно! Макс посмотри видео и все поймешь!
Александр, спасибо за предупреждение! У меня нашлось восемь дублей. Спасибо что еще не далеко зашел . Но у меня директ 301 не работает. Залил две строчки, как и положено в htaccess. Сделал их пятой и шестой строчкой согласно видео. Но результата нет Плагином не хотелось бы нагружать сайт. А человечество блогеров обязано тебе поставить памятник при жизни. Это сколько же ты блогеров спас от разочарований и напрасной работы!!! СПАСИБО,
Николай, я не знаю как у вас там в .htaccess, напишите может в поддержку.
Николай, я поставил первыми двумя, работает.
Александр, у меня та же самая проблема была — ваше решение помогло, спасибо!
Боюсь,Александр, что фото блогера, которое вы разместили как раз соответствует выражению моего лица. Да, я уже вторую неделю пыталась что-то делать но наведению порядка с replytocom . Технические вопросы для меня, как высшая математика для первоклассника, но что-то успела "нахимичить". Те ссылки на комментарии, которые раньше показывали 404, теперь открываются текстом, а проверила в Гугле вебмастере, то количество replytocom шкалит — 17019!!!!
Купить курс, который вы предлагаете, не проблема, только боюсь, что это, как обезьяне дать сварочный аппарат: или себя сожжет, или кого нибудь!
Мне бы спеца найти, чтобы исправил мой косяк за соответствующее вознаграждение...
Елена курс вам покажет все. Уберете не только replytocom, но и другие дубли, которых я у вас нашел ого го сколько!
Да, тоже совершала все эти ошибки, так что теперь понадобится время, чтобы дубли ушли, а я все пыталась понять, почему я принимаю меры, а дубли не исчезают. Теперь ясно.
У меня стоит плагин Seo by Yoast и там есть функция удалить replytocom, ее тоже включила, но развернутые ответы в этом случае перестанут работать, если нет javascripta, но у меня к счастью работает.
Евгения если бы ваш плагин работал, то у вас бы не было более 14 000 дублей
Саша, просто замечательная статья!
Помоги разобраться с моим robots.txt
ФАЙЛ ROBOTS.TXT УДАЛЕН АВТОРОМ БЛОГА
Сергей возьми мой роботс и все.
По запросу site:мои сайты.ru replytocom ничего не найдено. Значит все ОК???
Да, у вас все ок.
Наверняка и на disqus.com есть такие же проблемы, что на wordpress-е... В любом случае, благодарю за инфо.
Нет, там нету.
Прочитала письмо из рассылки Александра и попала на эту статью блога. 2 года ничего не писала на своем блоге. А тут сразу открыла админку и стала рыскать в соответствии со статьёй. Фух, replytocom не нашла, на всякий случай отключила древовидные комментарии.
С остальными потом разбираться буду
Огромное спасибо
А у меня в исходном коде любой статьи нет такого
<meta name='robots' content='noindex,follow' />
Он точно на всех ворпрессах есть?
и с дублями непонятки пишет
www.hronicheskiy-pankreatit.r...lo-world.html?re...
Описание веб-страницы недоступно из-за ограничений в файле robots.txt.
В роботсе убрала что Вы сказали, все равно так пишет.
Что это означает. Пожалуйста объясните. Не могу понять есть дубли или нет?
Кстати у меня было вкл. древоидн, комментарии, но кнопки "ответить" не было само по себе. Сейчас еще поставила плагин WordPress Thread Comment вот теперь появилась кнопка "ответить"
У вас все нормально, дублей нет!
Спасибо огромное !!!!!!!!! Уф-ф-ф!!! Аж легче стало! Блин, какой Вы умница!
А вам не нужны любые страницы. Вам нужны страницы replytocom
Саша, подскажи, с помощью какой проги ты снимаешь видео с экрана?
Камтазия студио!
Спасибо, не рискнул перебирать. Проще спросить у опытного )
Плюсанул, нужная статейка! Благодарочка 😉
Да, есть при такой проверке моего сайта 7500 результатов в google, но называть это дублями, в прямом смысле, я бы не стал. Там ведь даже снизу каждой есть надпись "Описание веб-страницы недоступно из-за ограничений в файле robots.txt". Поэтому гугл и отправляет эти страницы в дополнительный, а не основной индекс. Трафик на мой сайт как с гугла, так и с яндекса вполне нормальный, эти страницы этому явно не мешают. Статья на мой взгляд напускная, не надо на людей ужас наводить. Даже если они и избавятся от этих страниц в дополнительном индексе гугла, боюсь это никак не повлияет на трафик. А теперь по тому что вы советуете: убираем строчки из robots.txt: т.е. после этого уже и гугл и яндекс свободно индексируют эти страницы без всяких ограничений, заносят их в основной индекс, и теперь у вас уже по настоящему куча в прямом смысле дублей — так их теперь я могу назвать. И это уже полная ж...
Иван! Я вас прошу, не сбивайте с толку новичков а? Ок?
Сначала изучите эту тему как я пол года, а потом говорите. на всех дублях replytocom есть метатег noindex и тогда ни какие дубли не идут в выдачу. А сопли опаснее кучи страниц в основном индексе.
Во-первых сопли не опаснее кучи дублей в основном индексе, это как оптимизатор вам говорю. Во-вторых "на всех дублях replytocom есть метатег noindex" — у меня такого тега нет, только что проверил, где вы его нашли?
Будь по вашему
У вас кстати нету noindex вот это прикол. первый раз вижу такое. Что-то в движке значит. Может all in one seo не так настроен.
Александр, у меня их два: один разрешает, второй запрещает. Наверное в итоге будет разрешено. Что делать?
Саша, у меня при проверке в ЯндексВебмастере пишет "разрешены" (проверял всё по видеоуроку), но дубли всё равно почему-то есть. Почему?
P.S. БлагоДарю за статью)) Установил плагин для кнопки "Ответить"))
Запрещены:
Disallow: /*?*
Disallow: /*?
Спасибо, Александр, за такую полезную статью! У меня с некоторых пор резко упал трафик, но я решила, что это из-за того, что перетащила блог на другой движок и провела редизайн. Я была в шоке, когда увидела в результатах анализа, что у меня 65% дублей! Статьи пишу сама, с дополнительным индексом google разобралась, а дубли откуда-то берутся. Теперь понятно, откуда ноги растут. Но меня еще один вопрос волнует: до сих пор висит в Сети блог на blogspot, который, практически, полностью скопирован с моего. Причем, вор даже не потрудился убрать статьи, где есть мое имя.Помимо этого, много статей растиражировано под другими именами, не раз отлавливала этих воришек. Может ли этот факт нанести серьезный урон блогу?
Может. Напишите в блогспот пожалуйтесь.
От души Александр, кто предупреждён, тот вооружён, у себя всё поправил.
Александр, не понял две вещи:
1 Надо ли для Яндекс тоже убирать запись из robots.txt?
2. У Вас сейчас стоит 301 редирект в htaccess? Если да, то не будет ли негативно сказываться такое огромное число 301 редиректов (более 10 тыс.)? Ведь это тоже не очень хорошо, тем более в этом случае робот так и не увидит на страницах с replyotocom запись noindex, follow — ведь он на них физически попасть не сможет.
1. Надо! Возьмите мой роботс.
2. Не будет. Редирект идет на мой же домен, а не на другой.
У меня сейчас 22 тысячи этих ужасных дублей...Но очень надеюсь и жду, что благодаря твоей помощи, Саша, они скоро исчезнут ...
Саш, а у меня в роботс.тхт вот такие строчки:
Disallow: /*?*
Disallow: /?s=
Allow: *?replytocom
Не помню уже кто мне посоветовал поставить именно Allow вместо Disallow и Гугл не показывает, что есть дубли replytocom.
Но RDS бар тоже показывает много ссылок, есть ссылки с записью /feed, немного с /trackback и как я понимаю, много ссылок на изображения. с хвостиком img. Нужно ли избавляться от них? И как?
Да, конечно нужно от всего избавляться. Весь шлак и мусор в топку. В выдаче должна быть главная, все страницы, все статьи. ВСЕ! Вот в курсе КСБТ 3.0 я показал как сделать так чтобы только это и осталось, остальное в мусор.
А с древовидными комментариями у меня тоже какой то глюк происходит. Когда их отключаю в настройках, то просто комментарии все выравниваются друг под дружку, а кнопка "ОТВЕТИТЬ" не исчезает. А если еще включаю плагин WordPress Thread Comment, то появляются две кнопки "ОТВЕТИТЬ". Странно...
Ольга вам уже все сделали
Понятно:)
Спасибо, Александр! Взяла ваш robots.txt и плагин установила.
Только не нашла у себя <meta name='robots' content='noindex,follow' />
Большое спасибо за такую развернутую и очень нужную и полезную статью.
Видно, что вы постарались очень хорошо над ее созданием. Все сделала как в видео. Теперь дубли не страшны
Да я сам догадался, убрал уже давненько дубли. Жаль что не что не сказано про яндекс. Яндекс тот еще выдумщик например у вас на блоге тоже ошибка есть, в следующие 2 апа проанализируйте какие страницы попали в выдачу яндекса и удивитесь) я как то писал в предыдущем посте но меня наверное Александр не воспринял серьезно) есть еще тайны вордпреса
Удивительно почему я не продаю курсы по раскрытию всяких тайн и оптимизации и даже не веду свой блог.
Андрей буду благодарен если напишите про ошибку, но по идее все четко у меня.
Кстати проблема по серьезней будет.
Я так испугалась, когда нашла в комментарих этот злополучный replytocom. Но по запросу Яша и Гугл говорят, что у меня такого не найдено! То есть каким-то чудом этот replytocom никуда не попадает. Наверное, что-то чудесное у меня на сайте уже есть...
Спасибо за информацию, Александр! У меня 6500 дублированных страниц.
Взяла ваш robots.txt и плагин установила.
Только не нашла у себя <meta name='robots' content='noindex,follow' />
Саня, друзья, привет. На связи легендарный Александр Быкадоров )))
Начну по порядку.
1. Саня, огромнейшее тебе спасибо за конкретный разбор моего блога — это дорогого стоит, на самом деле. Думаю объяснять не надо почему. Я ждал этого момента, когда придет кто либо и сделает разнос, вот и дождался — супер ! А то хвалебные песни про мой контент и пользу для других начинал расслаблять )))
2. Начинают все входить в ступор и офигевать, как же так... Что делать? Что — что... Вешаться, естественно )))
Да нифига ничего не делать ))) Исправить ошибки и идти дальше ! Лично я это и собираюсь сделать. Блогговодство это такой же труд и успеха тут добьются вожделенные 3-5%, и я буду в их числе. И если хотите — я уже в их числе )))
3. Радует одно — во внутренней статистике не все так печально. Рост ссылок есть, но есть и прирост трафика с Гугла, а поэтому: исправлю и все наладится. Мне не привыкать.
4. Я стою на пороге смены дизайна и 100% новой верстки блога. Вот только думаю, обратил бы внимание на это мой верстальщик или нет? Как по мне — фигушки )))
5. Рост посещаемости был слабый и я нутром чуял, что причина именно техническая. Ну не может на блоге с 270 уникальными постами и 5000 комментариями быть посещалка в 300 уников, это мало. Таким образом за эти 2 года я выработал чутье на это дело, а вот опыт подвел...
Поэтому друзья, все нормально — работаем, внедряем, слушаем грамотных парней и набираемся опытом.
Заходите на блог, смотрите как надо все быстро исправлять!
Всем удачи друзья, и отличного настроения.
Здравствуйте, Александр. В апреле этого года я создал блог по вашему видеокурсу, спасибо большое. И почти с самого начала я обратил внимание на этот вопрос, довольно долго изучал, вследствие чего у меня родилась статья, где решил проблему совсем другими способами. И они тоже рабочие, поскольку дубли страниц replytocom перестали появляться. Кстати, в Гугле также добавил параметр feed и они также исчезли. Но у меня вопрос: в robots /*? запрещает индексировать не только ?replytocom, но еще и URL такого вида- /?p=132, которые в не меньшем количестве могут быть сгенерированы движком. Получается, расправившись с одними дублями, расплодим других.
Классная статья.Обнаружила у себя огромное количеству дублей комментариев. Все сделала:убрала древовидность,поставила плагин и редирект. Правда не решилась сносить все запреты в роботсе,убрала только те,что касаются комментариев.Спасибо огромное.
Галина вы видео смотрели? Роботс это самое главное. Ни чего не уйдет если его не поправите.
Файл robots.txt уже изменил, ещё собираюсь добавить 301 редирект, только ещё раз прочитаю статью. Спасибо за информацию.
у меня в robots прописана эта строка: Disallow: */replytocom. Дублей в google нету. Может повезло?
Повезло!
Александр спасибо. Отличный подарок для подписчиков и друзей. Вероятно кто то пойдет глотать таблетки и пить корвалол, а я пойду выкурю сигарету и буду бороться с дублями.
Александр! Вот что у меня в Robots.txt:
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Disallow: /?s=
И никаких replytocom там нет. Может, мне повезло?
А если нет файла htaccess что делать как его создать? И еще вопрос ссылок много а древовидные комментарии отключены, что не так.
htaccess должен быть, он лежит в корне блога, а не темы.
Нужно смотреть какие ссылки, убирать массу.
Александр, а вот вы написали про дубли, а у вас на главной ссылка читать запись полностью дубль не создаёт? Может её тоже стоит сделать через скрипт?
#more-6594 не создает дубль, так как то что идет после решетки роботы не индексируют (и решетку тоже).
Есть официальный пруф от пс?
Что такое пруф?
Артем ты кстати в курсе что ты до двумя фильтрами google и yandex?
Нет не вкурсе, какими фильтрами?
Я купил ксбт 3, начал изучать, сразу увидел что у меня такая же фигня, как и у тебя, Саша, была. Но только мой блог пс пока не наказали за это. Сейчас буду решать дти проблемы и думаю наказания не будет мне
А про какие фильтры речь? У меня вроде позиции растут, вот был ап яндекса, трафик до 500 посетителей поднялся.
Посмотри видео — моя история самоубийства блога. Ошибка №3 ))
Про редиректные ссылки я уже посмотрел, приятно кстати.
Исправлю
Александр! Гугл мне выдал 16000 страниц с replytocom , однако на вебмастере яндекса введенные адреса разрешены. Значит, у меня все в порядке и не надо ничего менять?
16000 значит надо срочно что-то менять.
Убрал из Robots запрет на replytocom, добавил 301 редирект (хотя немного опасаюсь его). А у вас на видео в фафле .htaccess RewriteBase / прописан 2 раза. Не лишний 2-й?
Возможно лишний кстати!
Александр, большое спасибо! Потрясающий урок! Все про меня! Блогу 1,5 года, совсем начала падать посещаемость. Порой сама и другие не могут зайти на сайт: появляется окно, что сайт перегружен. Уже не раз писала в службу спринхоста, но ничего толком мне не подсказали. Но когда зашла в вебмастер, увидела, что творится, стало страшно. Блог забрасывать не хочу. Скачала и установила WordPress Thread Comment, но ( может быть не тот скачала?), нигде не найду "настройка". Что вы мне подскажете?
Таисия по поводу плагина. Я советую обратиться к верстальщику, он вам все сделает. В плагине настраивать ни чего не надо, установили и все. В админке — настройки обсуждения отключили деревовидные комментарии.
Классный видеоурок! Саня, у меня все эти правила стояли в robots, я их удалил наф... Еще у меня в Google инструментах прописано правило replytocom, наверное и там удалю. У меня и другие правила в robots стоят. Этот файл у меня вообще очень длинный. Как думаешь, может просто взять robots какого-то успешного блога и поставить его к себе?
За редирект спасибо! Сейчас поставлю.
Возьми мой и все. Посмотри курс и сделаешь все остальное.
Спасибо! Так и сделаю.
А если у меня вот так написали — По запросу site:superelenka.ru replytocom ничего не найдено.
Значит это хорошо?!
Elenka, у Вас в поиске Google 2 870 страниц. Это по вашему хорошо? Удаляйте правила в robots не пожалеете!
тогда почему мне так написали????
Спасибо ! Я проверил у меня 23 дубля получилось, думаю куда же трафик с гугла ушел, а тут вон ано что )
Александр, а у меня УРЛ страницы с комментарием заканчивается вот этим: #respond и когда я сделала редирект, то и редирект происходит на страницу, где в основной УРЛ добавлен этот респонд. Что это и как от него избавиться? Ведь получается, что дубль все равно остается?
ой, как интересно и... страшно! только не знаю, я хотела проверить, а мне не выдает ничего на мой блог... может, я одаренная?
Да, у вас все ок!
Александр! Я сейчас посмотрела свой Robots.txt:, там нет replytocom. А в вебмастере -есть. И комментарии разрешены. И гугл выдает "Результатов: примерно 24 000 ". Теперь я понимаю, отчего проблемы у меня на сайте. Что мне теперь делать: убрать эти в анализе вебмастера? Раз в Robots.txt — replytocom нет?
Ох, уж мне эти дубли.
Полгода с ними борюсь, прикольно скрин своего блога увидеть
🙂
Я использую плагин, новые дубли не возникают, хотя старые еще не все вылезли с индекса.
Николай быстро у тебя они ушли! Почти все кстати!
Спасибо большое за статью. Роботс поправил, правда у меня дублей всего 4280, но и статей всего 165. А можно вопрос, редирект 301 обязательно делать или нет? Если дубли уйдут, то новые и не появятся, смысл редиректа?
Да вообще 404 и редирект не обязателен. Это просто как фишки. Главное открыть все в роботсе и на всякий пожарный ))) убрать кнопку ответить.
В общем отпишусь о результате, все дубли реплитуком ушли ( было4280 на 179 статей сайта), в вебмастере гугла, в статусе индексирования было 1017 страниц, на данный момент 324. Посещаемость на тот момент была 130-150 человек, дошла до 350-360 человек, т.е. результат уже был и довольно таки неплохой, но 23-го сентября, как я понимаю сайт попал под фильтр Панда и с того дня по сегодня, всего лишь 10-20 посетителей с гугла(((( Остальных дублей было немного (feed и page, а tag я до последнего не убирал, так как на кулинарных это нужное) они потихоньку уходят, их не много там осталось. В общем не знаю, из-за резкого ухода большого числа дублей или это просто совпадение, но есть что есть. Смущает именно то, что рост был. Может наказали и за рекламу, кто его знает, ручных мер по сайту принято не было(((
И забыл ещё спросить, вот такую красоту тоже надо убрать или оставляем? Disallow: /?s=
Убирайте.
Александр а скрипт комментариев SV KAMENT вроде бы не создает дубли?! Или я ошибаюсь?
Скрипт SV KAMENT это вообще к теме не относится. Там дубли не создаются потому что там просто код вставляешь в шаблон и все.
Ох и статейка! Саня мега мощно. Спасибо!
И кстати у вас смысловая ошибка:
Ну 25 000 дублей умножим на примерно 6 000 исходящих ссылок = 150 000 000 исходящих ссылок. Мне сейчас станет плохо! ))) Слава богу все не успели залететь в индекс:
Это не исходящие ссылки, а внутренние =)
Артем ты слишком много ошибок ищешь у меня на блоге. А ссылки не внутренние, а исходящие. Внутренние это свои.
Саша классная статья. У меня статистика упала вообще. Я уже стал задвигать на блог. А тут твоя статья. О думаю, вот в чем проблема, но посмотрел в гугле, вроде все нормально, соплей вообще не показало, может конечно я что-то не так сделал. Можешь глянуть.
А вообще то ты прав мотивация здорово падает когда смотришь на график посещений, который стремиться к нулю и как то грустно((( становиться...
Привет всем! Саня, спасибо за статью, хотя у меня блог работает на CMS Drupal 7, и таких проблем с дублями не возникало. Но там есть другая проблема, для каждой статьи Друпал создает по 2 дубля, но тэг каноникал показывает правильную страницу, и вроде дублей гугл не забрал к себе.
Однако, в роботс у меня дубли закрыты от индексации, возможно это так же мешает, как и при вашем случае с Вордпресс, надо будет проверить, возможно не стоит их через роботс закрывать, робт гугла поймет и по мета тэгам.
Спасибо, Александр, за статью. Нашел дубли, хоть и не много, но были. Все настроил, как написано в статье. Однажды посещаемость моего блога резко упала, не знаю в чем причина. Может быть причина как раз в том, о чем вы, Александр, пишете в этой статье? Время покажет. Еще раз спасибо.
Саша, даже не знаю, что сказать!!! Я просто в шоке. Статья конечно — бомба, слов НЕТ, но я в шоке от твоей проделанной работы. Молодец. К тому же ты помог не только себе, но многим, многим блогеров. К сожалению или к счастью не знаю как это определить, но после долгих поисков на своем блоге я так и не нашел replytocom, где эта зараза укрылась от меня. Хотя поисковик выдает 650 страниц, 11 моего блога и остальные с поддоменов. Как разобраться и не знаю, может чЁ посоветуешь?
Здравствуйте.
Я ваш давнишний читатель и ученик по вашим курсам.
Проверил свой блог по вашему примеру на Гугл. И ничего не понял — он вообще непонятно что выдал. Прошу если можно — взгляните: site:purichvalera.com replytocom
Дайте комментарий, Александр.
И второй вопрос. Если не слишком во всем этом разбираешься. Есть ли на примете спец, который сможет помочь все настроить как надо?
Валерий у вас все нормально! Так как в роботсе все открыто!
Спасибо за оперативный ответ. Но в веб-мастере у меня все равно вот такой текст:
Количество отслеживаемых URL Дата настройки Действие Сканирование
replytocom 3 671
Т.е. все равно 3671 страница. Хотя статей всего штук 500. Откуда же взялось столько. Где искать проблему?
Исходящих ссылок тоже очень много. Приобрету курс и буду проводить зачистку. А что делать по информации веб-мастера с этими УРЛ?
Нужно делать все по курсу и ждать. В вебмастере информация сразу не обновляется.
Статья очень полезная. Проверила, дубли не обнаруживаются, но исходящих ссылок тысячи. Что с ними делать и как избавиться — вот вопрос.
Про это я говорил в курсе операция зачистка. Беда блоггеров в том, что на блоге исходящих ссылок больше чем входящих. Поэтому мы топчемся на месте.
Сделала запрос site:irynaroma.ry replytocom. Гугл ответил "Ничего не найдено" Это хорошо? Я обучаюсь в тренинг центре "Твой старт", был урок про это, но я уже не помню, чего я там устанавливала. Надо еще раз пересмотреть.
У вас пока все нормально, но в роботсе закрыто и это плохо. Скоро гугл и к вам придет. Открывайте Роботс.
Спасибо, Александр, за полезный материал. Пошла править robots.txt
Не поленился спросить у Яндекса:
Какой вариант дает 100% гарантию непопадания дубля в выдачу?
Закрытый в robots.txt параметр replytocom
Disallow: /*?*
Disallow: /*?
Disallow: /*?replytocom
Disallow: /?replytocom
Или запрет мета-тегом на странице дубля
<meta name='robots' content='noindex,follow' />
Ответ: В данной ситуации достаточно использовать запрет в robots.txt!!
Еще раз убеждаюсь, что к каждому поисковику нужен особый подход
Это не правильный подход. Я все объяснил в статье. Это единственный метод. Закроете дубли, он все равно все страницы загрузит.
И тем не менее не загружает уже на протяжении 2 лет, в отличии от гугла. Вот с ним беда...
Александр, а если у меня комментарии разбиваются на страницы, то это значит, что у меня тоже дубли страниц в этом случае появляются?? Может, лучше их не разбивать на страницы? А будет ли это влиять на скорость загрузки страницы, у меня много комментариев бывает к каждому посту...
Не надо разбивать на страницы, потому что будут появляться дубли comment-page
Влиять на скорость будет само собой! Так как много аватаров. Тут надо выбирать из двух ЗОЛ )))
Спасибо, Александр, за уникальную информацию! Александр, а если у меня только вот такие похожие две строки есть в robots.txt — Disallow: *? их удалять, или удалить просто значения *?, как у Вас в robots.txt.
Удалите все и сделайте роботс как у меня. Только уберите ompin. Остальное все по курсу.
Хорошо, спасибо, Александр!
Александр, а в Ваш роботс по ходу ни чего не надо будет добавлять? В каком-то из видео по курсу, по моему Вы упоминаете добавление в роботс Disallow: со значением "коментс". И еще, Александр, не могу в курсе открыть дополнительные материалы, там какие-то абракодабры, и служба поддержки тоже не корректно открывается, а соответственно не могу дальше изучать курс — "Как стать блоггером тысячником 3,0" ?
Напишите в поддержку. По идее все должно быть нормально! На днях тогда перезалью коды, по ходу дела у кого-то кодировка слетает.
Так там же и в поддержку не реально написать, все криво отображается?
Александр, поделилась во всех соцсетях. Один вопрос: у меня в страницах риплитуком тег роботс контент встречается два раза: вверху там все разрешается, чуть ниже есть роботс метататег нофоллоу. Просто в теме через специальные скрипты выводятся метатеги. Наверное поэтому они продублировались... Сайт incomeeasily.ru Ой, да, уже не проверите, поставила 301 редирект по Вашему совету. Только что мне теперь делать: редактировать роботс или нет?!!
Это вам к верстакам. Должен быть один!
Здравствуйте, Александр. Судя по комментариям, я повторяюсь с вопросами, но все же хотелось услышать ваш ответ:
— тоже отредактировала robots.txt, плагин установила, убрала древовидные комменты, но, хоть убейте, не нахожу у себя <meta name='robots' content='noindex,follow' />.
Все ли у меня правильно?
Спасибо огромное.
По статье да, у вас все хорошо! Но есть другие дубли. Об этом в курсе 3.0
я тоже не находила, помог вот этот Сашин ответ — А вам не нужны любые страницы. Вам нужны страницы replytocom
У меня вроде нормально прочитала поверхностно, проверяла ди ньз внешних ссылок нет и с роботом вроде такого нет значит мне не грозит.ура?
Это не статья, а триллер какой-то. Сюжету Стивен Кинг позавидовал бы
Когда-то что-то слышал про вред древовидных комментариев, а когда начинал искать инфу и всех спрашивать, то никто о таком даже не подозревал...
Придется исправлять: Результатов: примерно 4 130...
Александр, а вот у тебя robots совсем небольшой в последнее время... Ты советуешь ставить данный robots всем блоггерам?
В принципе стандартный набор и ничего лишнего!
Или все-таки лучше использовать базовый, который ты предоставляешь в своих курсах?
ROBOTS.TXT УДАЛЕН АВТОРОМ БЛОГА
У меня robots что-то вообще стремный...
Только не говори опять, что в КСБТ 3.0 все есть!
Опять меня пропустили...
Все верно! Все остальное есть в курсе 3.0 А здесь я рассказал как убрать дубли только replytocom. Объяснять все долго. Я там говорил как убрать и tag, page, attachment и прочее.
В вебмастере гугл робот нашел только:
replytocom 1 493
А еще вот такие фишки:
srp 86
sra 86
Читала действительно как ужастик, захватывающе и внимательно! Посмотрела, вроде у меня ничего нет подобного... Утром мужа попрошу посмотреть, может разберется. А так если честно, не могу понять, почему блог мало посещаем (очень малопосещаем), может статьи чаще писать нужно, или забанили где? Рекламы нет, ссылки пока не умею не продавать не покупать. МОжет заказать анализ блога или совет какой кто может дать?
По мере занятости учусь на Ваших курсах.
Еще раз спасибо!
150 000 000 исходящих ссылок!!! и блог ещё живой и в поисковике! немедленно надо продать эти ссылки по 1 рублю и вообще ни о чём не беспокоиться
ну, а если серьёзно, то я проштудировал эту статью несколько раз и возникло много вопросов, буду искать ответы.
Хорошая статья, неохота ни чё в роботе менять легче отключить древовидные комментарии. А прирост мне кажется, даёт совсем другое. Ваши партнёрские статьи ))
Прирост с google в два раза партнерские ссылки не дают так быстро. Здесь просто моя метода работает из курса. А дубли не уйдут если просто отключить деревяшки. Урлы остаются в соплях.
Скажите, а где в seolib вы нашли процент sypplemental? Искала по всему сервису, не могу найти эту функцию, подскажите, пожалуйста!
Раз 5 перечитала статью, потом решила проверить и свой блог. Слава богу у меня такого нет, но почему то трафика с гугла тоже нет(
Иришка везуньчиггг!
Ну хоть в чем-то мне везет)
Спасибо большое за информацию
Нашла у себя 6200 дублей.
Александр, установила плагин, отключила в Настройки обсуждения древовидные комментарии. А в robots.txt такие строчки:
Disallow: /*?*
Disallow: /?s=
Обе удалять или только первую? проверьте, пожалуйста, мой robots.txt. Что в нем не так, что надо еще изменить? Или написать в службу поддержки?
Обе удалить! Роботс можно взять мой. Но он настроен так, что есть еще кое какие настройки, про них я говорил в курсе.
Спасибо тебе большое. Убрал дерево, поставил плагин, и открыл доступ в robot.txt
Вовремя твою статью мне показали, еще в гугл попало только 7 дублей.
Всем привет! Мне, наверное, повезло. При создании блога попалась тема не поддерживавшая древовидные комментарии, и для их создания, а было это еще в 2009м году, я сразу установил плагин WordPress Thread Comment. В этом смысле дубликатов нет. Но поскольку тема не поддерживает новые версии WordPress, то видимо поэтому, в других дублях строки
<meta name='robots' content='noindex,follow' />
просто нет. Вместо неё присутствует
<meta name="robots" content="follow, all" />
Думаю что в этом случае robots редактировать смысла нет, а дубли типа tag, page,category и т.д. — страницы малозначимые и попадание их в сопли, большой роли не сыграет. Посему вопрос — верно ли такое суждение? Могут ли быть санкции от поисковиков от дублей превьюшек из тегов или категорий?
дубли типа tag, page,category создают дублированный контент. поэтому их надо тоже убирать. Про это я как раз рассказал в курсе 3.0
Все правда! Особенно тяжело, когда пашешь-пашешь, что-то постоянно меняешь, корректируешь, редактируешь и все твои старания оказываются вымыслом блоггеров, возомнивших себя гуру...
Сейчас мне делают анализ блога по твоей методике (в модуле описано) — результаты неутешительны, а тут еще дубли...(только одно не могу понять: 2 блога в одно и то же время: у 7yafelicita.ru — более 7 тысяч дублей, а у prostofelicita.ru — 6 дублей, разве так может быть???) Такое ощущение что на себя взвалила неподъемный груз, получается что 3 года просто так фигней страдала...
Что ж постараюсь вздохнуть поглубже и продвигаться по одному шагу, может тогда будет не так страшно преодолевать все косяки
За статью огромное спасибо!
Как сыночек? растет?
Пожалуйста! Да, растет. Щас вот гулять пойдем.
Нашёл у себя 58000 дублей!!! Александр, если бы не эта статья, так бы и не знал, почему с Гугла у меня трафика в 4 раза меньше, чем с Яндекса. Удалил в robots.txt строку Disallow: /*?*. Ещё у меня есть строки Disallow: /?s= и Disallow: */comments. Они тоже приводят к дублям?
Тоже удалите.
Ну вот, появилась головная боль, а я то думаю, почему мой сайт больше 40 посетителей в день не набирает? Теперь все понятно, буду действовать. А вот со вторым сайтом все в порядке. Спасибо Александр, как всегда выручаете полезной и просто необходимой информацией.
РЕБЯТА ЗАБЫЛ В СТАТЬЕ СКАЗАТЬ! НОВОСТЬ ЕЩЕ КРУТАЯ! SNIPER ELITE III ВЫШЕЛ
КТО РУБИТСЯ?
Сейчас все рубятся над устранением ошибок на блогах
А да точно я забыл. Я свое отрубился за пол года )
Саня, офигеть ! Ты что еще нет нет да в игрушки рубишься? Я лет 5 уже не прогревал видюху играми )))
Я и не играю, только в снайпер элиту. Это АДСКАЯ игруха!
Александр, вот Вы ответили Сергею что Disallow: */comments тоже надо удалить, а если посмотреть роботс разбираемого в статье блога Александра Быкадырова, то мы увидим что у него это тоже присутствует. Он его тоже должен убрать? Спасибо.
У 99% блоггеров в интернете Robotx.txt не правильные. Я бы даже 100% сказал
Есть четкая конкретная методика настройки пресса при помощи роботса, метатегов и htaccess с редиректами. Она в курсе 3.0. Здесь как я вам в комментариях объясню, ни как.
Огромное спасибо за статью. У меня блог новый, потому дубликатов не найдено. Древовидные комментарии отключил — не очень они мне и нравились)
А вот что касается файла robots.txt — если древовидные комменты отключены, то и две строчки с "?" убирать не нужно верно? Ведь они изначально для помощи туда положены.
Буду рад любой подсказке и
еще раз спасибо за сей труд!
Все равно надо убрать!
Привет Александр,вот сделал как ты написал,поставил плагин,убрал галочку древовидные комментарии. Но вот сейчас нажимаю кнопочку ответить выходит ошибка ERROR:
Can't find the 'commentformid' div. что за беда подскажи.
Значит надо к верстакам идти!
У меня аналогичная проблема...
Александр, благодарю за статью! Когда подвожу курсор на ОТВЕТИТЬ, то внизу экрана слева отсутствует в ссылке фраза replytocom, но проверив в гугл мне пишут ПРИМЕРНО 13 дублей. Нужно ли устанавливать плагин для WordPress Thread Comment
Мария почитайте статью полностью + посмотрите видео. Дело не в плагине, вам надо robots.txt открывать.
Кстати, робот поменял, но запрета на индексацию дублей не обнаружил в коде, как показано в твоём, Александр, видео...
Да, уж... Бомба,
пущенная автором блога, взорвалась : столько комментариев, с ума сойти...
Добрый день.
Саша, подскажи пожалуйста, ты нашел решение для attachment?
И для attachment и для tag и для page и для attachment_id и для category и для feed и прочего мусора. Все есть в курсе 3.0. Здесь в комментариях все не объяснить по переписке.
Александр, разбираюсь со своими дублями. Их у меня куча. Но! В роботс у меня стоят вопросики, как у всех, но когда я проверяю в вебмастере яндекс, у меня реплитуком разрешен! И потом, когда я нажимаю Ctrl+u, у меня тоже прописано в исходном коде страницы ноиндекс, фолоу, как в видео на "правильных" блогах. Как такое может быть и что теперь делать?
Оля, привет. Убрать все равно надо эти "вопросики"...
Удалить вопросики
Та ну реально чес а не статья) Ну то что этих соплей быть не должно это да. А вот на счет того что не нужно прописывать правила в роботс — это чес!
Чес это что такое?
Чес, это имеется ввиду "чёс", т.е. как бы не правильное толкование, обман )))
А теперь понятно, ну да пусть будет "чес"... Пусть...
Нет, на самом деле никто как бы и не говорит делать так, а не иначе. У каждого есть голова и каждый сам решает.
Время рассудит, думаю...
Офигеть комментариев. Прикол и столько же дублей. ))) У меня были статьи по 800 комментариев когда еще replytocom стояли. Вот это был треш!
Нет, не треш — жесть )))
А у меня, всё-таки, нету <meta name='robots' content='noindex,follow' /> . Вроде, внимательно посмотрела. Что можно/нужно сделать в таком случае?
Здравствуйте, Александр. Я первые у Вас на блоге и большое Вам спасибо за статью, первый раз такое слышу. У меня вопрос: есть ли электронные версии Ваших курсов, чтобы просто заплатил — скачал. Мне многое известно по WP, но уверенна, что что-то новое у Вас найду?
Конечно есть. Оплачиваете, скачиваете и смотрите.
Ничего себе! Самый быстрый ответ, который когда либо я получала в сети. Большое Вам спасибо!
Полезная статья...уже применил и увидел результаты по гуглу... У меня тоже оказалось куча всего того о чем здесь говорилось. Но это что касается гугла, А на счет того что что файл роботс.тхт должен быть максимально открыт для поисковых роботов, — я с этим вообще не согласен, это я имею ввиду по Яндексу. У меня уже есть с этим опыт, сайт, по посещаемости, падал в 2 и даже в 3 раза пока я не стал разбираться и как то до самого дошло что дело может быт ьв дублях страниц и в тех страницах которые просто не нужно индексировать. Это кстати. ещё от шаблона(темы) сайта зависит. Так что искать и запрещать для Яндекса в роботс.тхт нужно обязательно и нужно не мало чего, смотря что за шаблон у вас и как вы изначально стали вести сайт. ... Как искать? Заходим на сервис Вебмастер Яндекс в разделе "Мои сайт" — далее- "Страницы в поиске" — находим там все видимые роботом, ссылки. И рядом открываем ещё одно окно этого сервера, В котором находим раздел "проверить роботс.тхт." вставляем в спец. окно свой файл роботс.тхт. и смотря на ссылки в первом открытом разделе, находим ненужные. Копируем, вставляем туда где раздел роботс и проверяем кнопочкой. запрещена ссылка или нет... ...Если надо, Меняем директорию в файлье роботс, подставляем и ищем до тех пор пока ненужная ссылка не закроется... Короче. для Яндекса этот файл просто необходим и с этим надо не мало поработать...
Спасибо, Саша! Уже действую!!!! Дубли зашкаливают, так что все будет долго. Спасибо огромное от всей души.
Прописывать, запрещающие директории, нужно в той части файла роботс.тхт. где касается именно Яндекса
Сделала 301 редирект, запреты в роботсе не убирала. Утром было 6000 дублей с хвостиком. Сейчас, вечером, уже 3700
Надежда, у меня в течение 5 минут были разные показатели при том, что я тогда еще ничего не делала
То 20 тысяч, то 4.
У меня один результат, сколько ни смотри. Переходишь на последнюю страницу и дублей всего 100
Надежда, мне кажется это у всех так
На последней 10 странице пишет 10 страница из 100 результатов. Что-то тут не то.
Ааааааааааа прошла на последнюю страницу, результатов всего 100!!!! Александр, спасибо!!!!!!!!!!!!
Будут скакать... Не хочу расстраивать, но сегодня будет больше возможно )))
Надежда так вы ни чего не сделали.
Сделала редирект. Роботс еще не весь переделала, у меня в теме даже дубли в метароботс разрешены! Надо правда идти к верстальщикам, вот так сеооптимизированная тема... Уже много в ней исправила, и все равно ошибки. Даже если пропишу ноиндекс на дублях, в самом верху страницы все равно метароботс все разрешает. Капец!
И рекомендованный плагин с моей темой не работает: кнопки ответить не выводятся. Да еще и аватары размытые получаются. Но не это главное: если бы добавлял кнопочку ответить, отключила бы древовидные комменты. В роботсе вопросики убрала, надеюсь на редирект. Достаточно ли его будет?
Желательно все. И в роботсе все открыть и кнопочку убрать и редирект.
Вот так всё было и у меня, и уже хотела забрасывать блог сегодня потихоньку, а оказывается вот в чём проблема. У меня аж 50 000 таких ссылок в гугле, в самый подходящий момент, огромное спасибо Александр.
Александр как в htaccess вставить редирект?
Я имею ввиду в любое место? открыл файл и вставил, не имеет значение после каких фраз?
После RewriteBase /
А мне нужно было еще после этих двух строк прописать RewriteBase /, как у вас в файле, Александр, иначе редирект не работал. То есть я не две строки вставляла новые, а три. Вроде так работает редирект теперь.
Гут!
Спасибо!
Интересно, что за проблемы на моем блоге? Посещаемость, как была 3 копейки вначале, такой же и осталась. У меня в бесплатном дневничке Ли.ру, где статей в 2 раза меньше, порой больше бывает.
Что не так я делаю, ума не приложу
Давно искал ответ на тему дублей, но везде было не то что нужно. А блог тем временем загибался. Теперь попробую реанимировать. Статья оказалась кстати.
Спасибо, Александр, за полезную статью! Честно, я этого не знал!
Я то думаю, почему у меня трафик с Гугла не растет!!!
Александр, спасибо за такую полезную статью. Сразу когда начала читать- очень испугалась, но теперь разобралась. Чтобы я без ваших статей делала?
Спасибо!
Все сделал как написано в статье — Количество отслеживаемых URL в ПУ вебмастера увеличилось на 600 штук. Так и должно быть? Число страниц в дополнительном индексе также увеличилось.
Оно не могло так быстро увеличиться. Что за ПУ?
ПУ = Панель Управления. У Гугл есть панель управление вебмастера — вы же знаете.
А понял... Все равно увеличиться не может сразу.
У меня google индексирует дубль страницы по такому адресу: мойсайт.ru/feed. Кто-нибудь знает, как это лечится? В роботсе есть строки :Disallow: /feed/
Disallow: */feed
В курсе 3.0 я показал как лечится. И не только feed
Или я что-то напутала или у меня нет такой штуки replytocom
Да, у вас все хорошо!
Александр, добрый день!
Подскажи пожалуйста, у меня в роботсе вот эти строчки нужно ли убрать?
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Disallow: /tag/
Спасибо
Да, все убрать надо! Но просто взять и убрать кое что не настроив по курсу 3.0 нельзя.
А почему у меня выдавало на сеолиб:
56%. Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.
РОботс.тхт был закрыт, а кнопок ответить просто не было.
Потому что у вас есть другие дубли страниц.
Почитал немного и удивился на какой это всякий случай робот забирает дубли)) и про бонус новичка хотел бы развеять миф, когда человек начинает вести блог на вордпресе он изначально подготовлен к всему этому борьбы с дублями и прочим. В движке прописаны кононические страницы плюс в теле прописаны мета теги для запрета индексирования. Все готово для полноценного ведения но проходит мес. 3 — 4 и Блогер понимает что ему не хвотает чего то а чего писать уникальные титлы и снипеты ставит плагины для сео )) и все так как плаги не часто обновляются всегда включена опция кононикал которая не правильно отображает кононические страницы по тому как эта функция уже включена в движок. Вот по этому и живут те блоги у которых не настроен редирект с реплик и прочее. По тому что не стоят те самые плагины для мега сео и тд. Но да самое главное конечно не ставить роботу запрет в robot.txt по тому как робот не пройдет на страницу и не увидит что там мета теги и rel='canonical'
Вот на такой вот всякий самый случай. Так же как и другие страницы закрытые в роботсе.
А то что он подготовлен это ясно, но когда люди ставят не правильный Роботс, то вся подготовка коту под хвост. В том то и фишка что роботс сбивает все метатеги.
Снова вы про свои каноникалы. Да не помогают они. Я уже устал что-то доказывать кому-то. Будь по вашему в общем.
Александр, привет! Статья — БОМБА
Сразу же начал проверять свой блог! Дубли есть, но их пока всего 34. У некоторых ребят, конечно, дела куда хуже! Вероятно, статьей еще мало, хотя их число уже приближается к первой сотне. Сейчас буду все убирать! Спасибо!
Обнаружено значительное увеличение числа URL, которые возвращают ошибку 404 (страница не найдена). Проанализируйте эти ошибки и при необходимости исправьте их, чтобы обеспечить успешное сканирование страниц сайта.
Так и должно быть или нужно что то делать? Сама еле-еле понимаю все эти настройки, убрала вопросы в роботе и кнопку ответить.
Валентина, а от куда вы получили это замечание?
Пришлите скрин.
Талантливо написано и коммерчески грамотно)))
Продающе-мотивирующий текст.
А проблема решается проще. Давно уже есть более совершенные сео плагины, чем All in One, что у вас на блоге, Александр. В них уже встроена функция удаления дублей страниц., плюс другие полезности.
Yoast WordPress SEO например
Это удобнее, чем к верстальщикам обращаться
Да, настроек там много. Но оно того стоит. Хотя на вкус и цвет...
Юлия вы сами поняли что написали?
И проверьте сами свои дубли, у вас их куча.
Согласен, талантливо и ГРАМОТНО! И очень правильно интерес пробуждается у потенциального клиента, можно только поучиться и сказать за это спасибо! А где вы видели интернет предпринимателей, которые сходу присылают письмо с предложением своего нового курса?
Только вот в чём вопрос!!! Что внутри? Пустота или польза? Александр не раз доказал, что у него польза. Тема старая...
Спасибо Сань!
А, если зрить в корень проблемы? Ну с комментариями понятно. Поставил плагин, превратил в скрипт и дело с концом. А вот остальные страницы? Допустим, мы закрыли все дубли, остались только значимые, текстовые страницы. Мы, можно сказать, потеряли несколько десятков, а то и сотен страниц из категорий и тегов, которые можно продвигать по низко и средне частотникам, а там, и, возможно, по ВЧ. Как получится. Ведь можно все это сохранить. Просто заточить тему под вывод самостоятельно написанного анонса. Здесь мы прощаемся с дублями на главной и на страницах. На категориях или тегах, в качестве анонса выводим живописный description, который уникален, и качественно сделан для каждой статьи индивидуально. Ну а остальное уже закрываем robots noindex, на шаблонных страницах. И страницы сохраняем и уникальность и нет санкций от дублирования. Сегодня мне эта мысль пришла в голову, и сегодня на экспериментальном сайте такое сотворил. Теперь перепишу качественно дескрипшны к статьям, и посмотрю, что из этого выйдет.
Я как раз знала, что у меня есть такая проблема. Только вот решения никак не могла найти. Подсознательно подозревала Robots. Жаль, что технических знаний не хватает. После этой статьи теперь уже подчищу все.
Александр здравствуй!
У меня новый блог (3 месяца от роду). Я проверил как ты объяснил в статье. Никаких дублей не нашел.
Я скопировал у тебя файл — robots.txt и вставил себе. Подскажи, нужно еще ставить — 301 редирект или прописывать код, который ты указал в статье, в файл — function.php.?
Заранее благодарен за ответ.
Саша посмотри видео из статьи. А зачем в robots.txt ompin? Это же мой каталог ))
ВЫ обещали статью по robots.txt. Или можно уже сейчас где-то взять нормадбный?
Вообще то статья вышла уже давно
Где она?
Дискуссия разгорелась жаркая!
Вроде все поправил) Но всегда возникают какие-нибудь мелочи!
Спасибо, Александр!
Мощная статья, проверил свой сайт, тоже куча дублей.
Иду править.
По запросу site:мои сайты.ru replytocom ничего не найдено. Значит все ОК???
У меня тоже самое, что у Инны. Это не означает что нет дублей. Один раз по данному запросу все таки вышел, оказалось у меня 300 дублей, правда я точные расчеты не сделал.
Спасибо, Александр. Сделал как вы написали. Хотел проверить, что-то изменилось и опять ответ
По запросу site:мои сайты.ru replytocom ничего не найдено. Может что-то я не так делаю?
Александр! Я ничего не пойму... По site: taiafilippova.ru replytocom позвавчера было 24000, вчера 23000. А сегодня посмотрела — 56. Такое может быть? Я всего лишь убрала строчки в роботсе. Переходы с поисковых систем вчера и сегодня: Гугл было 252, стало 399, Яндекс было 143, стало 252. Это хорошо или плохо?
Да, может. Оно постоянно прыгает. Завтра будет снова 24000. Вам как и мне ждать около года ))) Ну может меньше.
Добрый вечер! У меня в Яндексе все статьи индексируются правильно, а В Гугле их в 5 раз больше. Стоит ли убирать в robots строки Disallow: /*?* Disallow: /*?
По мнению Seolib 82%. Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.
Александр у вас в поиске gogole более 5000 страниц, первые несколько сотен страниц page. У вас не так как надо настроена индексация блога.
Добрый вечер! Александр, я уже несколько месяцев пытаюсь найти ответ на правильный robots. Вариант, который на моем блоге посоветовал гуру по созданию блогов на WP. Стоит запрет на индексацию страниц Disallow: /page/ в Яндексе. Там дублей страниц нет. Как же запретить индексацию page в Гугле?
Александр, вы меня извините, но объясниет еще, пожалуйста. У меня не убирается кнопка "ответить". Если я нажимаю на нее и пишу ответ на комментарий, коммент уходит в самый низ, даже если это не последний комментарий. А там, где ссылка на ответить, там вообще не работает. В древовидных комментариях в настройках формы комментариев этого плагина в окне Comment Form ID прописала "commentform". Почему же у меня эти кнопки не правильно работают, подскажиет, пожалуйста.
Таисия напишите мне в поддержку, возможно поможем.
Александр, спасибо за статью! Правда, мой блог совсем "зеленый" (комментов пока мало и поэтому дублей всего 20 штук). Подправила robots, установила плагин (правда, настроила очень быстро, не факт что правильно). Проверила на всякий случай через яндекс вебмастер — разрешено. я так понимаю, что редирект это просто на всякий случай, пока не прописывала его. Хочу какой-нибудь курс приобрести (когда осилю все что могу сама=).
Интересная оказывается история с блогами на WP — хотя, мне кажется, что этот момент должен бы по умолчанию решаться именно создателями движка и плагинов.
Примерно так у меня происходит на Joomla (хотя и своих велосипедов хватает).
Спасибо за ценную информацию.
Тоже так считаю. Удивило, что самим Вордпрессом этот момент изначально не продуман.
Он продуман Татьяна, не продумали мы со своими роботсами!
Ясно! Тогда не буду ни на каплю разочаровываться в Ворпдрессе — грамотный и умный движок)
По идее этот момент решен разработчиками wordpress, просто потом начинают учить "умные" специалисты, которые говорят, что надо в Роботс толкать вот и начинается. А у нас один написал, второй повторил, за ним еще 10-20-30 и так в геометрической прогрессии. В итоге катастрофа.
Здравствуйте, Александр. Проверила сегодня в поиске гугл свой сайт — 8690 дублей ( а 2 дня назад было 6400 дублей). Зашла в инструменты веб-мастера гугл, в параметрах replytocom показывает что количество отслеживаемых страниц 899. Почему такая большая разница в цифрах? Не могу понять на какую цифру ориентироваться — в поиске гугл или в вебмастере гугл?
Держите ориентир на выдачу. В вебмастере показывается за сколькими страницами он следит. А он не все их в панель захапывает, медленно, но верно!
Саша, огромное спасибо и за тему из курса и за эту статью и за помощь в разборке!!! Это сколько же надо знать, чтобы просто вести свой сайтик!!!..да, точно...ЖЕСТЬ!!!
Спасибо за материал! Не могла пройти мимо. У себя в блогах не обнаружила данной проблемы, но, возможно, из-за молодости проектов и совсем небольшого числа текстов. Лучше следить заранее за дублями)))
Александр, здравствуйте! Ссылку со статьей прислала посетитель блога, за что ей огромная благодарность. Второй день читаю, сначала подкорректировала свой роботс, потом поставила Ваш. Не знаю, правильно ли, или придется что-то дополнительно настраивать с Вашим роботсом?
В вебмастере гугл все было настроено, как в видео. Дублей много, почти 4 тысячи. Не знаю, как закрыть кнопку (омментарии на блоге выводятся без плагина.). И 301 редирект не могу поставить, выдает ошибку.
Здравствуйте, Александр. Я ученица Твоего Старта и у меня молодой блог. В видео уроках нам говорили о replytocom, о их вреде,и о том как с ними бороться. Один из вариантов — снять галочку в настройках "показывать древовидные комментарии" и тогда страницы лишние будут уходить из выдачи (если они уже у кого-то есть), другой альтернативный вариант — предлагалось сделать изменения в роботсе и в панели инструментов для вебмастера (Сканирование — Параметры URL) так как Вы описали у себя в статье . На тот момент, когда я проходила этот видео урок, у меня не было не одного комментария на сайте, и я решила просто убрать галочку в настройках о древовидных комментариях (как я тогда подумала "от греха по дальше, на всякий случай"). Прошло несколько месяцев, блог я развиваю, тут у меня стали появляться комментарии, а ответить на них нельзя (кнопочки "ответить" то нет). Я совершенно забыла про то, что убрала галочку в настройках. В поисковике стала искать решение вопроса, нашла много статей где рекомендовался плагин WordPress Thread Comment. Установила его, кнопка "ответить" появилась. При наведении на нее всплывает javascript:void (0). Проверяю в поиске гугл свой сайт site: vash-fenshyu.ru replytocom выдает 6 каких-то ссылок, но совершенно не на мой сайт, про мой сайт вообще ничего. Я так понимаю, это считается хорошо. И вроде бы все правильно. Но когда читала Вашу статью, проверила свой сайт через seolib и мне выдало:
75%. Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.
Я в шоке. Статьи пишу уникальные и правильно оптимизирую их. Значит все таки дело в replytocom.
Как быть? помогите разобраться?
Наталья дублей replytocom у вас нет, у вас много других дублей. О них я говорил в курсе 3.0 + на днях выйдет еще одна статья.
Александр, я докопалась до истины. Поняла, что у меня все было настроено так как Вы описали, за исключением корректировки robots.txt. Подкорректировала его так Вы рекомендуете, проверила через яндекс вебмастер. Выдает "разрешен" при проверке. Спасибо, Вам, огромное за полезную информацию. У меня Ваш сайт давно в закладках, регулярно посещаю ваш блог, если возникают какие-то вопросы я сразу к Вам
Буду с нетерпением ждать следующую статью, хочу разобраться что еще за дубли у меня там притаились
Саш, спасибо за статью! Мега-полезная. Только я не могу понять вот что. Эти "сопли" в выдаче показываются, но они запрещены к индексированию роботом и в выдаче это видно. Или всё равно считается, что проиндексированы? Объясни, пожалуйста, чайнику.
Это еще не переиндексировалось, старые данные показываются в выдаче.
Почему у меня не срабатывает запрос. Что я неправильно делаю?
Результаты не найдены: site:leceniemedom.ru replytocom.
Советы по поиску:
Проверьте правильность написания слов.
Попробуйте перефразировать ключевые слова или использовать синонимы.
Попробуйте использовать более общие ключевые слова.
Максимально сократите запрос.
Другие полезные ресурсы:
Дополнительные советы по поиску см. на веб-сайте Справка по поиску в Интернете.
Если не удалось найти веб-страницу, которая точно существует, отправьте нам ее адрес.
Странно — по запросу в Google — нет дублей
А в оценке:
75%. Высокий процент страниц в Google Supplemental. Возможно, на сайте имеются внутренние дубли страниц или неуникальный контент.
Значит есть другие дубли!
Александр, у меня в robots.txt запрет стоит, но дубли не показывает, выдает about:blank и чистую страницу. Я что-то не пойму — это хорошо или плохо?
Здравствуйте, Александр!
Пока не всю статью прочитал, но вынужден задать вопрос (могу забыть).
При проверке в Google Инструментами для вебмастеров параметров URL на моем блоге две графы: replytocom и p.
Про первую ВЫ рассказали, а что такое Р?
Спасибо за эту популярную и полезную статью! я сделал как ты сказал, то есть убрал из robots закрытые страницы к дублям, поставил редирект в файле .htaccess и когда открываю ссылку с replytocom, то редирект происходит, но в конце ссылки остаётся это — #respond! Что это значит?
Все что после # поисковиками не индексируется. У вас все хорошо!
Александр прочитала вашу статью , всё исправила .Спасибо. Дубли у меня есть с чем связаны ... Для меня загадка...?
но не только replytocom , почитала ...поискала информацию ...очень много древних постов...) толком не разобралась. Решение принято покупаю ваш новый курс КСБТ 3.0
Всем удачи )
Да, посмотрите курс и еще много чего интересного найдете.
По ходу чтения вопросы.
Не совсем понятно.
В robots.txt есть запреты "Disallow: /*?*"
Есть запрещающее правило "запрещен правилом /*?*"
В коде страницы есть тег "<meta name='robots' content='noindex,follow' />"
Это как-то входит в противоречие по тексту статьи.
Посмотрите видео из статьи!
Видео посмотрел внимательно. Вы там и в тексте статьи говорите, что такой мета тег это появляется если в robots.txt нет запретов.
Он не появляется
Он там изначально есть на странце дубля replytocom, но мы своими роботсами закрываем досуп роботу к этому метатегу.
Кажется "въехал"
А Вы даете "правильный" файл robots.txt
Их вариантов я встречал много, но, кажется Новиков показывал Ваш и совсем не такой как я использую.
Игорь скоро будет статья про правильный файл robots.txt для блога
И про нахождение оставшихся дублей.
Где ошибки в этом файле. Такое поучит в StartUpе
Файл удален автором блога
Игорь скоро будет вторая часть статьи все узнаете!
Привет!) я ввел такой запрос в поиске, показывает что ничего не найдено...
Или я не правильно ввел? Александр, посмотрите, пожалуйста!!
Да, у тебя все хорошо, кроме robots.txt
Буду 600-м комментаторов
Александр, спасибо большое за полезную и нужную информацию (на мой взгляд)! Когда я создала блог посещаемость за месяц была — 6-значное число, затем все поменялось. Когда он был совсем легкий — дважды атаковали хакеры (зачем им нужен был молодой блог — не понятно), пришлось заново создавать. По рекомендации моего учителя поменяла robots.txt (учитель очень хороший, возможно он сам не знал об этих нюансах). Обнаружила то, о чем вы поведали и все исправила, время покажет, надеюсь на лучшее. Спасибо еще раз!
Я с дублями начала бороться 4 месяца назад, сделала тогда 301 редирект. Сейчас дублей практически нет. Несмотря на лето поисковый трафик с Гугла начал расти. Единственное, что мне не нравилось, отвечать на комментарии могла только я из админки, а остальные ответы просто появлялись внизу. Теперь, благодаря плагину, который Вы предложили, я это исправила. И, кстати, в роботсе у меня оставалась-таки 1 ненужная строчка, сейчас я ее убрала. Но дубли ушли несмотря на то, что она была.
А какое расширение должно быть у файла htaccess?
Он у меня не читается (файл с не правильным расширением).
Не будут мешать друг другу редирект 301 и плагин WordPress Thread Comment, если сделать то и другое
А плагин и редирект как то связаны?
Ну я не спец в этом. Поэтому и спрашиваю.
А что насчет .htaccess. Я "заглянуть" в него не могу.
И чуть ниже еще вопрос о "Ответить". Как Вы прокомментируете эту ситуацию. Даже при установленном плагине есть возможность дублирования страниц (это я знаю куда нажимать, а другие нет)...
.htaccess я не знаю какое оно у него. Я просто открываю при помощи notepad++.
Про кнопку я говорил, уберите галочку — разрешить деревовидные комментарии в админке.
Спасибо!
Натолкнули на мысль — открыл через файловый менеджер на хостинге.
.htaccess — это и есть расширение (нашел на сайте).
Поставил и плагин и сделал редирект 301. Убрал на разрешение древовидных комментариев.
Буду надеяться на положительный результат.
У меня на блоге в комментариях стояли две надписи: "Изменить" и "Ответить ↓"
После установки плагина появилась сверху "[Ответить]".
Появившаяся "высвечивает" javascript.void (0), а старая "ответить" так и дает адрес дубля.
Отличный сайт . Отличная статья . Немного пугающая . Но блог у меня молодой . Сильно испугаться не успел . Некоторые вещи для меня вообще темный лес . Буду потихоньку разбираться . Александр может глянете на досуге , профвзглядом , что у меня не так .
Заранее спасибо .
Александр, а ссылки типа site.ru/page.html#bla ничего плохого не делают?
p.s. Лучше на своём движке делать)))
Все что после # не индексируется.
А, ясно... Спасибо. А то я не первый день этим несколько встревожен.
Сделала проверку, как сказано в пункте "как понять, если на Вашем блоге дубли"
Мне выдалась только одна ссылка с сообщением "Описание веб-страницы недоступно из-за ограничений в файле robots.txt."
То есть, получается, что дублей нет?
Но у меня все равно много исходящих ссылок. Насколько я поняла, это связано с кнопками соц.сетей — буду с этим разбираться.
Александр, а обязательно кнопку "ответить" прятать или выводить через скрипт, если мы уже избавились от replytocom с помощью редерикта? Жду ответа, спасибо!
Степан вы статью прочитали? Видео посмотрели? У вас как в роботсе все было закрыто так и осталось. Почитайте. Не поленитесь.
Появилась надежда и силы после вашей статьи!
Я проверила знакомые блоги, почти у всех такая же проблема.Писала всем письма,очень помогла при этом ссылка на статью в кабинете партнера.
Поставила роботс.тхт с вашего блога, убрала древовидные комменты,поставила плагин , но почему-то посещаемость тут же упала. Может, это совпадение?
Саша, у меня к Вам один вопрос: с каких источников Вы эту информацию узнали? Не могли же Вы это все проделать, от того, что Вам, это было послано из ... Такие Мысли всегда приходят, если у кого-то, что-то увидел, если Вы конечно не гений, как Ньютон, которому осветление пришло после того, как ... ну сами понимаете.