Панда от гугл. Google Panda – как работает он и как работать с ним. А за что Панда не наказывает

Здравствуйте, уважаемые читатели блога сайт. В этом посте я хочу чуть-чуть порассуждать о том, что у меня сейчас крутится в голове. В основном все мысли заняты проблемой , под которые меня угораздило угодить за последние полтора года. По приведенной ссылке вы найдете статью, где я описываю сложившуюся ситуацию, включая переписку с техподдержкой зеркала рунета.

За прошедшие с момента выхода той публикации четыре с половиной месяца, я по очереди (начиная с первых постов за 2009 год) вычитывал и вносил правки (убрал возможный спам любыми словами, а так же обуздал внутреннюю перелинковку до вменяемых пределов) в 360 своих статей из 411 существующих на данный момент. Несколько десятков из них были полностью переписаны, во многих десятках обновлены скриншоты, внесены исправления, дополнения и т.д.

В общем, делал все, что мог, не покладая рук. Проявилась за это время чудовищная работоспособность (по 12 часов в сутки пахал и от 2 до 6 статей умудрялся за это время окучивать). Появились и первые положительные результаты в плане улучшившихся позиций и увеличившейся посещаемости с Яндекса и Google.

Вот только по-прежнему терзают сомнения по поводу того, под каким именно фильтром Гугла я сижу вот уже полтора года — Панда или Пингвин. В связи с этим встает вопрос, а нужно ли заморачиваться с отбором спамных обратных ссылок и добавлять их в Disavow links , как это советуют делать всем, кто пострадал от Пингвина. Да и как это сделать при 30 000 беков в Гугл Вебмастере?

Послабление фильтров с Яндекса и Гугла

Как я уже упоминал, работоспособность сейчас имеет место быть просто феноменальная и было бы здорово ее приложить еще к чему-то полезному и перспективному, ибо статей для переделки осталось уже не много, да и спама в них уже не найти, разве что только мелочи разные подправляю.

Ребят, сразу извиняюсь, что далее буду использовать нетолерантное «трафик», а не количество посетителей с такой-то поисковой системы, ибо так реально проще и доступнее получается (меньше слов, а больше смысла). Ничего личного, только бизнес. Спасибо.

25 сентября я обнаружил, что получаю с Яндекса трафика в два-три раза больше , чем обычно в последнее время.

На общей картине посещаемости это отразилось примерно так:

Во-первых, это было несколько неожиданно, ибо как раз к этому времени я полностью смирился со сложившейся плачевной ситуацией и просто продолжал пахать без особых претензий на результат. Причем, еще летом я порой готов был рвать и метать из-за бессилия чего-то изменить в лучшую сторону, а тут полностью перестал дергаться.

Во-вторых, не имея опыта выхода из под фильтров, не знаю что и думать о будущих перспективах. Трафик по Яндексу вернулся не весь и я себя успокаиваю тем, что и падал он не сразу, а в течении нескольких апов.

Кстати, загнать по фильтр можно не только тонной ссылок с ГС (у меня в начале этой весны наблюдался чудовищный всплеск ссылочного в несколько тысяч бэков и не к одному из них я причастен не был). Могут пытаться играть и на поведенческом, т.е. ухудшать метрики как поведения пользователей в выдаче, так и на сайте.

Например, все той же весной у меня появился тысячный трафик с каких-то сайтов анекдотов, приколов и прочей ерунды, которые ничем иным, как ГС, и назвать-то было трудно. Что это было — не понятно. Например, при переходе к чтению очередного анекдота пользователь попадал на мою страницу 404 и не знал, что ему делать. Пришлось даже под таких посетителей, чтобы хоть чуток снизить показатель их отказов.

Пингвин до сих пор придерживается принципа общего обновления алгоритма фильтрации и можно четко отследить (если этим заморочиться) все его апдейты. Сейчас, кстати, похоже идет его очередное обновление до версии 2.1, что подтверждают соответствующие ветки на Сео форумах.

Панда же последнее время стала фактически частью общего алгоритма, который Гугл использует при ранжировании, и ярко выраженных ее апдейтов для всех сайтов сразу уже, скорее всего, не будет. Но тем не менее, если вернуться немного в историю, то по дате начала падения трафика можно сделать вывод, под какой именно фильтр попал тот или иной ресурс.

Как определить под каким фильтром Google находится сайт — под Пандой или под Пингвином

Кстати, именно такой способ предлагает использовать буржуйский онлайн ресурс Barracuda, а именно его продукт под названием Panguin Tool .

Проблема в том, что этому сервису нужно будет предоставить доступ к статистике вашего счетчика Гугл Аналитикс , а он уже наложит на выдранный из него график точные даты апдейтов Панды и Пингвина, чтобы понять что именно из этого дуэта подкосило ваш ресурс.

По началу я подумал, что у меня есть по крайней мере две причины этого не делать:

  1. Во-первых, у меня Аналитикс еще и года не стоит, ибо раньше меня полностью устраивала , ну, и ЛИ счетчик тоже вполне себе информативный.
  2. Во-вторых, на том же у меня висит и Адсенс, а это же деньги, которые никому не стоит доверять. Но чуть погодя я вспомнил, что Аналитикс, равно как и Метрика, имеет возможность создания гостевых аккаунтов, чем я и попробовал воспользоваться.

В общем, я зашел в своем основном аккаунте Аналитикса в администрирование и делегировал права на просмотр и анализ статистики другому своему аку в Гугле, к которому вообще ничего такого не привязано.

После этого в том браузере, где я уже был авторизован под этим не слишком важным аккаунтом, перешел по ссылке «Log-in to Analytics» со страницы Panguin Tool и меня попросили подтвердить мое желание предоставить этому приложению данные по статистике из Аналитикса.

Я не возражал. После этого меня попросили выбрать конкретный счетчик.

Ну, и в конце концов предоставили желаемый график с датами релизов Панды и Пингвина , но, как упоминал чуть выше, счетчик этот у меня стоит не так давно и начало 2012 года он не захватил.

Поэтому определить, какой именно фильтр наложил Гугл на мой сайт, таким образом не удалось. К тому же, в конце весны и начале лета этого года я вообще снимал код Аналитикса по не понятным мне сейчас причинам. То снижение трафика с Google, которое имело место быть весной этого же года, вроде бы ни с Пандой, ни с Пингвином не коррелируются.

Но, возможно, вам повезет больше. На графике и в приведенных ниже таблицах еще можно посмотреть статистику по приземляющим страницам и по ключевым словам, с которых шел трафик.

Второй способ определиться с тем, какой именно зверь вас покусал, это посмотреть на косвенные признаки (отпечатки зубов). Например, считается, что при попадании под Пингвин у вас просядут позиции только по отдельным запросам , целевые страницы которых окажутся заспамленны плохими входящими ссылками.

При Панде же, скорее всего, будет общее проседание трафика, как будто бы у вас , хотя о самой уместности употребления этого термина ведутся споры. У меня ситуация в этом плане больше похожа на второй вариант.

Однако, сейчас спам был устранен, но изменения в лучшую сторону по Гуглу начались только после движения по Яндексу. В связи с этим я по-прежнему остаюсь в растерянности по поводу своих дальнейших действий и их целесообразности.

Disavow links — как сообщить Гуглу о плохих ссылках на сайт

Делается это на вкладке «Поисковый трафик» — «Ссылки на ваш сайт». Над приведенным списком у вас будет три кнопки, которые позволят выгрузить все найденные в Google бэки. Мне больше всего нравится последний вариант, ибо там будет иметь место сортировка по дате появления беклинков.

Однако, тут будет приведена информация только по 1000 доменам, с которых проставлено на ваш сайт больше всего беклинков. Судя по различным сервисам анализа беков, на мой блог проставлены ссылки с трех тысяч доменов и их общее число больше доступных в Гугле тридцати тысяч.

Но не суть. Давайте представим, что я пробежался по этим Урлам и с высокой долей вероятности выявил те странички или даже целые домены, которым не место в моем ссылочном профиле. Теперь остается только оформить все это богатство в один файл с расширение txt и любым удобным вам названием.

При составлении файла для Disavow links необходимо будет придерживаться простых правил :

  1. Урл каждой новой страницы или домен пишутся на отдельной строке: http://plohoysite.ru/plohaystranichka.html
  2. Домен оформляется по следующему принципу: domain:plohoysite.com
  3. Можно добавлять комментарии, но перед ними обязательно должна стоять решетка (# — хеш)

Как только список подготовите, то переходите на страницу Disavow links (прямого пути из интерфейса Google вебмастера я не нашел, видимо боятся, что будут использовать этот инструмент не обдумано):

Выбираете из списка нужный вам сайт и жмете на кнопку «Отклонение ссылок» . Вас предупредят о возможных отрицательных последствиях сего действа, хотя я, вроде бы еще не встречал подобных отзывов на форумах, но возможно что те, кто добавлял сюда свои списки, уже не имели трафика с Гугла, а уйти в минус, как известно, не возможно.

Кстати, лично меня эта надпись настораживает, ибо не хотелось бы необдуманными действия усугубить, а не улучшить сложившуюся ситуацию. Ну, а если вы все же решитесь на эксперимент, то на следующей странице вам предложат загрузить с компьютера подготовленный файл с Disavow links и отправить его Гуглу на рассмотрение.

Но проставить в столбик отобранные URL адреса или домены — это самое простое. А вот самое сложно как раз и состоит в отсеивании этих самых спамных и плохих обратных ссылок, чтобы потом попросить Google их не учитывать.

Положение усугубляется еще и тем, что нет однозначного мнения о пользе этого действа, даже если вы точно знаете, что ваш сайт пострадал от Пингвина или на него были наложены ручные санкции. Мнения специалистов разделились. Например, Девака ради дела даже добавил в Disavow links все до единого беки на свой блог , но результата не увидел, хотя именно он склоняется к полезности этого инструмента, как ни странно.

Кстати, при наложении ручных санкций ситуация с выходом из-под фильтра может быть даже более простой, а точнее более быстрой. Фильтры наложенные вручную сейчас можно увидеть в Гугл Вебмастере на вкладке «Поисковый трафик» — «Меры принятые вручную» .

В этом случае уже через пару недель после загрузки списка в Disavow links и подаче заявки на пересмотр (как я понимаю, сейчас это можно сделать на этой же вкладке, а не на отдельной хитроспрятанной странице, как это было раньше) фильтр может быть снят и позиции вернутся к своим первоначальным значениям.

Как отбирать плохие обратные ссылки для добавления в Disavow links

В случае же Пингвина и удачного удаления спамных ссылок результата придется ждать довольно долго — до следующего апдейта этого алгоритма. Возможно, что это будет занимать месяцы, а возможно что и год. Вы по-прежнему хотите попробовать Disavow links? Ну, что же, тогда я поделюсь с вами теми моментами, которые я почерпнул при поиске способа создания этого списка.

Делать это вручную у меня не получилось не из-за огромного количества монотонной работы, а из-за того, что я не обладаю должной интуицией, чтобы по внешнему виду и тем небольшим статистическим данным, которые собирают , делать выводы о добавлении данной страницы или всего домена в список неблагонадежных.

Тут однозначно нужна автоматизация , которая должна четко отделить зерна от плевел и ни в коем случае не «выплеснуть вместе с водой и ребенка». Очевидно, что нужны какие-то сервисы, которые кроме того, что смогут собрать всю ссылочную массу ведущую на ваш сайт, способны были бы еще и вынести оценку качества для каждого из доноров.

Такие сервисы есть и многие вебмастера, а уж тем более оптимизаторы, их знают. Другое дело, что за анализ большого количества бэков в этих сервисах придется заплатить и очень даже не малое количество денег. Причем, если вы профессионально используете подобные ресурсы каждый день, то деньги окупятся сторицей, но для нашей задачи это будет расточительством, как мне кажется.

На серче проскакивала публикация, где представитель одной из крупных SEO контор делился своим опытом подбора кандидатов для списка Disavow links. Он предложил использовать три ссылочных сервиса : буржуйский от Moz под названием Open Site Explorer , а так же отечественные Solomono (Линкпад) и Ahrefs .

Как я понял, мне нужно месяц ни есть и не пить, чтобы оплатить проверку моих нескольких десятков тысяч беклинков и выгрузить все данные по ним для дальнейшего анализа и обработки. Конечно же, крупная Сео контора всеми этими платными пакетами и так обладает, ибо они полностью окупаются при постоянной работе с десятками, а то и сотнями проектов заказчиков.

Но метод его довольно-таки убедителен. Товарищ предлагает выгрузить из Open Site Explorer, Solomono и Ahrefs показатели качества доноров. Они называются Domain Authority, iGood и Ahrefs Domain Rank, соответственно.

Затем свести все это дело в одну таблицу и отбирать кандидатов в Disavow links по принципу наименьших весовых коэффициентов качества донора во всех этих трех сервисах в купе. Это позволит снизить вероятность ошибки.

К сожалению, позволить себе такую роскошь могут не многие, хотя, если бы кто-то вынес это на аутосорсинг , то я бы не отказался воспользоваться за умеренную плату, но при этом мне бы хотелось получить не просто список кандидатов для Disavow links, а именно все эти выгрузки из Open Site Explorer, Solomono и Ahrefs, чтобы самому убедиться в справедливости сделанных выводов и в том, что меня не водят за нос.

Второй вариант поиска спамных обратных ссылок в своем ссылочном профиле, который мне попался на глаза, заключался в использовании платной программы ФастТраст от Алаича (известный блогер). Собственно, на промо сайте этой программы я наткнулся как раз на описание подготовки списка кандидатов на удаления для Disavow links .

Вроде бы все замечательно. Цена 3000 рублей, что хотя и дороговато, но терпимо, тем более, что ее можно приобрести и за бонусы Профит Партнера, которых у меня как раз имеется нужное количество.

Но! Я присмотрелся повнимательнее к требованиям и желательным условиям, при которых данная программа будет работать корректно. Оказалось, что не все так просто:

В общем, это охладило мой пыл и я понял, что купить программу это еще полдела, а нужно будет еще прокси искать, деньги в Ahrefs вкладывать, чтобы получить наиболее актуальный результат. Да и времени на сбор данных, думаю, уйдет довольно много.

Поэтому решил взять паузу и, пока из головы не вылетело, записать все свои текущие мысли по поводу Пингвина и Disavow links в этом посте, чтобы потом к этому вернуться.

Ну, вот, где-то так, примерно. А вы что думаете по поводу фильтра примененного Гуглом к ktonanovenkogo? Это Панда или Пингвин? С Disavow links линк стоит заморачиваться? Если стоит, то каким образом вычленять галимые бэки?

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Вывод сайта из под фильтра Google Пингвин - пошаговое руководство За что можно получить бан в Яндексе, попасть под АГС или портяночный фильтр, а также пути выхода из-под этих санкций
GoGetLinks - вечные ссылки для продвижения сайта и заработок на бирже ГоГетЛинкс для вебмастеров
Статистика поисковых запросов Яндекса, Google и Рамблера, как и зачем работать с Вордстатом
Расшифровка и разъяснение Seo сокращений, терминов и жаргонизмов
СЕО терминология, сокращения и жаргон
Онлайн сервисы для вебмастеров - все, что нужно для написания статей, их поисковой оптимизации и анализа ее успешности
Способы оптимизации контента и учет тематики сайта при ссылочном продвижении для сведения затрат к минимуму
Rel Nofollow и Noindex - как закрыть от индексации Яндексом и Гуглом внешние ссылки на сайте

Google Panda - один из самых сложных и интересных алгоритмов Google, который сейчас, спустя три года после выхода первой версии, продолжает оставаться загадкой. Как мы знаем, основной целью «Панды» является определение некачественного контента, но согласитесь, это очень широкое понятие. Мы видели, как «под Панду» попадали дорвеи, сайты с автоматически сгенерированным контентом, с большим количеством дублей страниц, неуникальным контентом, переспамом в тексте и мета-тегах и с многими другими менее явными проблемами. Но значит ли это, что сам алгоритм остается на уровне грубого фильтра? Не факт.

Что мы знаем о Panda?

Панда в первую очередь - эвристический алгоритм. Это означает, что сканируя информацию, она пытается найти наиболее верное решение проблемы или ответ на запрос. Разработка алгоритма началась с того, что группа тестировщиков оценивала большое количество сайтов по ряду критериев. Эти оценки позволяли инженерам установить основные факторы, которые должны учитываться и определять так называемый «Panda score». Кроме механизма фильтрации некачественного контента, думаю, существует и другая сторона «Панды», которая включается в основной алгоритм ранжирования и может как негативно, так и позитивно влиять на позиции сайта (не стоить думать о Панде как о бинарном фильтре: либо фильтрует, либо нет).

Google Panda - часть общего алгоритма?

Не так давно в «мире Панды» произошло одно важное событие, которое еще более усложнило жизнь вебмастерам: Mэтт Каттс объявил , что алгоритм будет обновляться ежемесячно на протяжении 10-дневного периода. К тому же, никаких подтверждений апдейта не будет. Теперь мы все играем в темную.

Почему это становится проблемой, я думаю, понять несложно. Для примера, когда вы видите в Analytics, что у сайта упал трафик, и получаете подтверждение того, что в это время обновился алгоритм Панды, вы четко понимаете причину падения трафика и можете предпринимать осмысленные действия.

Теперь сайт может попасть под алгоритм «Панда» на протяжении 10-дневного периода, однако никто не знает, когда он начинается и когда заканчивается. К тому же, основной алгоритм ранжирования Google обновляется около 500 раз на год, и это не учитывая «Пингвина» и других мелких «радостей». Понять причину падения трафика становится все тяжелее, а без этого предпринимать эффективные действия по его возобновлению не представляется возможным.

Последний подтвержденный апдейт «Панды» был 18 июля 2013 года. Но это далеко не последнее обновление, так как алгоритм перешел в стадию почти реального времени. Я написал «почти», потому что много сеошников верят, что «Панда» теперь работает без остановки (является частью общего алгоритма). Это не совсем так, и в одном из Google+ HangOut Джон Миллер это объясняет . Из слов Джона можно понять, что «Панда» не работает в режиме реального времени, а сохраняет ту же систему апдейтов. Но прогресс в разработке уже на таком уровне, что Google может быть уверен в алгоритме и тестирования перед запуском теперь не обязательное. Это важно понимать, так как сайт не может попасть под «Панду» в любой день месяца, только во время очередного апдейта (напоминаю, теперь он длится 10 дней).

Как все же отслеживать апдейты «Панды»?

Вот мы и подошли к основной проблеме: как определить, что колебания трафика вызваны именно «Пандой»? Ответ Мэтта Каттса на аналогичный вопрос:

Но все же давайте попробуем разобраться сами. Несколько советов:

1. Следите за датами

В первую очередь нужно четко установить дату роста или падения трафика, что позволит связать ее с предположительным апдейтом. Это может быть как «Панда», так и «Пингвин». Определить, какой именно алгоритм «зацепил» сайт, очень важно - от этого будет зависеть план действий по восстановлению потерянных позиций.

Например, если Google «выкатывает» новый апдейт «Пингвина», то на форуме вы сможете найти множество описаний одной и то й же ситуации: позиции и трафик резко упали либо, наоборот, вернулись на прежние позиции. Если вы видите, что дата колебаний трафика у других аналогична вашей, то, скорее всего, вы в «одной лодке».

3. Следите за блогами SEO-шников

Подписывайтесь на новости или читайте блоги тех SEO-шников, которые регулярно отслеживают все изменения алгоритмов. Опытные специалисты имеют хорошие связи и доступ к широкому спектру данных (клиентские сайты, консалтинг, репорты аудитории), что позволяет получать более полную картину того, что происходит.

4. Проведите SEO-аудит

Если у вас есть подозрения, что по вашему сайту прошелся «милый зверек», то необходимо провести SEO-аудит в первую очередь в тех зонах, на которые нацелена «Панда», а именно аудит контента. Вот несколько советов:

  • проверьте сайт на наличие дублей страниц;
  • проследите, как сайт ищется по кускам текста (по широкому и точному соответствию);
  • проверьте тексты и мета-теги на предмет переспамленности ;
  • посмотрите в Google Webmaster Tools , не уменьшилось ли количество проиндексированных страниц (Google Index - > Index Status);
  • проверьте в Google Webmaster Tools количество показов сайта в поисковой системе (Search Traffic - > Search Queries).

5. Мониторьте сервисы, которые отслеживают изменения алгоритмов

Существуют сайты, которые следят за «погодой» в мире SEO, - это MozCast и Algoroo . Большие изменения «температуры» свидетельствуют о том, что Google что-то затевает либо уже затеял. Данные сервисы вам не скажут, что делать, но быть в курсе тоже очень важно.

Выводы. Можно предположить: то, что Google запустил «Панду» в полуавтоматический режим, является определенным сигналом «футуристам SEO», что не за горами время, когда и «Пингвина» постигнет подобная участь. Точнее эта участь постигнет нас. Только представьте себе: каждый месяц два апдейта, которые не подтверждаются поисковым гигантом. Темные времена нас ждут, друзья, темные времена.

Надеюсь, эта статья помогла вам разобраться, что же такое Google Panda и как определять обновление ее алгоритмов.

Панда – алгоритм поисковой системы Google, о котором писали неоднократно и не только мы. Но она до сих пор вызывает много вопросов и не все её понимают. В данной статье мы попытаемся собрать в одно целое все, что знаем о Google Панде, ответим на самые частые вопросы и развеем мифы о несуществующих свойствах этого алгоритма. Итак, начнём

Суть алгоритма Панда

Панда создана, чтобы следить за качеством контента сайтов. Если контент не отвечает представлениям Панды о хорошем качестве, позиции сайта в поисковой выдаче Google будут понижены.

Немного истории

Впервые Панда появилась в феврале 2011 года. Тогда алгоритм шокировал SEO-сообщество, так как выдача изменилась кардинально, но никто не понимал – почему. Когда Google, наконец-то, пояснил в чем дело, начался длительный процесс переоценки приоритетов в продвижении сайтов.

За 5 лет Google Панда обновлялся 28 раз. При этом в первые 2 года обновления шли часто (практически раз в месяц), в 2014-м Google сбавил обороты, выпуская Панду раз в полгода. Алгоритм Панда работал как фильтр. То есть после оценки сайта основным алгоритмом Google, включающим 200+ факторов, сайт оценивал и Панда. Данные о качестве сайтов копились до очередного апдейта, после чего выкладывались разово, меняя всю картину гугл-выдачи.

Последний апдейт в июле 2015-го происходил совсем по иному сценарию. Алгоритм «раскатывался» в течение нескольких месяцев. И специалисты заговорили о встройке Панды в основной алгоритм Google.

Панда сейчас и в ближайшем будущем

И действительно, в своем твиттере Гари Илш подтвердил, что Панда теперь ЯВЛЯЕТСЯ частью основного алгоритма ранжирования:

Дженифер:
Превосходно, спасибо за подтверждение... и дополнение, что никаких других животных не появилось))

Гарри Илш:
Если сказать точно, Панда - теперь часть основного алгоритма, но мы не изменяли саму Панду. Никаких других животных.

При этом Илш опровергает возникшее предположение, что Панда обновляется в режиме реального времени:

Пит:
Я не уверен, в какой момент началось обсуждение Панды в режиме реального времени, просто пытаюсь разобраться.

Гарри Илш:
Панда в режиме реального времени - это неверно. Мы обновили основной алгоритм, и вне зависимости от этого мы рассказали чуть больше о Панде в интервью TheSEMPost.

И что все это значит? Как теперь работает Панда? На сегодняшний день (10 марта 2016) точного ответа нет (как это ни печально). Мы изучили интервью и просмотрели записи последних выступлений представителей Google по этому вопросу. Но их высказывания по теме очень туманны. Гари Илш на прямые вопросы об интеграции Панды ответил вот что:

Кеничи:
1. Панда теперь часть основного алгоритма ранжирования. Значит ли это, что Панда будет обновляться автоматически, а не вручную (даже если и не в режиме реального времени)?
2. Что это вообще за "Основной алгоритм ранжирования"? Насколько он отличается от остальных алгоритмов (не входящих в него)?

Гарри Илш:
Я переговорил с Джоном Мюллером о том, как ответить на ваши вопросы, чтобы было меньше путаницы. Решили так:

1. Мы продолжаем обновлять данные, которые используются для распознавания качественных сайтов, и мы выкладываем эти данные со временем. Иногда мы вынуждены делать ручные обновления, иногда это происходит автоматически, но не играет роли, как именно мы выкладываем данные.

2. Думаю, что это не лучший пример, но представьте себе двигатель автомобиля. Если в нем нет стартера, то водитель вынужден подходить к капоту и использовать какие-то инструменты, чтобы запустить двигатель. Сегодня стартеры есть в любых бензиновых двигателях, они встроены. Это сделало использование двигателя более удобным, но по сути ничего не изменилось.
Для пользователей и даже для вебмастеров не должно иметь значение, где какие компоненты расположены (в основном алгоритме или в других), это действительно не важно, и поэтому я думаю, что люди должны меньше фокусироваться на этом.

Кеничи:
Понял, что вы хотели сказать. В общем, для нас, вебмастеров, не важно, как работает алгоритм "внутри". Мы должны фокусироваться на создании контента уникального, качественного и неотразимого, как Джон Мюллер постоянно говорит.
Возможно, вы столь много раскрыли в последние несколько дней, что это вызвало мои вопросы (не поймите меня неправильно, я ни в коем случае не обвиняю вас). В любом случае, спасибо за ответы))

Попробуем резюмировать из этого (и других источников, с которыми мы ознакомились) основные мысли по новой Панде:

  • Панда может функционировать в автоматическом режиме (но пока НЕ онлайн режиме), т.е. обновления будут происходить периодически и будут запускаться по каким-то внутренним законам основного алгоритма.
  • Обновления Панды (в рамках основного алгоритма) будут происходить теперь чаще, чем было в последние годы.
  • Google больше не будет подтверждать апдейты Панды (как отдельного алгоритма) и вообще как-то их выделять. Так что узнать, попал ли сайт под Панду или позиции понизили по другим причинам, будет затруднительно.
  • Можно забыть про Панду, как фильтр или алгоритм. Работайте над улучшением сайта не ради Панды, а чтобы отвечать ОБЩИМ требованиям Google. Теперь качество контента – один из основных факторов ранжирования Google.

За что именно наказывает Панда?

– За откровенный копипаст

Если весь ваш сайт это сборник скопированных статей, то, скорее всего, он уже под Пандой. Если еще нет, то скоро будет.

– За отсутствие реальной ценности

Если страница хорошо оптимизирована и даже тексты технически уникальны, но информация никакой пользы не несет и на запрос пользователя не отвечает или отвечает общими, размытыми понятиями. А такое встречается часто, особенно когда вебмастера заказывают дешевые статьи для блога на биржах. Такие страницы могут стать жертвой Панды.

В общем и целом Google не против рекламы или ссылок. Но только если они уместны и не мешают пользователю. Если же реклама очень навязчива (особенно поп-ап окна) или рекламные блоки расположены так, что мешают прочтению, а ссылки на сторонние ресурсы проставлены к месту и не к месту и не являются тематическими, то Панда вас обязательно догонит.

А за что Панда не наказывает

В сети встречаются мнения, что приведенные ниже факторы могут навлечь Панду. Частично эта информация устарела, частично никогда не была правдой. Следующие 4 фактора к Панде отношения не имеют, но на ранжирование сайта (посредством других алгоритмов) влияют:

– Дублированные страницы

Дубли страниц на одном сайте это плохо. Но работает с ними не Панда, а отдельный фильтр за дубли.

– 404 ошибка

Тоже никак не привлекает Панду, хотя большое число ссылок, ведущих на страницу с ошибкой 404 в общем и целом, безусловно, плохо.

– Маленькие тексты и/или мало текстов

Панда НЕ наказывает за тексты маленьких объемов и НЕ наказывает за малое количество статей на сайте. Google отдает предпочтение качеству, а не количеству. И если ваш текст в 300 знаков хорошо отвечает на запрос пользователя, то это замечательно. Только вот надо уметь писать такие тексты.

Вот что пишет Джон Мюллер в форуме помощи вебмастеров:

Проблема малых объемов и малого числа статей на сайте заключается не в Панде. А в том, что в этом случае вы не сможете дать пользователю столько полезной информации, сколько могли бы. И ваш сайт будет показан по ограниченному числу запросов.

– Вовлеченность пользователя

В то же время комментарии к статьям (если они качественные) могут быть зачтены в карму сайта. Но не как сигнал вовлеченности пользователя, а как дополнительный контент, который появился на странице и учитывается поисковиком наравне с телом самой статьи.

И еще 5 спорных вопросов о Панде

– Панда атакует весь сайт или только те страницы, качество которых Google посчитал плохим?

Панда понижает только те страницы, которые были определены, как некачественные. Те страницы, которые алгоритм посчитал хорошими, не будут иметь проблем с ранжированием. Но, если на сайте слишком большое число плохого контента, то к такому сайту будет «предвзятое» отношение. И даже качественные материалы могут быть ранжированы ниже тех позиций, которых реально заслуживают.

– Страницы под Пандой могут быть показаны в поиске или это в принципе невозможно?

Представители Google говорят, что страницы, забракованные Пандой, могут быть показаны по очень специфическим (уточненным) запросам, если нет другой альтернативы. Но в целом, такие страницы так далеко в выдаче, что поискового трафика на них ждать не стоит.

– Надо ли удалять страницы, которые попали под Панду?

Нет, Google не рекомендует этого делать. Во-первых, вы по ошибке можете удалить страницы, которые Пандой вовсе не атакованы. Во-вторых, отсутствие контента никак не повлияет на улучшение ситуации. Сайт по-прежнему не будет показываться по продвигаемым в такой странице запросам.

Лучший способ решить ситуацию – переработать/улучшить контент на странице, которую вы подозреваете в присутствии Панды. Да и вообще, если вы сами считаете, что контент на какой-то странице плохой, то не ждите Панду, исправляйте сразу.

Привет, читатели. Сегодня публикую очередную интересную статью на наболевшую тему – . Наверняка, многие помнят, что 24 февраля этого года могучий гугл внедрил новый алгоритм, цель которого – ранжировать сайты по новой схеме.

Конечно, не сказать, что новый алгоритм изничтожил все сайты из выдачи, но 12% всех поисковых результатов были пересмотрены, причем, не в лучшую для владельцев сайтов сторону. Результат применения Google Panda невозможно было не заметить. На многих сайтах трафик с гугла упал в два раза. У многих и того больше.

Быть может, вы и не ощутили на себе действие этого алгоритма, но не стоит радоваться прежде времени. Никогда не поздно попасть под загребущие лапы Google Panda. В этой статье я расскажу про сам алгоритм, а также о том, как его можно обойти.

Ответьте на вопрос: вот вы готовы к тому, что в один прекрасный день SE трафика на вашем сайте станет ровно в два раза меньше? Если нет, то могу заверить, что от такого сюрприза не застрахован никто. Но для начала давайте поговорим о том, как выявить факт попадания вашего сайта под удар Google Panda

Как выявить попал ли сайт под фильтр Google Panda?

Вообще, можно использовать разные системы статистики, но лучше всего использовать Google Analytics, т.к. именно эта система статистики разработана непосредственно в кулуарах ПС Google, и никто кроме нее не отражает настолько точно статистику гугла.

Наверняка, многие, у кого есть англоязычные сайты, которые представлены в американской выдаче, смогли ощутить на своих сайтах удар Панды. Ниже я покажу, насколько катастрофичен ущерб, причиняемый Google Panda. Но, кроме этого, мы посмотрим, как выявить факт применения фильтра к вашему сайту, и искать пути решения проблемы.

Конечно, Google Panda в первую очередь ударила по американской выдаче. В ру гугле все значительно проще, нет таких жестких ограничений, но все равно, рекомендую ознакомиться с данной статьей, чтобы быть готовым к встрече с новым алгоритмом.

Ну, а теперь к делу. Самое первое, что нам нужно будет сделать – это зайти в свой аккаунт Google Analytics. Не у всех ребят, работающих в рунете, есть сайты, ориентированные на выдачу США, поэтому если зайдете в аккаунт GA, и увидите то, что на скриншоте ниже, то можно подумать, что все нормально, и Google Panda обошел вас стороной:

Но, правда, это только первое впечатление. На самом деле все значительно сложнее, и копать здесь нужно глубже. В аккаунте Google Analytics переходим на вкладку «Источники трафика» (Traffic Sources), после этого переходим – «Поисковые машины» (Search Engines). Затем выбираем non-paid (не оплачиваемые):

Здесь виден расклад по поисковикам. Стрелочкой отмечена поисковая система Google. Нажимаем сюда. Это нужно для того чтобы видеть статистику по трафику исключительно по этой поисковой системе.

Далее жмем на вкладку «Ключевые слова» (Keywords). На скриншоте вы можете увидеть ее в зеленой рамочке. Появляется такое вот большое меню, как видно снизу на скрине. Из этого меню выбираем «Country/Territory». Этот элемент выделен в красную рамку. Делаем это для того чтобы поставить фильтрацию данных по определенной стране. Нажимаем на этот элемент:

Здесь на скриншоте хорошо видно, что, начиная с 24 февраля, траф с гуглопоиска значительно просел. Более чем на 50%. Скажите, это причина для расстройства?

Смотрим на левое меню. Здесь выбираем Advanced Segments , а после этого создаем новый сегмент. В этом сегменте указываем следующие настройки:

Этот сегмент можно назвать как вам больше нравится. Здесь, например, он называется «G US organic». Теперь сохраняем этот сегмент. Далее все наши данные будут относиться только к посетителям, приходящим на наш сайт из органического поиска США, из поисковой системы Google.

В общем, это все пока только на словах. На деле же, давайте попытаемся понять, для чего вообще нужен Google Panda. Главное назначение Google Panda – почистить выдачу от УГ сайтов.

Мэтт Катс (Matt Cutts) заявил, что Google Panda ударит по:

    Сайтам, имеющим много бесполезного контента

    Сайтам, наполняемых копипастом

Все это нужно для того чтобы «дать дорогу» в топ качественным сайтам, имеющим оригинальное и интересное наполнение, сайтам, которые не забиты «под завязку» рекламой.

Конечно, в первую очередь от фильтра Google Panda пострадают ГС. Но фильтр несовершенен, поэтому создатели фильтра прекрасно понимают, что от него могут пострадать и нормальные сайты, а потому при возникновении проблем можно смело связываться через фидбэк.

Кстати, в данном примере рассмотрен нормальный сайт – СДЛ, а не какой-то УГ. Фундамент этого сайта – качественные статьи, написанные различными специалистами. Кроме того, к сайту прикручен сервис наподобие Q and A (вопрос-ответ), где все участники могут найти ответы на интересующие их вопросы. Да, сервисы Q&A по идее могут быть мишенью для Google Panda, потому что страницы таких сервисов часто содержат мало контента. Но есть факты, когда Google Panda косила и нормальные контентные сайты, где нет ни форумов, ни других сервисов наподобие Q&A.

Когда вас может «накрыть» Google Panda?

Конечно, ни один из разработчиков Google Panda (Мэтт Катс и Амит Сингал) тайну не раскрыли, но все-таки из их интервью журналу Wired можно сделать определенные выводы относительно нюансов работы данного фильтра

Ниже представлен список потенциальных факторов, по совокупности которых можно попасть под удар Google Panda:

    Большое количество копипаста. По наблюдениям, самое страшное то, что за копипаст может быть пессимизирован весь сайт, а не отдельные его страницы

    Значительное превалирование на сайте неуникального контента над уникальным

    Нерелевантность страницы поисковым запросам, по которым она продвигается, либо находится в выдаче

    Переоптимизация страницы

    Высокий показатель отказов

    Мало времени, которое пользователи проводят на сайте

    Незначительный процент возвратов

    Много некачественных ссылок на страницах. Некачественных, в смысле – нетематических и ссылок, ведущих на откровенные ГС

Ладно, если ваш сайт подходит только под один из этих пунктов, это еще ничего. Но если он подходит под многие, то это может быть причиной удара Google Panda. Кстати, необходимо научиться различать штрафные санкции от бана в целом. И ваш сайт будет находиться в ауте до тех пор, пока вы не поднимете его качество на новый уровень. Google Panda – это очень серьезный алгоритм, и если на вашем сайте есть несколько страниц с откровенным Г, то это может быть причиной «потопления» всего сайта, хотя все остальные страницы сайта могут быть с качественным контентом.

Есть возможность посмотреть, как был наложен фильтр: на уровне сайта или на уровне страниц

Если фильтр был наложен в рамках всего сайта, то наверняка вы это увидите и невооруженным глазом, потому что это скажется на всех страницах сайта. Если использовать наш пример, то можно использовать отчеты «G US organic», и увидеть вот что…

Идем в Content > Top Landing Pages. Без комментов, все и так видно:

Это статистика для лендингов. То есть, для отдельных страниц. Здесь их 4272. Для того чтобы узнать, все ли страницы пострадали от Google Panda, нам нужно немного похимичить с отчетами в гугл аналитикс:

    Нужно сделать отчет по самым важным для нас страницам

    Нужно сделать отчет по группам страниц. Можно сделать сортировку по урлам. Например, отобрать только страницы, которые содержат слово forum

Делается это просто:

Выше я говорил о том, что Google Panda накладывает фильтр на весь сайт. Такое мнение, во всяком случае, витает по форумам. Но на самом деле, когда я сделал анализ нескольких сайтов согласно описанным выше мною фильтрам, то пришел к мнению, что Google Panda фильтрует все-таки не весь сайт, а только на уровне страниц, а значит не все так уж страшно, как изначально казалось.

Анализируйте, какой тип страниц фильтрует Google Panda

В том случае, если вы уже получили оплеуху от Google Panda, то анализируйте ваш сайт согласно фильтрам, которые я приводил выше. Это позволит узнать, какой тип страниц зафильтрован. Я находил интересные факты. Например, то, что под фильтр попадали «тяжелые» страницы, с большим количеством контента, уникального, между прочим. И видел много страниц, на которых контента было на несколько тысяч символов, и все равно такие страницы попадали под фильтр. Причина? Просто на этих страницах было чересчур много рекламы. А на некоторых сайтах наоборот, трафик из гугла подрос. И на них тоже была реклама, но ее было значительно меньше. Разумеется, это не полный список всех действий для выявления/защиты от Google Panda. На некоторых сайтах, которые попали под Google Panda, поснимали абсолютно всю рекламу. Правда, пока сильных изменений замечено не было. Прошло еще слишком мало времени, чтобы делать какие-то выводы

Известно, что алгоритм Google Panda представляет собой совокупность обновлений систем поиска, нацеленных на увеличение релевантности страниц в выдаче. Для этого берется во внимание около ста различных факторов. В результате анализа сайты с низким качеством контента и выраженной переоптимизацией понижаются в выдаче.

Особое внимание алгоритм «Панда» уделяет внутренним факторам, в первую очередь текстовому контенту. Рассматривается его объем, уникальность, степень заспамленности ключами и прочее. Тем самым Panda дополняет другой алгоритм Google - Penguin, отвечающий за внешние факторы ранжирования сайта.

Также во внимание берутся процент отказов, логичность структуры сайта и правильность перелинковки.

Близкого знакомства с «Пандой», конечно, лучше сторониться. Но если сайт все же попал под фильтр, важно своевременно узнать об этом. Достоверно определить этот факт невозможно, так как информация о дате выхода обновлений Google «Панды» отсутствует. Но косвенным свидетельством попадания под фильтр будет снижение числа посетителей из ПС Гугл. Стоит отметить, что фильтр накладывается на весь сайт, поэтому, выполняя работы по выводу, необходимо уделять внимание ресурсу в целом.

Как определить, что сайт под фильтром Google «Панда»?

Воспользуйтесь сервисом проверки уникальности текстов - например, WebSite Auditor, Advego Plagiatus или любым другим Вам доступным, но при этом корректным. Необходимо определить уникальность всех документов на сайте. Если большая часть контента (от 20% и более) скопирована из других источников, рекомендуем принять меры по уникализации проблемных участков.

  1. Смотрим на содержательность контента. Пользователи должны находить на странице необходимый ответ на свой вопрос. Проверку на фильтр Гугла по этому параметру также должны пройти все страницы.
    • Необходимо наполнять страницы сайта максимально информативным и развернутым контентом: текстовым, графическим, медийным. «Панда» оценивает не только текстовую релевантность, но и общее наполнение страницы.
    • Следует удалить повторяющийся контент, который не терпит алгоритм Google Panda.
  2. Нужно проверить тексты на переизбыток ключевых слов. «Панда» накладывается за переспамленность.
  3. При подготовке нового качественного контента для сайта принимайте во внимание, насколько вовлечены пользователи, на основании статистики систем аналитики Гугла.
  4. Необходимо выстаивать правильную структуру сайта с логичной перелинковкой внутренних страниц.

Как перестать быть интересным алгоритму Google Panda?

В первую очередь необходимо сделать полный аудит сайта и определить, что могло вызвать наложение фильтра. Далее можно приступать к устранению недочетов.

  1. Уделите особое внимание контенту. Объем текста должен превышать 400 символов. Чтобы избежать попадания под действие фильтра Гугла «Панда», не менее важно отредактировать текст: он должен быть содержательным, удобочитаемым и уникальным. Дубли страниц необходимо удалить. Следует также подчистить от лишних ключей сам текст, а также заголовки и метатеги. Важно, чтобы сайт был в должной мере наполнен информацией, полезной для посетителей (например, новостями, статьями, разделами «Вопрос – ответ» и прочим).
  2. Постройте правильную структуру сайта. Это ключевое требование для правильной перелинковки страниц. Также важно исправить все технические ошибки сайта.
  3. Избавьтесь от нерелевантной рекламы. Если на странице имеются агрессивные всплывающие окна, поп- и кликандеры, пусть даже и по теме, не сомневайтесь, что интерес со стороны Google «Панды» - лишь вопрос времени. Решите сами, стоит ли потенциальная выгода от такой рекламы порождаемых ею рисков.
  4. Определите работоспособность ссылок (как внешних, так и внутренних). Для этого отлично подойдет плагин Broken Link Cheker или сервис Netpeak Spider . Не помешает добавить и дополнительную навигацию.

Главное при этом - помнить, что цель алгоритма «Панда» заключается в блокировке плохого контента. Google Panda любит большое количество уникального контента. Чем его больше, тем выше вероятность, что фильтр снимут. Нужно только периодически индексировать страницы.

Это основные рекомендации, которые позволят избежать санкций со стороны Гугла. Их можно использовать в качестве базовых еще на этапе создания сайта, его наполнения и продвижения. Чем более содержательным будет веб-ресурс, тем меньше ему угрожает этот алгоритм. Соответственно, позиции в выдаче будут предельно устойчивыми.

Если сайт попал под фильтр, то до следующего апдейта он уже не сможет освободиться от влияния Google Panda. Именно поэтому лучше предупредить проблемы, чем потом их решать.

Полезно 1