Фильтры Google
Фильтры Google заставляют неопытных и нечестных оптимизаторов «играть» только по правилам и доставляют немало хлопот новичкам. Так, даже по незнанию, очень легко угодить в бан.
Как известно, поисковики не ограничиваются одним только определением релевантности сайтов поисковым запросам. Хитрые SEO-специалисты давно научились превращать любой текст в идеально соответствующую запросам жвачку, но совершенно неудобоваримую для обычных пользователей. И даже рекомендации других сайтов и внешние ссылки больше нельзя рассматривать как гарантию качества, так как они покупаются и продаются чуть ли не чаще, чем ставятся добросовестно.
Первый фильтр, под который попадают абсолютно все сайты — это так называемая песочница. В нее попадают молодые и только что проиндексированные сайты, которым еще только предстоит доказать свою полезность. Снятие фильтра происходит также автоматически, если сайт за отпущенный срок успеет зарекомендовать себя с лучшей стороны и ни в чем не провинится. Обычно это занимает до полугода, но как только сайт пройдет этот этап, все ограничения будут сняты.
Еще один фильтр, от которого часто страдают неопытные SEO-специалисты, называется Google Bombing. Он был введен не так давно и отслеживает текст внешних ссылок, ведущих на сайт. Если переусердствовать и заказать несколько сотен ссылок с абсолютно одинаковым текстом, то такая раскрутка сайта приведет к прямо противоположному эффекту, так что текст ссылок надо разнообразить хотя бы перестановкой слов и заменой падежей. Также этот фильтр могут использовать конкуренты для искусственного занижения релевантности сайта соперника, поэтому необходимо регулярно следить за количеством внешних ссылок и отслеживать их спонтанные изменения. Если таковые обнаружатся, лучше сразу написать в поддержку Google, а не ждать, пока их заметит поисковый робот и применит к сайту фильтр. Потом объясниться с саппортом будет гораздо сложнее.
Сайты, активно занимающиеся копированием информации, могут внезапно оказаться под фильтром дублирующегося контента. У него есть целый ряд дополнений и расширений, помогающих определить дубликаты, но результат всегда один – помеченные им страницы попадают в дополнительные результаты выдачи, после чего любая оптимизация сайта им уже не поможет.
Показываются они только если все остальные источники вдруг станут недоступными, а это равносильно полному исключению из индекса. Поэтому, если избежать копирования уже никак не получается, надо предварительно отдавать тексты на рерайт, иначе продвинуть сайт просто не получится.
Моему бложику о здоровье уже почти 3 месяца, осталось еще столько же поразвиваться и бложик подрастет, станет Блогом и пойдет в Гутелинкс ))
Здравствуйте, Дмитрий.
Можно вопрос по фильтрам? Не встречались ли вы или нету каких соображений по работе с гуглом.
В общем ситуация такая, закупались массово ссылки на сайт, около 3х тысяч за 2 месяца. Большая половина в индексе все ок. Домен старый, гугл его всегда жаловал. И тут внезапно пару дней назад все релевантные страницы в гугле перемешались. Например раньше по запрос «купить слова» была страница купить_слова.хтмл, теперь sitemap.html и так 90% запросов. Главная страница лишь на некоторых осталась, позиции там тоже слетели но не так. Сама главная почему то откатила кэш на полумесячной давности. С 7 сентября на 20тые числа Августа.
Хотелось бы услышать ваши мысли, сайт палить не буду, но на вопросы отвечу.
Если честно, то никогда не сталкивался с такой ситуацией. Сергей, а переспама по анкорам ссылок не было?
Да нет вроде бы.
В общем прошла вот почти скоро неделя, скорее всего не глюк какой то.
Наверное стоит отправить на перерассмотрение в гугл?
Есть кто живой?
Дмитрий, а не стыкались с пессимизацией большинства запросов в гугле, причем под -100 -200 позиций?
К счастью не сталкивался