SEO и заработок

Связаться со мной


SEO словарь

19
Ноя

Какие существуют фильтры Яндекса? 6 топ-фильтров Яндекса

Основные фильтры Яндекса накладываемые на сайты. Как избежать наложения фильтра на сайт?

Какие существуют фильтры Яндекса? 6 топ-фильтров ЯндексаО том что такое бан сайта и фильтры, накладываемые на сайты, уже говорилось в статье про бан в Google и фильтры Google. По сути разницы в назначении бана и фильтров у разных поисковых систем нет. Поэтому чтобы не повторяться в данном вопросе перейдём сразу к фильтрам, которые использует поисковая система Яндекс.

Топ-фильтров у Яндекса шесть. К ним относятся следующие:

1. «Ты последний». Это наложение тотальной пессимизации. Накладывается за наличие на сайте неуникального контента. Яндекс может также выкинуть такой ресурс из индекса. Если произошло только понижение, следует переделать сайт и ожидать следующего апдейта.

2. «Спам фильтр». Накладывается на сайты, которые злоупотребляют поисковыми запросами. Иногда такой фильтр может быть наложен на доброкачественный сайт, если в контенте высокое насыщение ключевых слов. Выход есть – уменьшить количество ключевых слов до 4-7% и дождаться обновления.

3. «Непот фильтр». Накладывается на сайты, которые занимаются непотитским спамом, или продажей ссылок. Ресурсы, которые растут за счет таких сайтов, не штрафуются, потому что с фильтрованием непотитских сайтов их рейтинг все равно упадет.

4. «Фильтр аффилиатных сайтов». Накладывается на растиражированные сайты, принадлежащие одному владельцу или системе. Фильтр накладывается таким образом, что от всего тиража остаётся один сайт, который поисковик выявляет как наиболее релевантный.

5. «Фильтр новых доменов». Фильтр совсем несложный. Свежезарегистрированные сайты не пускаются в ТОП выдачи. Применяется такой фильтр для тех сайтов, которые претендуют на высоко конкурентные позиции. Фильтр снимается, когда регистрации исполняется год.

6. «АГС». Под фильтр попадают сайты со следующими параметрами:

  1. Те, что торгуют спамовыми ссылками;
  2. Возраст домена не трастовый;
  3. Есть дисбаланс между входящими ссылками и исходящими ссылками;
  4. У сайта неравномерный трафик;
  5. Страницы сайта дублируются и контент неуникальный.

После наложения этого фильтра сайт лишается практически 99% своего контента в поисковой выдаче.

19
Ноя

Что такое бан сайта поисковой системой Google? Фильтры Google

Что такое бан Google? Фильтры Google. Какие бывают фильтры Google?

Что такое бан сайта поисковой системой Google? Фильтры GoogleФильтры Google созданы для понижения сайта в поисковике (поисковой выдаче), а также для его бана.

Бан в Google — это высшая мера наказания для сайта, т.к. в результате бана из индекса поисковой системы выпадают все страницы сайта. Под фильтры сайт может попасть автоматически, а бан, обычно, уже наносится модератором поисковой системы. Как правило, сайты попадают под бан Google если они используют чёрные методы продвижения (Black SEO). Сервис, который поможет определить забанен домен или нет — Google Banned Checker.

В данной статье перечислены только основные фильтры и краткое их описание, которое поможет вам избежать получения санкций со стороны поисковой системы Google.

«Google Sandbox» — фильтр – песочница для сайтов, которые созданы менее полугода назад. Не позволяет таким сайтам быстро продвигаться по высокочастотным запросам.

«Google-30» — опускает позицию сайта на тридцать пунктов вниз. Применяется к сайтам, которые подозреваются в использовании Black SEO.

«Google Bombing» — используется для сайтов, к которым ведет очень большое количество ссылок с одинаковым тегом внутри.

«Google Duplicate Content Filter» — используется для сайтов, которые воруют контент.

«Google Domain name Age Filter» — фильтр возраста доменов. Чем старше, тем большим доверием он пользуется у поисковика. Если регистрация старая, а сайт все равно ранжируется плохо, следует нарастить внешние ссылки с надежных сайтов.

«Google’s Trust Rank Filter» — ранг доверия сайту. Многосложный фильтр со множеством факторов влияния.

«Reciprocal Link Filter» — фильтр накладывается на сайты, которые принимают участие в продаже ссылок.

«Link Farming Filter» — если Google обнаруживает, что сайт принимает участие в системе автоматического генерирования ссылок, то накладывает именно этот фильтр и понижает его позиции.

«CO-citation Linking Filter» — фильтрует логику взаимного цитирования ссылок по общей теме.

«To many links at once Filter» — обнаруживает резко возросшее количество ссылок по обмену. Их нельзя наращивать внезапно, Google их обнаруживает и удаляет такие сайты. Также негативной будет реакция на резко выросший объем контента. Сайт должен наполняться постепенно.

«Broken Link Filter» — накладывается на сайты, которые используют ссылки, ведущие на несуществующие страницы.

«Page Load Time Filter» — фильтрует сайты, загрузка которых продолжается слишком долго.

«Over Optimization Filter» — фильтр для чрезмерно оптимизированных сайтов. Не стоит злоупотреблять ключевым словами. Google относит такие сайты к категории использующих Black SEO и выбрасывает из поиска.

Google Panda — новый фильтр, который способен объединить почти все вышеперечисленные фильтры, т.к. он накладывается на сайты с не уникальным контентом, с обилием рекламы, когда на сайте мало контента, сайт является откровенным ГС и т.д. Определить наличие фильтра наложенного на сайт можно проанализировав его посещаемость, обычно страницы не выпадают из индекса, но трафик значительно уменьшается или вообще прекращается.

Существует множество способов вывести сайт из под фильтров Google, но все они сводятся к улучшению контента, снятию рекламных ссылок, внутренней оптимизации, улучшению поведенческих факторов, естественному росту ссылочной массы и другим методам белой оптимизации.

19
Ноя

Поисковая система Google. Сервис для веб-мастеров Google WebMaster Tools

Поисковая система Google. Сервис для веб-мастеров Google WebMaster Tools для эффективной работы с поисковой системой.

Поисковая система Google. Сервис для веб-мастеров Google WebMaster ToolsGoogle — самая популярная поисковая система, находится на первом месте в мире. Для вебмастера поисковая система является важным ориентиром для продвижения своего сайта и получения максимального трафика. У каждой поисковой системы есть свои сервисы и услуги по продвижению и мониторингу сайтов. Именно таким сервисом является Google WebMaster Tools.

Google WebMaster Tools (инструменты для веб-мастеров) — это сервис для тесной работы в области SEO и статистики, он предназначен для работы с сайтами и улучшением их параметров.

Функциональная панель Google WebMaster состоит из самого необходимого, того что нужно для ведения статистики в поисковой системе, кроме этого, сервис может определять и указывать на ошибки, которые допустили вебмастера при создании сайта.

Сервис сможет определить скорость загрузки стартовой страницы сайта и покажет как робот индексирует сайт. Еще одна функция сервиса — постоянный мониторинг и анализ Robots.txt и файла Sitemap.xml, робот всегда укажет, что сделано неправильно и на что необходимо обратить своё внимание и заняться доработкой. С помощью сервиса можно посмотреть обратные ссылки на сайт, внутреннюю перелинковку, ключевые слова, поисковые запросы, подписчиков и другие параметры сайта. Также можно проследить за правильной индексацией сайта и доступностью сканера. Кроме этого в сервисе есть много других полезных настроек для сайта.

Чтобы начать работать с данным сервисом необходимо добавить в него свой сайт, разместить файл кода сервиса в корне своего сайта для подтверждения своих прав на сайт. Также можно указать, что у сайта есть зеркало с www и указать какой сайт с www или без www является основным. Это делается для того, чтобы не дублировать контент сайта в поисковой выдаче.

В панели также имеется сервис, который просканирует все страницы вашего сайта и определит наличие встроенных программ подвергающих контент сайта и сам сайт угрозе.

18
Ноя

Бэклинки. Донор и акцептор. Сквозная, прямая, абсолютная, жирная ссылка

Что такое бэклинки? Какие бывают сайты/страницы при обмене ссылками? Какие бывают ссылки по размещению на сайте/странице и по качеству/весу?

Бэклинки. Донор и акцептор. Сквозная, прямая, абсолютная, жирная ссылкаБеки (бэклинки, backlinks) ( англ. back — обратно, назад) — количество страниц, которые ссылаются на ваш сайт. В последней интерпретации SEO под беками подразумевается количество ссылающихся сайтов, а не страниц. Во многих поисковых системах при ранжировании основное значение имеет ссылочная масса. Поэтому чем больше беков, тем лучше. Безответные ссылки имеют больший вес.

Донор – сленговый термин, который обозначает веб-сайт, созданный для влияния на уровень ранжирования в поисковике по отношению к другим сайтам, называемыми акцепторами, то есть теми, на которые ссылается донор.

Акцептор – это принимающий объект. В области SEO акцептором называют страницу, документ или на которую ведет ссылка. Сайт, на котором размещена ссылка, называется донором. Таким образом создается так называемый донорно-акцепторный механизм.

Сквозная ссылка (Сквозняк) в рейтинге Google самая высокая разновидность ссылки. Сквозной ссылкой называется ссылка на любой сайт, наявная на всех страницах сайта, который дает ссылку. Страницы такого сайта обязательно должны быть проиндексированы. Имеет значение, чтобы ссылка была расположена на второстепенных страницах.

Прямой ссылкой называется такая ссылка, которая ведет на ваш сайт прямым путём ( не через редиректы в отличие от кривой ссылки). Такую ссылку учитывает поисковый робот при ранжировании сайта в поисковой выдаче.

Сильной ссылкой (толстой ссылкой, жирной ссылкой) – называется ссылка или гиперссылка со страницы с доказанным высоким авторитетом, проще говоря с высокими пузомерками. Авторитет каждый поисковик определяет по-своему. К примеру, у Google это PageRank (PR), а для Яндекс –это индекс цитирования (ИЦ).

Абсолютной ссылкой называется ссылка, которая прописывается с указания протокола (обычно http://) и содержит полный урл, на который ссылается.