Добрый день мои дорогие читатели. Сегодня я расскажу чем опасны авто наполнения для сайтов и почему лучше их не использовать.

Итак, приступим.

Создавая сайт на свежем зарегистрированным домене или домене с историей мы показываем интернету — что мы пришли к тебе друг наш, открывай для нас просторы. Но кто правит в интернете? Конечно же поисковые машины, такие как Яндекс, Гугл, Рамблер, Mail и ряд других, я перечислил только основные в России. Что делает поисковый робот этих машин? Он целыми днями и годами постоянно открывает все страницы сайтов и изучает информацию на них. Какую то информацию он откладывает на получку а какую то попросту пропускает. Так почему же вредно делать авто наполнение блогов?

Возвращаясь к началу статьи мы поняли что все начинается с роботов. Вы создали сайт, постепенно сделали разделы, постепенно пишите или покупаете статьи. Это делается плавно, поскольку физически сложно наполнить сайт в ручную, особенно уникальным материалом, а мы знаем что только уникальный материал ценен в наше время.





уникальное в сети

И вот многие вебмастера и просто начинающие блогеры начинаю ломать голову, как заполнить свой ресурс. Зачастую такие мысли посещают блогеров или вебмастеров, которые уже вытащили один сайт вверх и потратили на это год-два-три, а теперь перед страхом создания и подъема еще одного сайта в такой же промежуток времени сходят с ума от одной только мысли об этом.

И тут приходят на помощь всеми известные парсеры. Парсеры есть практически на любом движке, но ест ьи уникальные типа датакола, ему без разницы что парсить, главное указать данные и блоки для парсинга. Но насколько это безопасно.

Представим что мы это поисковый бот. Мы гуляем по сайту, и еще вчера он имел 2-3 статьи и мы их проиндексировали и выбрали куски под ключи и дескрипшены, и тут на следующий день мы заходим на сайт и видим более 1000 новых страниц или статей, в разных рубриках. Причем на многих страницах стоят ссылки и коды на другие ресурсы. Конечно мы понимает что добавить за 1 день даже 100 страниц практически не возможно, если только не работает целая команда людей. И причем все это на блоге на котором буквально вчера было 2-3 статьи. Итог — вся информация не воспринимается а сам сайт понижается в рейтинге поисковой выдачи.

Игры с парсерами опасны

Однажды напарсив себе контента на скорую руку, вы поймете что совершили большую ошибку, поскольку поисковые системы понизят сайт в выдаче, несмотря даже на то, что до этого были определенные ключи и позиции с уникальных материалов. Ни в коем случае не стоит делать парсинг. Да это может принести большой индекс страниц, по аналогии мыслителей «возьмем объемом». Мне жаль смотреть на то, что я вижу сайт в индексе которого больше 50000 страниц а посещаемость болтается в районе 20-30 уников в сутки. Это печально друзья. И возьмем некоторые примеру сайтов в которых в индексе 200 страниц а посещаемость более 1000 в сутки, все дело в плавном добавлении контента, запомните ничего в жизни быстро не бывает, добавляя в день хотя бы по одной статье, вы дадите понять системам, что не просто так пришли в сеть, а с серьезными намерениями. Советую добавлять каждый день уникальные новости, желательно в одно и тоже время, чтобы держать робота на сайте. У меня есть сайт на котором 56 роботов круглые сутки, за счет пинга и уникальных статей.

Разбирать алгоритм работы парсера смысла не имеет, а вот одну вещь стоит сказать, что во многих случаях весь контент имеет скрытые ссылки на ресурс первоисточник, будь то в виде картинки или в виде ссылки от копи-паста, и представьте что на вашем сайте все эти ссылки будут захламлять его и делать писсимизацию сайта и без того заваленного хламом. Думайте. Читайте и подписывайтесь на мои новости я расскажу вам много интересного.