Отбор доноров по показателям индексации ссылок |
||
15:07 20 сентября 2013 — Хиврин Николай |
Сегодня закупка эффективных ссылок является сложной математической задачей, но её решение сводится не только к тому, чтобы выбрать максимально трастовые ресурсы, которые передадут продвигаемому сайту максимально большой вес.
В этой статье я хочу рассказать, как мы боремся с недобросовестными вебмастерами, которые препятствуют индексации купленных ссылок.
Рассмотрим ситуацию, когда донор нормально индексируется поисковыми системами Яндекс и Google. Вы покупаете ссылку на странице, которая давно проиндексирована поисковыми системами. На доноре она размещается, и вы ждете её индексации.
Проходит неделя, вторая, месяц, а ссылка все не попадает в индекс поисковых систем. Заходите на страницу донора и видите, что ссылка стоит. Продолжаете ждать, а ссылка все не попадает в индекс.
Оказывается, хитрые вебмастера специально подменяют контент сайта, отдаваемый поисковым системам для индексации и просто не включают в него купленные ссылки. Проверить это руками фактичеки невозможно, так как вы не можете зайти на сайт с IP-адреса поисковой системы Яндекс.
В общей массе бирж доля таких доноров приближается к 30%. Таким образом, если не фильтровать подобных доноров, то 30% бюджета будет тратиться впустую.
Как мы решаем эту проблему?
На помощь приходит возможность анализа всей базы закупки ссылок в MegaIndex. Почти на всех донорах, которые проходят наши сложные фильтрации и проверки, алгоритм MegaIndex закупает десятки или сотни ссылок на различные сайты.
Если мы отобрали донор для закупки, разместили на нем множество ссылок, а большая часть этих ссылок все никак не попадает в индекс, то такой сайт мы добавляем в black-лист навсегда.
Пример такого анализа:
По данному критерию для доноров с тИЦ от 300 мы полностью занесли в black-лист около 2000 сайтов.
А понижающие коэффициенты по этому критерию получили ещё 5000 доноров в диапазоне тИЦ от 300.
Использование масштабного анализа базы закупки MegaIndex только на этом методе фильтрации позволяет экономить нашим клиентам до 30% бюджета на закупку ссылок.
В этой статье я хочу рассказать, как мы боремся с недобросовестными вебмастерами, которые препятствуют индексации купленных ссылок.
Рассмотрим ситуацию, когда донор нормально индексируется поисковыми системами Яндекс и Google. Вы покупаете ссылку на странице, которая давно проиндексирована поисковыми системами. На доноре она размещается, и вы ждете её индексации.
Проходит неделя, вторая, месяц, а ссылка все не попадает в индекс поисковых систем. Заходите на страницу донора и видите, что ссылка стоит. Продолжаете ждать, а ссылка все не попадает в индекс.
Оказывается, хитрые вебмастера специально подменяют контент сайта, отдаваемый поисковым системам для индексации и просто не включают в него купленные ссылки. Проверить это руками фактичеки невозможно, так как вы не можете зайти на сайт с IP-адреса поисковой системы Яндекс.
В общей массе бирж доля таких доноров приближается к 30%. Таким образом, если не фильтровать подобных доноров, то 30% бюджета будет тратиться впустую.
Как мы решаем эту проблему?
На помощь приходит возможность анализа всей базы закупки ссылок в MegaIndex. Почти на всех донорах, которые проходят наши сложные фильтрации и проверки, алгоритм MegaIndex закупает десятки или сотни ссылок на различные сайты.
Если мы отобрали донор для закупки, разместили на нем множество ссылок, а большая часть этих ссылок все никак не попадает в индекс, то такой сайт мы добавляем в black-лист навсегда.
Пример такого анализа:
По данному критерию для доноров с тИЦ от 300 мы полностью занесли в black-лист около 2000 сайтов.
А понижающие коэффициенты по этому критерию получили ещё 5000 доноров в диапазоне тИЦ от 300.
Использование масштабного анализа базы закупки MegaIndex только на этом методе фильтрации позволяет экономить нашим клиентам до 30% бюджета на закупку ссылок.
Понравился пост?Да НетПонравилось 17, не понравилось 0 |
Расскажите о нас... |
25 комментариев
+ Добавить комментарийМы делаем снятие атоматически, там где доноры плохие и ждать смысла нет.
Если трастовый сайт продаёт немного ссылок, как правило, поисковики санкций к нему не принимают, однако ссылки не индексируют или индексируют минимум.
Те 30%, о которых Вы ведёте речь, в большинстве, думаю, именно такие.
За выбранный путь на покупку эффективных и работающих ссылок большое спасибо!
В мечтах отсев ГСов доноров по признаку трастовости сайта ХТ-показатель. Сейчас приходится вычищать руками, но результат того стоит. Ведь кроме 50% экономии бюджета продвигаемые сайты резко скакнули в ТОП-10 по СЧ-запросам! Если будет автоматизирована и эта функция - цены вам не будет!!!
С уважением,
Алексей
Подскажите, а где этот функционал реализован?
Сам пользуюсь ХТ-показателем, но на мегаиндексе ничего не нашел. Может не там искал?
Заранее благодарен.
Но чесн слово, описанный подход это в дом через трубу. Работайте проще, чекайте ссылки на индексацию и удаляйте, те что не в индексе. Анализируйте Яндекс, он уже все придумал и сделал. Хотя я понимаю, надо же чем-то себя занять :) Так что, спасибо за пост, все-равно!
Вы полагаете, что таких хитрых, которые считают, что получить бан за клоакинг лучше, чем быть как-то наказанным Яндексом за продажные ссылки, 30%?
Мне кажется, причины неиндексации ссылок другие, а клоакингом развлекаются единицы.
С уважением,
Алексей
Отличный пост. Не знал, хочу подписаться на вас чтобы узнать о других интересных хитростях.
Только я не понимаю вы используете базу SAPE ?
Входит ли туда CMSE ?
Есть ли Trustlink база ?
Mainlink и Linkfeed тоже имеют свои базы.
Вообщем об этом хотелось бы подробнее тоже.
А как точно узнать есть ли на сайте Клоака ?
Ведь ваш метод основан на выжидании.. или вы смотрите данные по кэшу Яндекса?
1) Чем чаще на сайтах обновляется информация, тем чаще он переиндексируется поисковыми системами.
Следовательно, если сайт старый и статичный вдруг начал размещать ссылки - пройдёт очень много времени, прежде чем они попадут в индекс.
Если сайт уже давно продаёт ссылки, а соответственно, содержимое его страниц часто меняется (пропадают ссылки и появляются новые), то поисковые системы будут часто заходить на него.
2) У яндекса есть прекрасный функционал (который, кстати, возможно скоро уже закроют), который позволяет искать по документам, проиндексированным за определённую дату.
Посмотрите, как много сайтов (и даже главных страниц) были проиндексированы в прошлом году и с тех пор больше не посещались роботом: http://yandex.ru/yandsearch?text=%D0%B3%D1%80%D1%83%D0%B7%D0%BE%D0%BF%D0%B5%D1%80%D0%B5%D0%B2%D0%BE%D0%B7%D0%BA%D0%B8&site=®ion_name=&rstr=&zone=all&wordforms=all&within=777&from_date_full=01.01.2012&to_date_full=31.12.2012&from_day=1&from_month=1&from_year=2012&to_day=31&to_month=12&to_year=2012&numdoc=50&lr=213
чтоб выдало список всех закупленых ссылок в порядке очерёдности их закупки, а не по списку запросов?
думаю что вашим програмистам не проблема добавить такую возможность
А быть может выбросите эти сайты в паблик, чтобы и мы их забанили? ))
А ведь на закупку ссылок с 15 декабря уже начало уходить почти 11000 руб в месяц!
Не понимаю как такое может быть, за 40 дней пачками ЗАПРОСЫ и в НИХ сСсылки не проиндексированы, по моему, или в Мегаиндексе проблема стала в целом или это мой частный случай.
Вообщем меня это совсем не радует, из закупленных ссылок в декабре всего 15-20% максимум проиндексировано.