понедельник, 22 декабря 2008 г.

Соплеметр, барыгатор и антинаебатор

Не знаю, почему создатели 3 сервисов, о которых я хочу сегодня рассказать, не назвали их именно так. Как по мне, названия вполне подходящие, но мало о чем говорящие, поэтому обо всем по порядку.

За первым названием из заголовка, скрывается сервис, который в оригинале называется «Инспектор качества сайта ». Речь идет не о каком-то комплексном понятии качества, а о том, как его понимают в Google, потому что оценка основывается на значение Supplemental индекса.

Кстати, в последнее время, я неоднократно упоминал этот термин. Наверняка, многие знают, что это такое, тем же, кто служит в танковых войсках, поясню. Supplemental индекс или в простонаречии «сопли», это вторичный индекс Гугл. Дело в том, что у поисковой системы, помимо основного индекса, существует еще один (а может быть и больше), индекс в котором располагается все то что Google считает низкосортным дерьмом, не заслуживающим места под солнцем. В основном же индексе – все самое достойное (опять же по версии Гугл).

Т.е., грубо говоря, сервис показывает отношение Google к вашему сайту. Чем больше страниц в основном индексе, тем большее доверие вам оказано. Не буду подробно развивать тему, потому что в интернете достаточно материала по этому вопросу, к тому же на указанном сайте есть вполне информационные пояснения.

Скажу лишь, что в период, когда я у Гугл был в опале из-за дублированного контента, в итоге все пришло к тому что в основном индексе у меня не осталось ни единой страницы, сейчас, когда отношения вновь наладились, показатель скачет от 10 до 25%. Думаю связано это с тем, что поисковая система до конца не избавилась в своем индексе от запрещенных мной для индексации дублированных страниц, поэтому еще, немного лихорадит.

Второй сервис из серии, назван мною барыгатором, не потому что он как-то связан с отрыжкой, а потому что, является «Детектором продажных ссылок ». Для чего это нужно? Если вы продаете ссылки, в первую очередь для того, чтобы убедиться в том, что это превосходно видно и принять меры по защите.

Заодно, там же даются рекомендации по защите - вуалированию продажных ссылок. Не берусь говорить о надежности такой защиты, в конце концов, алгоритмы поисковых систем активно эволюционируют, но какая-никакая защита, в любом случае, лучше, чем ничего.

Да, речь идет конечно о ссылка, которые размещаются автоматически с помощь скриптов бирж (сапа, ксапа, линк фид и пр. аналоги), ссылки поставленные вручную, ясен пень, ни один черт не вычислит, вернее, не докажет что они были проданы, а не поставлены как искренний жест доброй воли.

Я нашел для себя еще одно забавное применение системе – побаловаться и посмотреть кому из коллег стоит воспользоваться рекомендациями. Например, у Маула сервис показывает 8 проданных через автоматизированные биржи типа Sape/Xap ссылок. Кстати, покупка этих сервисов, было бы неплохим пополнением коллекции Дона -).

Ну, и последний сервис детектирует бесполезные, закрытые от индексации ссылки. Честно говоря, для меня он наименее интересен, потому, что имеет наибольшее число аналогов. Но, работает качественно и довольно удобен, поэтому, почему нет?

Вот такие 3 сервиса, надеюсь, для кого-то информация оказалась полезной.

Еще читать:
Кросспостинг v2.0 = добротный сателлит?
XRumer 5.0a vs мировой кризис
Как избежать дублирования контента на Blogger?

Картинка с сайта.


Читайте по теме



9 комментариев:

  1. Ты проверь-ка, баловства ради, по всем сервисам сайты яндекса и гугла. А заодно - трастовых сайтов, лидеров в своих областях - ихбит, 3дньюс. Результат покажет надежность сервисов.

    Хотя, забавы для, конечно, можно закинуть в закладки. Мало ли=)

    ОтветитьУдалить
  2. А вот это я не догадался, спасибо за идею, пойду проверять -).

    ОтветитьУдалить
  3. Классный результат, главное ожидаемый -). Яндекс полный хлам - 3%, и как его Гугл до сих пор не забанит? -). Ну, а Гугл ясное дело - 45%, крутой, уважаемый сайт. Кстати, Alexnote доверия в 14 раз больше чем к Яндексу -).

    ОтветитьУдалить
  4. Ну, так я не просто так коптю воздух блогосферы=) Я - уважаемая единица Интернета!

    Проверка поисковиков не совсем правильная затея, если честно, - достаточно просто посмотреть не на процент, а на количество страниц в основном индексе. Это довольно много. Но и проверка трастовых, весомых сайтов выдает похожий результат, согласно которому, к качественным сайтам их отнести нельзя, а это уже показательно.

    ОтветитьУдалить
  5. Вообще, конечно, в принципе оценка не может быть такой однобокой, но и эта информация не лишина смысла. Я однозначно испытал на себе прямую корреляцию величены Supplemental индекса и количества трафика. Страницы были в индексе все, вот только приходил с Гугла одни два-посетителя в сутки, и то по самым "левым" запросам. У тебя кстати вполне справедливо очень трастовый блог, потому что он безукоризненно белый. В отличие от многих лидеров в своих отраслях, основная масса которых не без греха. Что могу сказать - самая правильная тактика, которая миллионы раз со временем себя оправдает -).

    ОтветитьУдалить
  6. Название супер, да и ссылки занятные. Потерял пол-часа прогоняя все сайты.

    ОтветитьУдалить
  7. Настроение было такое, отсюда и название -).

    ОтветитьУдалить
  8. Хорошие сервисы, в 85% не врет Supplemental. Сателлит так сателлит, хороший ресурс так хороший. Тема для размышления на будущее.

    ОтветитьУдалить
  9. Для оперативной проверки кол-ва страниц в основном индексе Google, рекомендуем использовать плагин для Firefox RDS bar
    http://www.recipdonor.com/bar/

    При установки и нажатии на кнопку "Инфо сайта" получите подобную картину:
    http://www.recipdonor.com/images/bar_gindex.png

    Если у вас большой список сайтов и вы хотите проверить их на этот параметр, тогда можете воспользоваться сервисом http://www.recipdonor.com/ , добавив сайты например в раздел "Реципиенты" получите такой пример:
    http://www.recipdonor.com/images/g_index.png

    ОтветитьУдалить