Апдейт 20.01.2011. Скучный, рядовой, показательный.
Апдейт 20.01.2011. Скучный, рядовой, показательный.
До конца проверять все сайты не стал. Тенденция видна определенно.
Сразу все не выложу, поэтому частями, т.к. мысли приходят во время работы.
1. Не стоит верить ни каким показателям - ни tools ни вебмастеру.
2. Ссылочное сработало. Но сработали ссылки, которые остались на период декабрь 2010 года. Т.е. что Вы покупали или удаляли или меняли в январе они по большей части не учлись. Не путайте с не проиндексировались. Ссылки просто не учлись.
3. Текстовый сработал на 100 % и причем живенько. Замененные титлы и ключи 16 января моменально отобразились в поиске, но... пока "свою работы" изменения не сделали. Надо ждать.
4. TGS правильно заметил, что фильры ослабили. Фильтры ослабили еще в предыдущий апдейт. В связс с этим идет шатание в позициях, так как стали "работать" ранее пессимизированные сайты и ссылки с них.
Что примерно я заметил на своих проектах.
Ссылки работают по-прежнему. Но, яндекс убрал фильтр уникальности ссылки. Уникальность ссылки работает или нет, только на внутренних страницах сайта на перелинковке.
Агрегаторные ссылки сайт выше 30-40 позиций не продвинут, хоть НЧ, хоть ВЧ.
И через часик самое главное, что точно уже подтверждено опытным путем.
Поймите, это мое мнение, мои выводы. Решать Вам.
Через пару часиков распишу.
Чтобы понять алгоритмы Яндекса, а по-русски, как ранжируются в выдаче сайты, надо учесть ДВЕ составляющие, тогда будет проще понять и легче раскрутит сайт.
1. Любой алгоритм пишут люди. Т.е. такие же как и мы, т.е. оптимизаторы.
2. Алгоритмы не сочиняют от балды, их пишут на основе своих знаний и анализирую выдачу других поисковиков.
3. Технические возможности для «обследования» всех сайтов, находящиеся в индексе ПС небезграничны. Сайтов появляется больше и быстрее в стуки, чем ПС может позволить себе купить очередную пачку серверов и провести отладку, настройку и совмещение БД с вновь появляющимися сайтами.
Теперь посмотрим какие правила игры нам предлагает Яндекс. Я основываюсь на переписки с Платонами и консультациями с некоторыми ГУРУ в SEO.
1. Согласно п.3. В некоторых тематиках (туризм, окна, медицина) конкуренция настолько высока (а ГС делают чаще всего), что существует две степени продвижения:
1.1.Бонус новичка. Когда молодой сайт получает хорошие позиции и траф в первые два месяца после индексации. Если с сайтом не работать и не поддерживать, то сайт падает надолго и глубоко. Частично это подтверждается и обнулением ТИЦ, который потом поднять практически невозможно.
1.2.И длинный период стагнации, когда сайт целиком в индексе, уже во всех ПС, кроме Яндекса в позициях, и довольно хороших, а Яндекс упорно его не позиционирует. В толпе SEО это называют по-разному, от песочницы, до фильтрации. Согласно переписки с Платоном по поводу сайта «тяжелой коммерческой тематики» – сидите ровно, с сайтом все ок, проблем и причин плохого ранжировании я нет, ждите своего часа.
1.3.Именно согласно п.3. нет у ПС возможностей быстро включить сайт высоконкурентной тематику моментально, а тем более включить его в БД поиска наравне со «старыми» сайтами.
ВЫВОДЫ.
Надо ждать. Но, в связи с разными нововведениями, новые сайты (проверено неоднократно) надо добавлять в адурилку и в вебмастер давать скушать sitemap. Сайт моментально индексирует морду, и следующим апдейтом практически индексирует весь сайт целиком, причем по состоянию на тот момент, когда сайт был добавлен в адурилку.
2. Далее следует вопрос, как продвигать сайты.
Бытует мнение, устойчивое, что сайт продвигается в течение 2 месяцев. Это обманчивое впечатление. Читай п. 1.1. Если сайт правильно «заточен» и оптимизирован без нарушений, то сайт (мы не обсуждаем высококонкурентные тематики) начинает движуху уже через месяц. Правильно составленные анкор листы, где самые важные факторы: донор, падежи анкорных фраз, кол-во страниц, участвующих в раскрутке. Закономерный вопросы, а как тогда понять, какая судьба уготована сайту, что сделано правильно, с чем надо работать.
Мое мнение, и здесь меня не переубедить (см. п.2), сравнивайте результаты выдачи с другими ПС. Обсолютно правильный сайт имеет практически одинаковые позиции в Яндексе, Рамблере и в ГУГЛЕ. Проверено временем.
3. Замечено ослабление фильтров, причем по все направлениям. В первую очередь послабления по составлению уникальных анкорных текстов. Сегодня не принципиально составлять анкор листы по схемам: джинсы, пьяные, веселые и прочее. Но перебарщивать на каждый анкор кол-ву доноров не стоит.
4. Замечено послабление в контенте. Это связано с тем, что яндекс в первую очередь определяет сайт по основной тематике, и страницы, добавленные дополнительно (копипаст) играют роль размывки темы или укрепления «главных ключей», а следовательно, копипаст может по большей части наказать владельца сайта сам контент, так зачем тогда использовать дополнительные мощности яндекса для фильтрации неуникального контента.
5. Замечено, что яндекс, абсолютно однозначно, основной упор в алгоритме ранжирования сделал ставку на ВЕСЬ текст сайта.
6. Прогоны по соцсетям пессимизируют ВЧ ВК ключи, но … При должном дальнейшем продвижении этих ключей, сайт ставится в ТОП10 и ничего ему уже не мешает за 2 копейки там оставаться. К сожалению, на такое уходит время, примерно от трех месяцев и более.
7. Прогоны по каталогам «роняют» сайт навсегда.
Теперь основные выводы, которые я уже озвучивал на нашем закрытом форуме, но ситуация меняется и появляются новые подтверждения сказанного и новые изменения.
Я назвал это Пирамидой Контента (ПК). В октябре, после летнего анализа яндексом всех сайтов поочередно ТОП10, ТОП20, ТОП 30 и т.п. до ТО100, апдейт расставил сайты по своим местам. «По живому» выдачу колбасило с октября до начала декабря, когда ввели Спектр-Краснодар. Во время всех перетрубаций было понятно, что яндекс нацелил свой алгоритм на самые важные (для себя) факторы, которые сегодня рулят в ранжировании. Не все факторы останутся жить, и многие отпадут за ненадобностью, но что имеем сегодня, с этим надо работать.
Итак.
Фактор возраста сайта. Читай п.3. Вполне понятно, что легче работать со старыми сайтами, чем включать в игру новые, которые еще не показали себя и «денег» не дали.
Написание названия домена. Данный фактор, конечно, улетит достаточно скоро. Мне кажется, что данный фактор связан именно с meta. Ясно замечено, что title и keywords являются основополагающими (сегодня), значит и написание названия домена (транслит и т.п.) в коде страницы тоже имеет место быть наравне с ключами и дискрипшен. Поэтому и часто встречаются от гореоптимизаторов анкоры при подтверждении заявок на САПе чисто домен.
Важный фактор, который учитывается яндексом давно и будет рулить и далее – это контент. Я не говорю о тошнотности и о простынях. Это временная необходимость НЕ учитывать эти факторы, т.к. невозможно проверить сайты по всем составляющим (пока не будет полностью заточен алгоритм). Т.е., то что мы видим сегодня в выдаче, где сайты с полотнищами текста и с перетошненным контентом – это явление временного характера. Напоминаю, что Яндекс кушает то, что мы ему даем.
Теперь о ПК (Пирамидой Контента).
Предполагаю, что яндекс снял нагрузки с определения тошнотности, заспамленности, простыней и т.п. чтобы освободить ресурсы для определения релевантности сайтов, находящихся в индексе, с целью правильного ранжирования в ПОСЛЕДСТВИЕ, месяца через два, когда добавят ГОТОВУЮ ПРОАНАЛИЗИРОВАННУЮ БАЗУ ДАННЫХ по сайтам, попадающим под факторы «простыня», «спам», «тошностность» и т.п.
Теперь абсолютные выводы.
Роботы яндекса «кушают» сайт. Первым этапом – морду. Включают морду в БД, определяя по ней причастность сайта к конкретной тематике. Тематика сайта до полной индексации сайта находиться в промежуточной БД, и я назову такой сайт «подвешенным».
Затем роботы сканируют весь контент сайта, согласно первой sitemap, которую вы выложили в вебмастер, «сжирая» весь контент до запятой.
Определяет по частотности основные слова-ключи и выдает на гора, что посчитает нужным и «свободным» в ранжировании.
Частотные по контенту слова и их сопровождающие сравниваются с библиотеками слов, которыми яндекс пользуется для определения релевантности тематики сайта.
Библиотеки слов составлены как ПИРАМИДА. Т.е. есть коммерческие запросы (слова) и некоммерческие. Это верхушка пирамиды. Затем идут ответвления, в которых разложены слова соответствующие (существительные), которые в принципе могут быть уточняющие к запросу и слова сопутствующие (глаголы и прилагательные). Соответствующие Существительные и сопутствующие глаголы и прилагательные в свою очередь «размножаются на дополнительные ветки слов и форм, которые несут на себе частотность обращений по ключу и наличия более частотного словосочетания в других тематиках.
Например.
Зимние шины – словосочетание коммерческое. Если вычленить слово ШИНЫ, то слово Зимние могут применять (но менее строго) к словам ШУБА и ПУТЕВКИ.
Отсюда следует, что анкорные листы, которые составляются, должны совпадать с библиотеками сопутствующих слов, которые находятся в библиотеки Яндекса. Сии библиотеки нам не известны, но каждый в своей тематике дока, а, следовательно, составить свои библиотеки достаточно просто, используя и Wordstat и контент самого сайта.
Таким образом алгоритм привязки библиотеки слов, разделяющих сайты на коммерческие и некоммерческие, а также ранжирование сайтов по ключам возможно малой кровью, если правильно:
1. Составить анкор листы для закупки ссылок. Замечу, что тему доноров я пока не раасматриваю.
2. Внутренняя перелинковка должна соответствовать строгим принципам построения данной пирамиды, т.е. анкор, ссылающийся на другую страницу не только должен содержать правильный набор слов в ссылке, но и точно попадать в контент страницы на которую идет внутренняя ссылка.
Продолжение следует.
Пункт 4 подтверждаю, неуник живет. (тематика фильмы)
Еще заметил такую вещь: домен после регистрации если висит с 1 стр (прикреплен на хостинг), то если сразу не создать сайт то он не индексируется.
Для сателлитов стал покупать домены по 1 сразу же делать сайт.
Любой алгоритм пишут люди. такие же как и мы"
обидеть хочешь? Звери они!
Пункты 1.1 и 1.2 - абсолютно верно- проверено в оконной тематике. Про то что "забыли" про тошноту -50/50 - зависит от тематики - в типографской тематике тошнота рулит, а вот в окнах, стройке не сказал бы так.
Про ПИРАМИДУ (пусть это так называется) заметил еще в ноябре.
Вот с уникальностью анкоров... что ж теперь анкор листы переташнивать? (я имею в виду не по отдельным словам, а по словосочетаниям). Ведь нужна- то получается только верхушка ПИРАМИДЫ.
С копипастом тоже не ясно. В медицинской тематике (она уж 2 месяца является для меня загадкой) страницы с уник. контентом влетают в индес, а потом постепенно выпадают. Защита небольшая есть, но если фильтр по унику ослабили, то и не в ней дело.
leksei, не согласен про моментальное вывешивание сайта на домен. Поясню. Имею пачку АБСОЛЮТНО не развиваемых сайтов (в том смысле, что контент на них не пополняется) Всего 20 сайтов со страницами от 0 (просто делегирован по ДНС) до 1600 страниц. Держу эту пачку, чтобы отслеживать некоторые штучки. так вот, сайт у которого ноль страниц (пустышка без ничего) висит в индексе уже полгода.
А в общем, еще раз спс за систематику.
Неуник живет просто на сайте или сайт в топе? Живет с сылкой на оригинал текста или без нее?
Очень полезная информация - на выходных займусь сканированием топов и непосредственно анализом анкоров на предмет признаков "пирамиды" - отпишу сюда результаты.
НЕуник не может быть в топе, если он НЕ защищен.
Вы путаете два понятия.
1. Иметь неуник с целью трафа - тогда ссылка на первоисточник
2. Взять неуник с целью продвижения
Закончу проверять сайты - кое-что выскажу.