15 янв. 2016 г.

SEO 2016: Ловкость рук и никакого рандома

Рассылка SearchEngines.ru Неправильно отображается?
Посмотреть в браузере.
15 января

2016 года

СЕГОДНЯ В ВЫПУСКЕ

SEO 2016: Ловкость рук и никакого рандома

Автор: Евгений Тарасов, создатель сервиса «Левша Инструментс»

 

Анализируя ситуацию, сложившуюся сегодня на рынке продвижения, хочется начать с фильтров, которыми в прошлом году нас осчастливил Яндекс - АГС-- и Минусинск.

По сути, это стороны одной медали - новый АГС карает сайты, которые продают SEO-ссылки, в то время как Минусинск наказывает сайты, покупающие эти ссылки. Существуют некие пороги качества и количества ссылок, и они работают с двух сторон. Именно так и планировалось использовать эти фильтры - совместно, но, с точки зрения безопасности, Яндексом они были включены последовательно.

Механизм работы этих фильтров довольно прост и логичен. Существует порог веса ссылки, то есть, число, меньше которого ссылка считается SEO-ссылкой или bad-ссылкой. Для каждого сайта рассчитывается среднеарифметический вес ссылки N. Если он оказывается меньше фиксированного порога, и если число SEO-ссылок больше X, то срабатывает Минусинск. Поэтому из Минусинска можно выйти, закупив хороших ссылок и подняв тем самым среднеарифметический вес одной ссылки. Ротация сайтов в Минусинске объясняется большой погрешностью Яндекса в измерении ссылочных весов. С АГС-фильтром все то же самое, только для исходящих.

Сам Яндекс не обозначает допустимые пороги, при превышении которых сайт неминуемо будет пессимизирован, однако Садовский, во время запуска Минусинска говорил, что с каждой итерацией «безопасный» порог будет понижаться, чтобы, в конце концов, явление массовых закупок ссылок исчезло совсем. Это так и происходит, порог постепенно повышается, то есть, вес нормальной не SEO-ссылки после каждой итерации становится выше, чем предыдущее значение. Ну, или другими словами, понижается порог чувствительности. Практика показывает, что 45% индустрии ссылкоторговли Яндекс убил за последний год с небольшим. Это действительно ощущается при закупке ссылок, например, в Сапе, - выбор стал значительно меньше.

Садовский утверждает, что закупка ссылок – явление социальное, так как они давно не влияют на ранжирование, и Яндекс просто дает возможность владельцам сайтов перестроиться. Это так и не так, а точнее – обычные недоговорки Яндекса. Садовский имел в виду только SEO-ссылки, они действительно не оказывают влияния на ссылочное ранжирование, а то, что они оказывают влияние на текстовое ранжирование документа - зачем кому-то знать, правда? Ссылки продолжают работать, и нет никакой разницы, где они были куплены, смотрится только качество конкретной ссылки.

Грамотное продвижение сегодня невозможно без измерения ссылочного веса. Яндекс перестал учитывать ссылки только в зоне bad, а в зоне good нужно и можно измерять ссылочный вес. Без измерения веса ссылок, можно просто накупить треша по 500 рублей и думать, что это отличные ссылки. Измерение веса ссылки дает возможность сэкономить в среднем 85-90% ссылочного бюджета при том же ссылочном весе. Когда каждая копейка на счету, это очень важно.

Кроме того, можно использовать вместе с измерением веса и другие продвинутые SEO-технологии, обусловленные правильным пониманием технологий ссылочного ранжирования.

При ранжировании любого запроса и Яндекс и Google опираются на идеальные модели релевантности по каждому запросу, согласно текстовой (семантической) релевантности. Для построения таких моделей используются запросные графы, которые строятся статистическим образом, исходя из частоты взаимного упоминания ключевых слов друг с другом в общей коллекции документов. То есть, чем чаще слова используются взаимно, тем короче ребро графа (длина каждого ребра графа указывает на силу связанности одного ключа с другим). Вот так выглядит сам граф:

Крупные кружочки соответствуют ВЧ запросам. Таким образом, для каждого ключа в графе находится свое место, и для каждого ключа можно выделить самые близкие к нему запросы (их и показывает Яндекс в выдаче со словами «что еще искали», т.е. они берутся из графа.

Граф по конкретному ключу можно представить в виде табличного списка ключей, отсортированных по убыванию меры связанности его с остальными (по длине ребер). Это и есть идеальная модель для семантического ранжирования, которую надо повторить на сайте или на конкретном документе (если список ключей мал). Поскольку сайт перелинкован внутренними ссылками, наиболее релевантные страницы для связанных запросов могут находиться на разных страницах сайта, поэтому для оценки релевантности по какому-то конкретному ключевому запросу, смотрится весь сайт целиком.

Если релевантности по всем ключевым запросам численно повторят идеальные пропорции графа, то релевантность такого сайта по выбранному ключу, стоящему в основе построения графа, окажется максимальна, и сайт окажется в самом выгодном положении для ранжирования по этому ключу в выдаче. Этот же принцип можно использовать и для создания специальной рекламной кампании в Директе, для обеспечения идеального соотношения трафика по запросам на сайт, и, как следствие, будут идеальные поведенческие факторы на сайте (такая, своего рода легальная, безопасная и максимально эффективная накрутка ПФ).

Однако, максимальная семантическая релевантность это всего лишь 50% условия попадания в ТОП, остальная часть включает в себя траст и поведенческие метрики, поэтому не надо думать, что соответствие по графу является пилюлей для ТОПа. Это не так. Реальные соотношения релевантностей ключевых запросов на сайте далеки от совершенства, и их можно скорректировать, покупая те или иные ссылки с нужным весом, и таким образом выравнивая ссылочным давлением неидеальную ситуацию.

Почему я говорю «покупая» ссылки? Потому что, по сути, нет таких понятий, как «естественная» или «купленная» ссылка, эту терминологию ввел Яндекс для того, чтобы все запутались. Есть понятия «полезная» ссылка и «бесполезная», и, соответственно, вес ссылки - это и есть мера ее полезности, а она, в свою очередь, определяется, исходя из семантического анализа донора, акцептора и анкора. Пересечение релевантностей обоих документов и их отношение к релевантности анкора определяет вероятность клика по этой ссылке, что и является метрикой полезности, это базовая метрика. Есть и другие критерии, но все они, так или иначе, обслуживают и дополняют базовую метрику, потому что не всегда семантический анализ дает целостную картинку.

Многие сегодня уповают на качественный контент и ручную закупку ссылок. Качественный контент важен, но если речь идет о качественном копирайтинге не по 2 доллара, а по 6 - то это неправильный путь. Ручная покупка ссылок, безусловно, лучше автоматической, но это тоже не панацея. Правильно было бы со стороны продавца ссылок тоже принимать участие в поиске покупателя ссылки, а не ждать, пока его найдут на бирже. Дело в том, что ссылка с одного и того же донора на разные акцепторы может иметь сильно разный вес, а значит, и продать ее можно сильно по другой цене, не по 5 рублей например, а по 500.

Сейчас вообще очень уникальная ситуация на рынке. Такой ситуации никогда не было и потом уже больше не будет, года полтора осталось. Дело в том, что сейчас можно купить ссылку в Сапе за 5 рублей, а реальная ее польза будет, скажем 700 р или даже 3000 р, если измерить ее вес. Вебмастера, продающие ссылки не понимают пока, что правильно подобранный анкор и документ донора с акцептором, может увеличить стоимость и значимость его ссылки в 100-200 и даже более раз. Они продают ссылки всем подряд и ждут, пока найдут их, вместо того, чтобы самим искать покупателя, который даст за их ссылку максимально денег. Вот пока обе стороны не поймут, как покупать и продавать самые эффективные ссылки, можно буквально за 1000 р покупать ссылочное, которое будет эквивалентно по своему весу купленному в 100 К рублей. Чувствуете, какой гигантский профит?

Вот для таких измерений и сделан сервис «Левша Инструментс». Ну а пока мы с вами наблюдаем, как Яндекс методично убивает говносайты, и растет средняя стоимость ссылок тупо потому, что выбор сокращается. Пока к качеству ссылок этот рост цен вообще никакого отношения не имеет, и покупать хорошие ссылки по 5 рублей очень сложно, но можно, чем я собственно сейчас и зарабатываю. К концу 2016-го я так полагаю, выбор арендных ссылок будет совсем скудным, а ценник вырастет раз в пять. Вот тогда, по идее, специалисты отрасли и начнут проявлять массовый интерес непосредственно к измерению веса ссылок, а на более ранний профит от своего сервиса я особо не рассчитываю.

Google, кстати, в прошлом году, в отличие от Яндекса, очень мало говорил о ссылках, потому что ничего глобального в этой ПС не менялось и не планируется. Яндекс же очень сильно прокачался новым алгоритмом и заплатить за такую прокачку ему предстоит очень дорого. Последствия очистки экосреды рунета от ссылочного еще долго будут отражаться серьезными багами в системе и снижением качества выдачи. Это, кстати, и есть настоящая причина наступившего «детерменированного хаоса», которую от всех скрывают.

По этой причине я считаю глупостью мнения некоторых о том, что введя рандомизацию и раскидав из ТОПов сайты, упакованные ссылочным, Яндекс, фактически, провоцирует новую эру дорвеев. Просто оптимизаторы не понимают причин рандомизации, ее задач, вот и думают, что этим можно воспользоваться. Проблемы Яндекса, которые выдаются за рандомизацию в ссылочном ранжировании, к дорвеям не имеют никакого отношения. Таким любителям я посоветую обратиться к Google, который гораздо тупее Яндекса. Базовая метрика оценки качества ссылок у него та же, но из-за плохой реализации, погрешность измерения - просто адовая. Для Google лучше всего использовать как можно больше разных типов ссылок с разного типа контента, эта поисковая система любит разнообразие.

В условиях наступившей рандомизации я хотел бы напомнить всем старое доброе правило – «поперло - не трогай». Это старая добрая истина. Тут не надо даже ничего объяснять, просто надо использовать. Можно было бы расписать, почему так происходит, но чисто не хочу быть занудой. Это правило работает, работало и будет работать. Вообще, оно для всего, не только для поисковых систем, а и для бизнеса в целом. Меня часто спрашивают, что надо делать с сайтом, чтобы не навредить? Тут тоже есть правило – «не знаешь что делать, делай правильно». Во всяком случае, так меньше шансов что-то испортить. Но этим надо всем заниматься тогда, когда «пер» уже прошел, конечно же.

«Вечнозелёный» контент в помощь умирающему SEO

 

Создание, так называемого, «вечнозелёного» контента, который остаётся актуальным на протяжение длительного времени, сегодня становится весьма эффективным приемом, позволяющим улучшить позиции сайта в выдаче, а также повысить качество и ценность самого ресурса.

Основная задача данной статьи сводится к тому, чтобы подробно изучить феномен «вечнозелёного» контента; рассмотреть несколько примеров применения подхода для продвижения ресурса; ознакомиться с некоторыми данными статистики сайтов Search Engine Watch и ClickZ и убедиться в том, что усилия по созданию подобного содержимого могут быть щедро вознаграждены.

Что делает контент «вечнозелёным»?

Прежде всего, имеет смысл определиться с терминологией. Под «вечнозелёным» контентом специалисты в области интернет-маркетинга подразумевают такое содержимое сайта, которое остаётся актуальным и выполняет свои маркетинговые цели на протяжении длительного времени. Этот контент приносит ресурсу трафик, лиды; становится источником социальных сигналов, таких как: лайки и шеринги. Помимо всего перечисленного, страницы с подобным содержимым способны занимать видимые позиции в поисковой выдаче и удерживать их на протяжении нескольких месяцев и даже лет с даты публикации. Однако, чтобы это произошло, содержимое страницы должно оставаться релевантным потребностям пользователей, а тексты должны быть качественными по содержанию и стилю изложения, полезными и адресованными правильной целевой аудитории.

Так, например, новостная заметка о том, что Google запускает свой пресловутый алгоритм Mobile Friendly, получивший в среде оптимизаторов название «Мобайлгеддон», будет читаемой и популярной, но устареет довольно быстро. В то же время, подробная статья, содержащая практические советы о том, что именно специалисты отрасли могут сделать, чтобы приспособиться к происходящим изменениям, может оставаться актуальной не менее 10 месяцев.

Создание такого контента может потребовать значительных усилий и времени, однако, если все сделано грамотно, вложения обязательно окупятся.

Главные составляющие статей, которые всегда актуальны

Существует целый набор факторов, которые позволяют публикации «жить собственной жизнью» и сохранять актуальность на протяжении длительного времени. К таким аспектам можно отнести:

  1. Качество. Статья должна быть интересной и полезной для читателей.

  2. Соответствие потребностям аудитории. Если публикация отвечает на вопросы, волнующие целевую аудиторию, то у нее гораздо больше шансов дольше оставаться актуальной.

  3. Удачный заголовок. В данном случае речь идет даже не о кликабельном заголовке, а о том, что текст тайтла должен отображать контент статьи самым выигрышным образом. Кроме того, заголовок должен быть описательным - то есть отражать суть самой заметки...

Фильтр «Панда» стал частью основного алгоритма Google

Google интегрировал фильтр «Панда» в основной алгоритм. Об этом стало известно из блога The SEM Post. Теперь поисковик будет ещё больше внимания уделять сигналам качества сайтов. Когда именно произошла интеграция, пока неизвестно.

Дженнифер Слэгг (Jennifer Slegg), основатель и обозреватель The SEM Post, опубликовала руководство по алгоритму «Панда», одобренное Google. В предисловии к документу приведено заявление пресс-секретаря компании:

«Панда» – алгоритм, который применяется к сайту в целом и теперь является одним из основных сигналов ранжирования Google. Он оценивает качество ресурса, подробнее о котором можно почитать в нашем руководстве. «Панда» позволяет Google корректировать ранжирование сайтов, исходя из оценки их качества».

Инженер отдела качества поиска Google Гэри Илш (Gary Illyes) подтвердил факт интеграции в Twitter. Отвечая на вопросы специалистов отрасли, он уточнил, что фильтр был встроен в основной алгоритм, но в режим непрерывных обновлений его пока не перевели. Основной алгоритм, а вместе с ним и Panda, по-прежнему обновляются в ручном режиме.

Новости за неделю

Bing получил новый логотип

Microsoft в очередной раз обновил дизайн логотипа собственной поисковой системы Bing. В новом варианте прописную «В» в названии изменили на заглавную, а цвет – с жёлтого на зеленовато-синий.

Google подтвердил обновление основного алгоритма, не связанное с «Пандой»

Инженер отдела качества поиска Google Гэри Илш (Gary Illyes) подтвердил, что на минувших выходных (9-10 января) был обновлён основной алгоритм поисковой системы. При этом он отметил, что этот апдейт не имеет отношения ни к «Панде», ни к «другим животным».

В аккаунты Google AdSense добавили вкладку Optimization

Разработчики Google AdSense добавили в аккаунты пользователей новую вкладку Optimization. Этот раздел содержит советы для конкретного сайта и справочную информацию по оптимизации. Нововведение призвано помочь издателям увеличить свой доход и повысить показатели вовлечённости пользователей.

Трансляции Periscope можно будет смотреть прямо в ленте Twitter

Команда сервиса Periscope объявила об интеграции с функционалом сервиса микробблогинга Twitter. Теперь трансляции Periscope можно будет смотреть прямо в ленте Twitter – соответствующая функция будет запущена в ближайшие дни.

Bing тестирует в выдаче инструмент для проверки скорости интернета

Пользователи заметили, что Bing тестирует в поисковой выдаче инструмент для проверки скорости интернет-соединения. Пресс-служба компании подтвердила эту информацию, однако детали эксперимента не раскрывала. Новинка призвана дать пользователям возможность протестировать скорость интернет-соединения, включая загрузку и отдачу, прямо со страницы поисковой выдачи.

Google обновил отчёт об ошибках сканирования приложений в Search Console

Google обновил отчёт об ошибках сканирования Android-приложений в Search Console. В рамках апдейта количество типов ошибок в отчёте было сокращено до трёх: Не найден пакет; Недопустимый URI; Удалено из индекса (new). Обновлённая статистика доступна, начиная с 11 декабря 2015 года.

Instagram работает над улучшением поискового функционала

Команда Instagram продолжает работать над улучшением поискового функционала. На днях пользователи заметили, что в приложении тестируется обновлённый интерфейс результатов поиска. В рамках эксперимента в них указывается, кто из найденных людей уже является подписчиком или другом пользователя.

Google начал показывать сохранённые копии страниц на HTTPS

Специалисты отрасли заметили, что Google начал показывать сохранённые копии страниц HTTPS-сайтов. Инженер отдела качества Google Гэри Илш (Gary Illyes) подтвердил это нововведение и добавил, что Google работает над изменением ссылок в сохранённых копиях страниц всех сайтов, перешедших на безопасный протокол HTTPS.

ФАС: Google может быть оштрафован на сумму в 7% от оборота за 2014 год

Размер штрафа американской корпорации Google за нарушение закона Российской Федерации о конкуренции, скорее всего, составит 7% от оборота за 2014 г., будет учтена инфляция. Об этом сообщает ТАСС, со ссылкой на заявление руководителя Федеральной антимонопольной службы (ФАС) РФ Игоря Артемьева.

Глава Google Сундар Пичаи (Sundar Pichai) назвал дату и место проведения очередной ежегодной конференции для разработчиков I/O 2016. В этом году мероприятие пройдёт с 18 по 20 мая в наружном амфитеатре «Шорлайн» в Маунтин-Вью, Калифорния.

Microsoft прекратил поддержку устаревших версий Internet Explorer

12 января 2016 года, Microsoft прекратил поддержку всех версий Internet Explorer, кроме последней – IE 11. Начиная с этого дня, обновления безопасности и техническую поддержку будет получать только Internet Explorer 11 в Windows 7, 8, 8.1 и 10.

Стоимость акций Twitter достигла исторического минимума

На момент закрытия биржевых торгов 8 января 2016 года стоимость акций Twitter составила менее $20 за бумагу. Это наименьшее значение данного показателя за весь период существования компании. Несколькими днями ранее появилась информация о планах Twitter расширить лимит на количество символов в твитах со 140 до 10 тыс. Однако вряд ли эта новость вызвала недовольство среди инвесторов. Их беспокоит другой вопрос – увеличение аудитории сервиса.

Примерно в апреле прошлого года Яндекс ввел для пользователей возможность пожаловаться на релевантность результатов выдачи прямо на странице поиска. Это заметили жители форума Searchengines.guru еще на стадии тестирования новой функции на ограниченном числе пользователей.

В сниппете сайта, кнопка, расположенная рядом с адресом документа, позволяющая перейти к сохраненной копии страницы или просмотреть все найденные по запросу документы с данного сайта, расширилась возможностью пожаловаться на результаты поиска:

Через несколько месяцев возможность пожаловаться появилась у всех пользователей российского поисковика.

Тот факт, что функционал начали тестировать сразу после запуска Минусинска, породил множество предположений и вопросов среди специалистов, поэтому все ждали анонса и официальных объяснений Яндекса о том, кто как и зачем может/должен использовать эту возможность. А главное, зачем это Яндексу, ведь до сих пор все жалобы в обычном порядке направлялись в Саппорт, и всех это устраивало?

Прошло более полугода, и про кнопку «Пожаловаться» все забыли, тем более, что АГС и рандомизация выдачи привлекли к себе гораздо больше внимания, чем несущественное обновление в сниппете поискового результата, о котором Яндекс тоже молчал. Редакция Searchengines.ru решила восполнить этот пробел и задала Яндексу несколько вопросов: «Какова цель этого нововведения? Помогает ли это настройке поискового алгоритма? На кого рассчитана эта функция и почему не анонсировалась для того, чтобы пользователи знали, что могут как-то помочь поисковой системе? Не боитесь ли вы, что таким образом, через эту форму многие начнут специально жаловаться на своих конкурентов?»...

Подписаться на Twitter    Подружиться на Facebook    Отправить другу 
Copyright © 2016 Searchengines.ru,, All rights reserved.
Вы получили эту рассылку, поскольку регистрировались на сайте Searchengines.ru. Вы можете всегда отписаться от нее, переслать другу, а также обновить свой профиль подписчика.

Наш почтовый адрес:
Searchengines.ru, , Moscow, 65000, Russia
отписаться от этой рассылки    обновить настройки подписки 

Комментариев нет:

Отправить комментарий