9 сент. 2016 г.

Как избежать дублей контента: краткий чек-лист

Рассылка SearchEngines.ru Неправильно отображается?
Посмотреть в браузере.
9 сентября

2016 года

СЕГОДНЯ В ВЫПУСКЕ

 

5 октября состоится главная в России конференция о Performance Marketing.

 

Меня зовут Павел Гительман.

Я генеральный директор агентства RTA и один из организаторов PMM 2016.

Мы кропотливо работали 8 месяцев над программой, отсмотрели более 120 конференций, 3000 спикеров и рады представить вам список из 12 главных докладов собранных со всего мира.

5 октября в Россию приедут топ-менеджеры Unilever, L'Oreal, Samsung, Sociomantic, Rovio, Weborama, Remerge, Twitter и других удивительных компаний. Лучшие практические кейсы и примеры успешных performance компаний, новые тренды и мировые тенденции.

Что будет?

  • 8 часов глубокого погружения;
  • 10 новых технологий и инструментов;
  • 12 главных спикеров со всего мира;
  • 400 маркетинг директоров и digital менеджеров со стороны брендов;
  • 600 топовых представителей digital агентств и площадок;
  • 1000 новых полезных знакомств.

Бронируйте свое место в зале, и до встречи 5 октября: http://pm-moscow.com/

Как избежать дублей контента: краткий чек-лист

Стефани ЛеВон (Stephanie LeVonne) — SEO-аналитик Elite SEM, специалист в области performance-маркетинга.

Дублированный контент на странице зачастую можно сравнить с перерасходом бюджета. Только в данном случае расходуется «бюджет доверия» к сайту поискового робота.

Предположим, что в пределах одного домена есть страницы, содержащие повторяющийся контент. В этом случае поисковый робот будет пытаться выяснить, какая страница является первоисточником информации, а какая — дублем. Определить источник информации со 100-процентной достоверностью удаётся далеко не всегда. Как следствие, в результатах поиска будет отображаться не оригинальная страница ресурса, а случайно появившийся её дубль.

Если же подобных повторов много, сайт и вовсе рискует быть понижен в результатах выдачи за нарушение требований Google к качеству. К сожалению, сегодня повторяющееся содержимое страниц — одна из самых распространенных проблем в SEO. Нередко она бывает вызвана техническими аспектами, к примеру, особенностями CMS или недостаточной грамотностью вебмастеров и администраторов сайта.

Осложняет ситуацию еще и то, что ни панель вебмастера в Google Search Console, ни ряд других сторонних инструментов не способны с высокой достоверностью предоставить вебмастеру информацию о наличии на сайте дублей. Искать такие страницы чаще всего приходится вручную.

 

duplicate-content

Ниже приводится 8 причин, способных вызвать появление дублей на сайте.

1. Переезд с HTTP на HTTPS

Часто проблема возникает из-за неграмотного перевода сайта с HTTP на HTTPS. Самый быстрый способ отыскать дубли — ввести в адресную строку URL страницы с HTTP и с HTTPS. Если доступ разрешен к обеим версиям, значит, в процессе переезда вебмастер не использовал 301 редирект или реализовал перенаправление неграмотно.

Есть и другой нюанс: на безопасный протокол может быть переведён не весь сайт, а его отдельные страницы. Ещё до того как Google начал активно подталкивать вебмастеров к переводу своих ресурсов на HTTPS, они включали протокол шифрования лишь для отдельных страниц. К примеру, для страницы входа на сайт или страницы, предназначенной для проведения транзакций. В случае, когда по отношению к таким страницам применяются относительные ссылки, система автоматически дополняет недостающие компоненты. Всякий раз в процессе обхода сайта поисковый робот будет индексировать такую страницу как новую. Это значит, что со временем в индексе поисковой системы появятся дубли.

Аналогичным образом следует проверить наличие в индексе версий страниц сайта с www и без www. Эта проблема с лёгкостью может быть устранена за счёт использования кода состояния HTTP 301. Полезно будет указать в Google Search Console основной домен.

2. Сайты, копирующие контент

Поскольку в интернете до сих пор не сформировалась политика регулирования отношений между сайтами в плане заимствования чужого контента, имеет смысл использовать все возможные способы защиты содержимого своего ресурса. Делать это нужно на уровне кода. Кроме того, как уже говорилось выше, лучше применять постоянные URL-ы вместо динамических.

Почему это важно? В случаях, если используются относительные ссылки, браузер каждый раз пытается перейти по ним и открыть страницу. Таким образом, пользователь видит перед собой одну и ту же страницу, но с разными URL. Нетрудно догадаться, что с точки зрения индексирования в Google применять такой подход крайне нежелательно. В то же время, отдельные разработчики до сих пор продолжают использовать динамические URL-ы.

Если разработчик отказывается переписать код сайта, так чтобы он был выполнен надлежащим образом (с указанием предпочитаемой версии URL для страницы и с добавлением rel="canonical"), то копирования контента другими ресурсами не избежать. Если же в коде сайта указана каноническая страница, то при перепечатывании его содержимого сторонними сайтами теги «подскажут» Google, на какой именно канонический адрес ссылаются дубликаты. Немаловажный момент: показатель PageRank и все связанные сигналы также будут перенесены с дублированных страниц на каноническую.

Отыскать собственный контент на сторонних сайтах помогут инструменты Siteliner и Copyscape.

3. Давно забытые домены

Предположим, что вебмастер решил отказаться от использования поддомена и работать с подкаталогом. Ещё один вариант: компания создала новый сайт, перенесла на него контент со старого ресурса, и вся жизнь теперь кипит только на нём. Как бы то ни было, не стоит забывать о том, что содержимое старого ресурса до сих пор существует в интернете и может сыграть злую шутку с новым сайтом. Лучшим вариантом для выхода из ситуации будет использование 301 редиректа на страницах старого сайта. Это особенно важно, если на старой версии есть много качественных входящих ссылок.

4. Содержимое среды разработки

Очень важно закрывать от индексации содержимое среды разработки сайта, когда ресурс находится в стадии реконструкции. Поисковые роботы Google заходят на сайт регулярно и могут сканировать содержимое страницы, даже если она находится в разработке. Аналогичным образом следует закрывать от индексации любой внутренний контент сайта, который ни в коем случае не должен попадать в результаты выдачи. Сделать это можно при помощи <meta name="robots" content="noindex"> или в файле robots.txt.

Только после того, как все компоненты сайта и его контент будут перенесены из среды разработки на домен, содержимое страниц можно будет сделать доступным для индексации.

5. Динамически генерируемые параметры в адресах страниц

Примеры динамически генерируемых параметров в адресах страниц могут быть такими:

Конечно, перечисленные выше URL утрированы. Однако зачастую популярные CMS автоматически «плодят дубли», добавляя параметры в URL. Как результат, на сайте обнаруживается до нескольких страниц с одним и тем же содержимым. Выявив адреса страниц с идентичным контентом, алгоритм Google объединяет их в общую группу. После этого система на своё усмотрение выбирает одну из них для отображения в результатах поиска. Затем на основании имеющейся информации об этой группе URL Google присваивает выбранной ссылке определённые атрибуты, чтобы уточнить рейтинг страницы в результатах поиска.

Чтобы избежать негативного сценария, вебмастерам рекомендуется задавать канонический URL, а также указывать системе, как нужно обрабатывать URL с определёнными параметрами, в Google Search Console. Сделать это можно при помощи инструмента Параметры URL.

Содержимое отдельных страниц можно закрыть от индексации в файле robots.txt, применяя в шаблонах запрета символ «*». Это позволит избежать индексации любого содержимого, размещённого в указанной поддиректории. Например: Disallow: /chocolate-recipes/cake/*

6. Зеркала сайта

В случаях, когда бизнес крупный, и компания работает в нескольких регионах, приходится создавать ряд идентичных версий сайта. При этом их владельцы обычно предпочитают, чтобы в выдаче показывалась единая для всех главная страница, с которой пользователю и предлагается перейти на ресурс в интересующем его регионе.

Примеры региональных версий могут выглядеть так:

Хотя здесь всё кажется простым и логичным, подобные зеркала сайта нуждаются в тщательной настройке. Почему? Ответ прост: контент в поддиректориях на всех региональных версиях однороден по структуре и содержанию. Из-за этого в процессе индексирования могут случаться ошибки. Чтобы избежать проблем, важно грамотно настраивать в Google Search Console таргетинг содержания сайта на определённую страну.

7. Синдикация контента

Синдикация контента — это способ наполнения страниц сайта, когда владелец или редактор другого блога или сайта позволяет частично или полностью размещать авторское содержимое на ресурсе. Способ признан весьма эффективным для случаев, когда необходимо быстро привлечь целевую аудиторию. Однако здесь важно соблюдать определённые «меры предосторожности».

Если контент изначально написан для размещения на ресурсе компании, но при этом его создателю разрешена публикация на собственном сайте, лучше попросить автора использовать атрибут rel="canonical". Также «поставщик контента» может закрыть его от индексации на своём ресурсе при помощи <noindex>. Это поможет избежать дублирования.

Наконец, издатель «подаривший» сайту свой материал, может просто сослаться на этот ресурс как на первоисточник.

8. Почти не отличающийся контент

Немало проблем бывает связано и с использованием на страницах схожего содержимого. Зачастую алгоритмы Google не делают различия между дублированным контентом и сходным содержимым страниц. Этот аспект даже сумел найти своё отражение в определении повторяющегося контента, которое дают представители Google.

 

ee-interview-city-pages-dupes

Вебмастеру важно научиться оперативно выявлять блоки информации в рамках одного или нескольких доменов, содержание которых либо полностью совпадает, либо почти не отличается. Чтобы не допустить появления на сайте подобного контента, лучше объединить все близкие по смыслу блоки содержимого в пределах одной страницы. В случаях, если по каким-либо причинам сделать это невозможно, следует пометить их как копии с помощью rel="canonical".

Выводы

Вебмастеру важно использовать все доступные методы для выявления повторяющегося содержимого на страницах. В случаях, когда структура сайта была изменена, необходимо применять переадресацию 301. Не стоит пренебрегать использованием параметров nofollow/noindex внутри мета-тега «robots». Однако делать это стоит, взвесив все «за» и «против», поскольку Google не советует блокировать доступ для поисковых роботов к повторяющемуся контенту с помощью файла robots.txt.

«Если поисковые системы не имеют возможности сканировать страницы с таким содержанием, то они не смогут автоматически определять, что разные URL имеют одинаковый контент, и будут обращаться с ними как с уникальными страницами. Лучше всего разрешить сканирование этих URL, но при этом пометить их как точные копии с помощью ссылки rel="canonical", инструмента обработки параметров URL или переадресации 301», — сообщается в Справке Search Console.

Автор статьи надеется, что перечисленные выше аспекты помогут владельцам сайтов быстро и легко выявить дублированное содержимое своих сайтов и принять необходимые меры для исправления ситуации.

Google запускает новый формат рекламы Shop the Look

Google объявил о запуске нового мобильного формата рекламы Shop the Look. Он предназначен для ритейлеров, занимающихся продажей одежды и предметов домашнего декора. Первыми доступ к нему получат рекламодатели из США.

Объявления этого формата будут появляться в результатах поиска по широким запросам, таким как [свадебные платья] и т.п. Они будут представлять собой готовые «луки» или варианты дизайна интерьера от известных блогеров с возможностью покупки.

В качестве источников «луков» будут выступать такие популярные фэшн-ресурсы, как LIKEtoKNOW.it, Curalate и Polyvore.

Самое интересное за неделю

Джон Мюллер: последний апдейт Google не связан с Penguin

По словам представителя поиска, Penguin следует вычеркнуть из списка возможных причин последних изменений в ранжировании. Он также добавил, что Google постоянно обновляет результаты поиска.
 

С 2017 года Chrome начнёт помечать HTTP-сайты как небезопасные

C января 2017 года браузер Google Chrome 56 версии начнёт помечать все HTTP-сайты, которые передают личные данные пользователей, как «небезопасные».
 

Яндекс запустил сервис для мониторинга интернет-ресурсов — Яндекс.Медиана

Яндекс.Медиана не только поможет проследить за тем, что пишут об интересующих людях и объектах на просторах интернета, но и оценит тональность и значимость публикаций.
 

Google напомнил о своих правилах касательно ссылок в виджетах

Google предостерёг вебмастеров от добавления ссылок на сайт в виджеты, распространяемые по разным ресурсам. Использование такого приёма для продвижения сайта может стать причиной санкций поисковика.
 

Google AdWords запустил «Группы кампаний»

Группы кампаний представляют собой набор кампаний с общим ключевым показателем эффективности. Создав группу, рекламодатели смогут оценивать суммарную успешность кампаний с похожими целями.
 

Google добавил второй рекламный блок в выдачу по приложениям

Google внёс несколько изменений в поиск приложений из Google Play. Теперь в результатах выдачи появился второй рекламный блок с контентом из Google Play, который показывается по небрендированным общим запросам.

В Директе появилась возможность генерации динамических объявлений по фиду

Команда Яндекс.Директа сообщила о появлении возможности автоматической генерации динамических объявлений по фиду. Теперь Директ умеет собирать объявления из сформированного YML-файла с данными о товарах.
 

Google запустил приложение «YouTube Детям» в России

Сервис представляет собой интерактивную платформу для всей семьи, на которой собран лучший образовательный и развлекательный контент для детей до 8 лет. Приложение доступно для планшетов и смартфонов, работающих на базе iOS и Android.
 

Facebook расширил возможности международного таргетинга

Социальная сеть Facebook представила новые возможности таргетинга объявлений для компаний, желающих продвигать свой бизнес на международный рынок.
 

Apple Pay заработает в России осенью 2016 года

Осенью 2016 года система мобильных платежей Apple Pay будет запущена в трёх новых странах: России, Японии и Новой Зеландии.
 

Цена за тысячу показов на Facebook выросла на 65%

Компания Salesforce опубликовала отчёт Advertising Index за второй квартал 2016 года. Он содержит статистику по CPM и CTR рекламы в таких крупных социальных сетях, как Facebook, Instagram, Twitter и LinkedIn. Данные собирались в мировом масштабе.
 

В Яндекс.Аудиториях появилась возможность таргетинга рекламы на аудиторию сайтов и приложений

Команда Яндекс.Метрики сообщила о появлении новых сегментов для таргетинга рекламных сообщений при помощи Яндекс.Аудиторий. Теперь можно нацеливать рекламу не только на клиентов, которые взаимодействовали с рекламодателем в офлайне, но и на посетителей сайта и пользователей приложения.
 

Google добавил больше отзывов в локальную выдачу

В прошлом месяце Google включил в результаты локального поиска блок с отзывами критиков. Теперь поисковик добавил в них новый блок «Отзывы из интернета». В него войдёт контент, сгенерированный пользователями.
 

ВКонтакте ограничила сторонним музыкальным приложениям доступ к аудиозаписям

ВКонтакте перестала выдавать аудиозаписи, принадлежащие правообладателям, сторонним музыкальным приложениям. Теперь, используя API ВКонтакте, можно получить доступ только к музыке, которая свободно распространяется в интернете.

Команда Яндекс.Вебмастера сообщила о запуске нового API версии 3.0.

Новая версия поддерживает все возможности старого программного интерфейса, но, к сожалению, не обладает обратной совместимостью с предыдущей версией. Поэтому всем пользователям API Вебмастера рекомендуется перейти на новую версию как можно скорее. Для упрощения перехода сейчас поддерживается два формата ответа API: как производительный и лаконичный JSON, так и XML, используемый в старой версии.

В самое ближайшее время в старой версии API изменяющиеся показатели перестанут обновляться, а в течение месяца API 2.0 полностью перестанет поддерживаться. Старый Вебмастер также закроется в ближайшее время, потому что вся основная функциональность уже поддержана в новой версии Вебмастера, с помощью которой теперь можно решать еще больше задач по анализу представления сайта в поиске.

Подписаться на Twitter    Подружиться на Facebook    Отправить другу 
Copyright © 2016 Searchengines.ru,, All rights reserved.
Вы получили эту рассылку, поскольку регистрировались на сайте Searchengines.ru. Вы можете всегда отписаться от нее, переслать другу, а также обновить свой профиль подписчика.

Наш почтовый адрес:
Searchengines.ru, , Moscow, 65000, Russia
отписаться от этой рассылки    обновить настройки подписки 

Комментариев нет:

Отправить комментарий

«Проект небольшого дома» для пользователя Торговый Дом

Проект дома с мансардой 10x9 из газобетона (пеноблоков), c террасой, котельной и кухней-столовой + т     ...