Google начал рассылку уведомлений о несоответствии SSL/TSL-сертификата сайта домену

Google Search Console начал в массовом порядке уведомлять вебмастеров о несоответствии имени SSL/TLS-сертификата сайта имени домена.

Выглядят подобные оповещения так:

google-ssl-tls-search-console-warning-1447245727.png

Текст уведомления гласит: «Google выявил, что текущий SSL/TSL-сертификат, используемый в [домене], не включает его имя. Это значит, что ваш сайт не воспринимается как безопасный некоторыми браузерами. В результате, многие веб-браузеры будут блокировать к нему доступ, отображая предупреждение о небезопасности ресурса. Это делается для того, чтобы максимально обезопасить пользователей».

По мнению обозревателя Search Engine Land Барри Шварца (Barry Schwartz), рассылка этих уведомлений говорит о двух вещах: 1) Google хочет оповестить вебмастеров о проблемах с SSL/TSL-сертификатами; 2) поисковик знает об этих проблемах. Возможно, в будущем Google обновит HTTPS-алгоритм и сайты, у которых есть проблемы с SSL/TSL-сертификатами не получат импульса в ранжировании.

Специалист отдела качества поиска Google Зинеб Аит Бахаджи (Zineb Ait Bahajji) подтвердила факт рассылки: «Мы хотим, чтобы вебмастера знали о проблемах, связанных с TLS-сертификатами их сайтов».

Напомним, летом 2014 года Google объявил, что использование безопасного протокола HTTPS на сайте будет рассматриваться в качестве сигнала для ранжирования.

Google покажет влияние закрытых от индексации скриптов на сканирование страницы

Инструмент Сканер Google для сайтов, доступный в Search Console, теперь показывает уровень влияния заблокированных ресурсов на сканирование всей страницы. Об этом заявил специалист отдела качества поиска Google Джон Мюллер (John Mueller) в Google+.

Заблокированные ресурсы могут помешать сканированию страницы и снизить ее рейтинг. Уровень таких элементов определяет их важность при сканировании:

  • Низкий: заблокированный скрипт почти не влияет на сканирование.
  • Средний: ресурс оказывает некоторое влияние на сканирование.
  • Высокий: заблокированный ресурс оказывает значительное влияние на сканирование и, скорее всего, помешает ему.

По словам Мюллера, такие элементы как «встроенный контент» (изображения, скрипты, CSS-файлы и т.п.) иногда оказывают значительное влияние на сканирование страницы.

«Еще летом этого года Google рекомендовал оптимизаторам открыть файлы JavaScripts и CSS, чтобы избежать возможных проблем при ранжировании. Новый инструмент упрощает процесс оценки важности скриптов: поисковик сам указывает, какие из них желательно открыть, а какие – можно не открывать.

Файлами, не влияющими на ранжирование, Google считает различные скрипты, которые подгружаются на сайт из сторонних источников, к примеру, счетчики. Важные для поисковика файлы – скрипты, помогающие лучше оценить контент сайта, к примеру, подгрузка через API ценной для пользователей информации с других ресурсов.

Инструмент будет особенно полезен сайтам, размещающим рекламу на своих страницах. Раньше оптимизаторам приходилось в ручную выбирать эти скрипты, а теперь эту работу делает поисковик.

Оптимизаторам, использующим скрипты и стили в серых методах продвижения, этот инструмент позволит своевременно переключиться на другие более белые приемы оптимизации.

Сканером индексации достаточно воспользоваться один раз, чтобы удостовериться, что все необходимые Google документы, открыты и в случае подключения дополнительных скриптов проверять его важность для ранжирования», – комментирует решение Google оптимизатор Kokoc.com (Kokoc Group), Олег Смагин.

Google: Максимальный размер файла Disavow – 2 МБ

Максимальный размер файла для отклонения ссылок (Disavow Links) составляет 2 МБ. Об этом заявил специалист отдела качества поиска Google Джон Мюллер (John Mueller) в ответ на вопрос одного из вебмастеров на форуме Google Webmaster Help.

google-map-bot-640-1445258836.jpg

Вебмастер разместил на форуме сообщение о том, что его файл Disavow не работает. Джон Мюллер пояснил: «Максимальный размер файла Disavow составляет 2 МБ. При загрузке слишком большого файла в инструмент отклонения ссылок вы должны видеть соответствующее предупреждение».

Это оповещение должно выглядеть так: «Загружаемый файл слишком длинный. Он должен содержать менее 100 тыс. ссылок, а его размер – не превышать 2 МБ».

Однако вебмастер видит сообщение, которое гласит:

«Это продвинутая опция и использовать её нужно с осторожностью. При некорректном использовании эта функция может навредить позициям сайта в ранжировании Google. Мы рекомендуем вам отклонять входящие ссылки только в том случае, когда накопилось достаточно много указывающих на сайт некачественных ссылок, и вы уверены, что они действительно ему вредят».

google-disavow-afte-upload-1447160508.png

Напомним, что Google представил Disavow Links в октябре 2012 года. Инструмент отклонения ссылок подходит для тех случаев, когда вебмастер не может удалить некачественные входящие ссылки, так как ему не доступны доноры, или же ссылки появились в результате атаки конкурентов.

Весной 2014 года Джон Мюллер предостерёг вебмастеров и оптимизаторов от использования инструмента Disavow Links для отклонения ссылок с сайтов нерелевантной тематики.

А в ноябре того же года специалист пояснил, что дублирование ссылок в файле отклоненных не является проблемой.

Google: Исходящие ссылки сайта не дают преимуществ в ранжировании

В SEO-сообществе бытует мнение, что исходящие ссылки сайта являются фактором ранжирования Google. Таким образом, считается, что если ресурс ссылается на качественные источники, это может улучшить его позиции в выдаче поисковика. Однако специалист отдела качества поиска Google Джон Мюллер (John Mueller) считает по-другому.

chalkboard5-Google-640-1443196335.jpg

По словам Мюллера, Google не даёт сайту какого-либо SEO-преимущества на основании того, на кого он ссылается.

Во время очередной видеовстречи для вебмастеров один из участников задал следующий вопрос:

«Если сайт принадлежит к профессиональной или торговой ассоциации, является ли преимуществом для SEO наличие на сайте исходящих ссылок на эти ресурсы? То же самое в отношении контента: даёт ли какие-либо преимущества в ранжировании использование ссылок на полезные ресурсы внутри материалов сайта?»

Мюллер ответил так:

«С нашей точки зрения, это ваше личное дело. Ссылки на другие сайты не дают какого-либо преимущества для SEO. Однако если вы считаете, что ссылка поможет пользователям лучше понимать ваш сайт, тогда её использование может иметь смысл».

Ответ Мюллера можно прослушать на 41:15 отметке видеозаписи:

Важно отметить, что слова Мюллера дают простор для интерпретации. Тем не менее, в отношении получения каких-либо преимуществ в ранжировании ответ специалиста прозвучал довольно чётко.

Moz назвал основные факторы ранжирования в локальной выдаче Google в 2015 году

Moz опубликовал результаты ежегодного исследования влияния различных факторов на ранжирование сайтов в локальной выдаче Google за 2015 год.

Основным изменением в локальном поиске за последний год стал запуск по всему миру нового блока с результатами – Local Stack / Snack Pack. В связи с этим, в этом году эксперты не только ранжировали факторы, которые влияют на позиции сайте в локальном блоке или выдаче, но и указывали те факторы, которым они уделяли больше или меньше внимания в результате нововведения.

Основные выводы:

  • Локальный поисковый алгоритм Google стал более «зрелым».
  • Влияние Google+ на локальные результаты сходит на «нет».
  • Важность поведенческих сигналов растёт.
  • Упоминания по-прежнему важны, но нужно сфокусироваться на качестве и постоянстве.
  • Роль качественных ссылок после запуска Local Stack / Snack Pack увеличивается.

Несмотря на то, что Local Stack / Snack Pack был приоритетным вопросом для всех респондентов, тактические ответы были разными. Тем не менее, специалистам удалось достичь консенсуса. В целом, факторы ранжирования по важности распределились следующим образом:

general_factors.PNG

По мнению экспертов, основное внимание уделяется on-page сигналам. За ними следуют другие группы факторов: ссылочные сигналы, сигналы Мой бизнес, внешние, поведенческие и т.д. При этом одним из основных выводов является акцент на качестве и включении расширяющегося диапазона сигналов.

Кроме того, в отличие от общей, локальная выдача Google кажется более гибкой и регулярно обновляется. Некоторые из этих изменений вызваны ростом мобильного сегмента, другие – соображениями качества.

Исследование Moz основано на опросе почти 40 ведущих специалистов в области локального SEO и включает четыре блока:

1. Общие факторы ранжирования

В этом разделе респондентов попросили определить влияние восьми тематических кластеров факторов ранжирования по двум основным типам локальных результатов (органическая локальная выдача и локальный блок).

2. Специфические факторы ранжирования

В первой части этого блока респондентов попросили распределить в порядке приоритетности 20 отдельных факторов ранжирования (из общего списка из 114 факторов), которые имели наибольшее влияние на позиции сайта в карусели/локальном блоке.

Во второй части респонденты ранжировали 20 факторов из того же списка, только в этот раз они оценивали их влияние на локальную органическую выдачу.

В третьей части этого раздела респонденты ранжировали 20 факторов из того же списка, исходя из наибольшего влияния на конкурентный рынок по обоим типам результатов.

3. Относительные изменения в важности факторов после запуска Snack Pack / Local Stack

Эксперты указали пять факторов, которым они уделяли больше внимания после запуска Local Stack, и пять факторов, которым уделялось меньше внимания в связи с нововведением.

4. Негативные факторы ранжирования

В этом разделе эксперты расположили 27 негативных факторов в порядке убывания возможного вреда, который они могут нанести позициям сайта в локальной выдаче. 

Все результаты отчёта и итоговые рейтинги факторов по указанным блокам доступны по ссылке.

Напомним, что в прошлом месяце Moz также назвал важнейшие факторы ранжирования в общей поисковой выдаче Google в 2015 году.

Google не считает переоптимизацией ссылки на товары из статей на e-commerce caйтах

Google не считает переоптимизацией внутренние ссылки на товары из статей на сайтах интернет-магазинов. Об этом заявил специалист отдела качества поиска Google Джон Мюллер (John Mueller) во время очередной видеовстречи для вебмастеров.

Во время мероприятия один из участников задал Мюллеру следующий вопрос:

«Некоторое время назад наше SEO-агентство вынудило нас удалить внутренние ссылки из статей в нашем интернет-магазине, поскольку Google считает это переоптимизацией. Могли бы вы разъяснить позицию компании по этому вопросу?».

Он ответил, что это не является проблемой:

«В целом, я не вижу каких-либо проблем, связанных со внутренними ссылками со статей на e-commerce сайте. Важно разумно подходить к этому вопросу и избегать излишеств, вроде привязки каждого ключевого слова к разным страницам сайта».

Полный ответ Джона Мюллера можно прослушать на видеозаписи ниже:

Google рекомендует поддерживать 301 редиректы активными минимум год

Специалист отдела качества поиска Google Джон Мюллер (John Mueller) рекомендует поддерживать редиректы с номером ошибки 301 (moved permanently) активными минимум год после настройки. Об этом он заявил во время очередной видеовстречи для вебмастеров.

brick-Google-1900px--1441802297.jpg

По словам Мюллера, Google может потребоваться от 6 месяцев до года, чтобы полностью осознать тот факт, что сайт переехал. Кроме того, пользователи могут находить старые ссылки, и если по ним нет переадресации, они могут приводить пользователей на страницу с ошибкой 404 или на припаркованный домен, что в конечном итоге ухудшит их опыт.

«Я бы рекомендовал поддерживать 301 редиректы активными минимум год или дольше в зависимости от конкретной ситуации», — отметил Мюллер.

Полностью ответ специалиста можно прослушать на отметке 24:11 видеозаписи ниже:

Напомним, что Google не рекомендует использовать переадресацию с метатегом refresh при перемещении сайта. Вместо этого желательно использовать переадресацию 301.

SEO-специалист Марк Мунро (Mark Munroe) в своем выступлении на тему: «Как избежать самых серьёзных SEO-проблем» в рамках ежегодной конференции SMX East 2014 утверждал, что 301 редирект должен использоваться в 99,99% всех перенаправлений на сайте.

В течение последних трех месяцев Яндекс тестировал новый подход к определению релевантности документов

В течение последних трех месяцев на части запросов Яндекс тестировал новый подход к определению релевантности документов. Об этом сообщила Екатерина Гладких, аналитик безопасного поиска Яндекса, в ответ на запрос редакции Searchengines.ru.

Екатерина подробно описала, что происходит с выдачей Яндекса последние несколько месяцев и почему:

«Традиционный подход заключается в использовании заранее имеющейся информации о факторах, извлекаемых непосредственно после индексации документа, а также последующей «корректировке» релевантного топа с учетом пользовательского поведения на сайте.

Однако априорной информации о документе иногда недостаточно для определения потенциальной пользы в решении поисковой задачи. Некоторые полезные или просто новые документы могут из-за этого ранжироваться низко и, следовательно, потребуется много времени для накопления достаточного количества данных об удовлетворенности пользователя.

Поэтому имеет смысл периодически показывать в области видимости документы, по которым пользовательской информации недостаточно для принятия решения о полезности документа; при этом априорная релевантность такого документа может оказаться не самой высокой.

Таким образом, за счет возможного краткосрочного снижения качества удается получить информацию о документах, участвующих в поиске, и выиграть в качестве стратегически.

На практике невозможно для получения обратной связи от пользователей показать на топовых позициях всё множество документов, которое попадает в выдачу. Поэтому мы применяем комбинацию так называемого эксплуатирующего подхода, основанного исключительно на априорной релевантности документа, и экспериментирующего, — целью которого является сбор максимума информации о документах на основе поведения пользователей.

Сегодня многие компании проводят исследования в этой актуальной области информационного поиска. На конференции WWW’15 во Флоренции статья наших сотрудников, посвященная онлайн-обучению алгоритма ранжирования в терминах задачи о многоруких бандитах, была номинирована на Best Paper Award. Мы гордимся их достижением и рекомендуем статью всем заинтересованным специалистам».

Напомним, что в течение лета многие вебмастера столкнулись с неизвестной аномалией — регулярными скачками позиций и видимости в Яндексе. Тема широко обсуждалась на форуме Searchengines.guru, многие специалисты выдвигали свои версии причин происходящего. В частности, версию о тестировании Яндексом изменений и корректировке алгоритмов в небывалых ранее масштабах, выдвигал Константин Скобеев (Скобеев и Партнеры). Специалисты компании «Пиксель Плюс» также исследовали этот феномен, и высказали свои предположения.

Механизм работы нового АГС Яндекса такой же, как у Минусинска

У сайтов с хорошей посещаемостью (от 700 и выше), высокими показателями качества и социальной активности велик шанс попасть под новый АГС Яндекса. К такому выводу пришел Александр Алаев aka АлаичЪ, создатель хорошо известного сервиса CheckTrust.ru, проведя исследование на базе более чем 90 тыс сайтов из базы Sape.

Исследование показало, что:

  • Сайты из Яндекс Каталога попадают под АГС в 1,7 раза чаще.
  • Сайты из каталога DMOZ попадают под АГС в 1,8 раз чаще.
  • Сайты с высоким PR и не нулевым PR попадают под АГС чаще.
  • Сайты с датой создания 2015 по Whois попадают под АГС 3,2 раза реже!
  • Сайты с датой создания 2014 по Whois попадают под АГС 1,6 раза реже!
  • Сайта старше двух лет (по Whois) больше подвержены риску.
  • Сайты с посещаемостью по LI от 100 до 700 попадают под АГС в 2 раза чаще.
  • Сайты с посещаемостью по LI от 700 до 10000 попадают под АГС в 4 раза чаще.
  • Сайты с посещаемостью по LI выше 10000 попадают под АГС почти в 3 раза чаще.
  • Сайты с высокой социальной активностью попадают под фильтр чаще.
  • Сайты с высокими показателями качества попадают под фильтр чаще.

На какой параметр не посмотри, складывается общая картина того, что под фильтр попали в большинстве своем старые крутые сайты, имеющие завидные пузомерки, эти сайты имеют реально высокую посещаемость, социальные сигналы из всех соцсетей. Все те параметры, на которые большинство SEO-специалистов обычно и обращают внимание при выборе донора.

Александр Алаев: «Но это вовсе не значит, что надо опасаться сайтов из каталогов, с посещаемостью и всеми прелестями. Исследование всех основных показателей сайтов, пузомерок, посещаемости, социальной активности, в том числе данных сторонних сервисов, говорит лишь о том, что ни один параметр не дает иммунитета перед новым фильтром АГС».

Напрашивается вывод, что новый АГС — в точности как Минусинск, но с другой стороны. Как мы помним, Минусинск призван покарать сайты, которые покупают seo-ссылки. В первую очередь были наказаны лидеры отрасли. Они же лидеры закупок ссылок. Вероятно, что наказали минимум сайтов, закупающих максимум ссылок.

Новый АГС призван покарать сайты, которые продают seo-ссылки. Сейчас прошла первая волна санкций, наказаны опять же лидеры отрасли, продающие основную массу ссылок. Наказали минимум сайтов, продающих максимум ссылок.

Александр уверен, искать запутанные закономерности не стоит. «Критерий до боли прост – количество. Количество продажных ссылок с сайта. Если АГС будут раскатывать волнами так же, как Минусинск, то нижняя граница допустимого значения продажных ссылок будет постепенно снижаться, и под следующий удар попадут сайты со схожими характеристиками», — считает специалист.

Для того, чтобы вывести сайт из-под нового АГС, нужно отказаться от размещения SEO-ссылок. На это указывает сам Яндекс в сообщении о запуске нового фильтра. Александр советует держать количество исходящих в пределе 250 ссылок (при таком количестве, кстати, не проще ли вообще отказаться от продажи ссылок и спать спокойно?). Еще одной рекомендацией будет соблюдение пропорций входящих/исходящих ссылок – отношение исходящих к входящим не должно превышать 1,5 раза.

Учитывая возможность повторных волн нового АГС фильтра, специалист рекомендует всем, кто продает ссылки, придерживаться отношения исходящих к входящим держать в пределах 1.

Подробней о сходстве нового АГС с Минусинском и его отличиях от АГС-40 можно прочитать здесь

В отчёте Google Search Analytics доступны данные по максимум 999 ключевым словам

Специалисты отрасли заметили, что в новом отчёте Google Search Analytics, который пришёл на смену Поисковым запросам, отображается лишь 999 ключевых слов. У его предшественника эта цифра составляла более 5 тыс. за 90-дневный период.

wrenches1-Google-640px-1441801570.jpg

Ниже – скриншоты, отображающие лимиты двух отчётов, опубликованные редактором Search Engine Roundtable Барри Шварцом ( Barry Schwartz):

Search Analytics:

google-search-analytics-999-1441801570.png

Поисковые запросы:

google-search-queries-number-1441801570.png

На вопрос об ограничении количества ключевых слов в новом отчёте специалист отдела качества поиска Google Джон Мюллер (John Mueller) ответил, что новый Search Analytics API позволяет выгрузить свыше 4 тыс. ключевых слов. Так что для получения этой статистики можно воспользоваться этим каналом.

Напомним, что Google официально запустил новый отчет Search Analytics в Search Console в мае этого года. Новый функционал был призван заменить предыдущую версию – отчёт Поисковые запросы. Данные в отчёте Search Analytics отличаются от прежней версии функционала более высокой точностью и способом получения.

К замене старой версии отчёта на новую Google приступил в начале сентября. В настоящее время Поисковые запросы практически недоступны для большинства пользователей сервиса.