Уроки компьютерной грамотности

Уроки компьютерной грамотности

» » Алгоритм ранжирования яндекс. Принципы ранжирования поиска яндекса

Алгоритм ранжирования яндекс. Принципы ранжирования поиска яндекса

В течение последних двух лет Google и «Яндекс» неустанно меняли свои алгоритмы. Это нередко приводило к панике среди SEO-специалистов, но подыгрывало последователям органического SEO . Ведь все изменения, вводимые поисковыми системами, были направлены на уменьшение видимости страниц низкого качества и без добавленной ценности.

Так остались ли ещё методики продвижения сайтов, не приводящие к «фильтрации»? Какие стратегии оптимизации следует выбирать SEO-специалистам в 2015–2016 годах?

Что делать для успешного продвижения в Google?

1. Расширять семантическое ядро с учётом алгоритма «Колибри».

Алгоритм Hummingbird («Колибри») был запущен 20 августа 2013 года, но до сих пор многие SEO-специалисты не принимают его во внимание. «Колибри» кардинально изменил способ поисковой системы Google анализировать запросы: вместо сопоставления запросу отдельных ключевых слов на странице поисковик ищет соответствие общего смысла.

Ключевые слова по-прежнему важны, однако следует применять бóльшее их разнообразие, включая синонимы, поисковые подсказки и близкие по смыслу слова и словосочетания. Например, вместе с «ключом» «цветы» использовать фразы «букет ко дню святого Валентина» , «доставка цветов в день заказа» или «цветочная композиция» . Если возможно, т.е. если действительно есть что сказать по этому поводу, то вставлять и диалоговые фразы типа «где купить цветы дёшево?»

Все подобранные «ключи» необходимо разделить на три группы: информационные, навигационные и транзакционные.

  • Информационные запросы (например, «как составить букет?» ) задают, когда ищут образовательный контент. Поэтому на сайте их следует использовать при создании информационных статей с ненавязчивыми ссылками на продукты или услуги.
  • Навигационные запросы (например, «магазин ромашка» ) используют для поиска бренда, конкретного продукта или веб-ресурса, их рациональнее применять на страницах «Главная» и «О компании», например.
  • Транзакционные же явно указывают на намерение совершить некое действие: заказать, купить, скачать. В этом случае используют слова «цена», «купить», «доставка», «аренда», «купон», «скидка» и пр. Подходящие места для них – странички товаров/услуг, акций и т.п.

В любом случае «ключи» не должны напоминать «коровью лепёшку» - несклоняемую и бессмысленную вставку в ткань повествования. Текст должен читаться плавно и естественно, ведь его воспринимает и оценивает Человек, поисковик же работает с «широким» семантическим ядром, а не повторённой 5 раз в «магических» формах и положениях фразой.

2. Совершенствовать структуру URL сайта.

Сайты с упорядоченной структурой адресов обычно ранжируются лучше, чем ресурсы с «грязной» структурой и запутанной организацией контента. URL-адреса и ссылки являются строительными блоками веб-сайта, а потому им следует уделять должное внимание.

  • Динамические адреса типа site.ru/page?id=13579&color=4&size=2&session=754839 слишком длинные и не несут никакого смысла. Показатель кликабельности (CTR, click-through rate) таких ссылок в результатах поиска обычно ниже, поэтому стоит использовать статические человекупонятные урлы (ЧПУ).
  • Множество «битых» ссылок , ведущих на страницу 404 ошибки, также может повредить позициям сайта при ранжировании. Необходимо время от времени проверять сайт на предмет возникновения неработающих ссылок, используя специальные программы, например, Screaming Frog .
  • Ранее считалось, что большое количество исходящих ссылок со страницы негативно сказывается на её ранжировании в поиске, хотя это утверждение некоторые оспаривали. Сейчас Google уже отказался от регламентированного (не более 100 штук) количества ссылок с одной страницы, но настаивает на том, чтобы соответствовали тематике страницы и тем запросам, по которым люди на неё приходят.

3. Фокусироваться только на качественных, потом-кровью заработанных обратных ссылках, пусть их будет и немного.

За определение качества ссылочной массы и естественности анкор-листа в Google отвечает алгоритм «Пингвин» , последнее крупное обновление которого произошло 21 октября 2014 года (Google Penguin 3.0). 15 октября 2015 года началась новая итерация апдейта «Пингвина» - многие сайты, торгующие ссылками через биржу Sape, были понижены в выдаче.

Разработчики Google недвусмысленно нам говорят, что гораздо лучше иметь многочисленные ссылки с нескольких авторитетных нишевых ресурсов, чем сотни единичных ссылок со второсортных сайтов.

Как адаптировать сайт под мобильные устройства? Используйте, например, фреймворк Twitter Bootstrap. Это распространённая и очень удобная система вёрстки сайтов со стандартизированными шаблонами. А главное, что для дальнейшего улучшения сайта вам не придётся долго искать программиста, который смог бы разобраться в HTML-коде: с «Бутстрапом» знакомо большинство верстальщиков, которым не составит труда внести нужные изменения.

Как не потерять благосклонного отношения «Яндекса»?

1. Относиться к текстам как к основному инструменту продвижения.

Наряду с фильтром «Переоптимизация» «Яндекс» в середине 2014 года ввёл новый «Антиспам-фильтр» . Он похож на своего «старшего брата», но более жёсткий (приводит к потере позиций в выдаче вплоть до 1000) и учитывающий больше нюансов.

Что делать, чтобы не подвести свой сайт под «Антиспам-фильтр»?

  • Уделять особое внимание длине и заспамленности ключевыми словами заголовков (title) и описаний (description) страниц.
  • Не зацикливаться на прямых вхождениях «ключей» и ограничить общий процент использования ключевых слов и выражений. Это касается таких «экзотов», как «Где купить ххх дёшево?» , «Недорогие услуги... в городе N» и т.п., но не базовых словосочетаний типа названий товаров или отраслевых терминов, без которых невозможно донести информацию. В отношении последних действует обычный литературный «ограничитель» - критерий тавтологичности.
  • Тщательно редактировать тексты: «Антиспам-фильтр» настроен на определение орфографических и пунктуационных ошибок.
  • Не выделять «ключи» жирным, курсивом и другими способами. Делать это можно лишь в отношении фраз или слов, на которых стоят логические акценты для привлечения внимания читателя. Ничего нового, всё логично - выделяется главная мысль или термин, а не любой «ключ».
  • По возможности заменять избыточные «ключи» словами из подсказок и «Спектра ».

2. Сосредоточиться на естественном линкбилдинге, приносящем трафик.

12 марта 2014 года «Яндекс» произвёл отмену ссылочного ранжирования по Москве и области для коммерческих запросов в ряде сфер. Не за горами отмена избыточного влияния ссылок и по всей России.

Если Вы хотите продолжать размещать рекламные блоки на своём сайте, то желательно не ставить их более двух, причём реклама не должна отвлекать от основного контента, перекрывать его, а уж тем более замещать, отодвигая текст в сторону или вниз.

Это касается и ставших в последнее время модными всплывающих виджетов типа «Мы Вам перезвоним через 26 секунд», «Вы были на сайте уже 10 секунд! Нашли что-то полезное?» и пр.

а) Более 10 лет поиск в Google персонализируется в зависимости от многих факторов:

  • Истории поиска . Если Вы ищете что-то в Google под своим аккаунтом, при формировании результатов поиска учитывается история минимум за год. И даже если Вы работаете с поисковиком анонимно, Google всё равно будет выдавать персонализированные результаты, поскольку при помощи файлов cookie хранит историю поиска в конкретном браузере за 180 дней. Не будешь же чистку каждый день устраивать...
  • Предыдущего запроса. Google работает по механизму уточнения предыдущего запроса, предполагая, что Вы по нему нашли не всё, что искали, а потому предлагает страницы, связанные одновременно с текущим и предыдущим запросами.
  • Географического положения пользователя. Результаты поиска, которые выдаются пользователю в одном городе, могут разительно отличаться от результатов по тому же поисковому запросу в другом городе. 24 июля 2014 года в США был запущен новый алгоритм Pigeon 1.0 («Голубь») , который резко изменил результаты локальной выдачи в связи с введением новых механизмов обработки и интерпретации сигналов местоположения. В итоге близость расположения бизнеса для пользователя Google стала чуть ли не главным фактором в поисковой выдаче. Даты внедрения нового алгоритма в других странах пока не озвучиваются.

б) «Яндекс» не отстаёт от западного конкурента в деле персонализации поиска: 12 декабря 2012 года российская компания запустила алгоритм «Калининград» , учитывающий историю поиска. В то же время «Яндекс» обращает внимание и на географическое положение пользователя, а также разделяет запросы на геозависимые (по которым выдача привязана к региону) и геонезависимые (результаты поиска не зависят от региона пользователя).

Таким образом, вокруг каждого пользователя формируется поисковый пузырь , из которого не так-то легко выбраться. Это порождает массу иллюзий, например, у владельцев сайтов. Нужно просто принять, что практически невозможно узнать, на каких позициях в SERP Ваш сайт видят другие люди. Чтобы получить действительно точные данные по неперсонализированным позициям, следует использовать специальные программы или онлайн-сервисы, например, AllPositions (платный), «Энергослон» (платный), SEOGadget (бесплатный, но с ограничением количества проверок в день).

Но не надо заблуждаться и в отношении этого инструмента - он тоже не отражает реальную видимость ресурса (как мы поняли, она вообще индивидуальна). Увидеть сайт на позициях, определённых программами, может только ОН, Уникум анонимикус , постоянно уничтожающий cookies, генерирующий новые IP и т.п., или же впервые воспользовавшийся браузером где-то на орбите (а может, и там пеленгуют?). Но несмотря на то, что этот инструмент обитает в вакууме, он полезен, просто цель у него другая - оценка в динамике эффективности прикладываемых усилий по развитию ресурса . Иными словами, неперсонализированные позиции помогают понять, одобряет или нет поисковик вашу деятельность. А уж где в SERP сайт увидят Маша или Вася, сильно зависит от их сетевого поведения.

В этом году Яндекс решил не дожидаться весны, и сходу обрушился на вебмастеров известиями о запуске нового мобильного алгоритма и результатах стартовавшего еще в декабре алгоритма по борьбе с кликджекингом. А про «буйства» прошлого года и вовсе страшно вспоминать. Чтобы помочь вебмастерам сосредоточиться на главном, редакция SEOnews собрала основные тренды продвижения в Яндексе и попросила экспертов дать советы, исходя из нововведений прошлого ­– начала этого года.

Ссылки

Прошедший 2015 год был по-настоящему годом ссылок. Точнее, он окончательно утвердил антиссылочную политику Яндекса. Запущенный в середине мая алгоритм показал даже самым скептически настроенным SEO-специалистам, что олдскульная закупка ссылок не просто не работает, но и ведет к печальным последствиям для сайта. А обновленный меньше чем через полгода АГС окончательно , что покупные ссылки убивают не только приобретающие их сайты, но и продающие.

Кейсы по выходу из-под «Минусинска» наглядно продемонстрировали, что избавиться от алгоритма несложно: главное – снять так называемые SEO-ссылки. Естественные и качественные ссылки в свою очередь только положительно сказываются на ранжировании, так что в новом году продолжаем прокачивать скилы по наращиванию естественной ссылочной массы.

Алексей Бузин, генеральный директор компании «СЕО-Импульс» :

Яндекс с введением в 2015 году алгоритма «Минусинск» заставил многих SEO-оптимизаторов переосмыслить свое отношение к покупке ссылок. До сих пор немалое количество сайтов находится в топ 10 по конкурентным тематикам с большим количеством откровенно покупных ссылок, но это не значит, что «Минусинск» их обошел стороной. Порог «спамности» ссылочного профиля постепенно повышается, поэтому мы рекомендуем тем владельцам сайтов, которые использовали получение ссылок через биржи, заняться тщательной чисткой ссылочного профиля либо обратиться за помощью к компетентным специалистам, которые помогут им сделать это.


Александр Дронов, старший менеджер отдела поискового продвижения компании i-Media :

Пора начать работать над стратегией получения естественных и качественных ссылок. Внешние факторы ранжирования никто не отменял. «Пингвин» и ручные санкции от Google, а также «Минусинск» и АГС от Яндекса дали понять: пора прекращать покупать абы какие ссылки с анкорами в виде ключевых запросов. Подобные ссылки по определению не могут быть естественными, и рано или поздно за них последует наказание в виде пессимизации сайта в выдаче.

Олег Сахно, руководитель отдела производственных услуг Cubo.ru :

Безопасность

Еще один важный момент, про который уже не первый год говорят в SEO-среде, это безопасность. В 2015 году Яндекс уделил довольно много внимания вопросу безопасного пользования интернетом (говоря о безопасности, Яндекс имеет в виду конфиденциальность и целостность пользовательских данных). Чего стоят одни его ухищрения в Я.Браузере вроде или появление о страницах, подписывающих пользователей на платные мобильные услуги.
Одним из первых крупных подтверждений серьезности намерений Яндекса стало проведение тестирования «безопасной выдачи». В течение ограниченного периода времени поисковик ниже ранжировал сайты, представляющие, по его мнению, опасность для пользователей, а в сниппетах таких ресурсов появлялось уже привычное «Сайт может угрожать безопасности вашего компьютера или мобильного устройства». Учитывая, что такая выдача пользователям понравилась больше, команда Яндекса в серьез сделать безопасность сайта одним из критериев ранжирования.


Продолжением темы стала предновогодняя с алгоритмом по борьбе с кликджекингом. Команда поиска предупредила вебмастеров, что сайты, собирающие пользовательскую информацию мошенническими способами (в первую очередь размещающие невидимые элементы и провоцирующие на нежелательные для пользователя действия), будут ранжироваться ниже. Причем алгоритм учитывает только актуальную информацию и наказывает непосредственно сам сайт, независимо от того сознательно вебмастер занимался кликджекингом или это сделал установленный по незнанию сервис. Подробнее об этом .

Еще раз взгляните на свой сайт и ответьте на несколько вопросов. Вызывает ли он у вас самих доверие? Не установили ли вы на нем какие-то подозрительные сервисы, которые в погоне за сиюминутной выгодой могут привести к долгосрочным негативным последствиям? Может ли пользователь доверить вам свои данные и можете ли вы гарантировать ему их безопасность? Мы не призываем всех повально переходить на HTTPS или устанавливать десятки степеней защиты. Просто отнеситесь с уважением к своим посетителям и помните, что небезопасные сайты теперь наказываются пессимизацией.

Александр Гайдуков, руководитель комплексной оптимизации сайтов в iSEO :

Безопасность (защищенные протоколы, «проверенные» CMS с минимальными рисками, отсутствие скрытых скриптов и фреймов для сбора данных и др.). Недавно мы столкнулись с фильтром Яндекса за кликджекинг, будьте внимательны.

Юзабилити

Пожалуй, это один из несменяемых трендов последних нескольких лет. Здесь сложно отметить, что-то новое, но и пропустить его нельзя. В 2016 году мы продолжаем делать сайты, которые будут удобными и понятными для пользователей. Сделать их такими помогут аналитика и A/B-тесты.

Хотелось бы порекомендовать SEO-специалистам и владельцам сайтов чаще ставить себя на сторону посетителя сайта (потенциального покупателя) и оценивать сайт со стороны удобства его использования. До сих пор в выдаче встречаю интернет-магазины, где нельзя увеличить товар, чтобы его детальнее рассмотреть, а также с трудом можно найти информацию о доставке товара и способах оплаты.


Нужно регулярно анализировать, насколько комфортно получать информацию на вашем интернет-ресурсе, насколько она полная, удобно ли совершать целевые действия. Представители поисковых систем регулярно напоминают, что сайты должны оправдывать ожидания пользователей. В первую очередь это касается дизайна и удобства в использовании интерактивных элементов.

Александр Гайдуков, руководитель комплексной оптимизации сайтов в iSEO:

Работа с поведенческими факторами (оптимизация макетов страниц, регулярные исследования и сплит-тестирования для улучшения юзабилити, генерация нестандартных спецпроектов, например, под сезонные события, для сбора дополнительного лояльного трафика).

Тренд в юзабилити на 2016 год, несомненно – мобилопригодность. Поиск на мобильных устройствах, это уже половина от общего трафика. При этом надо знать меру и относиться с уважением к пользователям и их приватности. Собственно, поэтому и введены санкции за кликджекинг. По сути, все нововведения в юзабилити - это всё та же мантра: делайте сайты для людей.

Контент

Один из главных 2016 года – контент-маркетинг. И это неслучайно. Есть ощущение, что мы снова возвращаемся в эпоху Content is the king. Особенность работы с контентом на данном этапе заключается в его разнообразии. Сегодня контент сайта – это не просто полезные и интересные статьи с деликатно размещенными ключевыми словами, но и инфографики, рекомендации, видео и разного рода интерактивные форматы. И да, все это должно быть красиво оформлено и размещено так, чтобы пользователь мог легко найти интересующую его информацию.

Еще один важный момент – контент уже давно перестал быть «переносчиком ключевых слов». Теперь он решает конкретные задачи пользователя (и таким образом улучшает ваши поведенческие факторы).

К слову, Яндекс открыл для себя новый способ оценки качества контента: теперь для получения более подробных данных о страницах сайтов и просмотра контента в том виде, в котором он отображается в браузере, поисковик JavaScript и CSS.

Олег Сахно, руководитель отдела производственных услуг Cubo.ru:

Контент – это уже не просто внутренние факторы ранжирования, а серьезный упор на коммерческие факторы. Сейчас сайт должен не просто давать ответ, важно решать задачу пользователя. Если информационная потребность пользователя не удовлетворена, сайт не будет успешен в результатах поиска.

Mobile

В 2016 году Яндекс подхватил инициативу Google по развитию мобильного направления. Намеки о том, что flash-элементы попаданию видео в мобильный поиск в итоге переросли в полноценный алгоритм . Как и у Google, алгоритм Яндекса влияет только на мобильную выдачу: более адаптированные сайты получат там преимущество. Адаптивнность ресурса Яндекс определяет по двум критериям:

1. Нет горизонтальной прокрутки. Контент страницы адаптирован под размер экрана.

2. Отсутствуют элементы, которые не работают на популярных мобильных платформах (например, упомянутые выше flash-ролики).

Определить, как обстоят дела с этими критериями у вас на сайте, не составит труда. Для этого никаких mobile-friendly test’ов не нужно. Но даже если до сегодняшнего дня вы игнорировали идею о мобильном или адаптированном сайте и считали это «излишеством», которое вашему бизнесу ни к чему, подумайте о том, что мобильный трафик по всему миру уже обогнал десктопный. А терять в кризис драгоценных клиентов недопустимо. Так что посмотрите, что о разных вариантах «мобилопригодности» эксперты, и делайте свой выбор.

Алексей Бузин, генеральный директор компании «СЕО-Импульс»:

Как и Google, поисковая система Яндекс как бы намекает в своем новом кабинете вебмастера , в разделе «Диагностика сайта», о том, что необходимо сделать сайт mobile-friendly. Инструмент намекает оптимизаторам, что вскоре не будет мобильных и десктопных сайтов. Будут только новые и старые ресурсы.


Александр Дронов, старший менеджер отдела поискового продвижения компании i-Media:

Уделяйте особое внимание мобильной выдаче и тому, как в ней выглядит ваш сайт. Google с прошлого года хуже ранжирует в мобильном поиске сайты без адаптивной верстки или мобильной версии. А на днях Яндекс анонсировал запуск нового алгоритма «Владивосток», анализирующего сайт на «мобилопригодность» и учитывающего данный аспект при его ранжировании в мобильной выдаче. Ничего удивительного: доля мобильного трафика непрерывно растет, и поисковые системы не могут игнорировать данное обстоятельство. По нашим прогнозам, этот тренд будет набирать обороты. Поэтому начинайте анализировать мобильную выдачу и работать над своим местом в ней, а не концентрировать усилия исключительно на десктопной версии сайта и десктопной выдаче.

Примечание редакции: статья вызвала горячие споры. Напоминаем, что мнение автора может не совпадать с мнением редакции. И приглашаем оставлять комментарии - в спорах рождается истина. Правила игры вебмастерам задают поисковые системы. Традиционно работа с продвижением сайта начинается с поисковой оптимизации. Выход в ТОП — это, пожалуй, самый естественный способ показать сайт именно целевой аудитории в момент, когда пользователи действительно его ищут.

Продвижение в рунете определяется двумя поисковыми системами — Google и Яндекс. Алгоритмы ранжирования обоих весьма схожи. Но есть некоторые отличия, которые просто невозможно игнорировать.

По наблюдениям вебмастеров формула ранжирования Google учитывает около 270 факторов , определяющих позиции сайта в выдаче, в то время как формула Яндекса — около 800 .

Действие алгоритма Google логично и последовательно. Сайт появляется в индексе, наращивает ссылочную массу, создает полезный, уникальный контент — выходит в ТОП. За попытки манипулировать рейтингом (к примеру, закупка ссылок) сайт попадет под фильтр.

Для выхода в ТОП Google достаточно планомерно работать с сайтом: регулярно обновлять контент, распространять его в социальных сетях, работать над наращиванием естественной ссылочной массы.

(блог GetGoodRank в ТОП Google на 4 позиции)

Поисковый алгоритм Яндекс

Ситуация в Яндексе обстоит несколько иначе. Во-первых, ТОП Яндекса корректируется вручную. Во-вторых, Яндекс учитывает в ранжировании коммерческие факторы . Это факт.

Летом 2015 года вебмастера отметили существенные колебания ТОПа поисковой выдачи по высокочастотным запросам. Екатерина Гладких, аналитик Яндекс, подтвердила, что в этот период поисковая система тестировала подход к определению релевантности сайтов. Суть метода заключается в том, что сайты, по которым Яндексу не хватает пользовательских данных, искусственно поднимаются в ТОП по запросам, которым сайт является предположительно релевантным. Если сайт в течение тестового периода получит переходы и его поведенческие будут на высоте, то алгоритм присвоит ему более высокие позиции, чем изначально определенные формулой. Екатерина признала, что качество поисковой выдачи из-за введения такого метода «кратковременно снижается».

Выйти в ТОП Яндекс из-за дополнительных факторов ранжирования должно быть сложнее, чем продвинуться в Google, однако практика показывает, что нет:

(блог GetGoodRank в ТОП Яндекса на 4 позиции, а в Google — на 18 позиции)

Хотя качество ранжирования с учетом более 800 факторов оставляет желать лучшего:

(Блог для вебмастеров в ТОП 3 ответов Яндекс на вопрос об использовании цементировочных агрегатов)

Факторы ранжирования в 2016 году

Мы предлагаем говорить о 3 важных группах факторов ранжирования:

    факторы контента — видео, графика, текст, их качество, количество

    пользовательские факторы — факторы, определяющие доверие посетителя сайта.

Если пользователь не доверяет сайту, то не будет ни конверсий, ни покупок

Почему выделяем именно эти три группы? Это те факторы, которые действительно имеют значение для позиций сайта, а также доступны для оптимизации вебмастерам.

Если проанализировать эволюцию поисковых систем, то мы приходим к выводу, что борьба поисковых систем направлена вовсе не на само SEO как таковое, а на его автоматизацию.

Ссылки продолжают работать как в Google, так и в Яндекс. Если бы ссылки не имели значения для поисковых систем, то алгоритмы просто перестали бы их учитывать в определенный момент, без шумных заявлений об отключении, без введения фильтров и санкций за закупку. И пусть бы вебмастера игрались и тешились дальше, сливая SEO-бюджеты сайтов в бестолковую закупку.

Что делать с ссылочным

Закупать ссылки опасно, хотя вебмастеров санкции Минусинска не остановили. Ссылки продолжают закупать, хоть и не в таких количествах, как ранее. Вебмастера рекомендуют тщательно изучать ресурсы, прежде чем получить обратную ссылку:

    качественные, регулярно обновляемые сайты

    сайты, сделанные для людей

    активно посещаемые, используемые сайты

    сайты, точно соответствующие тематике продвигаемого ресурса

Исследование компании Backlinko подтверждает значимость ссылок, указывая их главным фактором для продвижения в Google. Сегодня для высоких позиций сайта выгоднее получить 10 ссылок с разных доменов, чем 10 ссылок с одного домена.

(зависимость позиций сайта от количества ссылающихся доменов в Google, результаты исследования Backlinko)

Факторы контента

Контент — основной информирующий элемент сайта, работающий в двух направлениях. Поисковым системам контент указывает на релевантность сайта интересам пользователей. Для посетителей контент является основным элементом коммуникации.

Сегодня поисковые системы выдвигают особые требования к наполнению сайта. Техническая уникальность текста отходит на второй план, в то время как польза, ценность, актуальность информации становятся главными факторами для ранжирования.

Поисковые системы уже «умеют» определять настроение и удовлетворенность пользователя, отслеживая его поведение на сайте. Иными словами, поисковики понимают, понравился пользователю контент или нет.

Google говорит о достаточности контента, исследования доказывают, что страницы с более объемным контентом ранжируются выше. Этому есть несколько объяснений:

    Полезный, объемный, достаточный текст по теме вызывает больше доверия пользователей — такие страницы получают больше социальных сигналов, что учитывается при ранжировании

    Объемный текст позволяет поисковым системам точнее определить релевантность страницы/сайта

В инструкциях асессорам (Google Search Quality Rating Guide) Google говорит о достаточности основного контента на странице, не указывая точных пределов минимума и максимума.

Для высокого ранжирования важны:

    разнообразие контента — видео-контент увеличивает время на сайте, большое количество качественной, релевантной графики (к примеру, качественные изображения товаров в интернет-магазине) увеличивает время на сайте, количество кликов, глубину просмотра, объемные, полезные статьи и обзоры повышают вероятность добавление сайта в избранное/закладки для быстрого доступа, растет уровень повторных посещений.

    качество — этот компонент, которого пока еще очень не хватает многим сайтам. Проблема низкого качество контента лежит на поверхности: владельцы сайтов больше верят в силу высоких позиций в ТОПе, чем в убеждающую силу текста. В итоге происходит неправильное распределение бюджета на продвижение: текстовый контент заказывается у дешевых копирайтеров, которые до сих пор измеряют тексты символами, количеством ключей и процентами уникальности.

Технически уникальный текст ничего не значит для пользователя. Когда человек приходит на сайт, он хочет получить ответы на главные вопросы: кто, что, где, когда, зачем, почему?

Отвечает ли контент вашего сайта на эти вопросы? Вот отрывок текста сайта из ТОП Google по запросу акриловые ванны:

(пример текста для поисковых машин, не несущий никакой пользы для посетителя)

Такой текст поможет сайту указать релевантность запросу для поисковой системы. Но ценность такого текста для пользователя стремится к нулю.

    Релевантность — это параметр контента, который оценивается и поисковыми системами, и пользователями, ведет к более высоким позициям и улучшению поведенческих факторов сайта.

Пользовательские факторы

Пользовательские факторы — это совокупность действий пользователя на сайте и в отношении сайта: переходы из поиска и прямые заходы, действия на сайте, возвраты в выдачу, клики по кнопкам социальных сетей. К пользовательским факторам также относим юзабилити, напрямую определяющую желание пользователя взаимодействовать с сайтом.

Пользовательские факторы — это те параметры, которые по минимуму подлежат автоматизации. Поисковые системы чувствительны к буму посещений, резким изменениям паттернов поведения пользователей на сайте, географии пользователей. Использование сервисов автоматической накрутки поведенческих факторов понижает сайты в поисковой выдаче до того уровня, когда их практически невозможно найти в поисковой выдаче.

Накрутка поведенческих факторов только для выхода в поисковый ТОП — дело абсолютно неблагодарное. Прибыли сайту такие «посетители» не принесут, а без комплексного анализа и оптимизации сайта под реальных пользователей выход в ТОП для сайта опасен:

Посетители заходят на сайт, обнаруживают некачественный дизайн, неуникальный/неакутальный контент, подозрительные функции и возвращаются в выдачу. Уровень отказов растет, и эффект от «накрутки» поведенческих минимизируется.

Сейчас набирают популярность сервисы, привлекающие к анализу сайта реальных пользователей. Отчет такого анализа показывает, что мешает реальным пользователям совершить целевое действие на сайте, а также укажет, какие именно параметры сайта исправить и улучшить, чтобы пользователь остался доволен, что в результате приведет к росту поведенческих факторов.

Какие факторы ранжирования Google и Яндекс стоит оптимизировать?

Сегодня мы наблюдаем переход SEO из технической плоскости в плоскость психологическую. Работа исключительно с техническими параметрами сайта больше не дает желаемых результатов. Бесспорно, техническое исполнение сайта должно быть на высоте, потому как любые ошибки сайта (кривая верстка, ошибки в тексте, битые ссылки) критично снижают доверие пользователя. Поисковые системы внедрили искусственный интеллект в алгоритмы ранжирования (Яндекс — Матрикснет, Google — RankBrain), которые понимают, что ищет пользователь, и выдают наиболее подходящие результаты. Вебмастера давно отметили, что один и тот же запрос, введенный с двух разных компьютеров двумя разными пользователями получат разный ответ поисковой системы и разный список сайтов в выдаче. Из этого следует, что сегодня резоннее работать с факторами качества сайта, которые вызываю доверие как пользователей, так и поисковых систем, и других сайтов.

Ссылки

Автоматизировать наращивание ссылочной массы больше нельзя. Для получения качественных обратных ссылок нужны:

    новые деловые контакты и связи

    вход в новые целевые сообщества

    работа с брендом (укрепление доверия целевой аудитории, надежность, авторитет)

Контент

Уникальность отходит на второй план, а так, автоматизировать создание контента не представляется возможным. Единственная ситуация, в которой резонно обратиться к автогенерации контента — заполнение карточек товаров интернет-магазина, ассортимент которого насчитывает десятки тысяч позиций. Однако уже сейчас есть отличные рекомендации, как работать с карточками товаров . Сегодня важно уйти от лирики, и давать пользователю действительно качественный контент, четко отвечающий на его вопрос:

Важно, чтобы в пределах одной страницы пользователь нашел ответы на все вопросы, и ему не понадобилось возвращаться в поиск, чтобы полностью собрать «пазл» решения вопроса. Джейсон Демерс (Jason DeMers), SEO-аналитик Forbes, говорит о важности наличия разных типов контента на сайте, акцентируя внимание на видео и изображениях. Именно этот контент обладает наибольшим вирусным потенциалом, мгновенно получая тысячи лайков и репостов в социальные сети, что также способствует наращиванию ссылочной массы.

Пользовательские факторы

Это группа факторов, которые менее всего подлежат автоматизации. Пользовательские факторы требуют наиболее кропотливой работы. Они напрямую зависят как от качества сайта, контента, так и от качества сервиса, надежности компании, которая стоит за сайтом. Важно анализировать поведенческие факторы в метриках, следить за тем, что повлияло на изменения, и укреплять слабые места.

(Активность в Facebook — улучшение пользовательских факторов блога)

Для оптимизации пользовательских факторов необходимо:

    четко понимать потребности и цели пользователей

    качественный контент, точно отвечающий целям пользователя

    удобный, простой в использовании, понятный сайт, способствующий достижению цели пользователя

    техническая исправность сайта

    социальная представленность

    мобильная доступность

Факторов ранжирования много, учесть все в процессе работы над сайтом просто невозможно. Указанные группы факторов имеют наибольший вес в формулах поисковых алгоритмов.

EO 2016 — это интеллектуальное SEO, не подлежащее автоматизации. Сегодня для высокого ранжирования следует работать над качеством сайта, а не акцентировать технические аспекты (ссылки, ключевые слова), как это было ранее.

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Писал недавно аналогичную статью про и решил, что осветить прошлое отечественного поисковика тоже необходимо для полноты картины. Рамблер не предлагать:)

Изначально с 1990 года по 1996 компания под необычным названием «Аркадия» занималась разработкой программных продуктов, тесно связанных с поиском по словам. Первым шагом на пути к созданию поисковой системы, такой, какой мы её знаем сейчас, было создание автоматического классификатора изобретений, весом 10 мб. Благодаря полученным в Аркадии наработкам – старт Яндекса был впечатляющим.

Далекое прошлое: все алгоритмы Яндекса с 1997 года

  • 23 сентября 1997 год – Официальный день рождения компании «Яндекс». Со старта поисковик уже мог учитывать морфологию, расстояние между словами и оценивать релевантность документа к введенному запросу.
  • Ноябрь 1997 года – Пользователи могут получать релевантные ответы на естественно-языковые запросы. Типа «где купить», «куда сходить» и так далее.
  • 1998 год – Яндекс добавил возможность «найти похожий документ» по времени изменения и в диапазоне дат.
  • 1999 год – Становится возможен поиск по разным категориям: зоны текста, категории, изображения. В этот же год добавили понятие «индекс цитирования». В поиске появляется фильтр, нацеленный на избежание порнографии и мата.
  • 2000 год – Яндекс охватывает новые области. В частности «Яндекс.Новости». Теперь тексты ранжируются по степени важности.
  • 2001 год – Объем данных в индексе поисковика превысил 1 терабайт.
  • 2002 год – SEO начинает активно возвышать сайты в поиске. Два основных способа: обмен ссылками и размещение ссылок в каталогах.
  • 2003 год – Популярность обмена ссылками зашкаливает. Появляются автоматические сервисы для обмена бэками. Тенденция сохраняется весь 2004 год.
  • Начало 2005 года – Продвижение с помощью линкаторов (сервисов для автоматической накрутки ссылок) переступает все пределы. В топе результатов поиска появляются абсолютно не релевантные страницы.

    Продвинуть можно было любой сайт по любому запросу без особых трудностей – начали появляться различные приколы. В то время по запросу «враг народа» можно была найти сайт президента РФ Владимира Владимировича. А запрос геморрой показывал русскоязычную версию сайта Microsoft.

  • Конец 2005 года – Логично предположить, «Яндекс» начал истреблять линкаторы. Так называемый «Непот-фильтр» аннулировал вес ссылок с сайтов, занимающихся линко-торговлей.
  • 2006 год – На смену обмену ссылками пришли биржи, на которых можно было приобрести бэклинк с разных площадок (типа досок объявлений).
  • 2007 год – Ссылки стали товаром. И было предсказуемо создание крупной биржи для покупки/продажи ссылок в различных режимах, на разных ресурсах и тд. В те годы, подобный бизнес мог приносить очень неплохой ежемесячный доход. А значит, и заниматься этим стали все подряд. Основной работой в SEO стала покупка бэклинков. В этот же год вышла новая формула ранжирования, по которой по высокочастотным, однословным запросам в ТОП выходили в основном главные страницы сайтов.

Время перемен в Яндекс: история обновлений с 2007 по 2009

  • 20 декабря 2007 года – Обновление алгоритма ранжирования. Первые попытки борьбы со спамом. Из результатов поиска исключаются ресурсы, которые сильно злоупотребляли наращиванием ссылочного профиля.
  • 17 января 2008 года – «8 SP1». Первый алгоритм «Яндекса», который удостоился собственного имени, хоть и не очень понятного. С этого момента верхушку поиска занимают старые, авторитетные сайты. Появляется понятие «трастранк», степень доверия к сайту. Кстати, теперь «Яндекс» обещает называть все свои алгоритмы названием городов.
  • 19 марта 2008 года – Фильтрация, нацеленная на борьбу с покупными ссылками, ужесточается. Большинство сайтов, которые покупали бэклинки, проседают в позициях. Но, ко всеобщему удивлению, от принятых мер поисковая выдача стала только хуже, поэтому все вернулось на свои места.
  • 16 мая 2008 года – «Магадан». Поисковик научился читать транслитерацию, переводы и аббревиатуры. Стал доступен поиск по зарубежным сайтам. Смягчилась фильтрация отбора документов. Вдвое увеличилось количество факторов ранжирования. Почти сразу вышел «Магадан 2.0». Добавлены новые факторы, которые учли уникальность контента и стали классифицировать запросы на коммерческие/некоммерческие и геозависимые/геоНЕзависимые.
  • 12 сентября 2008 года – «Находка». Повысился вес внутренних страниц. Теперь по среднечастотным и по некоторым высокочастотным запросам можно встретить в поиске не только главные страницы. Усиливается борьба с клоакингами (сайты, созданные для манипулирования трафиком. Черный SEO метод). Расширен словарь связей.
  • 10 апреля 2009 года – «Арзамас». Улучшается распознавание опечаток в запросах. Выдача становится . Теперь поисковик учитывает регион пользователя. Появился термин «региональное продвижение». Выявлено 19 основных регионов.
  • 28 сентября 2009 года. Фильтр 17. По словам Яндекса, фильтр работает с 2006 года. Но ранее его присутствие было не столь ярко выражено. Фильтр нацелен на борьбу с некачественными сайтами, например, созданными и заполненными автоматически.
  • 10 ноября 2009 года –«Снежинск». Теперь по высокочастотным однословным запросам лидерами поиска стали информационные сайты, вытеснив коммерческие. Официальное рождение «Матрикснет», нового метода машинного обучения. Теперь все запросы, характеризующие сайты, стали связаны между собой. Первые слухи о поведенческих факторах.

    SEO становится все сложнее.

  • 18 декабря 2009 года – АГС 30. Теперь фильтр стал умнее. Он начал исключать из индекса не только неуникальные сайты, но и ресурсы, не несущие никакой пользы.
  • 22 декабря 2009 года – «Конаково». В поддержку Арзамасу число регионов увеличилось с 19 до 1250.

Изменение алгоритмов Яндекса: наши дни

  • 20 января 2010 года – Анти-портянки. Яндекс ввел фильтр за огромные тексты, перенасыщенные ключевыми словами.
  • 6 августа 2010 года – «Обнинск». Была расширена формула ранжирования, что в первую очередь повлияло на геонезависимые запросы. Алгоритм также негативно повлиял на продвижение некачественными ссылками. Еще в 2010 году подтвердились слухи о поведенческих факторах.
  • 15 декабря 2010 года – «Краснодар». Два крупных нововведения. Первым стала технология «Спектр», которая отвечала на неоднозначные запросы пользователя, разбавляя выдачу разными ответами. Классический пример неоднозначного запроса “Наполеон” – что хотел пользователь? Торт? Полководец? Музыкальная группа? Так вот спектр был создан, чтобы удовлетворить все возможные потребности по неоднозначным запросам. Вторым нововведением стала индексация соц. сети “ВКонтакте”. Теперь можно через поисковую строку можно найти профили пользователей из соцсети.
  • Май 2011 года – Многие сайты потеряли позиции из-за волны ручной пессимизации за накрутку поведенческих факторов.
  • 17 августа 2011 года – «Рейкьявик». Усовершенствование персонализации. Добавление « », теперь, вводя в поисковую строку какую-либо формулу, пользователь сразу получал ответ.
  • 13 сентября 2011 года – «Ты спамный». Фильтр за переспамленный текст. Понижались тексты, которые имели низкий показатель поведенческих факторов.
  • 12 декабря 2012 год –«Калининград». Главная идея сделать полностью персональный поиск. Теперь пользователю предлагались подсказки, основанные на его предыдущей истории. Помимо Калининграда в течение года улучшился поиск по контенту в соцсетях. По неоднозначным запросам появились подсказки, чтобы уточнить, чего хотел пользователь. Немного позже подсказки стали учитывать предыдущие запросы пользователя. В сниппеты стали добавлять профили в социальных сетях. Яндекс начал сотрудничать с Твиттером. После того как открыл Яндексу свою базу данных, скорость индексации сайта с регулярными твиттами заметно улучшилась. Еще понизились сайты с pop-up элементами, которые маскировались под системные сообщения и сигналы социальных сетей.
  • Февраль 2013 года – Яндекс начал отмечать сайты, зараженные вирусами или содержащие вредоносный код.
  • 13 мая 2013 года – К адресу в сниппете сайтов добавили ближайшую станцию метро и время работы организации.
  • 16 мая 2013 года – Платформа «Острова». Принципиальное изменение формата поисковика. Яндекс планировал сделать так, чтобы пользователь мог решать свои проблемы не заходя на конкретный сайт, а сразу в поисковике. Например, заказать/купить/вызвать и так далее. Почему-то дата релиза все время откладывалась.
  • 6 ноября 2013 года – АГС 40. Очередное ужесточение АГС фильтра. Отныне фильтр полностью автоматический.
  • 2014 год. Отныне АГС фильтр не выкидывал страницы из индекса, а обнулял тИЦ. Активная борьба со ссылками. Анонс безссылочной формулы ранжирования для ряда коммерческих тематик в Москве. Очередная волна пессимизации за накрутку ПФ. Волна пессимизации за агрессивную рекламу.
  • 15 апреля 2015 года – Анонс «Минусинск». На «Неделе байнета» Яндекс анонсировал новый алгоритм, направленный на борьбу со ссылочным спамом. На удивление, перед тем как применить санкции к сайтам, Яндекс разослал предупреждения, что весьма несвойственно поисковику.
  • 15 мая – 23 июня 2015 года. За этот короткий промежуток времени прошло три волны, понижающих сайты за ссылочный спам.

Новые алгоритмы поиска Яндекса

2 февраля 2016 года – «Владивосток». Яндекс запустил новый алгоритм, оценивающий «мобилопригодность». Теперь в мобильной выдаче одним из значимых факторов ранжирования является адаптированность сайта под мобильные устройства.

Продолжение следует

Как бы ни усложняли жизнь SEO специалистам, все мы пользуемся поиском. И за последние годы поисковая выдача сильно преобразилась. Причем в лучшую сторону. Надеюсь, Яндекс и дальше будет выдумывать оригинальные способы, ограничивающие возможности воздействовать на результаты поиска. Так работать только интересней.

Интернет состоит из миллионов сайтов и содержит экзабайты информации. Чтобы люди могли узнать о существовании этой информации и воспользоваться ей, существуют поисковые системы. Они реализуют право человека на доступ к информации - любой информации, которая нужна в данный момент. Поисковая система - это техническое средство, с помощью которого пользователь интернета может найти данные, уже размещенные в сети.

Пользователи ищут в интернете самые разные вещи - от научных работ до эротического контента. Мы считаем, что поисковая система в каждом случае должна показывать подходящие страницы - от статей по определенной теме до сайтов для взрослых. При этом она просто находит ту информацию, которая уже есть в интернете и открыта для всех.

Яндекс не является цензором и не отвечает за содержание других сайтов, которые попадают в поисковый индекс. Об этом было написано в одном из первых документов компании «Лицензия на использование поисковой системы Яндекса», созданном еще в 1997 году, в момент старта : «Яндекс индексирует сайты, созданные независимыми людьми и организациями. Мы не отвечаем за качество и содержание страниц, которые вы можете найти при помощи нашей поисковой машины. Нам тоже многое не нравится, однако Яндекс - зеркало Рунета, а не цензор».

Информация, которая удаляется из интернета, удаляется и из поискового индекса. Поисковые роботы регулярно обходят уже проиндексированные сайты. Когда они обнаруживают, что какая-то страница больше не существует или закрыта для индексирования, она удаляется и из поиска. Для ускорения этого процесса можно воспользоваться формой « ».

В ответ на запрос, который пользователь ввел в поисковой строке, поисковая система показывает ссылки на известные ей страницы, в тексте которых (а также в метатегах или в ссылках на эти сайты) содержатся слова из запроса. В большинстве случаев таких страниц очень много - настолько, что пользователь не сможет просмотреть их все. Поэтому важно не просто найти их, но и упорядочить таким образом, чтобы сверху оказались те, которые лучше всего подходят для ответа на заданный запрос - то есть, наиболее релевантные запросу. Релевантность - это наилучшее соответствие интересам пользователей, ищущих информацию. Релевантность найденных страниц заданному запросу Яндекс определяет полностью автоматически - с помощью сложных формул, учитывающих тысячи свойств запроса и документа. Процесс упорядочивания найденных результатов по их релевантности называется ранжированием. Именно от ранжирования зависит качество поиска - то, насколько поисковая система умеет показать пользователю нужный и ожидаемый результат. Формулы ранжирования строятся также автоматически - с помощью машинного обучения - и постоянно совершенствуются.

Качество поиска - это самый важный аспект для любой поисковой системы. Если она будет плохо искать, люди просто перестанут ей пользоваться.

Поэтому нам важно постоянно совершенствовать алгоритмы ранжирования и делать их устойчивыми к внешнему влиянию (например, к попыткам некоторых вебмастеров обмануть поисковую систему).

Поэтому мы не продаем места в результатах поиска.

Поэтому на результаты поиска никак не влияют политические, религиозные и любые другие взгляды сотрудников компании.

Пользователи просматривают страницу результатов поиска сверху вниз. Поэтому Яндекс показывает сверху, среди первых результатов, те документы, которые содержат наиболее подходящие пользователю ответы - то есть наиболее релевантные заданному запросу. Из всех возможных релевантных документов Яндекс всегда старается выбрать наилучший вариант.

С этим принципом связано несколько правил, которые Яндекс применяет к некоторым типам сайтов. Все эти правила работают полностью автоматически, их выполняют алгоритмы, а не люди.

1. Существуют страницы, которые явно ухудшают качество поиска. Они специально созданы с целью обмануть поисковую систему. Для этого, например, на странице размещают невидимый или бессмысленный текст. Или создают дорвеи - промежуточные страницы, которые перенаправляют посетителей на сторонние сайты. Некоторые сайты умеют замещать страницу, с которой перешел пользователь, на какую-нибудь другую. То есть когда пользователь переходит на такой сайт по ссылке из результатов поиска, а потом хочет снова вернуться к ним и посмотреть другие результаты, он видит какой-то другой ресурс.

Такие ресурсы не представляют интереса для пользователей и вводят их в заблуждение - и, соответственно, ухудшают качество поиска. Яндекс автоматически исключает их из поиска или понижает в ранжировании.

3. По запросам, которые не подразумевают явно потребность в эротическом контенте, Яндекс ранжирует сайты для взрослых ниже или вообще не показывает их в результатах поиска. Дело в том, что ресурсы с эротическим контентом часто используют достаточно агрессивные методы продвижения - в частности, они могут появляться в результатах поиска по самым разнообразным запросам. С точки зрения пользователя, который не искал эротики и порнографии, «взрослые» результаты поиска нерелевантны, и, к тому же, могут шокировать. Более подробно об этом принципе можно почитать .

4. Яндекс проверяет индексируемые веб-страницы на наличие вирусов. Если обнаружилось, что сайт заражен, в результатах поиска рядом с ним появляется предупреждающая пометка. При этом зараженные сайты не исключаются из поиска и не понижаются в результатах поиска - может быть, на таком ресурсе находится нужный пользователю ответ, и он все равно захочет туда перейти. Однако Яндекс считает важным предупредить его о возможном риске.