6 изменений в SEO, которые мы все еще ждем от Гугла
Привет-привет! У меня столько идей о статьях (и о Тег Менеджере, и даже о MailChimp) , я уже их записываю, чтобы не забыть. Еще мне интересны ваши пожелания, дорогие читатели. Так, кстати, была написана статья о том, как отслеживать пользовательский поиск по сайту.
Но на этот раз я решила перевести статью Рэнда Фишкина, со-основателя Moz.com. На самом деле, это не совсем статья, а скорее запись его слов с видео, поэтому и мой перевод будет от первого лица. Думаю, я должна пояснить еще некоторые моменты: когда Рэнд говорит “мы” он имеет ввиду сео специалистов, “они” же – это работники Гугла.
Вот, о чем в статье пойдет речь:
Существует несколько сфер, начиная с понимания Гуглом тега rel=canonical и заканчивая особенностью восприятия Гуглом текста анкора ссылки, в которые Гугл давно должен был бы внести изменения. Но мы все еще в ожидании.
Некоторые думают, что Гугл сейчас работает над этими изменениями или внедряет их уже на протяжение многих лет. Но в действительности дела обстоят не так. За этим могут стоять вполне серьезные причины или реальная сложность подобных изменений.
Давайте рассмотрим некоторые такие изменения.
1. Важна ли тематичность ссылок?
Многие люди, работающие в сфере SEO, да и те, кто далек от нее, думают: если ссылки важны для SEO, то тематические ссылки должны цениться выше, чем не тематические. Например, если сослаться на два сайта, A и B, оба из которых посвящены садоводству, но на один сайт ссылка будет вести с сайта о ботанике, а на другой – с сайта о мобильных играх. При всех равных условиях, ссылка с сайта о ботанике должна иметь больший вес. Так и должно быть.
Но до сих пор нет никаких фактов, подтверждающих это предположение. Каждый, кто досконально анализировал эту проблему – а этим занималось много профессиональных SEO специалистов на протяжение многих лет, классифицируя ссылки и все в таком роде – все они пришли к одному выводу: восприятие Гуглом ссылок не зависит от их тематичности и контекста.
Думаю, это один из тех случаев, когда в игру вступают алгоритмы. [вот совсем новая статья в тему, на английском]
Я думаю, они [работники Гугл] поняли, что если они будут ориентироваться на подобную тематичность, они получат очень ограниченную картину того, что популярно и интересно в интернете. Но если они расширят эту картину, они достигнут лучших поисковых результатов. Таким образом, возможно, сайт по садоводству, который нравится ботаникам, не рассчитан на массовую аудиторию, он не каждому покажется полезным и ценным, и поэтому он один не может представлять из себя общий ресурс, который должен ранжироваться по запросам о садоводстве. Получается, у них немного предвзятое отношение к такому ресурсу.
Это мое мнение. Но судя по каждому запросу, который мы вводили, каждому эксперименту, который я когда-либо видел, даже если и существует определенная предвзятость, она очень мала, практически незаметна. Потрясающе.
2. Важен ли анкор ссылки?
Я все еще надеюсь, что в один прекрасный день влияние текста анкора ссылки перестанет учитываться. Но сейчас, не смотря на то, что многие другие сигналы стали важнее и появились новые алгоритмы, оптимизированный анкор играет намного более важное значение, чем общий, не оптимизированный.
Например, если я поставлю ссылку с анкором «садовые инструменты», ссылаясь на сайт A, и ссылку на такую же страницу сайта B, но с анкором «А вот хороший сайт с садовым инстументом», то сайт A получит больше веса. При всех равных условиях, сайт A будет ранжироваться намного выше сайта B, потому что текст анкора все еще важен и имеет достаточно сильное влияние.
Думаю, сейчас многие SEO специалисты скажут: «Эй, текстом анкора легко манипулировать, из-за чего появляется много спама. Конечно, Гугл будет с этим бороться».
Моя догадка состоит в том, что они поняли: без влияния текста анкора получаются не очень хорошие поисковые результаты. Это значит, нам нужно серьезно подходить к подбору хорошего текста для анкоров. Он во многом зависит от терминологии, названий, брэндинга, особенно когда дело касается контент маркетинга и подобных вещей, которые делаются для SEO. Важно, как вы называете вещи и как вы можете заставить людей их называть. С появлением алгоритма Колибри Гугл значительно продвинулся в распознавании текста анкоров, однако этот сигнал все еще очень важен.
3. 301 или 302 редирект?
302 редирект уже давно вводит в заблуждение интернет. Изначально он задумывался как временный, но очень многие сайты и серверы используют его по умолчанию, когда переносят страницы.
Например, сайт А перенаправлен на сайт B с помощью 301 редиректа, а сайт C на сайт D – с помощью 302. Действительно ли владелец сайта C планирует изменить в будущем конечную страницу, на которую идет редирект? Неужели ему это нужно больше, чем сайту A?
Пожалуй, в большинстве случаев – нет. Но эта проблема существует, и вы можете встретить в интернете кучу примеров, когда Гугл воспринимает 301 редирект как постоянный, и переносит весь вес с сайта A на сайт B.
В случае с сайтами C и D, особенно если они принадлежат крупным брендам, и 302 редирект стоит достаточно долго, возможно, Гугл учитывает и другие сигналы, другие ссылки, ведущие на эти сайты, и вес некоторых из них действительно переносится. Но это все равно даже и близко не 301 редирект. Он является для Гугла четким указанием, в то время как 302 редирект – лишь «совет», подсказка. Это значит, что настраивать 301 редиректы правильно – все еще важно.
Кстати, есть еще много 30X кодов состояния HTTP, поэтому будьте внимательны. 305, 307, 309 ответы сервера выглядят как-то странно, ведь вы наверняка хотите установить 301, чтобы перенаправить страницу навсегда.
4. Опасность использования rel=”canonical”
Если уже говорить о разнице между указанием и подсказкой, нельзя не упомянуть о rel=”canonical”. Когда он только появился, Гугл сказал, что rel=”canonical” является только подсказкой, и они не обязательно будут ей следовать.
Но все эксперименты, которые мы проводили (даже в самом начале после выхода rel=”canonical”) показывают, что Гугл воспринимает это как точное указание. Вы нечаянно добавляете на все страницы трастового сайта rel=”canonical”, указывающий на главную страницу – и Гугл вдруг оставляет в индексе только ее. Это ужас!
И знаете что? Эксперименты, которые мы проводили, и ошибки подобные указанной выше, – все это показывает, что rel=”canonical” является для Гугла четким рукодством, что страница A – это уже страница B. Гугл даже не смотрит на схожесть контента на этих двух страницах. Поэтому будьте осторожны с этим, чтобы случайно не выкинуть кучу страниц своего сайта из индекса.
5. Важны ли социальные сигналы?
Думаю, многие из нас уже давно считают, что социальные сети набирают обороты. Там люди делятся качественным контентом, указывают на важные вещи, там может быть больше упоминаний материала, чем ссылок на него с других сайтов.
И все-таки после того, как партнерство между Твиттером и Гуглом закончилось, влияния социальные сетей на Гугл особо не видно. Да, раньше количество твитов влияло на сайт и скорость его индексации, но теперь – нет. Гугл как бы отодвинул соц сети на второй план и заявил, что количество твитов, лайков и всего такого никак не влияет на позиции сайта [видео от Мэтта Каттса в тему].
Google+ являеется небольшим исключением, особенно для персонализированных результатов. Но даже проведенные нами тесты для не персонализированного поиска никак не подтверждают влияние Google+ на позиции. По крайней мере, пока.
Я думаю, вот как Гугл смотрит на контент в соц сетях: «О, круто, люди делятся этим контентом». Но действительно хороший и важный для людей материал рано или поздно получает ссылки и упоминания – что-нибудь, что Гугл уже может «засчитать» и использовать для своего алгоритма ранжирования.
Таким образом, Гугл рассчитывает на то, что популярность того или иного материала в социальных сетях рано или поздно привлечет к нему ссылки. И они просто ждут этого момента, а не смотрят на его популярность в социальных медиа. Конечно, это еще связано и с тем, что у Гугла нет прямого доступа к контенту в соц сетях, потому что он больше не сотрудничает ни с Твитером, ни с Facebook.
6. Запрещенные темы
Я думаю, когда Гугл обещал почистить спам и делал это в 2006, 2007 по 2011 и 2012, многие из нас думали, что это «чистка» какая-то поверхностная что ли.
Когда Гугл всерьез занялся борьбой со спамом, многие вздохнули с облегчением: «Наконец он доберется и до PPC». Говоря PPC, я не имею ввиду платную рекламу, я говорю о порно, таблетках и казино [в оригинале - porn, pills, and casino]. Но на практике, если вы посмотрите на поисковую выдачу по подобным запросам, вы увидите пугающую картину.
В Гугле можно увидеть много изменений, которые касаются спама, трастовости и понимания некоторых сигналов. Те, кто следит за этой сферой, могли заметить интересные вещи: кучу взломанных .edu страниц, поддомены на более трастовых сайтах, у которых есть много обратных ссылок. Снова появляются EMD сайты [с точным вхождением ключевого слова в название домена], сайты-аффилиаты, которые находят более изощренные способы получения ссылок. Все потому что Гугл стал немного лучше разграничивать те ссылки, которые он учитывает, а также лучше определять авторитет страниц, которые находятся или «цепляются» к домену, но практически не имеют входящих внутренних ссылок с этих трастовых сайтов.
Вот на такие интересные темы порассуждал Рэнд Фишкин. Напишу некоторые свои мысли по этому поводу.
Меня с самого начала учили, что тематичность ссылок очень важна. И, честно, говоря, с этим утверждением сложно просто так распрощаться. Мне все же кажется, она важна, но не в таком глобальном смысле. Например, не обязательно весь сайт должен быть посвящен растениям, чтобы ссылаться на сайт о садоводстве. Это может быть и личный блог о чем-нибудь, где в одной из статей автор будет рассказывать о своих домашних растениях. Вот с такой страницы ссылка вполне может цениться выше. Гугл же распознает тематики по определенным словам, так и в данном случае не вижу сложности. Хотя это, конечно, с моей колокольни
Оптимизированный анкор – это как вредная пища: вкусно, но со временем могут замучать проблемы со здоровьем. Каждый действенный метод продвижения проходит все или несколько стадий: появление, использование, злоупотребление, ограничение. запрещение. Анкор сейчас на стадии ограничения благодаря Пингвину. Так что я думаю, лучше разбавлять анкоры. Заедать вредную пищу витаминками, так сказать.
Меня очень удивляет, что многие CMS действительно по умолчанию используют 302 редирект. Так и хочется спросить: у вас что, нет человека, который в этом разбирается? Который может подойти и сказать: да поставьте вы наконец 301 по умолчанию! И ладно была бы какая-то существенная разница между реализацией 301 и 302 редиректа, тогда можно было бы списать на лень или “серьезные сложности”. Так нет же, ее нет. По крайней мере, я не вижу. Кто-нибудь мне объяснит?
Дальше, rel=”canonical”. Честно говоря, я не сталкивалась с ошибками в его воплощении. Правда, один раз было: согласно моим рекомендациям, программисты поставили каноникл на страницы сортировки. Долго бы мы ждали, пока Гугл отреагирует на эту директиву, если бы я не заметила, что ссылка на основную страницу была с rhef, а не с href
Ладно, я отвлеклась. Я думаю, что достаточно тех сфер, где рекомендации и поведение Гугла у нас достаточно расплывчаты. Нужно что-то такое, что бы срабатывало четко. И меня лично вполне устраивает, что rel=”canonical” работает одинаково для всех, просто нужно быть внимательнее при его настройке.
Социальные сигналы особенно видны мне в персонализированном поиске, я иногда действительно поражаюсь тому, насколько он зависит от того, залогинена я в аккаунт Гугла или нет, и более того – важно в какой именно аккаунт я залогинена. С одной стороны, жаль, что соц сигналы учитываются не так, как хотелось бы. Но с другой стороны, накрутить их не особо сложно, согласитесь. Видимо, в этом и кроется причина.
По поводу запрещенных тем даже не знаю, что сказать. Лично у меня нет опыта по их продвижению, так что ничем поделиться не могу.
Интересно ваше мнение по данным темам, так что оставляйте комментарии, а также не забывайте подписываться на обновления Блога SEO сектанта! И урааа, скоро много выходных!
2 пункт. по работе я заметил, что имея точный анкор 40-50% всех ссылок, то гугл его отправляет в жесткий бан. Так уж борьба ведется, причем жесткая, теперь мне вытаскивать их.
Интересные данные А 40-50% – это в какой сфере?
Удачи в “спасении утопающих”
Отличный перевод, прочитал на одном дыхании!
Соц сигналы для продвижения в яндексе очень хорошо работают и даже на позиции влияют.
Артём Черкасов недавно опубликовал(а)…Финстрип за март 2014 — виднеются первые копеечки.
Да, что-то я принципиально нового для себя не почерпнул: или интуитивно или осознанно по этим моментам СЕО, так и действую и так к ним отношусь. Я что такой спец в СЕО? Да нет, по-моему, это Фишкин любит много и бестолку упражняться по поводу СЕО – работа у него такая, наверное.
А проблемы и вопросы к Гуглу есть, и не мало, но, видать, им, как и яндексоидам, прозрачность и ясность понятий в головах веб мастеров не нужна. По понятным причинам.
Владимир Фесюк недавно опубликовал(а)…Отсутствие секса – сексуальное воздержание – понятие меры в сексе
Очень мешает блок кнопок слева. На маленьком мониторе загораживает текст. Слева кнопки, справа снизу реклама лезет, мешает тянуть бегунок. Так мешает, что ушла не дочитав. А было интересно.
И внизу, и слева есть специальные стрелки, чтобы убрать всплывающие кнопки и рекомендуемый контент в таких случаях. Да, это именно рекомендуемый контент с блога, а НЕ реклама, ее на блоге нету, совсем.
Вы можете вернуться и, используя эти важные знания, дочитать статью.
Кристина, спасибо за статью, но я хотел бы поделиться своим мнением относительно влияния соцсетей на выдачу.
Масса людей, и я в т.ч., постоянно участвуем в акциях по прогону страниц продвигаемых сайтов в различных соцсетях – лайки, комментарии, репосты, ретвиты, переходы на сайт…
Лично я замечаю стабильно на 30% повышение целевого трафика из поисковых систем! Именно целевого трафика из органической выдачи, а не переходов из соцсетей в рамках той или иной акции! Если продвигаемый сайт продает товар или услугу, то конверсия посетителя в клиента существенно возрастает.
Поэтому, на основании личного опыта могу говорить о том, что сигналы из соцсетей влияют на органическую выдачу. Нет уже того рафинированного SEO, состоящего из линкбилдинга и спама ключевиками… да уже и не будет никогда, я так думаю
Юрий Клепар недавно опубликовал(а)…Joomla – микроразметка хлебных крошек
Спасибо за ваши мысли, Юрий!
Я сама участвую в акциях по соц продвижению. Да, это имеет выхлоп определенный, но конкретное влияние именно на органические переходы и на позиции сайта в общем я не заметила. Не заметила не потому что влияния нету, а потому что сложно понять, что именно принесло это увеличение переходов.
Яндекс, насколько я знаю, больше учитывает соц сигналы, чем Гугл. Но что интересно: для людей, залогиненных в свой Гугл аккаунт выдача может меняться очень сильно с учетом персонализации, и тут уже велика вероятность повышения некоторых страниц в выдаче (например, если какую-либо страницу порекомендовал друг на G+).
у тематика, слышал не раз, но все же лучше исходить из здравого смысла, что не логично ссылаться на сайт о растениях с автомобильного портала. К тому же Яндекс другого мнения о тематичных ссылках. Еще интересно, если Гугл использует тег canonical, как точное указание, то зачем он складывает дубли (тот же replytocom в WordPress) в дополнительный индекс и потом накладывает фильтр за большой процент соплей?
Олег недавно опубликовал(а)…Тизерная сеть Direct/ADVERT – регистрация, добавление сайта и установка тизеров
У Блога SEO сектанта нет никаких проблем с replytocom, например. Вы уверены, что про в том случае, про который вы говорите, адреса подобного плана были с rel=canonical? Честно говоря, если он настроен корректно, он и работает соответственно – это то, что я встречала.
Я, как и большинство блогов на Вордпресс, использую плагин All in One SEO, который корректно прописывает тег canonical. Тем не менее, если больше ничего не делать, то дубли replytocom плодятся в доп.индексе Google.
Вот и интересно, Кристина, как Вам удалось справиться с replytocom?
Я, например, сделал запрет в Параметрах URL, когда дублей было уже много. Возможно на новом сайте они бы не появлялись, но на старом их уже хватает. Теперь вопрос: надо ли в этом случае открыть индексацию этих страниц в robots.txt, например, удалив директиву Disallow: /*?*
Прикольный блог. Занятно, что тот же хтул показывает, что такой внешне крутой оптимизаторский блог не оптимизирован ни под один частотный запрос. Пустая трата красивого дизайна.
Прикольный комментарий. Меня забавляет, как люди, которые прочли пару статей по оптимизации, начинают считать себя гуру в этой сфере, думают, что все сайты должны ранжироваться по одним и тем же вч (заработок в интернете? ) и нч (и такие бывают, кстати) запросам. Желаю, конечно, вам удачи в заработке в интернете и “вычислении нищебродов”, может, это у вас получается лучше, чем судить об оптимизации сайтов. И еще про каллиграфию не мешало бы узнать побольше, если вы не ориентируетесь на возрастную аудиторию до 11 лет.
А в чем смысл делать такой проект? Тратиться на заказ дизайна, тратить время на перевод зарубежных статей. Если это не дает отдачи – зачем это надо?
Покажите мне, где здесь бабло – и я скажу, что это отличный проект.
Последняя фраза меня очень повеселила
У меня совершенно нет никакого желания объяснять вам свои мотивы
переводанаписания статей для моего блога. Просто примите то, что кто-то может думать не так, как вы.Удачи в получении бабла
Мега крутая и полезная статья! Над многими вещами заставляет задуматься.
Гугл я вообще считаю каким то неадекватным в последнее время. Поменял все, что можно PR не обновляет, сниппеты изменил, на соц сигналы реагирует не так как раньше.
Все течет, все меняется, нравится нам это или нет((