50 SEO ответов. Часть 2
19 марта я опубликовала перевод “100 SEO вопросов”. Я очень надеюсь, что вы на них уже давно поотвечалаи. А я вот только сейчас публикую ответы. Заметьте, я не говорю “правильные” ответы, я говорю просто “ответы”, потому что некоторые вопросы спорные, и я смотрю на них со своей колокольни. Так что если вы со мной в чем-то не согласны, мне будет очень приятно видеть в комментариях вашу аргументированную точку зрения!
Итак, оригинал вопросов на английском здесь.
Первую часть ответов вы можете найти в статье “50 SEO ответов. Часть 1″. А теперь продолжаем (особое внимание – на ответ №62, там про одну “фишечку”, о которой, возможно, еще не все знают).
Я набрала и в Гугле, и в Яндексе 4 одинаковые фразы, отличался только регистр:
Конкурс поделок, конкурс Поделок, Конкурс Поделок и конкурс поделок. Во всех четырех случаях оба поисковика выдавали совершенно идентиные результаты. Отсюда следует, что ПС не учитывают регистр. Раньше, насколько я знаю, Яндекс учитывал.Пример агента – поисковый робот (a). В файле robots.txt мы пишем user-agent, а потом указываем нужного поискового робота. <META NAME=”robots” CONTENT=”noindex,nofollow”> – такой мета тег на странице указывает поисковому роботу не индексировать ее содержимое и не проходить по ссылкам на ней (d). Нет единственно правильного ответа на вопрос, сколько должно быть слов на странице. Главное – это наличие связного оптимизированного уникального текста, причем размер блока с текстом должен быть не меньшим, чем размер остальных частей страницы (хэдера, сайдбара). И вообще количество текста принято измерять не в словах, а в символах. Выбрать оптимальное количество символов можно после анализа конкурентов (см. вопрос 30). А можно вообще не париться по этому поводу, а просто наполнять страницу качественным контентом. Есть такой оператор Гугла для поиска обратных ссылок, это link:vashsite.ru. Но лично я на этот метод вообще не полагаюсь и вам того же советую, потому что он показывает лишь незначительную часть обратных ссылок, выбирая их каким-то непонятным способом. Я предпочитаю другие сервисы проверки обратных ссылок. На мой взгляд, ни один ответ не верен (d): во-первых, для поисковой оптимизации важна только XML карта, именно она создается для ПС, чтобы помочь роботу проиндексировать все страницы сайта. Но создание такой карты – это скорее рекомендация, чем обязательное правило оптимизации. Создать XML карту автоматически можно здесь. Прежде всего скажу, что и для людей, и для ПС адрес страницы должен быть: понятным, коротким, описывающим то, о чем идет речь на странице, а также он должен содержать ключевые слова (это скорее для ПС) и не содержать динамических параметров. Отсюда следует, что наиболее подходящая структура адреса страницы из предложенных – wildlifeonline.com/animals/crocodile (d). Даже не знаю, какой вариант из приведенных выбрать… Наверное, никакой, т.к. значимость ключевого слова (англ. вариант – keyword prominence) зависит именно от местоположения ключевого слова на странице: чем оно выше, тем значимей. Хотя я бы сказала, что именно под определение «Значимость ключевого слова» можно подобрать любой из ответов, просто рассмотреть это с разных точек зрения. AOL использует Google в качестве источника своих поисковых результатов. Как ни парадоксально, но наименее значимо наличие ключевых слов в Мета keywords (с). Этот мета тег изначально создавался с благими намерениями, чтобы рассказать, какие слова на странице наиболее важны. Но злоупотребление им привело к полной его бесполезности, и даже вредности: зайдя к вам на страницу, конкуренты сразу же, без какого-либо анализа, могут увидеть, какие слова вы продвигаете.
Ключевые слова в заголовке страницы, ее тексте, анкорах внутренних ссылок и в мета описании – все это важно для внутренней оптимизации. Главное тут не переборщить и не переспамить страницу, это негативно скажется на продвижении.Мета описания служат «рекламой» вашей страницы, которая заставляет пользователей выбирать ваш сайт в поисковой выдаче (c): иногда изменив только мета описание можно добиться увеличения количество кликов на ваш сайт в поисковой выдаче. Главный способ увеличить частоту индексации сайта – это как можно чаще добавлять новый контент (с). Кстати, в Вебмастере Гугл есть опция «Посмотреть как Googlebot» (Вебмастер > Диагностика > Посмотреть как Googlebot), которая вызывала споры о том, помогает ли ее использование ускорить индексацию, ведь вроде логично, что оно должно «призывать» поискового робота на ваш сайт. Гугл решил больше не мучать Вебмастеров, и в феврале 2012 года объявил о новой опции: отправить содержимое страницы в индекс (вводим адрес страницы > нажимаем «Получить содержание» > как только оно получено, появится ссылка «Отправить в индекс»). Причем отправить в индекс можно не только указанную страницу (50 страниц в неделю), но и все страницы, на которые ведут ссылки с нее (10 страниц в месяц).
Я тут немного похвастаюсь: новая статья на моем сайте индексируется и появляется в кэше в течение минут 15 в Гугле и немного дольше в Яндексе. Такая быстрая индексация В Гугле связана с 3 основными вещами: частые обновления Блога SEO сектанта; кросспостинг в Twitter; предпочтение Гуглом свежих результатов.Для ПС систем (и Google не исключения) используются карты сайтов в формате XML (d). (см. вопрос 56) Запрос такого плана “link:webconfs.com” показывает список обратных ссылок с других сайтов на webconfs.com (b). Но честно говоря, лучше им не пользоваться (см. вопрос 55) Варианты ответа на вопрос «Подходит ли мета тег <meta name=”Keywords” content=”книги, публиковать, чтение, автор, жанры, обложка, рассказ” /> для сайта, продающего книги» очень хитрые. Поскольку мета тег keywords уже не играет большой роли для продвижения, можно было бы выбрать ответ e «Зачем вообще париться из-за мета тэгов?», но остальные-то мета теги важны! Поэтому я ввожу новый ответ: ни один из вариантов не подходит. (см. вопрос 60)
Но если уж и тратить время и прописывать keywords, не нужно делать «винегрет», при чем тут слово «публиковать», если магазин занимается ПРОДАЖЕЙ книг? Вообще из приведенного примера только и подходит, что слово «книги».Нет, не находится. А ваш? Это происходит во-первых, потому что сайт занесен в один или второй каталог (логично:)), а во-вторых, возможно, мета описание и заголовок на самой странице не очень качественны или вообще отсутствуют. Чтобы этого не происходило нужно прописать качественный заголовок и описание и поставить теги, запрещающие ПС брать эти данные из DMOZ или Yahoo (см. вопрос 1) PageRank – это способ, которым Google определяет, насколько качественна данная страница, основываясь на количестве и качестве ссылающихся на нее сайтов. (см. вопрос 4) Исходный код (мета теги, теги заголовков и т.д.) должен быть оптимизирован так же, как и весь сайт (d). Файл, содержащий инструкции для поисковых роботов, это robots.txt (d). Неверно считать, что без карты сайта роботы его не проиндексируют (b). (cм. вопрос 43) Я думаю, что при индексации сайта поисковые роботы в первую очередь обращают внимание на тег robot (с). А смысл смотреть на теги, заголовки, если индексация страницы запрещена? Так что добропорядочный робот сначала убеждается, моно ли войти, а если уж можно – тогда и принимается за дело, то есть за индексацию страницы. Page Rank бывает от 1 до 10 (b). С точки зрения Гугл предпочтительным значком для разделения слов в адресе страницы является - (b). Внутренняя перелинковка – правильный способ распределения веса между страницами сайта, а также упрощения навигации по нему, но никак не способ получения обратных ссылок. Насколько быстро Гугл индексирует сайт – это очень общий вопрос. Это зависит от многих факторов, главный из которых – частота обновления контента на сайте, так что чем чаще вы обновляете свой сайт, чем чаще Гугл будет вас навещать (да и любая другая ПС, хотя Гугл обычно реагирует быстрее, чем Яндекс, к примеру).
Также есть способы ускорения индексации сайта: кросспостинг в Twitter, прогон по социальным закладкам, добавление страниц в аддурилки ПС (+ см. вопрос 62)Понятия SEM и SEO взаимосвязаны (c) (см. вопрос 39) Неверно, что Google.com – единственная страница с PR=10. Есть еще такие, немного правда, но есть. Можете посмотреть и на это «чудо», которое непонятно почему такое «пиаристое». 404 ошибка выдается, если запрашиваемой страницы не существует (d). SERP (Search Engine Results Page) – это страница поисковых результатов (a), или поисковая выдача. 500 код ошибки означает, что произошла внутренняя ошибка сервера (a). CSS – Cascading Style Sheets – каскадные таблицы стилей. CTR – Сlick Through Rate – по русски просто кликабельность. Она определяет соотношение показа материала к количеству кликов по нему, вычисляется она по формуле CTR=N показов/N кликов. Например, у меня на сайте справа в сайдбаре висит баннер на одну из моих старых, но полезных статей. Все люди его видят, но не все по нему кликают. Предположим, 100 человек увидело его сегодня, из них 30 прошло по баннеру на статью, получается CTR баннера = 100/30 = 3,33.. А нужно выше, так что не стесняемся, дамы и господа, кликаем :)! Поисковые роботы распознают изображения по пикселям, но это не значит, что они могут отличить картинку лодки от картинки неба. Для распознавания содержимого им нужен тег alt. Главный показатель успешности продвижения – это конверсия (a). Сайт может иметь высокий PR, находиться в ТОПе по продвигаемым запросам, получать большой трафик, но если уровень конверсии из-за этого не растет – грош цена продвижению. Переспам не любит никто, и уж тем более ни одна поисковая система его не поощряет (d). Вопрос о том, можно ли гарантировать первое место в выдаче, наводит меня на мысль о предсказании погоды. Метеорологи могут предсказать солнечную погоду, но гарантировать ее они не могут, так как многие вещи им неподвластны. Так и с продвижением: есть обстоятельства, которые просто не зависят от оптимизатора (например, изменение алгоритмов поиска Гугла), я уже не говорю о тех случаях, когда на сайте нужно что-то изменить, а заказчик отказывается это делать… В общем, суть вы уловили. «Менталист книга скачать бесплатно» – пример поискового запроса, состоящего из 4 слов. Если SEO оптимизатор утверждает, что сотрудничает с основной поисковой системой – гоните его в шею! Часть обратных ссылок не только может, но и ДОЛЖНА быть nofollow. Профиль обратных ссылок должен выглядеть натурально. Если «мы» – это фирма Apple – то тогда, конечно, мы можем находиться в ТОП 1 по запросу “iPhone”, в любом другом случае – это маловероятно. Нужно смириться, что по некоторым запросам ТОП «железный». Чтобы отследить количество обратных ссылок на сайт, нужно регулярно проверять эти ссылки, составлять отчеты, сравнивать их и делать выводы. Информацию об ошибках сканирования сайта можно найти в Вебмастере.
Гугл: Вебмастер > Диагностика > Ошибки сканирования
Яндекс: Вебмастер > Индексирование сайта > Исключенные страницыС одной стороны, всегда нужно ссылаться на качественные сайты – это показатель того, что и ваш сайт качественный (с кем поведешься…). Качество сайта определяется множеством характеристик, и PR – это всего лишь одна из них, поэтому не стоит так строго определять по нему, на кого ссылаться. Прежде всего, скажу, что Google всегда находится в движении, его команда постоянно что-то меняет, дорабатывает, придумывает, улучшает. Для чего ему это нужно?
Есть несколько причин. Первая – пользователи. Если люди быстро могут найти в Гугле необходимую информацию – они довольны, если они довольны, они снова будут пользоваться Гуглом, и чем больше таких людей, тем шире охват. А как сделать пользователей довольными? Дать то, что им нужно, то есть качественные сайты и интересный материал, который не повторяется везде где ни попадя. Есть и прагматический момент: Гугл тратит на индексацию сайтов огромные ресурсы, так что зачем ему индексировать и уж тем более, сохранять у себя 1000 копий?
Тут еще важно понимать, что Гугл имеет очень даже неплохие прибыли со своей деяткльности (и это одна из причин), прямо пропорциональные количеству его пользователей. Радует то, что Гугл не теряет свое лицо, лично мне нравится его стартовая страница в стиле минимализма.Яндекс Wordstat и Оценщик трафика Гугл помогут вам узнать, сколько людей ищет ваше ключевое слово. Хотя данные не точные. Нет определенного сеошного календаря (как календарь садовника ;)), который показывал бы сколько времени понадобится, чтобы занять высокие позиции. Это зависит от тематики сайта, конкуренции в продвигаемом сегменте, усердия и знаний оптимизатора, от самого клиента, так как он должен идти навстречу, от страны, в конце концов: продвинуть сайт в Google.by намного проще, чем в Google.co.uk, например. Но клиенты требуют точные сроки, поэтому часто слышат ответ что-то вроде «3 месяца». Коммерческий сайт – сайт, который продает товары или услуги, его основная цель – получить максимальную выгоду путем увеличения конверсий. Спамер – это человек, который размещает рекламу (или присылает вам ее по почте), которую вы не просили, просто лезет вам в душу, можно сказать! Поэтому спамеров никто не любит.
Много спама идет не только на электронную почту, но и приходит непосредственно на домашний адрес. Я знаю, за границей есть сайты, которые помогают вам удалить свое имя и адрес из 99% таких вот рассылок.Вопрос № 100, юбилейный. Тут все варианты ответов верны (f), то есть следующие факторы влияют на позиции сайта в выдаче: - внутренняя оптимизация (обязательно);
- уникальность контента (обязательно, так что никаких дублей);
- содержание ключевых слов в доменном имени (необязательно, но будет огромным плюсом, особенно для Google);
- Наличие множества исходящих ссылок на некачественные сайты или обмен ссылками с такими сайтами (см. вопрос 94);
- Использование контента, который поисковые роботы не могут читать, например аудио, flash, видео, графики (без атрибутов alt и т.п.) (про картинки см. вопрос 84).
Ну вот и все, конец эпопеи).
Я искренне верю, что для вас она оказалась полезной, поэтому вы можете поделиться ею с друзьями.
А теперь пару слов о том, что вас ждет впереди (почувствую себя немного предсказателем): я ни в коем случае не забыла о серии статей о дублированном контенте, я уже познакомила вас с важными моментами:
И впереди на promoRED вас ждет:
Так что подписывайтесь на обновления, чтобы быть в курсе!
Спасибо за интересный материал.
Василий недавно опубликовал(а)…JDownloader. Закачки без проблем
хорошенькая шпаргалочка получилась. спасибо. коротко но достаточно информативно.
cardvoice недавно опубликовал(а)…Поздравления с праздником Пасхи
Пользуйтесь)
Здравствуйте! У меня вопрос к п.62. Я – начинающий блоггер. Редко удается заняться наполнением блога контентом. А тут вдруг пришло письмо, что “робот Googlebot не может получить доступ к вашему сайту” Начала действовать по совету Google – прошла по ссылке на robots.txt – вроде, все нормально, прошла на страницу «Посмотреть как Googlebot», а там список из 85 страниц. и только одна относится к моему блогу. Я ее и проиндексировала. Зато 84 оставшиеся страницы роботом не найдены, при переходе по ним дают ошибку 404 или переходы на постронние сайты. Как их убрать, не знаю и найти ответ нигде не могу. В Гуггле написано, что их можно спрятать, но при новой индексации блога они опять всплывут. Что делать?
Маргарита, я такого, честно говоря, не встречала. Если проблема еще актуальна, свяжитесь со мной (см. Контакты), будем разбираться)