В печке SeoPult.TV выпеклась программа, в которой мы рассматриваем вопросы поисковой оптимизации не просто под микроскопом, а, образно говоря, еще и с ДНК-анализом. Ведущий передачи, видный SEO-эксперт, руководитель отдела поисковой аналитики компании Wikimart Михаил Сливинский, в пилотном выпуске обсуждает с не менее известным SEO-аналитиком Сергеем Кокшаровым, как должен выглядеть грамотный аудит сайта и как обеспечить выполнение полученного чек-листа.
Из программы вы узнаете:
— из чего состоит правильный SEO-аудит интернет-ресурса;
— почему соответствие структуры сайта семантике с первых шагов критически важно;
— каков максимально допустимый уровень вложенности продвигаемых страниц;
— что в навигации можно и нужно оптимизировать («хлебные крошки» и другие элементы);
— является ли рекомендательная система лучшим способом перелинковки для e-commerce-площадок;
— чем отличается краулинг от индексации и к чему приводит путаница с данными понятиями;
— какие технические параметры сайты необходимо изучать при аудите сайта;
— влияет ли скорость загрузки страницы на ранжирование сайта, и если да, то прямо или косвенно;
— как правильно искать дубли на сайте (в частности, какие операторы использовать для решения этой задачи в Google) и какой поисковик к ним относится жестче;
— чем чреват 302-й редирект, поставленный вместо 301-го;
— что дает использование спецсимволов в сниппетах;
— какое влияние на SEO-аспекты сайта оказывает UGC;
— что требуется, чтобы понять, чего площадке не хватает с точки зрения поисковой оптимизации;
— какие сервисы помогают получить информацию о поведенческих факторах сайта;
— имеет ли смысл покупать ссылки, исходя из того, каковы доноры у успешных конкурентов;
— чем полезен сервис Majesticseo.com;
— с какой стороны подступаться к аналитике семантики;
— и не только.
Михаил Сливинский: Здравствуйте, уважаемые зрители SeoPult.TV! Рад встрече с вами и хочу поделиться хорошей новостью: мы начинаем цикл передач под названием «Лаборатория поисковой аналитики». Вести его буду я, Михаил Сливинский.
Мы будем говорить о механиках неспамного SEO, спрос на которое все больше и больше. Об аналитических подходах, которые позволяют получать больший результат при меньших вложениях.
Об информационном поиске, о логике развития поисковых систем. В общем, о том, что важно для думающих оптимизаторов и веб-мастеров. Мы не будем говорить о каких-то спамных механиках, это не наш профиль. «Черных» методов не будет. А тем, кто склонен разделить наше видение, мы рады всегда, следите за нашими передачами. С радостью хочу представить нашего первого гостя Сергея Кокшарова. Он, безусловно, широко известен и в России, и в Украине. Это главный редактор портала Optimization.com.ua, ведущий аналитик, топовый SEO-блогер Украины... — в общем, человек, которого знает каждый сеошник. Сережа, привет!
Сергей Кокшаров: Привет, Миша!
М. С.: Сережа, сегодняшняя наша тема — поисковый аудит сайта. Как ты считаешь, в чем вообще состоит главная задача сеошника? Ведь аудит, наверное, можно идеологически разделить на две части: поиск ошибок и устранение ошибок с поиском каких-то точек роста. Что стоит делать? Поделись с нашими зрителями своими наработками и механиками.
С. К.: В сеошной работе присутствует не только аналитика, но мы коснемся именно аналитической деятельности. Что важнее? Важно искать как проблему, так и новые точки входа, новые стратегии развития сайта и его продвижения. Можно начать с поиска новых точек, но если остались старые ошибки, будет сложнее двигаться дальше. И нужно все-таки на какой-то этап выйти, решить ряд проблем на сайте и дальше искать новые пути развития.
М. С.: Сначала устраняем ошибки, а потом, когда мы выбрали какой-то потенциал, ищем новые точки для роста. О’кей, понял. С твоей точки зрения, как должен выглядеть хороший аудит и из чего он состоит? Что нужно делать?
С. К.: Если взять решение проблем, можно выделить четыре основные категории. Первая — это работа над структурой, анализ структуры сайта. Что в структуру входит? Прежде всего, важно, соответствует ли структура подобранной семантике.
М. С.: Сережа, если я правильно понимаю, это одна из очень часто допускаемых ошибок. Ты наверняка видишь гораздо больше коммерческих сайтов, чем я, все-таки сфокусированный на одном проекте. По-моему, это очень часто встречающаяся ситуация: человек сначала создает сайт, наполняет его каким-то контентом, а потом вдруг узнает о том, как выглядит поисковый спрос в данном сегменте. И вдруг получается, что поисковый спрос с контентом пересекаются плохо, не попадают друг в друга.
С. К.: И обращаются к сеошнику, а сеошник, оказывается, рекомендует переделать сайт, на это нужно время. Это проблема, и большая. Изначально нужно при планировании сайта консультироваться или с компанией, или с аналитиком, чтобы он корректировал какие-то моменты в структуре сайта. Был один такой пример. Российская туристическая компания продавала туры, и у нее, по существу, структуры не было, у них была форма поиска: человек вводил, что он ищет, выбирал какие-то элементы — «туризм с детьми», «туризм в Египте», еще где-то, — и показывались результаты. Никакой структуры. Там были какие-то страницы со статьями, но этого было мало. И когда они узнали, что нужно, оказывается, делать отдельные страницы по видам отдыха, отдельные страницы по турам, еще какие-то дополнительные, для них оказалось в новинку. Дело затянулось где-то на полгода, даже дольше. Но когда нет структуры, очень сложно двигаться дальше.
М. С.: Фактически у них не было точек входа, лендингов для трафика: поискового, контекстного — какого угодно.
С. К.: Да, у них не было точек входа. Следующая, вторая часть в структуре — это обязательное наличие индексируемых HTML-cтраниц. Сейчас интернет у нас очень быстрый, он развивается, и популярные сайты на Flash, на JavaScript сделаны.
М. С.: На AJAX.
С. К.: Да, на AJAX, и такие сайты сложно индексируются. В плане SEO, если есть желание привлекать трафик из поисковых систем, конечно же, должны быть индексируемые страницы. Ну, landing pages, как ты говоришь. Следующее в структуре — это уровень вложенности.
Структура может быть очень разветвленной, но желательно, чтобы она все-таки была ограниченной. Уровень вложенности тех страниц, которые продвигаются, — не более трех, максимум четырех.
Потому что продвигать четвертый уровень вложенности — дело не очень перспективное. Хотя если контент не менять, только статьи какие-то, то, может быть, и сойдет. Дальше — наличие и оптимизация элементов навигации. Естественно, должны быть навигационный блоки: основные меню, какие-то «хлебные крошки», разделы дополнительных статей. Все стандартное, повсеместно применяемое. Но дело в том, что, хоть оно и видится как стандартное, многие сайты это не используют: у них есть главное меню, и они считают, что этого достаточно. На самом деле навигацию тоже можно оптимизировать.
М. С.: Могу поделиться своим видением. В e-commerce-проектах, на мой взгляд, наилучшей структурой для перелинковки является рекомендательная система. Ее часто недооценивают, а на самом деле профита здесь сразу много, и сразу по двум статьям. Прежде всего, вы улучшаете жизнь пользователя, вы даете ему возможность делать дополнительные покупки в магазине, вы удлиняете его сессию, увеличиваете количество кликов, а значит, улучшаете поведенческие, положительно влияете на SEO, совершенно причем не спамно, вы радуете и пользователей, и поиск, и самих себя в смысле денег. Это такая вещь, которая работает везде в плюс, никакого минуса нет.
С. К.: Единственный минус в том, что, когда мы продаем товар, желательно других там не рекомендовать, пока посетитель не купит. А если он еще определяется…
М. С.: Но есть же аксессуары. Бывает и ситуация, когда у тебя товара нет в наличии, а пользователь на него пришел. SEO-трафик — вещь инертная, и ты понимаешь, что товара больше нет в наличии, а ты, пардон, позицию обеспечил, у тебя есть трафик — и что с ним делать? Ты его не можешь просто выключить, терять его жалко. Поэтому в случае с 404-ми можно с успехом рекомендовать товары, похожие по свойствам или по каким-то другим признакам. Простая коллаборативная фильтрация здесь рулит.
С. К.: Да. И последнее, что структуры касается, — это структура ЧПУ, friendly URL. Здесь зависит от типа сайта. Тоже можно искать оптимальные решения.
М. С.: Главное — не спамить в ЧПУ.
С. К.: Что касается оптимизации, то на любом информационном участке вообще главное — не спамить, будь это ЧПУ, метатеги, или тайтлы, или контент. Ну а вторая большая категория — это технические характеристики, то, что позволяют анализировать различные автоматические системы. Если структуру анализировать автоматически сложно, то технический анализ проводить достаточно легко, существует много инструментов. Важно, чтобы сайт корректно индексировался. Надо его проверять на индексацию, на наличие дублей: критические это дубли или некритические, могут они помешать продвижению или их присутствие допустимо.
М. С.: Сережа, наверное, два слова надо добавить. По-моему, многие оптимизаторы не понимают, из чего состоит индексация, как она происходит. Хотелось бы заметить, что индексация — это разбор документа и помещение его в индексную базу, а до того должен случиться краулинг, то есть приход робота.
С. К.: Ну да.
М. С.: И это разные ситуации. Если к тебе не приходит бот, то это одна история, и лечится она одними средствами. Если бот приходит, но документ не индексируется, это другая история, и лечится она другими средствами.
С. К.: Да, это разделить надо.
М. С.: Четко проговорить, потому что многие оптимизаторы видят, что документ не в индексе, и живут себе как-то, не разбираясь, что этому предшествовало, приходил ли вообще бот. Это очень важно на самом деле.
С. К.: Верно. Нужно и логи анализировать. Если сайт не появляется в индексе, то, может быть, робот вообще не приходил на сайт, а если приходил, то искать проблему надо в другом месте, в контенте.
Следующая техническая характеристика — это скорость загрузки страниц, их размеры. Должны быть какие-то приемлемые размеры. Что значит «приемлемые», сложно сказать в цифрах. Ну, не томик Льва Толстого на странице.
М. С.: Ну, томик Льва Толстого — это очень хороший контент, Сережа. Я читал, я знаю это!
С. К.: Ну да, уникальный. Сюда же можно включать какие-то картинки, видеоэлементы, но в то же время следует уделять внимание тому, чтобы это загружалось быстро. Сервер должен это отдавать с достаточно высокой скоростью.
М. С.: Сережа, а ты считаешь, что скорость загрузки важна для ранжирования?
С. К.: Да. Взять те же поведенческие характеристики пользователя. Он долго не ждет. Он ждет секунду-две, а на третьей думает: «Надо искать где-то дальше».
М. С.: Если у нас сайт загружается долго, документ открывается долго, то мы, условно говоря, повышаем себе bounce rate из SERP, например. С точки зрения поиска человек кликнул, а на документ так и не попал, и в глазах поиска эта ситуация может выглядеть как отказ от документа из-за плохого контента или еще чего-нибудь. Эта ситуация для нас вроде бы негативная. Впрочем, как фактор время загрузки страницы, может быть, и не так значимо. С год назад вышло интервью с техническим директором Bing, если мне память не изменяет, и он привел какие-то цифры и сказал, что они когда-то думали отказаться от ранжирования и индексации медленных документов, а потом посмотрели, и выяснилось, что это большая часть интернета и они здорово теряли бы в полноте, если бы отсекли это.
С. К.: С другой стороны, если в каком-то топе все сайты имеют примерно одинаковые характеристики, то преимущество будет у тех, кто все-таки быстрее отдает контент.
М. С.: Согласен. Желательно быть не хуже соседей, не хуже конкурентов.
С. К.: Ну да. Далее — отсутствие мусора в коде. Это влияет больше на скорость загрузки и правильный разбор страницы, семантический разбор поисковыми роботами. Ненужные разделы — закрыты. Что интересно, разработчики любят делать сайты на тестовом домене.
М. С.: И никогда не закрывают их от индексации.
С. К.: Да, и никогда не закрывают. И они никогда даже не проверяют, что на самом деле он давно проиндексирован.
М. С.: Нужно вовлекать сеошника на этапе создания сайта. В том числе поэтому.
С. К.: Да-да, поэтому важно закрывать какие-то дополнительные разделы. Может быть, админка, но админка — это с точки зрения безопасности все-таки, а тестовые домены и поддомены — это с точки зрения дублей контента.
М. С.: Сережа, ну, проблема дублей понятна, в общем-то. Никто из нас не любит дублированный контент. Спамный контент, сгенеренный контент — это ужасное зло, с которым борется поиск, потому что это плохо для пользователя, а дублированный контент — это не так плохо, но зачем ресурсы тратить на дублирование информации? Можешь поделиться какими-нибудь практическими кейсами: как правильно искать дубликаты, как на своем сайте находить дублированный контент?
С. К.: Расскажу про один из методов поиска дублей. Все-таки в Google очень удобно искать, в «Яндексе» количество операторов ограничено.
М. С.: Ну, в Google, к сожалению, тоже, Сережа.
С. К.: Да, но у Google индекс делится на основной и дополнительный. Из дополнительного обычно результаты не показывают. Попадают туда те страницы, которые не участвуют в поиске. Если таковые имеются, а обычно это и есть дубли, то они попадают в дополнительный индекс, и их можно выловить с помощью операторов.
М. С.: Это на самом деле либо дубли, либо просто некачественный с точки зрения поиска контент, да?
С. К.: Да.
М. С.: Пустые страницы, какие-то шаблоны.
С. К.: Шаблонные страницы, по какому-то алгоритму, шаблону сделанные. Какой сайт посмотрим на дубли?
М. С.: Ну, твой блог давай посмотрим.
С. К.: У меня дублей не должно быть.
М. С.: Сейчас узнаем, Сережа!
С. К.: Мы берем все страницы на блоге и вычитаем из него... Итак, Devaka.ru. Ничего не найдено, а значит, дублей нет.
М. С.: Можем какой-нибудь другой сайт посмотреть, любой, какой придет в голову. Я просто поясню в двух словах, в чем суть той операции, которую ты делаешь. Оператор «site:имя хоста» позволяет вывести все документы с указанного хоста. А «site:имя хоста/&» позволяет вывести документы, которые находятся в основном индексе. Что вы видите в поисковой строке? Мы из всех документов вычитаем документы основного индекса и фактически выводим как раз supplemental index — документы, которые находятся в дополнительном индексе.
С. К.: Да, и если посмотреть известный сайт Wildberries.ru, который занимается одеждой, то можно увидеть такие страницы, как страницы тегов. Теги часто попадают в дополнительный индекс: страницы брендов какие-то, видимо по шаблону сделанные. Что еще? На форуме какие-то дополнительные страницы. Видно, что около 1,5 млн результатов. Для больших сайтов это критично, потому что затрачивается время на индексацию дублей. Если их убрать изначально, то сайт будет быстрее переиндексироваться, самые важные страницы будут очень быстро попадать в индекс. Это одна из причин.
М. С.: Фактически оптимизатор более рационально тратит краулинговый бюджет.
С. К.: Ну да. «Яндекс» помягче к дублям относится, насколько я знаю по своему опыту. Может быть, ты прокомментируешь по-другому. Но в Google, когда мы анализировали сайты после Panda, вернее, после апрельского [апдейта], когда Penguin пришел, мы организовывали крупный эксперимент, и были в числе сайтов, попавших под фильтр Penguin, те, что имели много дублей. У них все нормально вроде бы было, но много шаблонных страниц, много дубликатов.
М. С.: Дубликатов именно внутрисайтовых, не заимствованных снаружи?
С. К.: Да, внутрисайтовых. Дубликаты, по идее, ничего плохого не должны нести, но, насколько мы поняли, если поисковик видит шаблонные страницы, то в теории можно допустить, что сайт создан именно для того, чтобы просто расплодить страницы, создать множество точек входа, привлечь посетителей и монетизировать. Если это подкрепляется рекламой на сайте, какими-то баннерами, то это, скорее всего, так.
М. С.: Получилось, что Google измеряет удельное качество сайта в пересчете на один документ. Грубо говоря, если на сайте десять очень ценных прекрасных документов и еще тысяча дубликатов, то это может быть причиной наложения санкции Google?
С. К.: Да.
М. С.: Интересный подход, но, в общем, надо это иметь в виду. Я глубоко конкретно эту тему не разбирал, поэтому дополнить здесь ничем не могу, но понятно, что дублей надо избегать, и перед вами один из способов их обнаружения. Может быть, еще какие-то есть?
С. К.: Ну, остальные способы достаточно традиционные. Использование панели для веб-мастеров. Можно еще в поисковой строке вводить, например, уникальный текст со страницы.
М. С.: Просто цитатным поиском.
С. К.: Да. Можно заодно найти и кто у тебя скопировал контент, посмотреть, на каких сайтах похожее размещено. А остальное ищется с помощью панели для веб-мастеров. У Google преимущественно. Google показывает количество дублирующихся тайтлов и т. д.
М. С.: Причем можно, наверное, даже какие-то системы автоматизации несложные делать? Скажем, если вы на сайте систематически закрываете какую-то часть контента от индексации поиском, например в подвале какую-то информацию о том, что интернет-магазин работает по всем правилам Гражданского кодекса, несет такие-то виды ответственности и т. д., стандартную юридическую форму; она пользователю не очень нужна. У нас такая форма есть на сайте, и мы как-то обнаружили, что она в индекс попадает.
Если вы закрываете такой контент от индексации, вы можете сделать RSS-поток из поиска Google, задав цитатный поиск по такому скрытому шаблону, который вы закрыли от индексации, не хотите его видеть, и ограничив область поиска своим сайтом. И как только по такому потоку появляется хоть что-то, вы понимаете, что у вас разработчики что-то натворили, что у вас открылась эта форма опять, ненужный контент начал снова попадать в индекс поисковой системы.
С. К.: Хороший метод.
М. С.: Да, это доступно абсолютно любому человеку, и ничего не стоит это сделать.
С. К.: Правильно. Следующее в технических характеристиках — это наличие 404-й ошибки. Отсутствующие страницы должны давать статус 404 в HTTP-заголовках, чтобы они не попадали в индекс.
М. С.: Да, так называемый soft 404, когда на самом деле это 404-я, а в HTTP-статусе отдается 200-я, и это грусть и печаль для поиска, потому что эти дубликаты могут попадать в индекс.
С. К.: Еще одно замечание по техническим характеристикам: когда оптимизаторы или владельцы сайтов делают редирект, они не обращают внимания на то, какой редирект — 302-й или 301-й. Это очень важно: если 302-й, страницы остаются еще в поиске, а если 301-й, то уходят из поиска.
М. С.: Но, наверное, наступит светлое время, когда по дефолту во всех системах управления контентом везде будет 301-й редирект, никакого 302-го не останется.
С. К.: Да. К внутренней оптимизации. Сюда входят оптимальные и уникальные тайтлы. Это анализ тайтлов. Многие сайты ставят в тайтл название своей компании, и оно на всех страницах, что не очень хорошо.
Поисковики берут тайтл не только из тега, они уже смотрят заголовки Н1, Н2 в некоторых случаях, иногда «хлебные крошки» подключают и пытаются сформировать тайтл, полезный для пользователя.
Нужно в аудите уделять этому внимание.
М. С.: Да, чего только не сделает поиск от безысходности. Понимая, что пользователь увидит хороший документ, но с плохим тайтлом, поиск начинает пытаться изменить ему тайтл. Это хороший признак того, что тайтлы плохие, надо их привести в соответствие с контентом.
С. К.: Ну, следующее — это стандартное метаописание, или формирование сниппетов. Сейчас даже возможны не просто текстовые сниппеты, можно еще микроразметку данных делать. Это, может быть, касается больше поиска новых возможностей, когда сайт вроде бы оптимизирован. Микроразметкой можно достичь большей посещаемости, большей кликабельности сайта.
М. С.: Могу вот что еще посоветовать нашим телезрителям: в Украине очень популярны, на мой взгляд, спецсимволы в сниппетах. Когда мы начали делать у себя спецсимволы в сниппетах, в российском «Яндексе» и в Google, экспериментировали, что работает, что не работает; хотелось сделать сниппет более привлекательным, более заметным, не спамить туда какими-то непонятными значками. Но, если у тебя телефон в сниппете, хорошо сопроводить его значком телефона: красиво, удобно, понятно, люди кликают, им нравится, все хорошо. Мы обратили внимание, что в Украине это очень популярная штука. В общем, маленький намек: если вы хотите использовать спецсимволы в сниппетах, обратите внимание на украинскую выдачу Google, посмотрите, что там происходит по популярным запросам.
С. К.: Да, ввести «продвижение сайтов».
М. С.: Ну, какой-нибудь непопулярный запрос.
С. К.: Дальше — по внутренней оптимизации. Естественно, контент: он не должен быть переспамленным, перелинковка сюда тоже входит. Что касается перелинковки, мы обговорили навигационный блоки и уровень вложенности. И еще практический совет: если разные блоки перелинковки использовать — навигационное меню, рекомендационные товары или еще какие-то «хлебные крошки», — то надо стараться употреблять слова не одни и те же, а в других формах, по-другому как-то формулировать, чтобы анкор-лист внутренний тоже расширялся. Семантику можно таким образом расширять.
М. С.: И не стоит забывать, что оптимизатор живет не только Page Rank, но и Browse Rank, Click Rank и другими ранками, которые учитывают и поведение пользователя. То, что у вас стоит ссылка, здорово, но если по этой ссылке ходят люди и они счастливы там, куда приходят, это вообще прекрасно. И надо именно ко второму варианту стремиться, на мой взгляд. По крайней мере, ставить себе такую задачу.
С. К.: Да-да. И последнее. Во внутренней оптимизации большое внимание стоит уделить модерации. Если контент на сайте добавляет не один человек или если там присутствует user generated content типа комментариев, то следует очень жестко модерировать. И в аудите следует уделить внимание данному вопросу, то есть искать в пределах сайта какие-то запретные слова: «казино», «виагра», «секс».
М. С.: Ну, если много UGC, то это немудрено.
С. К.: Да, если много контента. Есть немало инструментов, например Xenu’s Link Sleuth, который позволяет просканировать сайт, увидеть ссылки, и можно среди этих ссылок увидеть, допустим, какие-то, которые вы не ставили. Модерация — это один из очень важных элементов.
М. С.: Сережа, а как простому оптимизатору, который получил сайт от коллеги или от владельца, только что созданный, понять для себя ответ на вопрос, чего же не хватает сайту? Не хватает ли ему хорошего контента, или ссылок не хватает, или поведенческие плохие? Можешь поделиться своим видением того, как это правильно измерять и как фокусироваться на нужной задаче? Потому что SEO — интересная вещь: можно заниматься всю жизнь чем-то, и это не будет давать на самом деле никакого результата, но позиции почему-то растут, оптимизатор доволен, он всю жизнь это делает, потому что дед так делал, отец так делал, он так делает — ну, так традиционно повелось ,но отчего там позиции растут, он не знает. Так получается, совпало, и все довольны. Вот как найти хорошую точку приложения усилий? Как понять, чего не хватает?
С. К.: Не каждый способен это найти. Нужен человек, который это увидит.
М. С.: Сережа, мы будем оптимистами! Предположим, что средний оптимизатор может найти, если захочет. Какие ему дать наводки?
С. К.: Прежде всего, формула ранжирования включает целый комплекс: это и поведенческие факторы, и внутренние, и внешние, и когда мы достигли предела в одном из них... Понятно, что над внешними факторами можно работать постоянно, там лимита нет, и мы можем постоянно с какой-то периодичностью размещать ссылки, в разумных пределах.
М. С.: Ну, лимита нет по степени…
С. К.: По верхней границе.
М. С.: По ресурсу, но лимит есть по степени воздействия. Неверно думать, что вы можете «пластиковые окна» вывести в топ только ссылками. Это неправда, нельзя так сделать.
С. К.: Ну да. Потом, внутренняя оптимизация: здесь следует анализировать, насколько и что мы еще не сделали с сайтом, пройтись. Вот есть хороший инструмент, сейчас я вам его покажу.
М. С.: Давай посмотрим.
С. К.: Называется SEO Checklist (SeoChecklist.ru), он с помощью мозгового штурма был придуман, все эти пункты были записаны. Ну, первое — по анализу ключевых слов: как составлять семантику. Второе — советы по структуре сайта: можно прямо отмечать; допустим, сайт какой-то сделал, какой-то элемент на сайте, создал sitemap, отметил для себя, очень удобно. И здесь можно искать подсказки: например, заходим в технический аудит, смотрим — для «Яндекса» основной хост прописать в robots.txt, а у нас не прописан, и мы можем это оптимизировать, отлично. Какие-то идеи искать, например, в контенте: «Title является уникальным в пределах Сети». Небольшой комментарий дается для подсказки. Тайтлы должны быть уникальны не только в пределах сайта, но и в пределах Сети, потому что все-таки в топе должно быть разнообразие. Соответственно, оптимизатор может с помощью этого инструмента для себя идею найти и что-то еще оптимизировать. Если он все пункты отметил и смотрит, что больше нечего внедрять, то, видимо, потолок во внутренней оптимизации достигнут.
М. С.: Сережа, знаешь, я с ходу увидел несколько вещей, которые стоило бы туда добавить. А это чей проект вообще, кто его делает?
С. К.: Это мой проект.
М. С.: Здорово! Тогда я тебе в почту еще напишу дополнение.
С. К.: Хорошо, можно добавить пункт.
М. С.: И тогда мы, наверное, можем предложить то же нашим зрителям: если вы увидите, что чего-то не хватает, есть какие-то собственные идеи, пожалуйста, пишите, предлагайте, мы будем рады коллективно дополнить эту штуку.
С. К.: Да, будем дополнять, если будут какие-то идеи, с радостью.
М. С.: Здорово, хороший инструмент! Это именно чеклист, это способ не забыть?
С. К.: Да, это способ не забыть. Конечно же, поведенческие факторы сложно как-то измерить. Мы можем анализировать показатель отказа сайта и смотреть, как мы его улучшить, как вовлечь пользователя, чтобы он дольше оставался на сайте, чтобы он не переходил обратно в поиск, а решал свою проблему. Но чтобы ответить на вопрос «Что улучшать?», нужно подойти комплексно, нужно работать во всех направлениях, и тогда вероятность того, что мы достигнем хорошего результата, увеличится раза в три.
М. С.: На самом деле мне кажется...
Ну, как измерять поведенческие? Есть тулбарные инструменты, которые позволяют примерно оценить какие-то характеристики сайта: длину сессии, трафик, bounce rate. Один из таких сервисов — Netchart.ru.
У него не очень большая база пользователей, тысяч триста человек, если мне память не изменяет, их немного, но это хоть какие-то цифры. Раньше для этих целей я пользовался Google Ad Planner, там было прекрасно: можно было зайти и увидеть эти же параметры, собранные по большой выборке людей. Ну, понятно, что у Google есть возможность такие данные получать, но, к сожалению, сервис был закрыт Google, и будет здорово, если какая-нибудь из поисковых машин откроет подобные данные, ведь и «Яндекс», и Mail.ru, и Google собирают много данных о пользователях. Конечно, анонимных данных, речь не идет о персонализации какой-то. Для чего это нужно оптимизаторам? Чтобы понимать, на какие сайты стоит ориентироваться и какие сайты лучше себя чувствуют с точки зрения удобства для пользователя. Если ты понимаешь, что этот сайт имеет в три раза большую продолжительность сессии, чем тот, это хороший повод поискать на первом те самые фичи, которые его делают таким удобным: рекомендации, сервисы, инструменты фильтрации, подбора, контент классный — да что угодно. Здорово будет, если поисковые системы начнут делиться с нами такого рода информацией: она очень полезна, и, главное, ее можно использовать конструктивно, чтобы улучшать сайт на радость людям.
С. К.: Да, согласен.
М. С.: И, Сережа, знаешь, такой комментарий еще: мне кажется, что на самом деле значимость разных факторов серьезно зависит от типа запроса. Допустим, для редких, низкочастотных поведенческие «серповые» вообще неактуальны, поскольку нет статистики поиска. С хостовыми только в целом — да, там кое-что есть, но в «Яндексе» это вроде бы не очень сильная группа факторов, там очень мощно работают клики из поиска, а хостовые вроде бы слабее, как говорят некоторые аналитики. Но, как мне кажется, это существенная вещь.
С. К.: Да-да, если больше низкочастотных, то, в принципе, можно ограничиться внутренней оптимизацией.
М. С.: Внутренней оптимизацией, ссылками, да, но дело в том, что традиционно всегда есть на рынке заказчики, которые ходят и хотят за 10 тыс. руб. «пластиковые окна» через три месяца [вывести в топ] и не хотят понять одной простой вещи: без качественной переработки сайта ничего не получится. Грубо говоря, невозможно по конкурентному запросу в топ продвинуть плохой сайт. С моей точки зрения, либо вообще за такие проекты не нужно браться, либо заказчик должен быть готов сильно переработать свой проект. Одно из двух, иначе результат не будет достигнут или он будет крайне дорог и нестабилен.
С. К.: Да-да, согласен с тобой. Мы еще не упомянули одну из групп факторов — внешние. Нужно анализировать и внешние факторы.
М. С.: То бишь ссылки?
С. К.: Ссылки, естественно. Анализируется обычно их разнообразие, разнообразие как текстов, так и доноров, на которых они размещены. Ну и качество. Здесь без инструментов не обойтись. Я часто пользуюсь Ahrefs. Это зарубежный инструмент, он многое позволяет найти. Если мы, допустим, тут какой-то сайт вводим…
М. С.: Главное, он позволяет оттуда большие «простыни» выгружать в виде Excel-таблиц, гигантские просто.
С. К.: Да, много очень аналитических данных.
М. С.: Вкладочка Raw Export очень хороша собой, там много данных.
С. К.: Собственно, можно анкоры посмотреть, какие основные, можно проанализировать конкурентов и, если мы, допустим, продвигаем не сотни запросов, а всего лишь десять, по каждому запросу посмотреть топ и что у конкурентов творится в ссылочных профилях. Очень удобно посмотреть, кто ссылается.
М. С.: Сережа, как ты относишься к такой механике: посмотреть на ссылки, которые ведут на успешных конкурентов, объединить их, условно говоря, в один документ, найти самые частотные доноры и считать для себя, что ссылки с этих частотных доноров будут полезны? То бишь если все сайты из топа имеют ссылку с какого-нибудь хоста, то следует ли из этого, что тебе тоже будет полезна ссылка с данного хоста?
С. К.: Я считаю, не факт, что она полезна. Нужно как-то по-другому подходить.
М. С.: Критерии успешности другие?
С. К.: Да.
М. С.: То, что все прыгают из окна с восьмого этажа, не означает, что тебе нужно прыгать с восьмого этажа.
С. К.: Да.
М. С.: На самом деле такие вещи могут получаться из-за массового стереотипа: все идут в какую-то ссылочную биржу — не будем ее называть, — с какими-то параметрами что-то находят...
С. К.: Да. Как раньше прогоняли по каталогам? Смотрели в обратных ссылках: «У-у-у, у конкурента много обратных ссылок, в основном из каталогов», — заходили в сервис. Это уже не работает, и получение ссылок с некоторых сайтов не то что нейтрально, а влияет в минус, и то, что на многих конкурентов кто-то один ссылается, не факт, что хорошо.
М. С.: Ну, в общем, здесь point в том, что, наверное, можно просто принять эту информацию к сведению, не более того. Рассматривать эти источники как доноров можно, но это не означает, что вам обязательно нужны эти ссылки.
С. К.: Да. Есть еще другие инструменты — в основном те, которые анализируют ссылки, они в основном западные. Ну, все их знают: это Open Site Explorer от SEOmoz.
М. С.: Majesticseo.com?
С. К.: Majesticseo.com, да. Там полезная фишка есть: мы можем посмотреть скорость закупки ссылки.
М. С.: Историю?
С. К.: Историю, все пики. Если даже от другого оптимизатора к нам переходит проект, мы смотрим, когда он закупался, примерно даты сопоставляем, когда были наложены фильтры, если были какие-то проблемы. Очень помогает в анализе. Мы, наверное, откроем этот инструмент, чтобы зрители видели. И Backlink History здесь есть.
М. С.: Хороший инструмент, безусловно, для изучения того, что когда-то приходило с сайтом. Часто, правда, заказчик не знает, что с ним происходило, и бывает такое, к сожалению, что заказчик ходит по рынку и хочет, чтобы его обманули: хочет заплатить мало, а получить много. И находится компания, которая берет его сайт на продвижение как бы, реально ничего не делает, потому что сделать-то ничего нельзя, невозможно выполнить SEO-задачу, а клиент думает, что что-то происходит.
Клиенту нельзя быть некомпетентным. На мой взгляд, сейчас интересное время: простые механики больше не работают, и клиенту нужно быть квалифицированным заказчиком.
И в том числе очень неплохо пользоваться сервисами, панелями веб-мастера, чтобы вообще понимать, делает ли что-то ваш оптимизатор.
Давай два слова скажем про аналитику семантики. Это очень колоссальная тема, мы затронем ее с одного края. Меня как-то попросили даже не сделать аудит, а просто посмотреть на один проект по недвижимости, там аренда и покупка квартир. И я подумал, что, может быть, какие-то закономерности есть в запросах, которые задают люди, и, возможно, это зависит от количества комнат. Когда человек спрашивает, «сколькикомнатную» квартиру он хочет, у поиска, он это может формулировать двумя способами: либо через цифру, либо буквами. Так вот, оказалось, что на самом деле зависимость есть и «однокомнатную» чаще пишут буквами, «двухкомнатную» примерно поровну, а «трех-» и более — почти всегда цифрами. Элемент психологии здесь есть: наверное, человек думает, что три — это много, пора цифрой писать, хотя на самом деле «трех-» и «одно-» — это четырехбуквенные слова, одинаковые по длине, и трудозатраты на написание абсолютно одинаковые. Вот если такие запросные особенности вы будете видеть в своем потоке спроса, то вы сможете это использовать в шаблонах, в своей системе управления контентом, чтобы более эффективно попадать в спрос. Можно кастомизировать шаблоны под однокомнатные и трехкомнатные и тем самым лучше решать SEO-задачу. Это очень хорошая штука, и стоит глубоко изучать спрос людей: он вам откроет многие двери.
С. К.: Да, вся проблема — в изучении спроса: что люди ищут, как они ищут. Нужно находить способы, где посмотреть, как они ищут.
М. С.: Что человек ищет, что ему на самом деле нужно. Интент преобразуется в запрос совсем не однозначным способом. Запрос может происходить от разных интентов, от разных потребностей. Ну, про это, наверное, мы как-нибудь сделаем отдельную большую передачу, попробуем кое-что рассказать про аналитику спроса, про аналитику семантики. Сережа, с твоей точки зрения, какие главные проблемы есть в аудитах со стороны исполнителя, со стороны заказчика, что часто делают неправильно, что делают не так, что вообще не делают?
С. К.: На мой взгляд, главная проблема — это непонимание того, зачем он вообще нужен. Не стоит цель. То есть человек знает, что большинство делает аудиты, что это что-то полезное дает, но он не понимает, как это применить для своего сайта. И нужно либо помочь человеку сформировать цель, либо чтобы он сам это в итоге сделал. Целей бывает две, как мы вначале озвучили: это либо устранение проблем, либо поиск новых путей развития, составление новых стратегий продвижения сайта. И если еще какие-то проблемы искать касаемо аудита, это, прежде всего, отсутствие инструментов. Если мы не владеем информацией о том, какие существуют инструменты на рынке, какие мы можем использовать, какие будут полезны в нашем случае, это очень плохо. Нужно ориентироваться. Второе — это, наверное, отсутствие накопленной истории по изменению каких-либо метрик сайта: «Мы не ставили никаких ни счетчиков, ни логи не вели». Это плохо, потому что сложно выявить проблемы в дальнейшем и сложно собрать семантику ту же, поэтому следует сохранять историю, устанавливать Google Analytics, «Яндекс.Метрику», отслеживать позиции, если мы продвигаем сайт по какому-то ограниченному количеству запросов.
М. С.: Сережа, знаешь, у меня такое впечатление субъективное — тебе, безусловно, виднее, поскольку ты имеешь дело с большим количеством заказчиков и сайтов, — что основная проблема аудита в том, что его не внедряют. Его делают, но не внедряют.
С. К.: Кстати, да, это большая проблема. Есть такая еще особенность в аудитах, как вопрос гарантии: насколько те рекомендации, которые будут получены от аудиторов, после внедрения дадут результат. Сложно дать гарантии, и обычно эти гарантии не даются, и если это озвучивать сразу, то у клиента как-то сразу интерес пропадает: «А что мне даст эт
Руководитель отдела маркетинговой и поисковой аналитики компании Wikimart Михаил Сливинский рассказывает о важности расширенной аналитики рыночных показателей контроля позиций конкурентов.
1 048 9 0При продвижении высококонкурентных запросов поведенческие факторы уже сейчас оказывают ощутимое влияние на позиционирование сайтов в топах «Яндекса» и Google. Новая роль ПФ стала темой в жаркой дискуссии ведущих SEO-экспертов.
846 8 0