О старых и новых «ранках» Google, механике их работы и способах учитываться их для обычных сайтовладельцев Михаил Сливинский беседует с Кириллом Терентьевым, руководителем отдела трафика компании WebIT.
Из передачи вы узнаете:
— в чем заключается логика PageRank и каковы его главные недостатки;
— что такое модель «блуждающей обезьянки»;
— какие ранки породил PR;
— исходя из чего формируется TrustRank;
— когда и в каких пропорциях при расчете TR используются дробление ссылочного веса и коэффициент затухания;
— как по цепочкам ссылочных связей передается понижение трастовости;
— показывает ли что-то близкое к истине хоть один сервис, исчисляющий «траст» сайта;
— что такое «висячие узлы» и как они учитываются в алгоритмах TR;
— почему Google пересмотрел свой взгляд на время загрузки сайта как фактор ранжирования;
— что скрывается за терминами Duration-Based Rank и Popularity-Based Rank;
— как ранки помогают бороться со спамными ссылками;
— и многое другое.
Михаил Сливинский: Здравствуйте, дорогие зрители SeoPult.TV! В эфире «Лаборатория поисковой аналитики» и я, ее ведущий Михаил Сливинский. Сегодня у меня в гостях Кирилл Терентьев, руководитель отдела трафика компании WebIT. Привет, Кирилл!
Кирилл Терентьев: Привет, Михаил! Здравствуйте!
М. С.: Мы поговорим о ранках — о способах ранжирования (в том числе с целью антиспама) на основании ссылок, то есть на основании связей между документами, хостами и т. д. Существует такая вещь, как ссылочный граф. Это когда мы берем документы или целые сайты, хосты и связываем их ссылками, связями. И есть много методов, как эту информацию использовать. Самая, наверное, известная и понятная, а может быть, и непонятная оптимизаторам вещь — это PageRank, наверное?
К. Т.: Наверное.
М. С.: В чем вообще суть, логика PageRank? Мы начнем действительно с базовых вещей, чтобы даже не слишком искушенным зрителям была ясна наша точка отсчета.
К. Т.: PageRank — это величина, характеризующая в некоторой степени авторитетность страницы по сравнению с остальными. Иными словами, это вероятность нахождения пользователя на странице. Считается она достаточно несложно.
М. С.: Логика в том, что ссылка — это мера доверия, мера рекомендации, и когда кто-то на кого-то ссылается, то...
К. Т.: ...считается, что он его рекомендует.
М. С.: Рекомендуемый получает некую пользу, и чем авторитетнее рекомендующий, тем большую пользу получает рекомендуемый. Очень простая логика. А у PageRank, очевидно, имеются большие недостатки — большие настолько, что в современном веб-поиске, насколько мне известно, наблюдается следующее: PageRank в каноническом его, базовом представлении, о котором мы только что сказали, практически не имеет смысла, поскольку Сеть бесконечно заспамлена, а та самая модель «блуждающей обезьянки» — немножко нечестная. Когда мы говорим, что все ссылки в документе равнозначны, это же, наверное, не совсем правда, с точки зрения простого пользователя?
К. Т.: Вообще, она честная, но если бы не было того шума, который творится... Когда ссылки стали сильно влиять, этим стали активно пользоваться.
М. С.: Но это неизбежное явление.
К. Т.: Да. Встала задача борьбы с этим, нужно как-то отсеивать шум. PageRank — величина по-прежнему важная, она, конечно, не используется практически в классической своей механике, но на ее основе создано достаточно много ранков, которые могут применяться поисковыми системами.
М. С.: А о каких именно ранках ты хочешь рассказать?
К. Т.: Если просто перечислить: TrustRank, BadRank, SpamRank, BasicRank.
М. С.: Прости, пожалуйста, но я сразу зацеплюсь за траст. Вот «траст» — это такое слово, которое, по-моему, означает что угодно. Любой оптимизатор вкладывает в него собственный сакральный смысл, и есть даже сервисы, которые «рассчитывают траст», и эта величина влияет на стоимость ссылок с конкретно сайта.
К. Т.: Кто-то в это верит.
М. С.: Это целая индустрия на самом деле, какое-то идолопоклонство, и есть какие-то мифы, легенды. Наверное, нашим зрителям будет интересно, если ты расскажешь немножко о TrustRank: что это вообще за алгоритм, для чего он был придуман, в чем его логика работы? Чтобы развеять хотя бы часть мифов.
К. Т.: «Траст» — в буквальном смысле «доверие». Это очень общее понятие, оно может коррелировать с любыми параметрами сайта. Пусть оптимизаторы вкладывают в это определение возраст, качество ссылочной массы — не важно. Сам алгоритм строится по более простому принципу. Экспертам предоставляется выборка ресурсов, те смотрят их и говорят: «Да, это хороший сайт, это плохой». Условно говоря, белое и черное. Далее все это запускается по определенному алгоритму в систему, и на основе предположения, что хороший сайт, скорее всего, ссылается тоже на хороший, а плохой, скорее всего, нам не интересны (задача алгоритма — выявить хорошие), выводится величина того самого TrustRank для каждой страницы нашего множества.
М. С.: То есть мы исходим из предположения, что хорошие сайты редко ссылаются на плохие?
К. Т.: Да.
М. С.: Но действительно, если вы заботитесь о своей репутации… Попробуйте написать плохою статью на Wikipedia: недостоверную, ложную — какую угодно. Вы увидите, что через пять минут прибежит какой-то наблюдатель — там куча волонтеров, целая иерархия есть, — который мигом ваши дурные комментарии потрет, а если вы будете вступать в переписку, он объяснит, почему он это сделал. И это случится быстро. На хороших сайтах обычно есть какие-то механизмы, препятствующие появлению плохого контента и, главное, плохих ссылок.
К. Т.: Да, с какой-то вероятностью. Полностью подобного нельзя исключать, потому что даже на хороший сайт, во вполне приличную гостевую книгу может пробраться недобросовестный человек и поставить там все, что угодно. Но общее предположение таково, и, как показывает практика, оно работает и на больших объемах и показывает какие-то результаты.
М. С.: Логика такая: вот у нас предположение о том, что хорошие редко ссылаются на плохих, есть первичный «посев» какой-то — набор сайтов, который эксперты сочли хорошими (это, наверное, сайты уровня Wikipedia или подобные, заведомо качественные ресурсы).
К. Т.: Ну да, как отобрать эти ресурсы — отдельный вопрос. По логике вещей нужно отобрать не только хорошие ресурсы, но и такие, которые имеют много исходящих ссылок. Простейшие примеры: это может быть «Яндекс.Каталог», DMOZ-каталог, «Каталог@Mail.ru», что-то подобное. Существуют два подхода: либо измерять, отбирать хорошие ресурсы с большим исходящим, либо просто брать ресурсы с большим PR. Во втором случае исходная выборка получается менее полной, но работают обе достаточно неплохо.
М. С.: Слушай, а ведь Wikipedia тоже может быть рассмотрена как каталог: из Wikipedia приличное количество ссылок ведет.
К. Т.: Нет-нет, речь не о том, чтобы выбирать именно каталоги. Это просто примеры того, что есть сайты, и каталоги действительно подходят. Wikipedia — да, вполне. Adobe.com.
М. С.: Да, ты говоришь о том, что нужно много исходящих. Вот с Wikipedia много исходящих?
К. Т.: Много.
М. С.: И более того, на Wikipedia есть раздел, откуда можно скачать исходящие ссылки с нее отдельным файликом и, пожалуйста, вынуть оттуда всех акцепторов. Это хорошая выборка приличных сайтов. Если оптимизаторы смотрят традиционно на присутствие сайта в «Яндекс.Каталоге», в других каталогах как на признак качества этого сайта, то никто не мешает смотреть на Wikipedia ровно так же и считать присутствие в Wikipedia тоже, в общем-то, признаком качества?
К. Т.: Само собой. Я не знал такой возможности, но что поставить ссылку можно, знал. Правда, убирают в некоторых случаях.
М. С.: Убирают.
К. Т.: Но поставить можно.
М. С.: Замечательно!
К. Т.: Если ресурс подходит.
М. С.: Совершенно верно.
К. Т.: Логика сохраняется.
М. С.: Конечно! Да. То есть заведомо спамных ссылок там сравнительно немного, это чистится. Ну и на самом деле с Wikipedia можно скачать всю Wikipedia целиком, весь контент, и мы даже такую вещь делали. Это совершенно легальная процедура, доступная любому, у кого есть желание.
К. Т.: Это здорово!
М. С.: И можно, например, на текстах Wikipedia посчитать какие-то лингвистические величины, если это интересно.
К. Т.: Да, там интересная коллекция.
М. С.: Ну, идея TrustRank, в общем-то, понятна. По сути, речь идет о передаче…
К. Т.: ...доверия по ссылочному графу.
М. С.: Причем есть какой-то «посев» сайтов изначально, и вот осуществляется эта раздача. Если мне не изменяет память, там может быть логика двух типов: либо сигнал затухает при передаче по цепочке хостов…
К. Т.: Абсолютно правильно.
М. С.: …и чем дальше от источника, тем он слабее, либо он пропорционально делится, как PageRank, грубо говоря.
К. Т.: Верно. Может быть смешанная комбинация, когда он дробится и притом используется коэффициент затухания.
М. С.: Вот это суть TrustRank. Какие-то действия, которые предпринимает оптимизатор, чтобы некие мифические цифры вычислить и назвать это «трастом», — ерунда полная. TrustRank — это совсем иная вещь. Все остальное — какие-то суррогаты, не имеющие к TrustRank никакого отношения.
К. Т.: Ну, возможно, есть какие-то выборки у некоторых людей, но вряд ли они уходят в общий доступ. Это точно не то, о чем мы говорили чуть раньше.
М. С.: Я не знаю, о каких конкретно инструментах ты говоришь, сейчас не помню точно названий, но, в общем, там можно указать имя сайта и получить некий «траст». На мой взгляд, это ерунда.
К. Т.: Я бы тоже не доверял этой величине. Причем это легко проверить: просто вбив туда некоторые сайты и применив простую логику, зная элементарные методы ранжирования и базовые принципы оптимизации, легко понять, что это чушь.
М. С.: И потом, это означает, что у людей, у изготовителей такого рода сервисов должны быть как минимум мощности для сканирования сети построения ссылочных графов.
К. Т.: Может быть, они действительно в это верят и стараются.
М. С.: А, вот! Верить — да. Если человек верит и ему это дает пользу — ну, кто отрицает плацебо? —все прекрасно!
К. Т.: Ради бога!
М. С.: Есть польза — замечательно: пусть верят! Но только давайте будем отделять зерна от плевел и понимать, что есть физически осмысленные сущности типа алгоритма TrustRank, который, кстати, описан и доступен в PDF-виде любому желающему при поиске в Google.
К. Т.: Даже математику можно посчитать на листочке бумаги. Все сходится, и достаточно прозрачно.
М. С.: Да, а есть мифы и какие-то догмы. TrustRank — более или менее понятная вещь. Давай поговорим о том, как поисковая машина может не только хорошие сайты определять, но и со спамом бороться, с другими проблемами. Можно ли алгоритмы, подобные PageRank или TrustRank, инвертировать каким-то образом так, чтобы находить плохое?
К. Т.: Запросто. Так и происходит, вариаций тоже достаточно много.
М. С.: Давай какие-то назовем, обсудим.
К. Т.: SpamRank, BadRank, AntiTrustRank. Базовым все же можно считать BadRank, потому что он появился лет десять назад, достаточно давно.
Простыми словами, если ты ссылаешься на плохие сайты, то получаешь часть недоверия, BadRank, от них себе.
За это поисковые системы не стесняются наказывать, потому что ты отвечаешь за то, какие ссылки ведут с твоего сайта. Санкции могут быть различные: обнуление PageRank, в частности, но, как правило, если мы говорим про Google (это с его подачи все пошло), то это понижение ранжирования страницы, причем в индексе они остаются, но позиции падают.
М. С.: Ссылаясь на «плохие» сайты, можно запросто навредить себе?
К. Т.: Все правильно. Причем это, грубо говоря, негативное назначение распространяется и дальше по графу, не только на того, на кого ты сослался, но и дальше.
М. С.: Давай на пальцах: есть плохой сайт, я сослался на плохой сайт, а значит, я за это получил наказание от поиска и стал ранжироваться хуже, правильно?
К. Т.: До прохождения какого-то порогового значения.
М. С.: А куда дальше эта цепочка распространяется? Тот, кто на меня ссылается, тоже ведь может пострадать.
К. Т.: Да-да-да.
М. С.: Если я обильно ссылаюсь на плохих, я потихонечку становлюсь плохим. Плохим акцептором. Те, кто ссылается на меня, тоже страдают, в конце концов.
К. Т.: Идет распространение с каким-то коэффициентом затухания.
М. С.: Эти цепочки на самом деле работают во все стороны. Траст передается с затуханием, убывая потихонечку. Негатив отдается с затуханием наверх.
К. Т.: Ну да, все достаточно понятно. Единственная проблема алгоритмически может возникнуть со страницами, которые не имеют входящих ссылок. Вот что с ними делать, непонятно. Но она решается, если добавить немножко математики, простым предположением, что можно замкнуть страницу саму на себя, ей поставить ссылку на саму себя. Либо сослаться на какой-то плохой сайт, либо просто проскочить это звено.
М. С.: Классическая проблема «висячих узлов», которая решалась в PageRank бог знает сколько лет назад. Действительно, чтобы обеспечить математическую сходимость алгоритма, нужно придумать, что делать, в случае если документ является «подвешенным», у него нет других связей.
К. Т.: Ну да, это нюансы.
М. С.: Есть обходные пути. Вот мне какая мысль пришла в голову: как ты думаешь, могут ли в подобного рода алгоритмах — PageRank, TrustRank, BadRank и прочих — использоваться как источники данных каким-то образом размеченные сайты, не асессорские? Говоря о Anti-TrustRank или BadRank... Выборку плохих сайтов должны делать асессоры, наверное?
К. Т.: Да.
М. С.: А что, если мы эту выборку плохих сайтов найдем каким-то другим способом? Допустим, мы можем исходить из предположения, что обильно продающие ссылки сайты — нехорошие, они нам не нравятся. Или, например, сайты, которые покупают много ссылок, нам не нравятся. Или еще какие-то предположения. Мы можем с помощью какого-то фильтра это подмножество сайтов найти и на нем отработать соответствующий алгоритм. Первоначальный посев может быть сделан не асессорским путем?
К. Т.: Теоретически, думаю, может, но чтобы получить действительно хорошие результаты, требуется экспертная оценка. Надо, чтобы человек посмотрел и разметил. Машина дальше разберет это на параметры и сумеет экстраполировать на большое множество значений.
М. С.: Но ведь мы говорим о полноте и точности, о том, с каким качеством эта работа будет сделана. Эксперты ведь тоже иногда ошибаются, имеют субъективизм в оценке и т. д. На самом деле, наверное, возможно провести оценку всех хостов Сети по…
К. Т.: А кто проведет эту оценку?
М. С.: Собираем какие-то признаки для хоста.
К. Т.: Ну, все равно это экспертная работа — собирать признаки.
М. С.: Нет, почему? Например, удельное количество исходящих ссылок с одной страницы сайта. Берем все исходящие ссылки с хоста, относим их к количеству страниц хоста и понимаем, сколько в среднем ссылок уходит с одного документа, например.
К. Т.: Теоретически да. Думаю, возможно.
М. С.: И, таким образом, мы получаем для каждого хоста какую-то цифру, которая означает удельное количество исходящих ссылок с документа. Понятно, что ситуации бывают разные: где-то эти ссылки оправданны, где-то нет, где-то они спамные, по-всякому бывает, — и тем не менее мы можем задать совершенно зашкаливающие значения и выбрать группу отвратительных сайтов, рассадников спама, и их использовать как первоначальный посев.
К. Т.: Но это скорее для решения каких-то простейших задач — отсеять явно плохие. Пороговое значение, да. Мы можем математически рассчитать примерно подобные сайты, вычислить, откинуть их. Чтобы провести какую-то градацию — вот плохой, вот не очень плохой, а тот более или менее, — скорее всего, экспертная оценка в самом начале необходима. Возможны и тот и другой подходы, но эксперты нужны, асессоры.
М. С.: Просто задачи бывают разные. Что-то решается ранжированием, то есть упорядочиванием, а что-то — жесткой фильтрацией.
К. Т.: Совершенно верно.
М. С.: За какие-то нарушения вас могут понизить в ранжировании, за какие-то выкинут документ из индекса, а за какие-то забанят весь сайт.
К. Т.: Бывают казусы.
Уже два года как Google полностью «порезал» зону co.cc, потому что там плодились некачественные сайты. Он просто ее зарубил на корню. Там больше 10 млн документов, но тем не менее так случилось. Такое возможно.
М. С.: Помнишь историю, когда у технического директора Bing спросили: «Что вы думаете про использование времени отклика сайта, времени ответа как параметра для ранжирования?» Он сказал, если мне память не изменяет, что-то вроде того, что думали о том, чтобы их наказывать, поражать, а потом поняли, что на самом деле эти медленные сайты им обеспечивают хорошую полноту по каким-то редким запросам, они пользователей радуют; есть запросы пользователей, на которые трудно найти нормальный ответ вообще-то, и пользователь согласен дополнительные 200-300 мс подождать, но получить ответ, чем не получить ответа вовсе.
К. Т.: Ну, по таким запросам, скорее всего, и конкуренция не очень большая. Но логика понятна.
М. С.: Ну да, бывают всякие ситуации, но мы, как люди, постоянно использующие поиск, отлично знаем, что иногда бывает что-то найти крайне сложно.
К. Т.: Нет, я к тому, что по такой выдаче, где документы действительно редкие и интересные, там зарубай не зарубай, а все равно они останутся в пределах видимости.
М. С.: Ну а если это единственный документ, который содержал ценную информацию?
К. Т.: Разные санкции возможны: либо исключать из индекса, либо просто какое-то назначение релевантности связать. Если второе, то, думаю, ничего страшного. А идея интересная.
М. С.: Именно об этом и был вопрос изначально: посев все-таки, наверное, можно делать в том числе за счет какого-то алгоритмического решения, вычисления каких-то критериев и определенные задачи таким образом решать.
К. Т.: Ну, для решения каких-то задач — да.
М. С.: PageRank, честно говоря, штука, отмирающая в классическом смысле, очень «шумная» и т. д. А есть ли какие-то реализации PageRank, модификации PageRank, делающие его полезным для текущих реалий, позволяющие уйти от парадигмы «блуждающей обезьянки», которой все равно, на какую ссылочку кликать и т. д.? Вот есть что-нибудь, что позволяет получать пользу все-таки от старого доброго PageRank сейчас?
К. Т.: Да, достаточно много модификаций, при которых принцип PageRank сохраняется, но там, если представить тот же граф в качестве вершин ребер, используются другие значения. Например, не страница и ссылка, как в PageRank, а страница и просто переход на страницу.
М. С.: По сути, трафик?
К. Т.: Трафик. Могут учитываться длина сессии, размер страницы — вариаций много.
М. С.: Это в каком-то смысле похоже на BrowseRank, да? На попытку учесть реальные действия пользователей. В таком случае, наверное, ссылки, по которым нет трафика, нет переходов (очевидно, что спамные ссылки вызывают мало переходов по своей природе), по идее, должны хорошо обнаруживаться такого рода алгоритмами?
К. Т.: Здесь просто другая задача — выяснить, какая страница является качественной и интересной, и используя параметры длины сессии, то есть сколько пользователь провел на странице (естественно, не отдельно, а в совокупности сессии, нормированной по какому-то значению), к размеру страницы и другим параметрам, можно сделать вывод, контент интересный или нет. При чем здесь размер страницы? Страница может быть большая, и не исключено, что только поэтому причине пользователь на ней задержался.
М. С.: Ну, знаешь, тонкий вопрос — «большая»…
К. Т.: Очень тонкий, но именно по алгоритму, о котором мы говорим, это работает: нормируется, как-то усредняется и…
М. С.: Именно на размер документа в том числе?
К. Т.: В байтах.
М. С.: Не знаю, может быть, действительно, в среднем большому документу легче удержать пользователя, чем совсем маленькому, если абстрагироваться от качества документа. Ну, возможно. Нужно действительно потратить хоть какое-то время, чтобы понять, что он плох банально. Если документ пустой, в нем, кроме рекламы, «подвала» и ссылок «продажных» ничего нет, ценность его очевидна сразу; если он весь на экран влез, все понятно — сразу закрыли. А если он наполнен хоть чем-то, пусть бессмысленным бредом, все равно потребуется несколько секунд на то, чтобы вообще понять, что он никчемный.
К. Т.: Идея примерно такая.
М. С.: Ага. Вообще, это логично. Если мне не изменяет память, есть такие модификации, как Duration-Based PageRank и Popularity-Based PageRank, да?
К. Т.: Да, как раз примерно о них я и говорил. Duration-Based PageRank — это нечто чуть более простое, чем Popularity-Based PageRank.
М. С.: Идея здесь как раз в учете активности пользователей.
К. Т.: Duration-Based PageRank — это скорее просто длина сессии, а Popularity-Based PageRank — сессии и частота посещения страницы, и в итоге ребро графа выступает как «переход», то есть моном именно этой частоты (frequency) и duration, то есть среднего времени на странице.
М. С.: Слушай, популярность документа, посчитанная таким способом, оказывается гораздо более чистой и честной, поскольку фактически позволяет не учитывать спамные ссылки: по ним же переходов нет!
К. Т.: Да, эти алгоритмы более устойчивы к спаму. Ну, здесь есть нюанс касаемо полноты данных, потому что поисковая система знает не обо всех сайтах, не о всех. Как она может отследить какие-то тулбары, счетчики? Где-то стоит одно, где-то другое.
М. С.: Все-таки аудитория с тулбарами очень неслабая.
К. Т.: Очень неслабая, но тем не менее там, где поисковая система (я хотел сказать «Яндекс», потому что привык с ним работать) знает наверняка, она это использует в полной мере. Где есть какие-то ограничения по полноте, там, конечно, слабее.
М. С.: Ну, что делать! Эта мысль мне очень понравилась, и на казанской конференции Андрей Калинин сказал про то, что если мы сделали поисковую выдачу, на нее смотрим и понимаем, что на все сайты, которые отранжировались в топ-10 по «пластиковым окнам» каким-нибудь, [оказывается] безумное ссылочное давление — на все десять. Понимая, что это давление неестественное, искусственное, мы можем взять и не учитывать ссылки, грубо говоря, то есть сильно понизить вес ссылок, с тем чтобы не дать возможности прямой конкуренции такими примитивными способами, которые не обеспечивают отличия хорошего от плохого.
К. Т.: Они этого не делают.
М. С.: Я не знаю, делают или не делают. Андрей такую гипотезу предложил залу «на подумать», и она мне показалась довольно разумной.
К. Т.: Не учитывать ссылки?
М. С.: Не учитывать ссылки, если все давят равномерно мощно. Зачем? Конечно, там есть какие-то флуктуации, плюс-минус, но если ясно, что все на ссылки давят, зачем их вообще учитывать? Давайте будем смотреть на поведение, на тексты — на другие качества.
К. Т.: Со временем ссылочные факторы все слабее и слабее, вперед выступают поведенческие, как на выдаче, так и в пределах сайта, тексты, куча спамных санкций — все это соединяется в достаточно интересную связку, которую, тем не менее, можно как-то распутать. Но влияние ссылок падает.
М. С.: Логично, ведь любой алгоритм хорош тогда, когда позволяет отличать плохое от хорошего. Если на ссылки стало так легко давить, то зачем к ним чутко «прислушиваться» в тех случаях, когда это давление ярко выражено? В области каких-то НЧ-запросов, редких запросов, где это давление не так выражено, к ссылкам можно «прислушиваться», понимая, что шансы увидеть сильное SEO-давление в данном моменте слабее, да?
К. Т.: Да, примерно так, но на практике НЧ-запросы достаточно хорошо двигаются ссылками, текстом, там нет таких проблем, как у ВЧ-запросов.
М. С.: Ну да, двигать ВЧ-запросы ссылками, закидывая какие-то непомерные бюджеты в линк-брокеры, агрегаторы, на мой взгляд, слава богу, уже неактуальная практика. Мне так кажется.
К. Т.: Ну, это тоже для «особо верующих». Кому как нравится.
М. С.: На мой взгляд, во всем важен холодный разум, логика, и не нужно бояться отказываться от ссылок. У нас были примеры — я их видел, — когда отказ от ссылок не приводил к плохим последствиям, а приводил к хорошим. От ссылок реально может быть вред, и, по мне, не нужно уповать на то, что купишь побольше и будет лучше. Нет.
К. Т.: Абсолютно верно.
М. С.: Вот это логика, по-моему, неправильная, и логика «посмотрю, как у всех в топе, и сделаю так же, и мне тоже будет хорошо» тоже неправильная, с моей точки зрения. Может быть, я, конечно, ошибаюсь.
К. Т.: Нет, там логика есть. Конечно, неправильная, но ориентироваться на нее можно.
М. С.: Ориентироваться можно в том смысле, что если вы хотите повторить чужие ошибки, то welcome!
К. Т.: Ну, можно смотреть не на ошибки, а просто на какие-то признаки. Не просто «увидел — сделал», а «увидел, подумал, сделал».Примерно такой фильтр.
М. С.: Отлично!
К. Т.: Ориентироваться на тех, кто в топе, можно и нужно, но не в буквальном понимании.
М. С.: Конечно, здесь я абсолютно согласен, и концепция «увидел, подумал, сделал» мне по-настоящему импонирует, и, честно говоря, по-моему, лучшее, что можно увидеть в поисковой выдаче, что можно использовать как сырец для собственной работы, — это какие-то хорошие находки на других сайтах: вы можете увидеть какие-то грамотные решения по подаче контента, по оформлению, по логике, по архитектуре сайта, по навигации, по сервисам, по функционалу. На это смотрите, на то, как можно вовлечь, удержать пользователя. Вот что реально ценно.
К. Т.: Это как раз и есть тот компромисс, к которому постепенно приходят оптимизаторы и поисковые системы: работать вместе над качеством сайта, конечно не забывая про другие факторы, и в целом все будут довольны. Если сайт хороший, он в топе, пускай на него куплена тысяча ссылок, поисковая система будет не против подержать его на первых местах.
М. С.: Проблема в качестве на самом деле. Честно говоря, мне кажется, поисковой машине важно не столько стоила эта ссылка денег или не стоила, сколько сам факт, является ли эта ссылка спамной и ведет ли она на хороший сайт. Если вы пытаетесь влиять на поисковую машину, засовывая в выдачу плохие документы, то не сомневайтесь, что вы будете иметь большие проблемы: поисковая машина будет наказывать вас за это, что логично, так как она бережет своих пользователей и свою репутацию со всеми вытекающими.
К. Т.: Это логично. Скорее всего, этих документов просто не будет в индексе, а если на сайте есть какая-то хорошая часть, она останется в индексе. Кластеры.
М. С.: Ну конечно. На самом деле у меня такая точка зрения была давно. Мне кажется, массовый рынок, клиентский, сеошный приходит к пониманию, что с плохими сайтами лучше не связываться, лучше не брать в работу проект, где понятно, что изменения не будут внесены, что заказчик не хочет ничего слышать, а хочет только позиции и ничего больше.
К. Т.: А, если в этом понимании плохих сайтов, то конечно.
М. С.: Да, в этом смысле, но, конечно, бывают разные этапы жизни сайта. Все течет, все изменяется, но если у заказчика нет понимания, что продукт должен быть хорошим, то, по-моему, бессмысленно пытаться сделать ему SEO на каком-то уровне. Кирилл, спасибо большое за разговор. Думаю, нашим зрителям было интересно узнать какие-то новые для себя вещи о разных алгоритмах, многие из них были необычны и новы.
К. Т.: Спасибо, будем надеяться.
М. С.: Спасибо тебе большое, буду рад видеть тебя в студии еще! Спасибо нашим зрителям, и до встречи в эфире!
Руководитель отдела маркетинговой и поисковой аналитики компании Wikimart Михаил Сливинский рассказывает о важности расширенной аналитики рыночных показателей контроля позиций конкурентов.
1 048 9 0При продвижении высококонкурентных запросов поведенческие факторы уже сейчас оказывают ощутимое влияние на позиционирование сайтов в топах «Яндекса» и Google. Новая роль ПФ стала темой в жаркой дискуссии ведущих SEO-экспертов.
846 8 0