Регистрация
Зарегистрируйся на сайте и получи доступ к полному контенту сайта и подпискам бесплатно!

Перспективы развития SEO приложений

0
0
7 107 0
Аудио Текст
18 октября 2010

Алексей Штарев, исполнительный директор компании NetPromoter, выступил докладом на тему "SEO soft. Перспективы развития SEO приложений, взгляд в будущее"

Алексей Штарев, исполнительный директор компании NetPromoter, выступил докладом на тему "SEO soft. Перспективы развития SEO приложений, взгляд в будущее" на Конференции «Практика поискового продвижения сайтов. Netpromoter-2010».

Алексей Штарев (А.Ш.): Доброе утро, уважаемая аудитория! Я рад, что в такое раннее утро все пришли. Сегодня мы поговорим о SEO-приложениях, рассмотрим вопросы развития SEO-приложений, посмотрим, как им стоит развиваться, и на закуску я вам расскажу, в какую сторону движется наша компания, и как на все это дело смотрим мы.

Начнем с того, что у нас есть, довольно большое количество методик продвижения, и под каждую методику писался определенный SEO-софт.

Как только появились поисковые системы, мы все с вами писали тексты, оптимизировали их; потом появилось ссылочное ранжирование, потом - средства автоматизации стали завоевывать мир, и появились линкаторы. Затем возникли ссылки с бирж, появилась Sape.ru и т. д. Потом появилось статейное продвижение, контекстные ссылки и все это дело пришло к тому, что сайт надо развивать, получать естественные ссылки, и тогда всем будет счастье.

Дальше я приведу табличку, в ней 3 колонки: что успешно помогало продвигать, какой софт в этом способствовал, и последняя колоночка - рулит ли этот метод до сих пор. Вначале, как я говорил, были тексты, мета-теги. Здесь - софт по проверке оптимизации страниц Yazzle, PagePromoter, SeeMonitor, куча самописного софта, куча более мелкого, и на данный момент это работает, и в MatrixNet это для контента очень важно.

Далее - каталоги, спам по доскам форумов. Здесь был такой софт, как AllSubmitter, он и сейчас есть, XRumer — это для спама. Здесь ситуация такая.

От авторегистрации толку - ноль, от спама по доскам форумов - тоже, а вот ручное получение ссылок с хороших каталогов, как раз, сейчас работает.

Надо, просто, внимательно подбирать площадку. Далее, у нас был обмен ссылками, и здесь софт выполнял роль проверки доноров: наличие самой ссылки, индексации, и чтобы особо друг друга не обманывали. Потом появились линкаторы, программные продукты. Здесь особо труда не требовалось: установил код, ссылочки с твоего сайта проставились, и вроде всем было хорошо, но не долго.

Затем появились ссылки с главных и внутренних страниц — это биржи, и здесь софт играл роль оценки купленного. Это используется и сейчас, т.е. мы проверяем индексацию ссылки, какие-то изменения ее SEO-параметров: биржи нам пишут одно, а на самом деле, там оказывается что-то другое.

Что касается статей и контекстных ссылок, здесь ситуация такая, что софт выполнял роль исключительно оценки и все эти методы сейчас рулят, но при одном условии. Контекстные ссылки не нужно ставить в статьи 2003 года, потому что сильно сомнительно, что они переиндексируются. Методики закупок показывают , что если мы накупили контекстных ссылок с каких-то информационных ресурсов, и они разместились в глубоких архивах, то через пару месяцев от индексации остаются совсем гроши, и деньги потрачены на ветер.

Статьи рулят исключительно в случаях качественного контента статьи, и второй очень важный момент - это то, что нужно их размещать на СДЛ. Если сайт состоит из 1000 страниц, 900 из которых - такие же статьи, то не стоит тратить свои деньги.

Пришли мы к тому, что мы сейчас развиваем сайт и получаем какие-то естественные ссылки, и здесь софт играет роль оценки параметров конкурентности. Эти 2 глобальных метода оказывают очень сильное влияние по средней и высокочастотной теме. Теперь подойдем к такой интересной картиночке , что современный SEO-софт не решает задачи продвижения, а лишь помогает проверять и анализировать. На картинке показано, что это можно исправить, и исправляется все.

Теперь поговорим о том, что нужно рынку от SEO-софта, и как на этом можно заработать. В современном Яндексе используется MatrixNet, в котором учитывается огромное количество факторов. Как мы все знаем, продвижение сайта без внутренних факторов очень ограничено. И продвинуть сайт по средним и высокочастотным запросам практически невозможно. Плюс, есть такой интересный момент, что выдача для разных групп запросов и, вообще, для разных запросов формируется по-разному. Например, для запроса «окна» работают определенные факторы, для запроса «паркет» - другие факторы, для запроса «поисковое продвижение» - работают третьи. Внутренние факторы надо анализировать исключительно по конкурентам и выяснять, что же у них там такого хорошего, и что нужно сделать на нашем сайте, чтобы продвинуться. Решением проблемы, с точки зрения софта, было следующее: вначале были программные продукты Yazzle и т.д., которые решали, что мы туда вбиваем конкурента, смотрим, получаем огромное количество данных, но, к сожалению, это дело очень медленно работает, и потом с этими огромными таблицами довольно трудно работать.

Прорывом стал подборщик рекомендаций от SeoPult: он парсил выдачу и давал четкие рекомендации вебмастерам о том, что, например, «слово 1» можно употребить еще 3 раза, «слово - наоборот, убрать одно вхождение.

SeoPult — это не сосем софт, но я его привел в пример, как прорыв. Потому что вначале нам были даны данные, и, что хочешь с ними, то и делай, а тут четко говорится, что надо делать.

Следующим шагом, я считаю, стало появление авторекомендатора, который внутри программы будет напоминать человеку, что нужно конкретно сделать. Например, мы работаем, ставим ссылочки, нам приходит сообщение прямо в программу о том, что: «Дорогой товарищ! У конкурентов там +1 слово в среднем на странице, тебе пора тоже добавить».

Дальше — анализ конкурентов. Здесь вообще интересная штука: в MatrixNet асессоры размещают средне- и высокочастотную выдачу, и оптимизаторы в итоге получают разные факторы ранжирования. В связи с этим, нам необходимы инструменты, которые позволят проанализировать огромное количество данных и сравнить, что у конкурентов такого хорошего, и, желательно, чтобы это было все в одном месте. Я хочу разобрать пару кейсов.

Например, высококонкурентный запрос «фитнес-клуб». Для москвичей будет довольно интересная ситуация: ищем сайт в ТОПе, просто просматриваем глазами и понимаем, что здесь только известные бренды фитнеса. Никаких неизвестных клубов здесь нет. Начинаем анализировать их внутреннюю оптимизацию и приходим к выводу: третье место (на самом деле, скриншот я делал не сегодня, а после вчерашнего апдейта, но не важно), - нет точного вхождения слова «фитнес-клуб». 5 место - вообще шедевр! Скрытый текст, причем сайт уже давно в ТОПе, и мне кажется, что Яндекс его оттуда убирать и не собирается, потому что это крупный бренд.

Ответ на вопрос. Я сейчас к этому и подвожу, если выдача строилась асессорами на основе определенных факторов, то остальные факторы могут влиять не так уж и сильно.

Теперь представьте такую ситуацию. Ваш клиент или вы имеете сайт небольшой «качалочки» в Южном Бутово, и очень хотите продвинуться по запросу «фитнес-клуб». А теперь представьте, каким образом вам туда попадать? Да, в общем, никаким образом не попадете вы туда!

Есть даже подтвержденные данные из инсайдерской информации, что смотрелась в некоторых запросах такая штука, как количество офисов компаний в Москве, размещенных на Яндекс.Картах. То есть, если у вас много офисов, значит вы - крупная компания, соответственно вам есть место. Конечно это не во всех запросах, низкочастотку мы вообще не трогаем, там совсем по-другому.

Второй кейс «Паркет». Смотрим внимательно на URL сайтов в десятке и замечаем одну интересую тенденцию, что здесь нет ни одного сайта, который не содержит либо «паркет», либо «паркует» в URL. У вас есть сайтик, который имеет floor в URL, и получается, что вам и не сильно место и здесь.

Я, на самом деле, работаю в этой теме. Интересная ситуация получается: видимо, после появления MatrixNet так разметили выдачу, и здесь этот параметр играет очень серьезную роль. И после того, как алгоритм обновился, конкуренты, которые имели 2 URL, как-то спустились на вторую страницу, и, несмотря на то, что они имеют хорошие сайты, хорошие ссылочные, как-то не очень хорошо и поднимаются.

Решением проблемы, с точки зрения софта, так как факторов анализа у нас очень много, будет оболочка, которая поддерживает огромное количество факторов, которые можно проанализировать, и она должна работать быстро.

Нам нужен какой-то один софт, который позволит проанализировать клиентов по всем параметрам. Я подчеркну, что это актуально только для средне- и высокочастотных запросов, потому что по низкочастотке там все гораздо проще: сайт оптимизировал, пару вхождений сделал, пару ссылок поставил, и все здорово.

Теперь по поводу работы с биржами. Биржи - это наиболее известный способ продвижения по наиболее конкурентным тематикам. И работа оптимизаторов в биржах эволюционировала. Начиналось с того, что вышел Sape со своими безумными авторежимами, и он просто убил рынок. Что делал оптимизатор? Кто умный, тот создавал каскад автофильтров, кто менее умный — создавал пару фильтров, ставил их, делал анкоры, включал автопродвижение, и - о,чудо, через 3 недели сайт в ТОПе. Была сладкая жизнь!

Потом Яндекс придумал фильтр, потом убрал возможность хитрым запросом его посмотреть, потом сделал АГС, который очень сильно облегчил жизнь оптимизаторам: он просто убрал весь мусор, и покупать там просто потеряло смысл. На данный же момент биржи работоспособны только в том случае, если мы к ним подходим грамотно. Если мы проверяем доноров, если мы проверяем индексацию, то при закупке на автомате эффекта не будет. Может, для какой-нибудь низкочастотки и есть, но, все равно, потратите кучу денег. И еще такой нюанс: биржи не годятся для некоммерческих запросов.

Яндекс все-таки внедрил свою мадридскую формулу, которая отсекает платные ссылки именно для некоммерческих запросов. Поэтому если у вас такой запрос, то биржа - не ваш помощник.

Примеров некоммерческих очень много, и одна из теорий, как Яндекс определяет коммерческий или некоммерческий запрос, - это Яндекс.Директ. Это могут быть как ставки в Яндекс.Директе, так и количество объявлений за определенный период. Сами можете полазить и найти что-нибудь по этому вопросу.

Грамотная методика работы с биржами сейчас следующая: вначале создаем анкоры, точное и разбавочное значение слов, потом начинаем искать доноров. Донор - это самое необходимое.

Мы его подбираем по параметрам: тИЦ, PR, внешние ссылки, цена и прочее. Далее мы визуально отслеживаем доноров. Зачем это делать? Мы отсеиваем сайты, которые потенциально попадут под АГС. Если мы видим что это не СДЛ, состоит из какого-то непонятного контента, то сегодня в индексе - 1000 страниц, а завтра будет 20. Зачем нам покупать ссылку на таком сайте! Дальше существует целая методика тестовых простановок для определения работоспособности. Это тема для целого доклада, и я не хотел бы заострять на этом внимание, но в целом проверить работоспособность ссылки можно, но дорого. Надо создавать специальные тестовые домены, закупать специальные анкоры и отслеживать дельта-позиции: что-то прибавляется, или донор не работоспособен.

Плюс к этому Яндекс использует кластерную структуру, и нам не обязательно проверять каждый URL на сайте, т.е. можно выделить кластер, оттуда поставить ссылочку и посмотреть, как это дело будет работать. Дальше мы создаем каскады фильтров, либо, если работаем с какими-то определенными запросами, можно вручную точечно закупить ссылки. А дальше мы начинаем снимать ссылки с доноров, которые работают либо плохо, либо не индексируются. Докупаем новые и на основе всего этого дела заполняем black и white листы.

Вообще решение проблемы, с точки зрения софта по работе с биржами, я немножко разделил на этапы: это этапы опытного оптимизатора и оптимизатора-новичка.

Опытному что нужно? Если он продвигает сложные запросы, ему нужен софт, который будет работать как надстройка над биржей, ему нужно проверять индексацию, изменились или не изменились параметры площадки, выросло ли количество внешних ссылок.

Если он продвигает низкочастотку, ему заморачиваться руками покупать ссылки, мне кажется, что это не эффективно, и это какой-то прошлый век. В этом случае ему нужен софт по генерации анкоров, и автозакупки, и автосьемы. И если он работает и с биржами, и с системами автозакупки, ему нужно следить, чтобы не пересекать доноров и не покупать ссылки по нескольку раз - смысл тратить деньгу впустую?

Если вы новичок, то у меня сильное сомнение, что вы сможете вручную купить лучше ссылку, чем, когда целая команда сидит в режиме автозакупки, которая за вас все это дело проверяет и настраивает white-листы.

Поэтому я считаю, что новичкам необходимо иметь софт по автоматической закупке ссылок и дальнейшему полному контролю. Это еще один модуль, который жизненно необходим оптимизаторам.

Информация в интернете - это, на самом деле, очень ценная вещь, так как у нас тема очень динамичная: сегодня - одно, завтра - другое. Завтра Яндекс меняет алгоритм и придумывает какой-то новый фильтр, и поэтому надо быть постоянно в теме. Без знания новых методик в сложных темах довольно тяжело. Я вижу следующее решение этой проблемы: в софте, где вы работаете, должно быть такое окошечко, где выводится лента наиболее популярных блогов, т.е. предустановленная разработчиками программа. И плюс - пользователь сам должен добавлять свои подписки на блоги, чтобы вести свою ленту. Получается такая схема: вы работаете, покупаете ссылки, оптимизируете сайт, у вас где-то в левом меню выскакивает новое сообщение (новый пост на каком-то блоге), вы его прочитали, вы всегда в теме, и все здорово.

Теперь поговорим о такой интересной штуке, как свободная платформа для софта. У меня такой вопрос: сколько программ под нужды специалистов сейчас пишется? На самом деле, их гигантское количество, стоит только на форум SearchEngines в специализированную ветку зайти, и мы увидим, что для SEO-нужд пишется просто безумное количество программ. Сколько из них крупных? Не так уж и много, на самом деле.

Причина непопулярности мелких сервисов в том, что оптимизатору просто не очень удобно держать 10 разных программ и каждую мелочь проверять в отдельной программе, а потом синхронизировать все это дело. Можно рехнуться!

Я в перспективе вижу создание софт-платформы, которая включает некое количество модулей разработчика - глобальных модулей: подбор слов, ручные подборы, работа с биржами и т.д., - а также дать хорошую возможность оптимизаторам и их программистам создавать отдельные модули и подключать к этой программе. Кстати, эти модули можно монетизировать: это не просто так, что человек написал какой-то модуль, и сам им пользуется. Так тоже можно, но идея какая - если вы разработчик какого-то хорошего модуля, который знаете, что может окупиться и принести деньги, то вы можете обратиться к разработчику софт-платформы, и он включит вас в общий пакет, а вы сможете с модуля зарабатывать деньги. Вот пара кейсов того, что можно сделать, того, чего на самом деле еще нет, а вот хотелось бы.

Набор манимейкера. Под манимейкером я подразумеваю человека, который покупает домены либо готовые сайты для того, чтобы ссылки с них продать, либо Директ разместить, либо баннерами приторговывать. Что ему нужно? Ему нужна интеграция с аукционами доменов, чтобы искать домены с параметрами. И ему все это нужно проверять. Проверка веб-архива, проверка на санкции поисковых систем, если сайт, конечно, еще в индексе, параметры сайта, обратные ссылки, индекс и возраст домена и оценка трафика. Такой модуль - это здорово: работайте, оптимизируете сайт, пришло вам в голову заработать денег – зашли, купили доменчек и ссылки с него продали, и все великолепно.

Второй кейс — это набор для ведения контекстной рекламы, вчера Марина Хаустова докладывала. Я считаю, что такую же штуку можно сделать и в софте, и, я думаю, что мы ее сделаем. Что человеку нужно? Составлять объявления по маске для большого количества слов. Что это такое? Представьте генератор анкоров – там, в кавычках через вертикальную палочку, мы пишем «продажа», затем ставим переменное ключевое слово «в Москве». Переменное - это набор ключевых слов, которые мы ведем в объявлении, и у нас получается: «продажа паркета в Москве», «продажа паркетной доски в Москве», «продажа массивной доски». То есть не нужно каждый раз писать свое объявление! Нужен автопилот ставок, т.е. настроил предельное значение, настроил какую-то стратегию поведения для коррекции ставок и анализируешь графики того, что там происходит. Если не нравится, то ставишь ручной режим и работаешь в нем. И последним пунктом - аналог WordsEditor для Директа.

Что это такое? На самом деле, это глобальная платформа, и я подразумеваю только ее маленькую часть - это такая возможность из Excel-файлов импортировать в Директ. Мне кажется, что оптимизаторы и владельцы сайтов будут этим пользоваться.

И на закусочку, буквально несколько слайдов, к чему стремимся мы, и что сделали мы в своей новой программе. Все вы вчера получили диски, можно смотреть, можно пользоваться, это бесплатная демо-версия, и мы пока полностью отказываемся от платных решений. Мы сделали автоматический подборщик запроса, т.е. вы вбиваете URL, и в течение 10 минут подбирается до 100 ключевых слов, отсекаются пустышки, прогнозируются переходы и стоимость посетителя. Работает это примерно так: начинаем парсить Яндекс-подсказки в Директе и определять тематики страниц. Зачем определять тематику страниц? Когда мы все сделали, программист приходит к нам и говорит: «Сделал». Я начинаю смотреть и вбиваю «сайт-контора, которая занимается продвижением сайтов», и мне вылезают слова: «продвижение сайта», «оптимизация», «сео»... и вдруг – «стиральные машины». Я смотрю на это и думаю — как? Потом начали разбирать. Получилось такое, что на сайте существовала страница клиента, который продвигался по стиральным машинам. И там написано: мы продвигаем такие-то слова, наш клиент - это самые лучшие стиральные машины. Ну, подборщик разобрался, что все-таки стиральные машины там есть, и выдал такие запросы.

Для этого мы научились определять тему запросов, чтобы потом сравнивать с различными темами сайтов, которые мы тоже определяем. Потом мы отсеиваем слова не по теме, не релевантные и не понятные запросы, убираем то, что не встречается на сайте, убираем запросы с нулевой частотностью WordStat, считаем бюджет на основе данных по ссылочным данным конкурентов и, соответственно количество переходов по WordStat в кавычках и с восклицательным знаком - это все просто.

После этого считаем стоимость проведенного на сайте посетителя. Дальше, есть пара совсем простых вещей - это подбор релевантных страниц, здесь просто: парсим Яндекс и получаем релевантные страницы. Сейчас у нас в разработке система на основе подбора семантики запроса, т.е. мы пытаемся классифицировать, например, «шины» и «купить шины», чтобы они шли на одну страницу. Пока мне не очень нравится, и это в режиме тестирования находится. Как сделаем — обязательно выкатим.

Расчет бюджетов на продвижение - это тоже тема на полдоклада. Здесь все просто: анализируем ссылочную массу конкурентов и выдаем, что у них среднее по первой 20-ке. И мы - первый SEO-софт, который сделал внутри себя автоматизированную закупку ссылок. У нас есть некий ряд преимуществ перед ссылочными агрегаторами. Во-первых, для пользователей, которые будут зарегистрированы в течении первого месяца, мы дарим 1% наценки на ссылки пожизненно (сами можете сравнить и все поймете). Дальше, у нас - нулевая комиссия на пополнение любыми валютами: Webmoney, карточки оплаты, которые в офисе можно купить или через курьера заказать, безнал, Робокасса. Мы работаем с двумя крупнейшими ссылочными биржами — с Sape и TrustLink. Почему они, и почему нет других? На самом деле, других подключать мы не планируем, мы провели некую аналитическую работу и поняли, что процент пересечения настолько высок, что работать с мелкими биржами серьезного смысла не имеет. Используя эти две биржи, при нормальном сайте можно добиться практически любого результата. Доноров мы отбираем при помощи визуальной оценки, которая была сделана, и, соответственно, при помощи тестовых простановок. Также мы оставляем закупаться в Sape в собственном аккаунте без процента - пожалуйста! Работайте, если не хотите доверять автомату, работайте в своем Sape и проверяйте там ссылочки. И еще одна приятность! Я когда работал в клиентском продвижении, я сталкивался с такой задачкой: вот ты что-то сделал по сайту, вроде все хорошо, а так как проектов много, потом забываешь отследить. И я постоянно записывал себе в CRM-ку, в Excel, а потом ты работаешь в SeoPult или в Sape, лезешь в свою CRM -ку и смотришь, что там сделал такое… Мы решили эту задачу по-другому: на графике топовых позиций, мы ставим метки — автоматические комментарии системы. Например, изменен бюджет по такому-то слову, либо ручные комментарии системы. То есть я сам что-то пишу, например, «я на сайте поменял текст». Соответственно, график строится, проходит месяц, там позиции скакнули, либо упали, мы пролистываем, ищем точку и смотрим: «Ага! А что я там делал? А делал то-то — бюджет уменьшал, поэтому и упало». Ну, бывает!

В заключении хотел бы добавить следующее: мы считаем, что время платного SEO-софта уходит. Объясню даже, почему.

Ссылочные агрегаторы, крупнейшие ссылочные конторы, представленные на рынке, предоставляют огромную массу информации бесплатно. Поэтому конкурировать платному софту с ними, наверное, сложно. Поэтому, мне кажется, что будущее - за бесплатностью.

Софт обязан включать огромное количество модулей, по крайней мере, при текущем алгоритме Яндекса, для SEO-работ, чтобы как можно больше можно было исследовать. И, конечно же, нужно разрабатывать свободную платформу к софту, чтобы там мог работать любой оптимизатор - либо он там пишет что-то для себя, либо он использует готовые решения. В целом, наверное, все! С удовольствием выслушаю ваши вопросы!

Игорь Артеменко (И.А.): Спасибо Алексей! Я тоже с большим интересом выслушал этот доклад, я знал, что в последнее время команда NetPromoter занимается серьезной модернизацией своего софта. Те, кто давно посещают семинары этой организации, знают: то, что сейчас рассказал Алексей, отличается от предыдущих версий PagePromoter радикальным образом. Взгляды его в будущее очень просты и очень интересны. Кто первый задаст вопрос?

Слушатель 1: Здравствуйте! Очень интересно будет попробовать. Вопрос по поводу монетизации: ваше руководство собирается как-то в дальнейшем монетизировать этот процесс, или 1% так и останется - на последнем слайде видно?

А.Ш.: Я завесу тайны немного приоткрою: для пользователя, который вначале зарегистрируется, мы дарим этот 1% - по сути, бросовые цены. Для пользователя, который будет регистрироваться дальше, будет 10%, а с точки зрения нашего заработка, сейчас могу сказать, что у нас с биржами есть естественные договоренности на ссылки. Надо так понимать, что мы не просто дарим, кушать тоже хочется.

Слушатель 1: А не удобнее было ли сделать это через Вебинтерфейс, а не спомощью софта?

А.Ш.: Мы, на самом деле, это специально сделали, есть огромное количество людей, которым удобнее работать в программе, и вы, наверное, не поверите, что есть огромное количество людей, которые продвижение сайтов ассоциируют с программой — запустил софт, и там у меня все продвигается!

Слушатель 2: Добрый день! Скажите, пожалуйста, будет ли покупка через PagePromoter дороже, чем через Sape?

А.Ш.: Она будет дороже на 1%. Если вы работаете в ручном режиме, в вашем аккаунте в Sape она вообще не будет дороже. Если вы работаете с автоматизированными режимами, то -

дороже на 1%, т.е. у нас, как бы, 2 модуля.

Слушатель 3: Здравствуйте! Кросс-платформенная версия планируется, или это нерелевантно?

А.Ш.: Под Linux? На самом деле, пока не планируем. Это не первый ваш вопрос, такого рода вопросы мы уже получали. Думаем, что с этим делать, но пока не планируем.

Слушатель 4: Здравствуйте! Вчера подобный вопрос звучал, и поэтому по вашему софту вопрос: если существует аккаунт в Директе, то надо заводить новый, или вы уже с существующим работаете?

А.Ш.: Смотрите, что касается контекстной рекламы, у нас в софте пока нет такого модуля, это сейчас перспективные разработки. Сейчас скажу про три месяца, а что будет в реальности — посмотрим, как все будет работать, и какие будут баги. Что касается Директа, мы с ним пока не работаем. Я этот кейс привел как то, что очень бы хотелось получить.

И.А.: Да, про разработку приложений, я так понял, это тоже взгляды в будущее, пока еще нельзя разрабатывать приложения?

А.Ш.: На самом деле, если в зале есть люди, готовые прямо сейчас начать, мы можем сейчас предварительно пообщаться, взять какие-то идеи и дальше подумать. Вот эта платформа - мы сейчас разрабатываем, но это даже пока не альфа-версия, она в разработке. Я просто рассказал о том, что хотелось бы видеть.

Слушатель 5: У меня вопрос по автоматическому режиму. Он будет, как в Sape, т.е. нужно будет самому настраивать или у вас будет какой-то свой white-лист?

А.Ш.: Что касается авторежима, то там ситуация такая: нам система определила бюджет, мы либо согласились, либо поставили свой, нажали кнопочку «Купить», и дальше пошло по каскадам автофильтров через наши white-листы, наши black-листы все это дело закупаться. Естественно, там будет возможность просмотреть купленные ссылки и по маске удалить, если вас что-то не устраивает.

Слушатель 6: Здравствуйте! Скажите, пожалуйста, по поводу авторежима. Если хочется как-то совмещать те аккаунты, которые уже есть в биржах с возможностями автозакупки по НЧ, можно ли это как-то объединить в одном интерфейсе? Или у вас будет свой аккаунт под авто, а остальная часть будет отделена? Например, под НЧ я делаю закупку в ваших авторежимах, а под ВЧ докупаю ручками то, что мне нужно?

А.Ш.: Я вас понял! Спасибо за вопрос. Смотрите, как у нас все это дело реализовано: там 2 модуля. Один - это автозакупка, где вы выставляете слова, бюджет, и у вас пошли покупаться ссылки. Второй модуль - это работа с Sape, вы там логинетесь под своим аккаунтом, прямо в программе, и там работаете. И на следующей неделе мы добавим функцию, которая позволит перегонять black-листы туда-сюда. То есть то, что вы купили в Sape, вы не будете покупать в автозакупке. Так будет реализовано.

Слушатель 6: Движок закупки вы взяли из SeoPult, или как-то наработали?

А.Ш.: Нет, движок закупки полностью свой.

Слушатель 6: А в чем отличие?

А.Ш.: Отличие от SeoPult в движке закупки? Ну, Seopult покупает на биржах, и мы покупаем на биржах. Программные отличия? Я не программист, поэтому не скажу вам. Но мы его писали свой — не SeoPult.

Слушатель 7: Добрый день! Сергей Панков, сервис Rookee. Вопрос, на самом деле, чисто технический. Вы говорите, что качественно подбираете доноров, и даже тестовые простановки делаете. В то же время, у вас не серверное ПО. Как оно работает? Это первый вопрос. И вы назвали прогноз трафика – то, что двойными кавычками в Яндексе, и даже стоимость считаете. Но это же не совсем прогноз трафика на сайт, и стоимость не совсем корректно считать.

А.Ш.: Смотрите, ПО сугубо серверное! Это не совсем прогноз трафика. Про кавычки и восклицательный знак: мы берем их сначала, а потом какой-то средний CTR выдачи,

Развернуть текстовую версию
Комментарии
Похожие видео
Еще видео