Продвижение низкочастотников неестестественного звучания

Ну что вы тут мне понаписали! Достаточно часто, до сих пор, хотя – ну интересуйтесь же вы, что происходит с яндексом – до сих пор с одной стороны, клиенты (или менеджеры оптимизаторских компаний) подбирают для продвижения слова из статистики вордстат… А с другой стороны оптимизаторы идут в тупой сеопульт, или просто сами тупо заказывают анкоры, которые звучат совершенно по-идиотски.

В результате на сайтах, продающих ссылки, появляются эти “сео-чудеса”:

Смею вас оповестить что можно уже скачать icq русская версия, которую наверное много ждали, другие же обходятся другими клиентами для icq.

Английский киев представлен многими учебными заведениями, но выбирать стоит те, где преподаватели – носители культуры и изучаемого языка.

BLURAY диски, CD и DVD диски Одесса самого высокого качества.

Если вы до сих пор думаете, уважаемый оптимизатор, что надо заказывать такие, именно такие анкоры, то подумайте, например, почему в топе по запросу [дядя правила] сайты про пушкинского Евгения Онегина. Без проверки утверждаю, что на эти сайты нет ни одной ссылки типа

Можно почитать про дядя правила на этом сайте.

Более того, система сеопульт замечательна, знаете, чем? Тем что она “разоблачает” оптимизаторов-недоучек. Возьмите практически любой подобный “ненормальный” запрос и загоните его в сеопульт. Вы увидите, обычно, очень большой разброс в стоимости продвижения. И вот если вы посмотрите на сайты, которые тратят кучу бабла на подобные слова, то обычно это будут такие, что закупаются через сеопульт. Он берет в качестве прямого запроса ваш вордстатообразный ключ, а в качестве разбавки цепляет к нему еще более дурацкие слова, получаются конструкции из 4-5 слов в анкоре. Если не через сеопульт, то просто – неумными длинными анкорами через другие биржи.

А как надо?

Ответ на поверхности – посмотрите, что делают те, кто в топе без трат на ваш ключ. Думаю, можно и не писать конкретнее – ведь всё уже сказано, но… Разжуем, чтоб не упрекали в недосказанности… Во-первых, правильная оптимизация страницы – слова должны быть на сайте, на продвигаемой странице, но вовсе не обязательно подряд. Близость их определяется естественностью запроса. Если сомневаетесь – смотрите конкурентов, которые по версии сеопульта тратят меньше денег!

А во-вторых… во-вторых хорошие ссылки. В общем-то, мы правно подходим к теме безанкорного продвижения. Потому что ссылки на сайт нужны, что бы там не говорили люди, испугавшиеся страшилок яндекса. Ссылки работают! Но – составленные грамотно. Опять же – важна и их общая масса. Низкочастотку в тяжелой коммерческой тематике для нового сайта вы не выведете ни оптимизацией, ни покупкой ссылок на 100 рублей, как хвастливо обещает сеопульт. Как минимум, вам надо обрасти приблизительно такой же ссылочной массой – причем, чтобы это не выглядело массовой закупкой ссылок… А вот анкоры… Анкоры совсем необязательно составлять так… палевно.

А что вебмастера? Вебмастерам стоило бы подумать о том, что они точно так же палят свой сайт перед яндексом – это же очевидно любому, немного поработавшему в сео-сфере, что не может быть естественной ссылка типа представленной выше в примерах. И яндекс вас на раз вычислит. Неважно, что вы продаетесь не через сапе, а в гогетлинксе или ротапосте. Эти ссылки – продажные! А значит, вы ставите свой сайт под вероятные санкции со стороны поисковиков. Что вообще-то означает, что вы ставите под удар свои будущие заработки.

Удачи всем в продвижении хороших проектов!

P.S. Про запросы, содержащие в себе указание города, стоило бы поговорить отдельно. Но, может, хватит намека – посмотрите топы, везде ли указан город на странице? А телефон указан? А адрес на странице контактов? Ну и вот…

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Обобщенное: претензии к системе Rotapost

Еще раз предварю претензии важным заявлением: биржу Ротапост я считаю достаточно интересной, я в ней активно работаю. Но именно это дает мне возможности видеть особенности, которые мне нравятся или не нравятся. И мне хотелось бы сказать сейчас о минусах – для того, чтобы у ее основателей и разработчиков появилась возможность улучшить весьма интересный для оптимизаторов инструмент.

Оптимизатору нужна одна ссылка с сайта!

Это достаточно известная вещь: при продвижении под яндекс с сайта-донора достаточно одной ссылки, ну – двух… ну – трех… Но сотни – это просто потерянные деньги. Тем более, что “вечные” ссылки достаточно дороги. Тем более, что они еще и вряд ли вечные:)

Что мы имеем на сегодня? При составлении предложения оптимизатор может ограничить вебмастера либо разрешением послать одну заявку на одно предложение, либо одной заявкой на весь проект. Это не то, что нужно оптимизатору! Если я ограничу вебмастера одной ссылкой на проект, я фактически ограничиваю себя. Ведь сайт я продвигаю по большому числу анкоров… Если мне вебмастер дает десятки заявок, я могу выбрать среди них оптимальную: прямой или разбавочный анкор, более подходящий к тематике сайта… Но вот после того, как я выбрал что-то , мне другие заявки с сайта не нужны!

А нормального способа быстро удалить оставшиеся заявки с этого же сайта нет! Или жди, когда они через месяц сами удалятся (неправильно это – захламляют аккаунт), либо удаляй десятками (если вся страница с десятком ссылок – это ссылки на твой сайт), либо по одному кликай – уфф…

Почему бы не сделать какую-то кнопку типа: “Удалить все заявки, присланные с этого сайта”???

А после того, как уже купил ссылку с сайта, весьма неприятно видеть, как вебмастер тебе шлет новые и новые заявки по другим предложениям… Ну, не надо мне больше! Все! Мне другие площадки нужны…

Почему бы не сделать опцию: “Не принимать заявки с сайтов, на которых я уже купил ссылку”???

Уверен, что подобные возможности очень привлекут внимание новых оптимизаторов к системе. В данный же момент приходится постоянно отслеживать глазами – взял ли ты уже отсюда ссылку или нет… Или держать открытыми несколько окон, либо вести отдельный файл с адресами купленных ссылок…

О массовом продлении срока выполнения задания: зачем ограниченная избыточность?

Продлить время выполнения задания Хорошо, что недавно добавились эти строчки. Продлевать более-менее массово – удобно! Но зачем столько строчек-вариантов? Во-первых, работает правило сложения: если я нажму на 1 день и 1 день – получится продление на два дня, если на неделю и неделю – получится на две недели… То есть можно было ограничиться, например, возможностями продления на 1 день, на три и на неделю… А что мешало просто сделать окошечко с выбором, на сколько дней продлевать???

А что мешало сделать после нажатия вылетающее предупреждение-вопрос, действительно ли ты продлеваешь на столько-то дней, или хотя бы сообщение, подтверждающее факт продления? Так сделано в гогетлинкс, и это удобно!!! А сейчас я нажимаю и не понимаю, выполнилось что-то или нет. Потому что все выглядит так словно система просто не отреагировала!

Зато потом выясняется, что все мои пять нажатий продления на 1 день сработали, я продлил всё на пять дней и при этом отправил всем вебмастерам по пять сообщений о продлении срока выполнения заявки на 1 день…

И еще, если продолжить сравнение с гогетлинкс, то там есть отличная фишка: система сообщает, что с сайта продаются ссылки через биржи типа sape.ru Это очень круто!

А если сравнить с миралинкс, то там есть отличная фишка: система показывает, сколько всего ссылок (точнее, статей) продал вебмастер. Ты можешь попытаться сделать вывод о заспамленности ресурса исходящими.

Что мешает сделать что-то подобное в ротапост?

Уважаемые оптимизаторы, давайте влиять на предлагаемые нам инструменты продвижения. Это выгодно всем – даже вебмастерам в конечном счете, хотя сразу некоторые из них и не согласятся. А я объясню, чем выгодно. Аккуратное проставление ссылок продлевает жизнь ресурса, не вредит индексации его страниц. Так что работает на повышение прибыли и вебмастера!

Уважаемый Димок, искренне желаю Вам дальнейшего процветания – в союзе как с вменяемыми вебмастерами, так и оптимизаторами!

С уважением, Александр

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Неочевидные следствия аффилирования сайтов

Дикий интернет: история появления проблемы клонов вкратце.

После того, как владельцы бизнесов поняли, что сайт в топе приводит клиентов и их деньги, наиболее ушлые сообразили, что раз сайт в топе – хорошо – то два лучше. А если три? А четыре?

Что нам стоит сайт построить? Ну да, каких-то денег. Но типично это намного меньше, чем создание дополнительной точки продажи оффлайн. И стоимость продвижения у сеошников до сих пор приятно ниже цен рекламы в “реальном” мире. И клоны начали завоевывать топы такими объемами, что борьба с ними стала объективно неизбежной. Яндекс и вдарил.

Если вы имеете отношение к продвижению сайтов, вы, вероятно, что-то читали про аффилирование. Вероятно, вы читали, что это означает то, что два сайта не могут быть одновременно в топе по одному и тому же запросу. Хотя это, в общем-то верно, суть процесса не в этом.

Что такое аффилированные сайты?

Мы клоны, но об этом - молчок! Аффилированные сайты суть такие, которые яндекс обрабатывает как ОДИН САЙТ.

Это определение служит объяснением всему, что вы прочтете дальше.

Да, самое первое следствие из этого – то, чем набиты форумы оптимизаторов – если яндекс на каком-то основании аффилировал (склеил) два и более сайтов, то “вдруг” один из них пропадает по некоему запросу из топа. Были оба, скажем, а теперь – хоп, этот остался или даже (чаще так) поднялся выше, а второй улетел – внимание – приблизительно за топ50.

Прикол в том, что зачастую “умные” клиенты дают два и более сайтов разным оптимизаторам – типа посмотреть, кто лучше работает. И те, кто не заметил аффилиат, считают себя идиотами, потому что никакими стандартными методами сайт не поднимается. Впрочем, если вы не можете найти аффилиат – может, вы и правда не умны?

Следствие 1.1 Это тоже заметили быстро и это само по себе может служить признаком аффилирования: сайт то появляется в топе, то улетает за топ50. Легко понять причину: если вы будете продвигать две страницы одного сайта, то в топе будет та, что с точки зрения яндекса релевантнее. Если страницы приблизительно одинаковы (куча параметров: возраст сайта, текст, внешние ссылки и пр.), то они и будут иногда меняться местами в выдаче.

Следствие 2, которое очевидно, но почему-то не всем. Если вы беретесь продвигать явно плохой сайт (новый домен, плохие тексты, неудобная навигация…), а у него есть лучший по качеству аффилиат, то вы свои внешние ссылки на ваш домен А практически дарите домену В! Это у него будет расти позиция этого слова, но в явном виде вы это заметите, конечно, если сайты на одинаковые тематики…

А теперь самое вкусное и далеко не всем понятное: иногда яндекс аффилирует сайт не одной и той же тематики. Вообще говоря, я этим недоволен. Если у Васи Пупкина два бизнеса: гвозди и молоко, то он совсем не Вася Опупевший. С какой стати ему ставить на двух сайтах разные контакты?

А яндекс нас давно приучил, что если сайт не новостной, а посвящен конкретной тематике, и особенно в торговле, то позиции лучше у таких, которые наиболее полно освещают именно эту, одну, тематику. Условно говоря, сайт про гвозди и только про гвозди имеет более лучшие позиции среди своих собратьев, чем второй, который продает одновременно гвозди и молоко.

Теперь, вероятно, вы поймете не всегда очевидное следствие 3: аффилирование сайтов разных тематик размывает тематику сайта и может привести из-за этого к проседанию позиций.

___________________________________________

Как так получается, что яндекс аффилирует сайты? Конечно, все это в основном делается автоматикой. Роботы рыщут по сети, аккумулируя доступную информацию: whois, электронные адреса, аськи, телефоны, физические адреса офисов, совпадения в названиях доменов, фирм… Есть мнение, что даже совпадение хостингов может косвенно повлечь аффилирование, но если и так, то это должно быть параметром крайне малого веса – все же сайты хостятся тысячами на одном сервере, а вот когда я вижу одни и те же контакты на разных сайтах, я просто уже горько улыбаюсь – люди сами роют себе ямы и устанавливают на дне грабли.

___________________________________________

Расклеить сайты, которые уже зааффилированы, практически нереально. Иногда вроде получается, а потом снова видишь те же траблы. В связи с этим, кажется, наиболее образными и доступными будут сравнения:

Пожар легче предупредить, чем потушить!
Или даже так:
Нельзя быть немножко беременной!

А потому: предохраняйтесь!!! Сразу делайте сайты на разных движках, с разной структурой, с разными, хотя и похожими, услугами, товарами и ценами. Разумеется, с разными контактами: всеми и везде! Почта, адреса, телефоны… Яндекс – еще то гестапо, пароли и явки надо беречь…

Все это, конечно, важно для серьезных тематик. Было замечено, что у явно зааффилированных сайтов совсем никудышные нч в топах соседствуют. Это мне пока непонятно, нелогично.

___________________________________________

А можно ли сейчас в топе иметь два сайта одной тематики?
Ну конечно! И это очень приятно – смотреть на сайты одной тематики одного клиента, занимающие по хорошему сч позиции 1, 2, 5 и 6…

Удачи!

VN:F [1.9.7_1111]
Rating: 10.0/10 (1 vote cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

WORDPRESS: отключить gzip

Никому не рассказывай, что я такой балбес... Вдруг заметил неприятную вещь – с одного компьютера этот сайт открывается отлично, а с другого – белый экран и сообщение:

Страница, которую вы пытаетесь просмотреть, не может быть показана, так как она использует неверную или неподдерживаемую форму компрессии.

Как раз перед этим установил кучу плагинов, сразу подумал, что дело в одном из них, но в каком?

Попробовал пояндексить по тексту сообщения об ошибке, нашел разговор о подобном на форуме, с предположением, что проблема в том, что включен gzip. Админ пишет, что да, мол: сжатие Gzip: ВКЛ Ну, правильно – компрессия… Решил попробовать, что будет, если отключить…

Поиск по админке ничего не дал.

Снова полез в яндекс (говорят – гуглить, но я вот продвигаю все в яндексе, и как-то привык к нему, поэтому и сочинил только что – “яндексить”). Нашел сходу рецепт:

Нажимаем кнопку “Настройки”, вкладка “Чтение”, снизу снимаем галку “WordPress должен упаковывать статьи (gzip), если браузер поддерживает сжатие”.

Не знаю, как в вашем варианте wordpress, а у меня нет такого окошка.

Зато я нашел ее, точнее – аналог, в настройках Hyper Cash:

Compression

Enable compression
When possible the page will be sent compressed to save bandwidth. Only the textual part of a page can be compressed, not images, so a photo blog will consume a lot of bandwidth even with compression enabled. Leave the options disabled if you note malfunctions, like blank pages.
If you enable this option, the option below will be enabled as well.

Я, конечно, понимаю, что вообще говоря, главная проблема – в моем браузере, но сколько их таких, неправильных браузеров, у ваших читателей?

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Ускорить работу wordpress: Hyper Cash

Слишком очевидные тормоза сайта заставили меня полезть в интернет – найти все же, как ускорить wordpress?

Скажу сразу, что информации в сети полно, и я не проводил измерения ускорения в миллисекундах, как некоторые уважаемые блоггеры. Но мне это не так важно – потому что факт ускорения загрузки страниц виден невооруженным глазом. И еще – я думаю, что работа не окончена – потому что на самом деле полученный эффект по большому счету – иллюзия. Это не сайт работает быстрее, а просто пользователю отдается закешированная на сервере версия страницы.

Да, ускорить сайт можно по-настоящему: внешними условиями – найдя суперхостинг, внутренними – оптимизировав БД, код страницы, а можно визуально – закешировав его. Кэш может быть со стороны пользователя, но тогда в первый раз все равно посетитель будет грузить всё и грузиться сам – раздражением… Мне кажется, правильнее все же возложить бремя на сервер…

Сразу скажу, что после экспериментов с несколькими плагинами я остановился на Hyper Cash.

К слову замечу также, что, не имея опыта работы в вордпресс, я сначала пошел стандартным и сложным путем – скачал плагин в формате .zip, распаковал, залил его через FTP, потом пошел искать, как его подключить. Оказалось, все намного проще: скачав .zip, просто идите в раздел Plugins в админке, выбирайте последовательно Add new, Upload, Обзор, Install now, Activate. Все понятно, как говорится, интуитивно, за что создателям вордпресса огромное спасибо.

Вордпресс тормозит! Но если заглядывать вперед, то все же правильнее будет еще и оптимизировать код. Это ужасно, что вордпресс при создании каждой страницы обращается к базе данных, чтобы вытащить оттуда кодировку сайта, урл его главной страницы и пр. Ужасно, что каждый плагин создает отдельно файл стилей и файл скриптов, и так далее…

Этот сайт создан на вордпрессе именно для изучения данной админки и преимуществ блогов, пока что я в шоке от ее не-оптимизированности под сео.

VN:F [1.9.7_1111]
Rating: 6.7/10 (3 votes cast)
VN:F [1.9.7_1111]
Rating: +1 (from 1 vote)

Яндекс отчитался о работе в новогодние праздники!

Это я сохраню себе на долгую память:) Давно не видел… Все сайты стоят на месте, tools.promosite.ru молчит – ничего не видит изменившегося, seopult… Сеопульт честно показывает, что ничего не изменилось и что яндекс разослал всем письмо о свершившемся апдейте.

Встречайте первый ап яндекса в 2011-м (clickable)

Первый апдейт яндекса в 2011 году

Собственно я и полез смотреть про ап, увидев в почте письмо об апдейте 18 часов назад… Спасибо за письмо, яндекс, так бы никто и не заметил…

А вы говорите, они там не работают в госвыходные!

Clickable:

Письмо счастья от Яндекса

P.S. Секрет, впрочем, открывается внимательному взгляду по той же табличке от сеопульта: письмо пришло, подтверждающее апдейт от 31 декабря… То есть только сейчас они перестали праздновать и поняли, что надо же и сообщить о произошедшем…

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Как поправить robots.txt в wordpress?

Дурацкий вопрос, не так ли? Ну, все же знают – какая разница, какая админка, robots.txt – текстовый файл, лежащий в корневой директории. Это даже яндекс в своем хелпе пишет: Robots.txt — текстовый файл, расположенный на сайте, который предназначен для роботов поисковых систем.

И вот я вижу на сайте клиента роботс из строчек:

User-agent: *
Disallow:
Sitemap: http://mysite.ru/sitemap.xml.gz

Пример не просто так, это станет ясно позже.

Как же тут темно и непонятно! Иногда я вспоминаю, как начинались вебсайты – чистый html, правка только через FTP, и глаза мои наполняются огромной ностальгической слезой:) Потому что, хотя все, что мы видим на экране, физически суть нули и единицы, все же естественно предполагать, что page.html – это страница на html, page.asp – на asp, page.php – на php. Но нет, увы. Коварный прогресс внес свою виртуальную сумятицу в виртуальный мир – теперь можно, например, писать сайт на php, все хранить в базе данных, а выдавать клиенту как php, asp, html, fig, znaet, chto, escho, pridumaesh… И к этому мы привыкли быстро.

Но к тому, что чисто текстовый файл robots.txt правится через админку и по сути является таким же продуктом цмски, хранящимся в БД… Это меня все еще продолжает смущать.

Итак,

Где правится robots.txt в wordpress?

Я залез на FTP, увидел, что текстового файла нет, сжал губы – понял, что эта хрень хранится в БД. Написал свой роботс – залил и… Ничего не изменилось. Хотя приоритет у физического варианта, если так можно назвать текстовый файлик, обязан быть.

Пошел искать в сеть. Нашел только мануал для идиотов: зайдите в админку, найдите слова Options > Robots.txt и правьте… При этом, что примечательно, предупреждение, что если уж правите через wp, то не заливайте настоящий роботс на сервер… Ну да…

Плагины для создания РОБОТС на ВОРДПРЕССе

Не буду вас долго мучить, хотя, пользуясь случаем, передаю привет благодарность человеку, нашедшему, тоже не сразу, решение проблемы – Александр Милевский, прошу любить и жаловаться.

Оказывается, существует плагин Google (XML) Sitemaps Generator for WordPress основное предназначение которого – создание xml-карт. Для удобства идиотов пользователей этот плагин не только генерит карту, но тут же сжимает ее, создает роботс и вписывает адрес сжатой карты туда. Все бы было хорошо… Только при этом он не дает этот роботс править.

Выключение плагина не дало результатов.

Удаление плагина не дало результатов.

Все получилось только когда под косу подложили камень – установили другой плагин для создания и правки robots.txt – KB Robots.Txt

Он переписал в базе данные роботса, созданные предыдущим.

Проблема решена.

Тихая ненависть к облегчателям жизни оптимизаторов осталась:)

VN:F [1.9.7_1111]
Rating: 10.0/10 (3 votes cast)
VN:F [1.9.7_1111]
Rating: +1 (from 1 vote)