Обобщенное: претензии к системе Rotapost

Еще раз предварю претензии важным заявлением: биржу Ротапост я считаю достаточно интересной, я в ней активно работаю. Но именно это дает мне возможности видеть особенности, которые мне нравятся или не нравятся. И мне хотелось бы сказать сейчас о минусах – для того, чтобы у ее основателей и разработчиков появилась возможность улучшить весьма интересный для оптимизаторов инструмент.

Оптимизатору нужна одна ссылка с сайта!

Это достаточно известная вещь: при продвижении под яндекс с сайта-донора достаточно одной ссылки, ну – двух… ну – трех… Но сотни – это просто потерянные деньги. Тем более, что “вечные” ссылки достаточно дороги. Тем более, что они еще и вряд ли вечные:)

Что мы имеем на сегодня? При составлении предложения оптимизатор может ограничить вебмастера либо разрешением послать одну заявку на одно предложение, либо одной заявкой на весь проект. Это не то, что нужно оптимизатору! Если я ограничу вебмастера одной ссылкой на проект, я фактически ограничиваю себя. Ведь сайт я продвигаю по большому числу анкоров… Если мне вебмастер дает десятки заявок, я могу выбрать среди них оптимальную: прямой или разбавочный анкор, более подходящий к тематике сайта… Но вот после того, как я выбрал что-то , мне другие заявки с сайта не нужны!

А нормального способа быстро удалить оставшиеся заявки с этого же сайта нет! Или жди, когда они через месяц сами удалятся (неправильно это – захламляют аккаунт), либо удаляй десятками (если вся страница с десятком ссылок – это ссылки на твой сайт), либо по одному кликай – уфф…

Почему бы не сделать какую-то кнопку типа: “Удалить все заявки, присланные с этого сайта”???

А после того, как уже купил ссылку с сайта, весьма неприятно видеть, как вебмастер тебе шлет новые и новые заявки по другим предложениям… Ну, не надо мне больше! Все! Мне другие площадки нужны…

Почему бы не сделать опцию: “Не принимать заявки с сайтов, на которых я уже купил ссылку”???

Уверен, что подобные возможности очень привлекут внимание новых оптимизаторов к системе. В данный же момент приходится постоянно отслеживать глазами – взял ли ты уже отсюда ссылку или нет… Или держать открытыми несколько окон, либо вести отдельный файл с адресами купленных ссылок…

О массовом продлении срока выполнения задания: зачем ограниченная избыточность?

Продлить время выполнения задания Хорошо, что недавно добавились эти строчки. Продлевать более-менее массово – удобно! Но зачем столько строчек-вариантов? Во-первых, работает правило сложения: если я нажму на 1 день и 1 день – получится продление на два дня, если на неделю и неделю – получится на две недели… То есть можно было ограничиться, например, возможностями продления на 1 день, на три и на неделю… А что мешало просто сделать окошечко с выбором, на сколько дней продлевать???

А что мешало сделать после нажатия вылетающее предупреждение-вопрос, действительно ли ты продлеваешь на столько-то дней, или хотя бы сообщение, подтверждающее факт продления? Так сделано в гогетлинкс, и это удобно!!! А сейчас я нажимаю и не понимаю, выполнилось что-то или нет. Потому что все выглядит так словно система просто не отреагировала!

Зато потом выясняется, что все мои пять нажатий продления на 1 день сработали, я продлил всё на пять дней и при этом отправил всем вебмастерам по пять сообщений о продлении срока выполнения заявки на 1 день…

И еще, если продолжить сравнение с гогетлинкс, то там есть отличная фишка: система сообщает, что с сайта продаются ссылки через биржи типа sape.ru Это очень круто!

А если сравнить с миралинкс, то там есть отличная фишка: система показывает, сколько всего ссылок (точнее, статей) продал вебмастер. Ты можешь попытаться сделать вывод о заспамленности ресурса исходящими.

Что мешает сделать что-то подобное в ротапост?

Уважаемые оптимизаторы, давайте влиять на предлагаемые нам инструменты продвижения. Это выгодно всем – даже вебмастерам в конечном счете, хотя сразу некоторые из них и не согласятся. А я объясню, чем выгодно. Аккуратное проставление ссылок продлевает жизнь ресурса, не вредит индексации его страниц. Так что работает на повышение прибыли и вебмастера!

Уважаемый Димок, искренне желаю Вам дальнейшего процветания – в союзе как с вменяемыми вебмастерами, так и оптимизаторами!

С уважением, Александр

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Неочевидные следствия аффилирования сайтов

Дикий интернет: история появления проблемы клонов вкратце.

После того, как владельцы бизнесов поняли, что сайт в топе приводит клиентов и их деньги, наиболее ушлые сообразили, что раз сайт в топе – хорошо – то два лучше. А если три? А четыре?

Что нам стоит сайт построить? Ну да, каких-то денег. Но типично это намного меньше, чем создание дополнительной точки продажи оффлайн. И стоимость продвижения у сеошников до сих пор приятно ниже цен рекламы в “реальном” мире. И клоны начали завоевывать топы такими объемами, что борьба с ними стала объективно неизбежной. Яндекс и вдарил.

Если вы имеете отношение к продвижению сайтов, вы, вероятно, что-то читали про аффилирование. Вероятно, вы читали, что это означает то, что два сайта не могут быть одновременно в топе по одному и тому же запросу. Хотя это, в общем-то верно, суть процесса не в этом.

Что такое аффилированные сайты?

Мы клоны, но об этом - молчок! Аффилированные сайты суть такие, которые яндекс обрабатывает как ОДИН САЙТ.

Это определение служит объяснением всему, что вы прочтете дальше.

Да, самое первое следствие из этого – то, чем набиты форумы оптимизаторов – если яндекс на каком-то основании аффилировал (склеил) два и более сайтов, то “вдруг” один из них пропадает по некоему запросу из топа. Были оба, скажем, а теперь – хоп, этот остался или даже (чаще так) поднялся выше, а второй улетел – внимание – приблизительно за топ50.

Прикол в том, что зачастую “умные” клиенты дают два и более сайтов разным оптимизаторам – типа посмотреть, кто лучше работает. И те, кто не заметил аффилиат, считают себя идиотами, потому что никакими стандартными методами сайт не поднимается. Впрочем, если вы не можете найти аффилиат – может, вы и правда не умны?

Следствие 1.1 Это тоже заметили быстро и это само по себе может служить признаком аффилирования: сайт то появляется в топе, то улетает за топ50. Легко понять причину: если вы будете продвигать две страницы одного сайта, то в топе будет та, что с точки зрения яндекса релевантнее. Если страницы приблизительно одинаковы (куча параметров: возраст сайта, текст, внешние ссылки и пр.), то они и будут иногда меняться местами в выдаче.

Следствие 2, которое очевидно, но почему-то не всем. Если вы беретесь продвигать явно плохой сайт (новый домен, плохие тексты, неудобная навигация…), а у него есть лучший по качеству аффилиат, то вы свои внешние ссылки на ваш домен А практически дарите домену В! Это у него будет расти позиция этого слова, но в явном виде вы это заметите, конечно, если сайты на одинаковые тематики…

А теперь самое вкусное и далеко не всем понятное: иногда яндекс аффилирует сайт не одной и той же тематики. Вообще говоря, я этим недоволен. Если у Васи Пупкина два бизнеса: гвозди и молоко, то он совсем не Вася Опупевший. С какой стати ему ставить на двух сайтах разные контакты?

А яндекс нас давно приучил, что если сайт не новостной, а посвящен конкретной тематике, и особенно в торговле, то позиции лучше у таких, которые наиболее полно освещают именно эту, одну, тематику. Условно говоря, сайт про гвозди и только про гвозди имеет более лучшие позиции среди своих собратьев, чем второй, который продает одновременно гвозди и молоко.

Теперь, вероятно, вы поймете не всегда очевидное следствие 3: аффилирование сайтов разных тематик размывает тематику сайта и может привести из-за этого к проседанию позиций.

___________________________________________

Как так получается, что яндекс аффилирует сайты? Конечно, все это в основном делается автоматикой. Роботы рыщут по сети, аккумулируя доступную информацию: whois, электронные адреса, аськи, телефоны, физические адреса офисов, совпадения в названиях доменов, фирм… Есть мнение, что даже совпадение хостингов может косвенно повлечь аффилирование, но если и так, то это должно быть параметром крайне малого веса – все же сайты хостятся тысячами на одном сервере, а вот когда я вижу одни и те же контакты на разных сайтах, я просто уже горько улыбаюсь – люди сами роют себе ямы и устанавливают на дне грабли.

___________________________________________

Расклеить сайты, которые уже зааффилированы, практически нереально. Иногда вроде получается, а потом снова видишь те же траблы. В связи с этим, кажется, наиболее образными и доступными будут сравнения:

Пожар легче предупредить, чем потушить!
Или даже так:
Нельзя быть немножко беременной!

А потому: предохраняйтесь!!! Сразу делайте сайты на разных движках, с разной структурой, с разными, хотя и похожими, услугами, товарами и ценами. Разумеется, с разными контактами: всеми и везде! Почта, адреса, телефоны… Яндекс – еще то гестапо, пароли и явки надо беречь…

Все это, конечно, важно для серьезных тематик. Было замечено, что у явно зааффилированных сайтов совсем никудышные нч в топах соседствуют. Это мне пока непонятно, нелогично.

___________________________________________

А можно ли сейчас в топе иметь два сайта одной тематики?
Ну конечно! И это очень приятно – смотреть на сайты одной тематики одного клиента, занимающие по хорошему сч позиции 1, 2, 5 и 6…

Удачи!

VN:F [1.9.7_1111]
Rating: 10.0/10 (2 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

WORDPRESS: отключить gzip

Никому не рассказывай, что я такой балбес... Вдруг заметил неприятную вещь – с одного компьютера этот сайт открывается отлично, а с другого – белый экран и сообщение:

Страница, которую вы пытаетесь просмотреть, не может быть показана, так как она использует неверную или неподдерживаемую форму компрессии.

Как раз перед этим установил кучу плагинов, сразу подумал, что дело в одном из них, но в каком?

Попробовал пояндексить по тексту сообщения об ошибке, нашел разговор о подобном на форуме, с предположением, что проблема в том, что включен gzip. Админ пишет, что да, мол: сжатие Gzip: ВКЛ Ну, правильно – компрессия… Решил попробовать, что будет, если отключить…

Поиск по админке ничего не дал.

Снова полез в яндекс (говорят – гуглить, но я вот продвигаю все в яндексе, и как-то привык к нему, поэтому и сочинил только что – “яндексить”). Нашел сходу рецепт:

Нажимаем кнопку “Настройки”, вкладка “Чтение”, снизу снимаем галку “WordPress должен упаковывать статьи (gzip), если браузер поддерживает сжатие”.

Не знаю, как в вашем варианте wordpress, а у меня нет такого окошка.

Зато я нашел ее, точнее – аналог, в настройках Hyper Cash:

Compression

Enable compression
When possible the page will be sent compressed to save bandwidth. Only the textual part of a page can be compressed, not images, so a photo blog will consume a lot of bandwidth even with compression enabled. Leave the options disabled if you note malfunctions, like blank pages.
If you enable this option, the option below will be enabled as well.

Я, конечно, понимаю, что вообще говоря, главная проблема – в моем браузере, но сколько их таких, неправильных браузеров, у ваших читателей?

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Ускорить работу wordpress: Hyper Cash

Слишком очевидные тормоза сайта заставили меня полезть в интернет – найти все же, как ускорить wordpress?

Скажу сразу, что информации в сети полно, и я не проводил измерения ускорения в миллисекундах, как некоторые уважаемые блоггеры. Но мне это не так важно – потому что факт ускорения загрузки страниц виден невооруженным глазом. И еще – я думаю, что работа не окончена – потому что на самом деле полученный эффект по большому счету – иллюзия. Это не сайт работает быстрее, а просто пользователю отдается закешированная на сервере версия страницы.

Да, ускорить сайт можно по-настоящему: внешними условиями – найдя суперхостинг, внутренними – оптимизировав БД, код страницы, а можно визуально – закешировав его. Кэш может быть со стороны пользователя, но тогда в первый раз все равно посетитель будет грузить всё и грузиться сам – раздражением… Мне кажется, правильнее все же возложить бремя на сервер…

Сразу скажу, что после экспериментов с несколькими плагинами я остановился на Hyper Cash.

К слову замечу также, что, не имея опыта работы в вордпресс, я сначала пошел стандартным и сложным путем – скачал плагин в формате .zip, распаковал, залил его через FTP, потом пошел искать, как его подключить. Оказалось, все намного проще: скачав .zip, просто идите в раздел Plugins в админке, выбирайте последовательно Add new, Upload, Обзор, Install now, Activate. Все понятно, как говорится, интуитивно, за что создателям вордпресса огромное спасибо.

Вордпресс тормозит! Но если заглядывать вперед, то все же правильнее будет еще и оптимизировать код. Это ужасно, что вордпресс при создании каждой страницы обращается к базе данных, чтобы вытащить оттуда кодировку сайта, урл его главной страницы и пр. Ужасно, что каждый плагин создает отдельно файл стилей и файл скриптов, и так далее…

Этот сайт создан на вордпрессе именно для изучения данной админки и преимуществ блогов, пока что я в шоке от ее не-оптимизированности под сео.

VN:F [1.9.7_1111]
Rating: 6.7/10 (3 votes cast)
VN:F [1.9.7_1111]
Rating: +1 (from 1 vote)

Яндекс отчитался о работе в новогодние праздники!

Это я сохраню себе на долгую память:) Давно не видел… Все сайты стоят на месте, tools.promosite.ru молчит – ничего не видит изменившегося, seopult… Сеопульт честно показывает, что ничего не изменилось и что яндекс разослал всем письмо о свершившемся апдейте.

Встречайте первый ап яндекса в 2011-м (clickable)

Первый апдейт яндекса в 2011 году

Собственно я и полез смотреть про ап, увидев в почте письмо об апдейте 18 часов назад… Спасибо за письмо, яндекс, так бы никто и не заметил…

А вы говорите, они там не работают в госвыходные!

Clickable:

Письмо счастья от Яндекса

P.S. Секрет, впрочем, открывается внимательному взгляду по той же табличке от сеопульта: письмо пришло, подтверждающее апдейт от 31 декабря… То есть только сейчас они перестали праздновать и поняли, что надо же и сообщить о произошедшем…

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Как поправить robots.txt в wordpress?

Дурацкий вопрос, не так ли? Ну, все же знают – какая разница, какая админка, robots.txt – текстовый файл, лежащий в корневой директории. Это даже яндекс в своем хелпе пишет: Robots.txt — текстовый файл, расположенный на сайте, который предназначен для роботов поисковых систем.

И вот я вижу на сайте клиента роботс из строчек:

User-agent: *
Disallow:
Sitemap: http://mysite.ru/sitemap.xml.gz

Пример не просто так, это станет ясно позже.

Как же тут темно и непонятно! Иногда я вспоминаю, как начинались вебсайты – чистый html, правка только через FTP, и глаза мои наполняются огромной ностальгической слезой:) Потому что, хотя все, что мы видим на экране, физически суть нули и единицы, все же естественно предполагать, что page.html – это страница на html, page.asp – на asp, page.php – на php. Но нет, увы. Коварный прогресс внес свою виртуальную сумятицу в виртуальный мир – теперь можно, например, писать сайт на php, все хранить в базе данных, а выдавать клиенту как php, asp, html, fig, znaet, chto, escho, pridumaesh… И к этому мы привыкли быстро.

Но к тому, что чисто текстовый файл robots.txt правится через админку и по сути является таким же продуктом цмски, хранящимся в БД… Это меня все еще продолжает смущать.

Итак,

Где правится robots.txt в wordpress?

Я залез на FTP, увидел, что текстового файла нет, сжал губы – понял, что эта хрень хранится в БД. Написал свой роботс – залил и… Ничего не изменилось. Хотя приоритет у физического варианта, если так можно назвать текстовый файлик, обязан быть.

Пошел искать в сеть. Нашел только мануал для идиотов: зайдите в админку, найдите слова Options > Robots.txt и правьте… При этом, что примечательно, предупреждение, что если уж правите через wp, то не заливайте настоящий роботс на сервер… Ну да…

Плагины для создания РОБОТС на ВОРДПРЕССе

Не буду вас долго мучить, хотя, пользуясь случаем, передаю привет благодарность человеку, нашедшему, тоже не сразу, решение проблемы – Александр Милевский, прошу любить и жаловаться.

Оказывается, существует плагин Google (XML) Sitemaps Generator for WordPress основное предназначение которого – создание xml-карт. Для удобства идиотов пользователей этот плагин не только генерит карту, но тут же сжимает ее, создает роботс и вписывает адрес сжатой карты туда. Все бы было хорошо… Только при этом он не дает этот роботс править.

Выключение плагина не дало результатов.

Удаление плагина не дало результатов.

Все получилось только когда под косу подложили камень – установили другой плагин для создания и правки robots.txt – KB Robots.Txt

Он переписал в базе данные роботса, созданные предыдущим.

Проблема решена.

Тихая ненависть к облегчателям жизни оптимизаторов осталась:)

VN:F [1.9.7_1111]
Rating: 8.3/10 (4 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 2 votes)

Самоубийство сайта прогоном через 1ps

Тихо! Идет проверка! Некоторое время назад у товарища резко провалился сайт. Причем он сначала не понял в чем причина – потому что вроде как все оплачиваеме клиентом слова на месте, процент в топе не изменился, но клиент стал жаловаться на резкое уменьшение трафика. Товарищ полез в яндекс метрику и увидел график посещаемости:

Самоубийство прогоном через 1ps

Анализ показал вхождение в индекс 25 страниц, являющихся… списком обраток на каталоги. Прогон был еще в прошлом году, обраток на сайте ранее мы не увидели, сейчас вычистим. Не факт, что с каталогов ссылки стоят, конечно, и это тем более печально.

Все это к чему:

1)проверяйте сайт на наличие подобного мусора, например, программой xenu
2)очень думайте, стоит ли прогоняться через каталоги, и если все же решитесь – то хотя бы не ставьте обратки
3)если все же ставите обратки, то не делайте так тупо – там реально линкопомойка, причем еще и не в дизайне сайта
4)проверяйте страницы сайта в индексе при возникновении проблем

Последнее к тому, что у сайта не такие уж хорошие позиции – в топе он по нч нк. И оптимизатор на основании этого был в недоумении о причинах падения траффика – типа позиции практически не изменились.

Я предположил, что на сайте был вирус и клиенты перестали переходить на него из поиска – нет, вируса не было.

Предположил, что сайт рекламировался в директе и перестал, вот и падение посещалки. Нет, не был в директе. Ну, что еще может быть?

Однако сейчас все выглядит вполне логично – нч нк остались в топе, но траф шел не за счет них, а с тех сч, которые были почти в топе. И сейчас с улетом этих слов ушел и траф.

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)