Неочевидные следствия аффилирования сайтов

Дикий интернет: история появления проблемы клонов вкратце.

После того, как владельцы бизнесов поняли, что сайт в топе приводит клиентов и их деньги, наиболее ушлые сообразили, что раз сайт в топе – хорошо – то два лучше. А если три? А четыре?

Что нам стоит сайт построить? Ну да, каких-то денег. Но типично это намного меньше, чем создание дополнительной точки продажи оффлайн. И стоимость продвижения у сеошников до сих пор приятно ниже цен рекламы в “реальном” мире. И клоны начали завоевывать топы такими объемами, что борьба с ними стала объективно неизбежной. Яндекс и вдарил.

Если вы имеете отношение к продвижению сайтов, вы, вероятно, что-то читали про аффилирование. Вероятно, вы читали, что это означает то, что два сайта не могут быть одновременно в топе по одному и тому же запросу. Хотя это, в общем-то верно, суть процесса не в этом.

Что такое аффилированные сайты?

Мы клоны, но об этом - молчок! Аффилированные сайты суть такие, которые яндекс обрабатывает как ОДИН САЙТ.

Это определение служит объяснением всему, что вы прочтете дальше.

Да, самое первое следствие из этого – то, чем набиты форумы оптимизаторов – если яндекс на каком-то основании аффилировал (склеил) два и более сайтов, то “вдруг” один из них пропадает по некоему запросу из топа. Были оба, скажем, а теперь – хоп, этот остался или даже (чаще так) поднялся выше, а второй улетел – внимание – приблизительно за топ50.

Прикол в том, что зачастую “умные” клиенты дают два и более сайтов разным оптимизаторам – типа посмотреть, кто лучше работает. И те, кто не заметил аффилиат, считают себя идиотами, потому что никакими стандартными методами сайт не поднимается. Впрочем, если вы не можете найти аффилиат – может, вы и правда не умны?

Следствие 1.1 Это тоже заметили быстро и это само по себе может служить признаком аффилирования: сайт то появляется в топе, то улетает за топ50. Легко понять причину: если вы будете продвигать две страницы одного сайта, то в топе будет та, что с точки зрения яндекса релевантнее. Если страницы приблизительно одинаковы (куча параметров: возраст сайта, текст, внешние ссылки и пр.), то они и будут иногда меняться местами в выдаче.

Следствие 2, которое очевидно, но почему-то не всем. Если вы беретесь продвигать явно плохой сайт (новый домен, плохие тексты, неудобная навигация…), а у него есть лучший по качеству аффилиат, то вы свои внешние ссылки на ваш домен А практически дарите домену В! Это у него будет расти позиция этого слова, но в явном виде вы это заметите, конечно, если сайты на одинаковые тематики…

А теперь самое вкусное и далеко не всем понятное: иногда яндекс аффилирует сайт не одной и той же тематики. Вообще говоря, я этим недоволен. Если у Васи Пупкина два бизнеса: гвозди и молоко, то он совсем не Вася Опупевший. С какой стати ему ставить на двух сайтах разные контакты?

А яндекс нас давно приучил, что если сайт не новостной, а посвящен конкретной тематике, и особенно в торговле, то позиции лучше у таких, которые наиболее полно освещают именно эту, одну, тематику. Условно говоря, сайт про гвозди и только про гвозди имеет более лучшие позиции среди своих собратьев, чем второй, который продает одновременно гвозди и молоко.

Теперь, вероятно, вы поймете не всегда очевидное следствие 3: аффилирование сайтов разных тематик размывает тематику сайта и может привести из-за этого к проседанию позиций.

___________________________________________

Как так получается, что яндекс аффилирует сайты? Конечно, все это в основном делается автоматикой. Роботы рыщут по сети, аккумулируя доступную информацию: whois, электронные адреса, аськи, телефоны, физические адреса офисов, совпадения в названиях доменов, фирм… Есть мнение, что даже совпадение хостингов может косвенно повлечь аффилирование, но если и так, то это должно быть параметром крайне малого веса – все же сайты хостятся тысячами на одном сервере, а вот когда я вижу одни и те же контакты на разных сайтах, я просто уже горько улыбаюсь – люди сами роют себе ямы и устанавливают на дне грабли.

___________________________________________

Расклеить сайты, которые уже зааффилированы, практически нереально. Иногда вроде получается, а потом снова видишь те же траблы. В связи с этим, кажется, наиболее образными и доступными будут сравнения:

Пожар легче предупредить, чем потушить!
Или даже так:
Нельзя быть немножко беременной!

А потому: предохраняйтесь!!! Сразу делайте сайты на разных движках, с разной структурой, с разными, хотя и похожими, услугами, товарами и ценами. Разумеется, с разными контактами: всеми и везде! Почта, адреса, телефоны… Яндекс – еще то гестапо, пароли и явки надо беречь…

Все это, конечно, важно для серьезных тематик. Было замечено, что у явно зааффилированных сайтов совсем никудышные нч в топах соседствуют. Это мне пока непонятно, нелогично.

___________________________________________

А можно ли сейчас в топе иметь два сайта одной тематики?
Ну конечно! И это очень приятно – смотреть на сайты одной тематики одного клиента, занимающие по хорошему сч позиции 1, 2, 5 и 6…

Удачи!

VN:F [1.9.7_1111]
Rating: 10.0/10 (1 vote cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

WORDPRESS: отключить gzip

Никому не рассказывай, что я такой балбес... Вдруг заметил неприятную вещь – с одного компьютера этот сайт открывается отлично, а с другого – белый экран и сообщение:

Страница, которую вы пытаетесь просмотреть, не может быть показана, так как она использует неверную или неподдерживаемую форму компрессии.

Как раз перед этим установил кучу плагинов, сразу подумал, что дело в одном из них, но в каком?

Попробовал пояндексить по тексту сообщения об ошибке, нашел разговор о подобном на форуме, с предположением, что проблема в том, что включен gzip. Админ пишет, что да, мол: сжатие Gzip: ВКЛ Ну, правильно – компрессия… Решил попробовать, что будет, если отключить…

Поиск по админке ничего не дал.

Снова полез в яндекс (говорят – гуглить, но я вот продвигаю все в яндексе, и как-то привык к нему, поэтому и сочинил только что – “яндексить”). Нашел сходу рецепт:

Нажимаем кнопку “Настройки”, вкладка “Чтение”, снизу снимаем галку “WordPress должен упаковывать статьи (gzip), если браузер поддерживает сжатие”.

Не знаю, как в вашем варианте wordpress, а у меня нет такого окошка.

Зато я нашел ее, точнее – аналог, в настройках Hyper Cash:

Compression

Enable compression
When possible the page will be sent compressed to save bandwidth. Only the textual part of a page can be compressed, not images, so a photo blog will consume a lot of bandwidth even with compression enabled. Leave the options disabled if you note malfunctions, like blank pages.
If you enable this option, the option below will be enabled as well.

Я, конечно, понимаю, что вообще говоря, главная проблема – в моем браузере, но сколько их таких, неправильных браузеров, у ваших читателей?

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Ускорить работу wordpress: Hyper Cash

Слишком очевидные тормоза сайта заставили меня полезть в интернет – найти все же, как ускорить wordpress?

Скажу сразу, что информации в сети полно, и я не проводил измерения ускорения в миллисекундах, как некоторые уважаемые блоггеры. Но мне это не так важно – потому что факт ускорения загрузки страниц виден невооруженным глазом. И еще – я думаю, что работа не окончена – потому что на самом деле полученный эффект по большому счету – иллюзия. Это не сайт работает быстрее, а просто пользователю отдается закешированная на сервере версия страницы.

Да, ускорить сайт можно по-настоящему: внешними условиями – найдя суперхостинг, внутренними – оптимизировав БД, код страницы, а можно визуально – закешировав его. Кэш может быть со стороны пользователя, но тогда в первый раз все равно посетитель будет грузить всё и грузиться сам – раздражением… Мне кажется, правильнее все же возложить бремя на сервер…

Сразу скажу, что после экспериментов с несколькими плагинами я остановился на Hyper Cash.

К слову замечу также, что, не имея опыта работы в вордпресс, я сначала пошел стандартным и сложным путем – скачал плагин в формате .zip, распаковал, залил его через FTP, потом пошел искать, как его подключить. Оказалось, все намного проще: скачав .zip, просто идите в раздел Plugins в админке, выбирайте последовательно Add new, Upload, Обзор, Install now, Activate. Все понятно, как говорится, интуитивно, за что создателям вордпресса огромное спасибо.

Вордпресс тормозит! Но если заглядывать вперед, то все же правильнее будет еще и оптимизировать код. Это ужасно, что вордпресс при создании каждой страницы обращается к базе данных, чтобы вытащить оттуда кодировку сайта, урл его главной страницы и пр. Ужасно, что каждый плагин создает отдельно файл стилей и файл скриптов, и так далее…

Этот сайт создан на вордпрессе именно для изучения данной админки и преимуществ блогов, пока что я в шоке от ее не-оптимизированности под сео.

VN:F [1.9.7_1111]
Rating: 6.7/10 (3 votes cast)
VN:F [1.9.7_1111]
Rating: +1 (from 1 vote)

Яндекс отчитался о работе в новогодние праздники!

Это я сохраню себе на долгую память:) Давно не видел… Все сайты стоят на месте, tools.promosite.ru молчит – ничего не видит изменившегося, seopult… Сеопульт честно показывает, что ничего не изменилось и что яндекс разослал всем письмо о свершившемся апдейте.

Встречайте первый ап яндекса в 2011-м (clickable)

Первый апдейт яндекса в 2011 году

Собственно я и полез смотреть про ап, увидев в почте письмо об апдейте 18 часов назад… Спасибо за письмо, яндекс, так бы никто и не заметил…

А вы говорите, они там не работают в госвыходные!

Clickable:

Письмо счастья от Яндекса

P.S. Секрет, впрочем, открывается внимательному взгляду по той же табличке от сеопульта: письмо пришло, подтверждающее апдейт от 31 декабря… То есть только сейчас они перестали праздновать и поняли, что надо же и сообщить о произошедшем…

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Как поправить robots.txt в wordpress?

Дурацкий вопрос, не так ли? Ну, все же знают – какая разница, какая админка, robots.txt – текстовый файл, лежащий в корневой директории. Это даже яндекс в своем хелпе пишет: Robots.txt — текстовый файл, расположенный на сайте, который предназначен для роботов поисковых систем.

И вот я вижу на сайте клиента роботс из строчек:

User-agent: *
Disallow:
Sitemap: http://mysite.ru/sitemap.xml.gz

Пример не просто так, это станет ясно позже.

Как же тут темно и непонятно! Иногда я вспоминаю, как начинались вебсайты – чистый html, правка только через FTP, и глаза мои наполняются огромной ностальгической слезой:) Потому что, хотя все, что мы видим на экране, физически суть нули и единицы, все же естественно предполагать, что page.html – это страница на html, page.asp – на asp, page.php – на php. Но нет, увы. Коварный прогресс внес свою виртуальную сумятицу в виртуальный мир – теперь можно, например, писать сайт на php, все хранить в базе данных, а выдавать клиенту как php, asp, html, fig, znaet, chto, escho, pridumaesh… И к этому мы привыкли быстро.

Но к тому, что чисто текстовый файл robots.txt правится через админку и по сути является таким же продуктом цмски, хранящимся в БД… Это меня все еще продолжает смущать.

Итак,

Где правится robots.txt в wordpress?

Я залез на FTP, увидел, что текстового файла нет, сжал губы – понял, что эта хрень хранится в БД. Написал свой роботс – залил и… Ничего не изменилось. Хотя приоритет у физического варианта, если так можно назвать текстовый файлик, обязан быть.

Пошел искать в сеть. Нашел только мануал для идиотов: зайдите в админку, найдите слова Options > Robots.txt и правьте… При этом, что примечательно, предупреждение, что если уж правите через wp, то не заливайте настоящий роботс на сервер… Ну да…

Плагины для создания РОБОТС на ВОРДПРЕССе

Не буду вас долго мучить, хотя, пользуясь случаем, передаю привет благодарность человеку, нашедшему, тоже не сразу, решение проблемы – Александр Милевский, прошу любить и жаловаться.

Оказывается, существует плагин Google (XML) Sitemaps Generator for WordPress основное предназначение которого – создание xml-карт. Для удобства идиотов пользователей этот плагин не только генерит карту, но тут же сжимает ее, создает роботс и вписывает адрес сжатой карты туда. Все бы было хорошо… Только при этом он не дает этот роботс править.

Выключение плагина не дало результатов.

Удаление плагина не дало результатов.

Все получилось только когда под косу подложили камень – установили другой плагин для создания и правки robots.txt – KB Robots.Txt

Он переписал в базе данные роботса, созданные предыдущим.

Проблема решена.

Тихая ненависть к облегчателям жизни оптимизаторов осталась:)

VN:F [1.9.7_1111]
Rating: 10.0/10 (3 votes cast)
VN:F [1.9.7_1111]
Rating: +1 (from 1 vote)

Самоубийство сайта прогоном через 1ps

Тихо! Идет проверка! Некоторое время назад у товарища резко провалился сайт. Причем он сначала не понял в чем причина – потому что вроде как все оплачиваеме клиентом слова на месте, процент в топе не изменился, но клиент стал жаловаться на резкое уменьшение трафика. Товарищ полез в яндекс метрику и увидел график посещаемости:

Самоубийство прогоном через 1ps

Анализ показал вхождение в индекс 25 страниц, являющихся… списком обраток на каталоги. Прогон был еще в прошлом году, обраток на сайте ранее мы не увидели, сейчас вычистим. Не факт, что с каталогов ссылки стоят, конечно, и это тем более печально.

Все это к чему:

1)проверяйте сайт на наличие подобного мусора, например, программой xenu
2)очень думайте, стоит ли прогоняться через каталоги, и если все же решитесь – то хотя бы не ставьте обратки
3)если все же ставите обратки, то не делайте так тупо – там реально линкопомойка, причем еще и не в дизайне сайта
4)проверяйте страницы сайта в индексе при возникновении проблем

Последнее к тому, что у сайта не такие уж хорошие позиции – в топе он по нч нк. И оптимизатор на основании этого был в недоумении о причинах падения траффика – типа позиции практически не изменились.

Я предположил, что на сайте был вирус и клиенты перестали переходить на него из поиска – нет, вируса не было.

Предположил, что сайт рекламировался в директе и перестал, вот и падение посещалки. Нет, не был в директе. Ну, что еще может быть?

Однако сейчас все выглядит вполне логично – нч нк остались в топе, но траф шел не за счет них, а с тех сч, которые были почти в топе. И сейчас с улетом этих слов ушел и траф.

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Яндекс, продвижение картинок, вопросы без ответов

Некоторое время назад один человек очень уверенно сказал, что продвинуть картинку в топ легко, поставив на нее ссылки с соответствующими ключевыми словами – то есть как и обычные слова в обычный поиск.

Я попробовал. Поиском по моему логину в яндексе находилась моя мини-фотография, старый юзерпик. Я его уже удалил из твиттера, а но все висел в поиске благодаря тому, что как-то я поучаствовал в одном сервисе…

Я попробовал двинуть в результаты поиска вот эту картинку, с девушкой, прижимающей палец к губам. Ничего не получилось – ссылки индексировались одна за другой, а в результатах поиска по-прежнему моя настоящая фотография…

Первое предположение – что двигать картинки ссылками некорректно в принципе. И это предположение кажется логичным, потому что все время попадаются в выдаче такие чудеса типа недавно рассмотренного [я.ру]. Их немало – подобных примеров.

Но все же сказать, что мой единственный эксперимент доказывает невозможность вывода картинки в топ ссылками, нельзя.

Во-первых, потому что эксперимент был единственным. Может, я не такие ссылки брал. Может, я не там картинку разместил – она на поддомене юзерпиков в жж была.

А еще, второе предположение – может, потому, что картинка ни разу не уникальная. Яндекс отлично сейчас определяет уникальность и мой товарищ Олег Г. отметил, что по поиску определенных слов в топе именно уникальные картинки.

Косвенным подтверждением может служить и тот факт, что сегодня вывалилась из поиска по логину alekz71 моя настоящая фотография. kirf Стал разбираться, почему, и заметил, что обновилась информация на том самом сервисе, который когда-то утянул из твиттера мой юзерпик с фоткой. Ну и, как вы. вероятно, догадались – оригинальный юзерпик обновился на… неуникальную, хотя и прикольную картинку.

Итак, плацдарм вообще расчищен. Предполагаю, что (ну, банальные вещи, в общем-то) надо, чтобы картинка стояла рядом с соответствующим текстом, чтобы картинка была уникальной. Возможно, не просто рядом, а чтобы четко было понятно, что это подпись. Вероятно, важно, чтобы ключ был в названии картинки. Возможно, лучше, чтобы слово было в тайтле…

На этой страничке я ставлю одно слово рядом с картинкой, в тайтле картинки и в названии страницы, а второе слово – в названии картинки и альте картинки. По первому слову в яндекс-картинках нет ничего, второе слово в картинках ищется! Вот и интересно, кстати, оно хоть как-то попадет в поиск? Позже сварганю страничку, где будут другие условия…

Вероятно, любопытно, что картинка, с одной стороны, уникальная – я сам ее вырезал, но вырезал-то из фильма. Это фотография известного и популярного актера… Может, яндекс вообще откажется ее выдавать?

А вы проводили такие эксперименты? Поделитесь результатами?

UPDATE 18.11.11 По запросу alekz71 выдается единственная картинка – изображение с чужого блога, который скопипастил пару предложений с другого блога, ссылающегося на мой жж аккаунт. Короче, картинка вообще левая!

Эта картинка не имеет ко мне отношения! Мало того, что она не про меня, она и находится на поддомене ЖЖ, и имеет, согласно сервису tineye.com, 10 копий в сети.

Вот так вам! Чем же руководствуется Яндекс, блин?

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)