Очевидные и “палевные” темы сео, которые… не работают

Палим темы! Имеющий глаза, да прочитает, имеющий мозги да обдумает…

Не верите – проверяйте сами…

Эти “вполне очевидные” палевные темы сео не работают:

Надо покупать ссылки с сайтов, имеющих большой ТИЦ.
Надо покупать ссылки со страниц, имеющих высокий PR.
Надо покупать с сайтов в сапе той же тематики, что и наш.
Надо вносить сайт в Яндекс Каталог, иначе очень сложно/невозможно продвигаться.
Если наш сайт в Я.Каталоге, надо покупать ссылки с сайтов, находящихся в ЯК в той же категории, это очень хорошо способствует продвижению!
Надо закрывать все блоки товаров интернет-магазина в noindex – они же неуникальные, так что это точно поможет продвижению!
Надо посмотреть, сколько вхождений ключа у сайтов в топ-10 и сделать так же, точно поднимемся!
Надо переписать на нашем сайте все неуникальные куски текстов! (Впрочем, вариант намного хуже: надо взять тексты с сайта в топе, типа они же поднялись, значит, тексты хорошие – это вообще жесть, но и такое бывает у людей).
(Связанное с предыдущим:) Ой, у нас украли текст, надо срочно переписывать текст на нашем сайте!
Надо посмотреть, сколько прогнозирует трат на продвижение сеопульт и… вариант1)это же и есть правильная цена,
вариант2) просто умножить эту цифру на 2(0.5, 2.2, 3, 4, 10…)
Получив новый сайт на продвижение, надо прогнать его по каталогам (как вариант: если сайт никак не продвигается, надо прогнать его по каталогам).
Обязательно надо постоянно чистить купленные ссылки, удаляя выпавшие из индекса.
Если вебмастер поднял цену на ссылку, надо наказать его и снять ссылку! (как вариант: если оптимизатор купил ссылку и она проиндексировалась, надо поднять цену – куда он денется, подтвердит!)
(Связанное с предыдущим:) Если у сайта поднялся тиц, надо поднять цены (это мнение вебмастера)! Если у сайта упал тиц, надо снять ссылку (это мнение оптимизатора).
Если ссылка проиндексировалась, а слово не поднялось, надо срочно эту ссылку снимать!
Ссылки нельзя снимать – сайт обязательно просядет!

Ну и хватит…

Если кто готов продолжить или поспорить – милости прошу.

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Удалить https из индекса

Тссс!Задача появилась как следствие распи… равнодушного отношения вебмастера клиента к своим прямым обязанностям.

Этот долбо… молодой неопытный специалист в меню сайта в одном месте по непонятным мне соображениям поставил вместо http:// и так далее лишнюю буковку: https://

Робо-яндекс бодро сбегал ссылкой глупою по сайту… Не увидел там ошибки, дублей в индекс покидал…
Весь сайт проиндексировался дважды: как http-версия и как https-версия.

И все позиции нафиг просели…

Как удалить дубли?

Ну, первым делом мы поправили меню. Ок… кроме того, что из индекса дубли не ушли.

Попробовали покидать в deleteurl – нет оснований для удаления!

Поставили через .htaccess редирект 301. Онлайн всё перекидывает, как полагается, но время идет, а в индексе остаются дубли! И опять нет оснований для удаления у ***** яндекса…

Дело в том, кто не знает, что удалить страницу из индекса можно, только:
1)удалив ее физически,
2)поставив запрет на индексацию в robots.txt
3)поставив запрет на индексацию в мета-теге страницы

Но как физически удалять тематическую страницу сайта, особенно продвигаемую?

И как закрыть в роботс, если там пишется только относительный путь, типа /page15.html?

У меня появилась идея, не нашедшая отклика в тревожной душе заказчика: поочередно ставить метатег noindex на всех страницах-дублях, выкидывать их из индекса через deleteurl, по факту вылета из индекса удалять метатег и снова вводить в индекс.

Вот как хитроумно мыслил я проблему обойти!

Я ходил к друзьям сеошным, и ответ давали быстро:

на хостинге обязано быть две папки – под http и под https, просто кинь роботс с Disallow: / в папку версии https!

Только нет такой там папки! В общем, дело было швах…

Но подумал я внезапно – неужели я был первый, кто с проблемою столкнулся, и поискал в сети…

И поиском нашел простое, но такое изящное решение:

В .htaccess указать, что для https-версии роботс имеет другое название. Да-да-дА-ДА! Я всю свою сео-жизнь думал, что название файла роботс должно быть robots.txt и никак не иначе, а оказывается, все это регулируется невидимым для посетителей сайта .htaccess!!!

Конкретная инструкция:

Для второго своего, ненормального роботс создаем текстовый файлик, например, под названием robots-https.txt Прописываем необходимые инструкции, для меня это всего-то пара строчек

User-agent: *
Disallow: /

Размещаем в корне сайта.

А в .htaccess прописываем правило

RewriteEngine on
RewriteCond %{HTTPS} on
RewriteRule ^robots.txt$ robots-https.txt

______________________________________

Ха! Это работает на ура!

P.S. Пока писал пост, задумался – а что мешает таким образом скрыть от взгляда пытливых посетителей обычный роботс? ДА НИЧЕГО!

VN:F [1.9.7_1111]
Rating: 5.5/10 (4 votes cast)
VN:F [1.9.7_1111]
Rating: +5 (from 5 votes)

Не сапа рулит, а сапой надо рулить!

Достаточно простая идея, которую надо предварить фактами:

1. Все мы чистим ранее закупленные ссылки в сапе, удаляя выпавшие из индекса.

2. Доказано, что ссылки на страницах, выпавших под действием АГС, работают. Думаю, их вес много меньше других ссылок, но нч на них зачастую держится.

3. Сапа позволяет почти как угодно тасовать урлы в проектах: добавлять, удалять, переносить из проекта в проект.

4. Чистить ссылки удобно не поурлово, а попроектно – особенность сапы и плагина винка.

Выводы:

Если слово в топе, то лучше ссылки на него не чистить, даже если какие-то выпали.

Если слово не в топе, вероятно, лучше чистить – скорее всего, это экономит бюджет.
Идея:

Создаем дополнительный проект – типа site_top в который переносим все урлы, заточенные под одно ключевое слово, и это слово у нас вышло в топ. Проект ***_top не чистим от выпавших ссылок.

Удачи!

P.S. Проверено на себе:) Я доволен!

P.P.S. Вам нужна более серьезная информация? Предполагаю, вы можете найти ее здесь: Стоп-слова в урле донора

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

SEO-распил

Ни фига себе! Работать самостоятельно или на компанию – решает каждый сеошник сам.

Лично я предпочитаю совмещать.

Мне кажется, что только на компанию работают либо новички, просто неспособные потянуть клиента самостоятельно, либо практически совладельцы компании – то есть люди, чья прибыль напрямую зависит от прибыли компании. Я – не то и не другое.

Другая крайность – работа только самостоятельно. Имхо это либо вынужденная мера неустроенного сеошника, либо же он сео-гений. Опять же я не то и не другое.

Я считаю себя принадлежащим к средней части, но все же поближе к стороне гениев:)

Это всё к чему…

Работая на компанию, я согласен с тем, что получаю не долю от прибыли с того десятка-полутора сайтов, которые веду, а фиксированную зарплату. Это нормально – в ответ я имею возможность общения с коллегами, постоянный обмен наблюдениями, ну и всякого рода соцпримочки, в общем, я знаю, что получаю и в обмен на что.

В случае со своим личным клиентом я привык, что вся прибыль с него идет мне – это нор-маль-но. Более того – это единственно правильно!

И вот мне тут один знакомый, скажем, Федя, стал предлагать работать вместе. Он, мол, частным образом находит клиентов, я выставляю им цену, он получает свой процент с этой цены как мой агент. Вроде гладко. Я согласился.

Оказалось, он точно так же предложил какой-то компании найти оптимизатора, который будет продвигать их сайты (интересно, с них он тоже процент готовился взять?). И вся его фишка, видимо, была в том, что он знал, что я беру с клиентов меньше, чем им предлагают сео-конторы.

Сначала я заподозрил неладное, когда он начал кидать мне на проверку один сайт за другим… Мол, а вот этот продвигать за сколько будешь? А вот этот? Я говорю – ок, гляну в выходные, а он – нет, надо срочно, у меня еще штук десять есть…

Нереально, работая в офисе, еще и самостоятельно дома двигать десятки сайтов. Даже просто десять – нереально. Что-то будет страдать – или контора, или личные клиенты, а в итоге – ты сам.

В итоге я выбрал один, посчитал предполагаемые траты… И назначил цену 40 т.р. И вот тут-то начались переговоры… Оказалось, что это клиенту дорого. Я сказал, что дешевле неинтересно мне. Тогда оказалось, что клиенту-то не дорого, он столько и платит, но – другой конторе, которая собирается через этого Федю нанять меня как оптимизатора, и хотела бы платить мне штук 25-30… И это же еще с учетом фединых интересов с моей части денег. А ему пара тысяч неинтересна, он хотел бы хотя бы пять – каждый месяц.

Для меня здесь, к слову, еще очень показательно то, что я назвал ту же цену, что и клиент платит реально. Угадал? Вряд ли. Опыт.

Классно, да? Ничего не делая, собираются иметь деньги контора, Федя (возможно, дважды – с меня и с них), а вся работа и все траты – на мне.  Прямо так напоминает схемы распила государственных денег, что аж тошнит. Я понимаю, что клиента нашел не я, но они же собираются иметь ОЧЕНЬ высокий процент с оплаты, причем постоянно…

Когда я изложил Феде свои соображения, он предложил не продвигать основное для клиента слово, а поднять только кучу нч – так я потрачу меньше:) Кроме того, что это предложение не решает проблему, что я, работая, получу меньше либо столько же, сколько не работающие посредники, тут еще такой прикол, что исключаемое слово – единственное интересное для клиента в ядре. Как “пластиковые окна” – разбавка не приводит клиентов. То есть мне предлагают просто поучаствовать в дойке клиента, который позже очевидно уйдет, раздосадованный зряшной тратой денег.

Я отказался наотрез, сказав, что эта схема – гнилая в принципе.

А вы бы согласились?

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Изменение веса ссылки со временем (в качестве бреда на тему)

Аксиома 1. Вес ссылки увеличивается со временем, которое она размещена на конкретном сайте.

Действительно аксиома, потому что ну как доказать? Но можно предположить, что аксиома верна, потому что она просто логична: продажные ссылки имеют свойство исчезать с донора много быстрее, чем естественные. И вроде как иногда замечаешь, что на одних и тех же ссылках твои позиции медленно растут. Много таких наблюдений.

Аксиома 2. Чем меньше исходящих ссылок с конкретной страницы, тем больший вес эта страница передает акцептору.

Вроде как тоже все согласны.

Следствие 1 из аксиомы 2. Имеет смысл покупать ссылки на сайтах, недавно добавленных в биржу ссылок.

Следствие 2 из аксиомы 2. С течением времени вес приобретенной вами на только что добавленном в биржу ссылок сайте будет падать, поскольку на сайте будут закупаться новые и новые ссылки – он заспамливается.

Следствие 1 из аксиомы 1. С течением времени вес приобретенной вами на только что добавленном в биржу ссылок сайте будет расти, так как будет расти время, которая эта ссылка находится на этом сайте.

Упс. Противоречие.

Противоречие ли? А если верны оба утверждения?

Вы замечали, что часто бывает так – вывел сайт в топ определенным набором ссылок, больше ничего не закупаешь, и сайт стоит как вкопанный. Причем это могут быть и саповские ссылки, и миралинкс – не суть. Суть в том, что сайт приколачивается гвоздями ссылок в топ и стоит там… ну практически непоколебимо. С какими-то незначительными флуктуациями:)

А может, это именно потому, что оба следствия работают одновременно и разнонаправленно?

Из этого можно предположить, что любые изменения на сайте, кроме глобальных типа полной смены дизайна, текстов, удаления половины сайта физически, пропадания из индекса в результате неработы хостинга на долгое время, увеличения числа исходящих с каждой страницы, еще каких-то… Можно предположить, что никакие мелкие изменения не влияют на вес ссылки, передаваемой конкретной страницей с этого сайта.

В частности, на вес не влияет изменение ТИЦ в любую сторону.

А влияет ли на вес вашей ссылки с донора то, что донор развивается? Мне кажется, сам по себе факт добавления новых страниц не влияет никак.

Если, например, некий сайт добавляет на себе каждый день по две страницы, но с каждой упорно ставятся по две внешние ссылки – с какой стати на основании того, что сайт растет, вес ссылок с него будет увеличиваться? А с какой стати уменьшаться?

А вот если мы начинаем нарушать равновесие, тогда… Если начнем ставить больше ссылок со страницы – мы, скорее всего, уменьшаем траст донора, если меньше – скорее всего, увеличиваем.

Я бы всем советовал, размещая ссылки на своем ресурсе, следить за тем, чтобы были страницы вообще без ссылок, например. В общем случае это выглядит естественнее, не так ли? И уменьшает общую заспамленность внешками. Если вы покупаете на себя ссылки, то, соответственно, покупать у того, кто пишет что-то и не под проставление постовых:)

Подобную тактику предлагают иногда для того, чтобы владелец донора не попал под АГС. Всё правильно. Одно с другим связано.

VN:F [1.9.7_1111]
Rating: 5.0/10 (1 vote cast)
VN:F [1.9.7_1111]
Rating: +1 (from 1 vote)

Уникальный пост про неуникальный текст

Помешанным на уникальности посвящается В seo-рунете вовсю муссируется мысль о необходимости иметь на своем сайте только уникальные тексты.

Возможно, у меня появится настроение написать что-то по поводу этого, пока замечу только:

1)сама по себе уникальность текстов не поднимет ваш сайт в топ (задумайтесь над тем, что самый уникальный текст – это полный бред),

2)переписывание неуникального текста на уникальный совсем не обязательно поднимет ваш сайт в топ, а то и наоборот – опустит (в том случае, если вы промахнетесь с вхождением ключевых слов),

3)подумайте о том, как могут быть уникальными типовые описания товаров в интернет-магазинах, тексты законов, определения медицинских, математических, еще каких-то терминов… В топе нет интернет-магазинов? Ну и так далее…

4)вашу уникальную статью перепечатал другой сайт, набитый копипастом, и он выше… Ай-яй-яй… Будете все переписывать на своем сайте снова?

В общем, не ведитесь на то, что уникальность правит топом, это как минимум половинчатое утверждение.

И все же это не значит, что нам не нужно проверять уникальность:) Просто уникальность текстов должна быть именно составляющей успеха, одной из.

А где проверять?

Способ 1, мной нелюбимый:

http://miratools.ru/Promo.aspx

Это сервис от создателей миралинкс. Не нравится он мне потому, что он слишком медленный и ограниченный. Ограничения по количеству проверяемых символов, причем учитываются даже пробелы – иногда приходится сидеть и удалять пробелы в тексте, чтобы вместить “лишние” 50 символов. Жадные они, короче. Вводить проверяемый урл надо жестко как домен, причем (давно не пользовался) вроде как обязательно без http:// или наоборот с ним… Может, сейчас исправили – но в свое время меня бесило – могли бы принимать как вводит пользователь и сами форматировать, а не сообщать об ошибке. Задание отправляется на проверку и тебе непонятно, что оно туда ушло, непонятно, сколько ждать, на какой стадии проверки ты находишься… Если в этот момент ты, не разобравшись, нажмешь еще раз на проверку, то она просто будет отправлена еще раз, как самостоятельное задание, а число проверок у тебя ограничено по ip. Не позволяют искать неуникальные куски текстов внутри одного сайта, точнее – хотят за это деньги. Для компании, владеющей миралинксом + гогетлинксом + еще чем-то там такие попытки заработать, не будучи к тому же монополистом на рынке, мне кажутся просто позорными. Запоминает число поисков не по ip, а при помощи кукис.

Способ 2, бесполезный для сео.

Никогда им не пользуюсь, но пользовались некоторые клиенты, поэтому пару слов – http://www.antiplagiat.ru/ Пара слов такая: это для преподавателей и студентов. Всё!

Способ 3, гуглообразный.

http://copyscape.com/ – замечательный инструмент. Тоже, правда, хочет денег, ну так что ж… Вы не хотите? Ограничивает количество поисков с одного ip в сутки, ограничивает количество поисков по страницам одного сайта в сутки по ip. Соответственно, защита обходится сменой ip. Особенность этого сервиса: результаты поиска открывайте в отдельной вкладке или странице, так как по умолчанию сайт открывает всё в том же окне, а возврат к поиску суть новый поиск:) Замечательно подсвечивает куски неуникальных текстов, при этом ищет в своем собственном кэше. Ищет очень быстро! То есть это реально почти поисковик – есть им куда развиваться.

Способ 4, программный.

Единственная известная мне сейчас бесплатная, эффективная и удобная программа – адвего плагиатус: http://advego.ru/plagiatus/top/ Мои восторженные пускания слюней:

весит практически ничего, менее 2 мегабайт,
скачивается бесплатно,
устанавливается бесплатно и быстро,
работает очень быстро,
работает очень эффективно,
проверять можно, вводя урл, как в копискейп, а можно – вводя текст, как в миратулз.

Одни плюсы!

Пара подсказок для желающих попользоваться:

1)удобно раскрыть программу на весь экран и подтянуть нижнюю часть ползунком вверх, чтобы видеть весь список урлов с совпадающими кусками текста,
2)в настройках программы поставьте приказ останавливать проверку не по достижении 50% неуникальности, а по достижении 0%. Так вы увидите всё, что способна найти программа! А вашей целью должно быть не желание моментально побежать переписывать неуникальный текст, как выгодно было бы адвеговцам, а – оценить необходимость этого действия.

Да, к слову – респект за бесплатность программы, но надо понимать, что таким образом создатели добились проставления огромного бесплатного числа живых тематичных ссылок на свой ресурс.

И, наконец, самый рабочий вариант проверки на уникальность в поисковой системе ЯНДЕКС:

Способ 5 – спросите яндекс!

Это очень просто. Хотите определить уникальность текста в яндексе? Выберите несколько предложений из текста, не превышающих 40 слов в запросе и просто киньте этот кусок текста в поиск. Иногда советуют бросать этот кусок текста в кавычках. Можно и так, это ищет полные совпадения. Но поиск неполных совпадений имхо интереснее – видны плохие рерайты.

А позиция определенного сайта относительно других даст вам представление об относительном трасте выданных поиском сайтов.

__________________________

Дополнение от 13.06.11 Бытует мнение, что яндекс склеивает неуникальные страницы. Увы, это не совсем так. Правильнее будет сказать, что он старается не пускать в поиск дубли страниц, но делает это порой криво. Так, могут быть выкинуты продвигаемые страницы вашего сайта (и позиции просядут). Что касается скопированных кем-то страниц, то яндекс их выкидывает не так часто, как этого хотелось бы честным создателям уникальных текстов.

VN:F [1.9.7_1111]
Rating: 10.0/10 (1 vote cast)
VN:F [1.9.7_1111]
Rating: +2 (from 2 votes)

LiveJournal в обнимку с Twitter-ом

Появилась возможность напрямую транслировать сообщения со своего твиттера в свой жж.

Выглядит очень смешно – какие-то обрывки мыслей…

Особенно смешно, когда из твиттера транслируются в жж, посты, являющиеся рекламными ссылками в этом твиттере на этот жж:)

Ссылок не даю, ибо недостойно дарить внешнюю ссылку недотыкомкам…

VN:F [1.9.7_1111]
Rating: 5.0/10 (1 vote cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)