Как удалить с хостинга неиспользуемые картинки

Началось все очень просто – хостер прислал письмо о том, что в моем пользовании осталось менее 1% свободного места.

Хостер, кстати, sweb.ru Я его всячески рекомендую для небольших (а теперь, немного подразобравшись, пожалуй – и для вполне так приличных) блогов… Continue Reading →

VN:F [1.9.7_1111]
Rating: 1.5/10 (2 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Нужно ли закрывать меню сайта в noindex?

Меню влияет на расчет частотности слова на страницеНужно, нужно…

Я не буду показывать примеры клиентских сайтов, покажу “на себе”:)

Смысл простой – уже несколько раз я замечал, что меняется релевантность страниц, если индексируется текст из меню. Самое обычное дело при этом, разумеется – позиции проседают. Особенно это заметно, если слово держалось в топе или рядом не только на текстах, но и ссылках, и вот получается, что все ссылки ведут на страницу А, а релевантной, согласно тексту, оказывается страница В. Continue Reading →

VN:F [1.9.7_1111]
Rating: 5.0/10 (1 vote cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

WordPress: закрываем в nofollow календарь

Не иди за мной, мой календарь не для тебя! Начало работы seo-напильником – тут. Там мы закрыли в nofollow tags и я  написал, где метки можно закрыть в noindex, что, к слову, проще, чем в nofollow.

Остается календарь.

__________________________

Находится он через FTP в файле wp-includes/general-templates.php в функции get_calendar () Continue Reading →

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Закрыть в wordpress облако тегов в noindex и nofollow

not follow me! Задача долго не казалась необходимой, но в попытках разобраться, почему же никак не работает robots.txt для гугл, все свелось именно к этому…

Коротко о содержании предыдущих серий: для того, чтобы сайт хорошо ранжировался, необходимо, чтобы в индексе поисковика не было лишнего. Например, полных или частичных дублей основных страниц. Решение – уничтожение дублей физически или виртуально. Про физическое: либо действительно уничтожить страницу (чтобы отдавался ответ ошибка 404), либо оформить редирект 301 с нее на нужную. Виртуальное: закрыть часть текста в noindex или nofollow. Continue Reading →

VN:F [1.9.7_1111]
Rating: 10.0/10 (4 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

WORDPRESS: отключить gzip

Никому не рассказывай, что я такой балбес... Вдруг заметил неприятную вещь – с одного компьютера этот сайт открывается отлично, а с другого – белый экран и сообщение:

Страница, которую вы пытаетесь просмотреть, не может быть показана, так как она использует неверную или неподдерживаемую форму компрессии.

Как раз перед этим установил кучу плагинов, сразу подумал, что дело в одном из них, но в каком?

Попробовал пояндексить по тексту сообщения об ошибке, нашел разговор о подобном на форуме, с предположением, что проблема в том, что включен gzip. Админ пишет, что да, мол: сжатие Gzip: ВКЛ Ну, правильно – компрессия… Решил попробовать, что будет, если отключить…

Поиск по админке ничего не дал.

Снова полез в яндекс (говорят – гуглить, но я вот продвигаю все в яндексе, и как-то привык к нему, поэтому и сочинил только что – “яндексить”). Нашел сходу рецепт:

Нажимаем кнопку “Настройки”, вкладка “Чтение”, снизу снимаем галку “WordPress должен упаковывать статьи (gzip), если браузер поддерживает сжатие”.

Не знаю, как в вашем варианте wordpress, а у меня нет такого окошка.

Зато я нашел ее, точнее – аналог, в настройках Hyper Cash:

Compression

Enable compression
When possible the page will be sent compressed to save bandwidth. Only the textual part of a page can be compressed, not images, so a photo blog will consume a lot of bandwidth even with compression enabled. Leave the options disabled if you note malfunctions, like blank pages.
If you enable this option, the option below will be enabled as well.

Я, конечно, понимаю, что вообще говоря, главная проблема – в моем браузере, но сколько их таких, неправильных браузеров, у ваших читателей?

VN:F [1.9.7_1111]
Rating: 0.0/10 (0 votes cast)
VN:F [1.9.7_1111]
Rating: 0 (from 0 votes)

Ускорить работу wordpress: Hyper Cash

Слишком очевидные тормоза сайта заставили меня полезть в интернет – найти все же, как ускорить wordpress?

Скажу сразу, что информации в сети полно, и я не проводил измерения ускорения в миллисекундах, как некоторые уважаемые блоггеры. Но мне это не так важно – потому что факт ускорения загрузки страниц виден невооруженным глазом. И еще – я думаю, что работа не окончена – потому что на самом деле полученный эффект по большому счету – иллюзия. Это не сайт работает быстрее, а просто пользователю отдается закешированная на сервере версия страницы.

Да, ускорить сайт можно по-настоящему: внешними условиями – найдя суперхостинг, внутренними – оптимизировав БД, код страницы, а можно визуально – закешировав его. Кэш может быть со стороны пользователя, но тогда в первый раз все равно посетитель будет грузить всё и грузиться сам – раздражением… Мне кажется, правильнее все же возложить бремя на сервер…

Сразу скажу, что после экспериментов с несколькими плагинами я остановился на Hyper Cash.

К слову замечу также, что, не имея опыта работы в вордпресс, я сначала пошел стандартным и сложным путем – скачал плагин в формате .zip, распаковал, залил его через FTP, потом пошел искать, как его подключить. Оказалось, все намного проще: скачав .zip, просто идите в раздел Plugins в админке, выбирайте последовательно Add new, Upload, Обзор, Install now, Activate. Все понятно, как говорится, интуитивно, за что создателям вордпресса огромное спасибо.

Вордпресс тормозит! Но если заглядывать вперед, то все же правильнее будет еще и оптимизировать код. Это ужасно, что вордпресс при создании каждой страницы обращается к базе данных, чтобы вытащить оттуда кодировку сайта, урл его главной страницы и пр. Ужасно, что каждый плагин создает отдельно файл стилей и файл скриптов, и так далее…

Этот сайт создан на вордпрессе именно для изучения данной админки и преимуществ блогов, пока что я в шоке от ее не-оптимизированности под сео.

VN:F [1.9.7_1111]
Rating: 6.7/10 (3 votes cast)
VN:F [1.9.7_1111]
Rating: +1 (from 1 vote)

Как поправить robots.txt в wordpress?

Дурацкий вопрос, не так ли? Ну, все же знают – какая разница, какая админка, robots.txt – текстовый файл, лежащий в корневой директории. Это даже яндекс в своем хелпе пишет: Robots.txt — текстовый файл, расположенный на сайте, который предназначен для роботов поисковых систем.

И вот я вижу на сайте клиента роботс из строчек:

User-agent: *
Disallow:
Sitemap: http://mysite.ru/sitemap.xml.gz

Пример не просто так, это станет ясно позже.

Как же тут темно и непонятно! Иногда я вспоминаю, как начинались вебсайты – чистый html, правка только через FTP, и глаза мои наполняются огромной ностальгической слезой:) Потому что, хотя все, что мы видим на экране, физически суть нули и единицы, все же естественно предполагать, что page.html – это страница на html, page.asp – на asp, page.php – на php. Но нет, увы. Коварный прогресс внес свою виртуальную сумятицу в виртуальный мир – теперь можно, например, писать сайт на php, все хранить в базе данных, а выдавать клиенту как php, asp, html, fig, znaet, chto, escho, pridumaesh… И к этому мы привыкли быстро.

Но к тому, что чисто текстовый файл robots.txt правится через админку и по сути является таким же продуктом цмски, хранящимся в БД… Это меня все еще продолжает смущать.

Итак,

Где правится robots.txt в wordpress?

Я залез на FTP, увидел, что текстового файла нет, сжал губы – понял, что эта хрень хранится в БД. Написал свой роботс – залил и… Ничего не изменилось. Хотя приоритет у физического варианта, если так можно назвать текстовый файлик, обязан быть.

Пошел искать в сеть. Нашел только мануал для идиотов: зайдите в админку, найдите слова Options > Robots.txt и правьте… При этом, что примечательно, предупреждение, что если уж правите через wp, то не заливайте настоящий роботс на сервер… Ну да…

Плагины для создания РОБОТС на ВОРДПРЕССе

Не буду вас долго мучить, хотя, пользуясь случаем, передаю привет благодарность человеку, нашедшему, тоже не сразу, решение проблемы – Александр Милевский, прошу любить и жаловаться.

Оказывается, существует плагин Google (XML) Sitemaps Generator for WordPress основное предназначение которого – создание xml-карт. Для удобства идиотов пользователей этот плагин не только генерит карту, но тут же сжимает ее, создает роботс и вписывает адрес сжатой карты туда. Все бы было хорошо… Только при этом он не дает этот роботс править.

Выключение плагина не дало результатов.

Удаление плагина не дало результатов.

Все получилось только когда под косу подложили камень – установили другой плагин для создания и правки robots.txt – KB Robots.Txt

Он переписал в базе данные роботса, созданные предыдущим.

Проблема решена.

Тихая ненависть к облегчателям жизни оптимизаторов осталась:)

VN:F [1.9.7_1111]
Rating: 10.0/10 (3 votes cast)
VN:F [1.9.7_1111]
Rating: +1 (from 1 vote)