12 пунктов быстрого seo анализ сайта без заморочек

Введите в поиске запрос “seo аудит сайта” и увидите 100 и один бесплатный сервис, который с радостью предоставит 1000 и один параметр. Данных получите тьму, однако, не имея за плечами пятилетнего опыта работы в продвижении, понять что все они значат будет трудновато.

Сегодня наша задача в максимально короткие сроки проверить сайт на адекватность алгоритмам поисковых систем и не запутаться в seo терминологии. Статья будет полезна всем, кто хочет быстро произвести seo анализ сайта, но не планирует долго разбираться в деталях.

Итак, 12 простых шагов, чтобы узнать насколько сайт готов к продвижению:

1. Смотрим на title

Title – текст, который отображается в заголовке браузера. Он должен содержать ключевые слова, по которым планируете продвигать страницу. То есть если продвигаетесь по запросу “массаж в краснодаре”, то слово “массаж” обязательно должно быть в заголовке. А теперь проверите главную страницу вашего сайта. Если в заголовке указан самый высокочастотный и важный для вас запрос, а не название компании, то уже хорошо.

2. Внимательно читаем description

Description – это краткое описание страницы сайта, которое помогает поисковому роботу понять её суть. Чтобы проанализировать есть или нет описание, нужно на интересующей странице сайта правой кнопкой мыши вызвать меню и выбрать пункт “просмотр кода страницы”. С помощью быстрого поиска по странице (Ctrl-F) найти слово “description” и посмотреть вписал ли seo оптимизатор что-нибудь или нет.

3. Проверяем наличие файла robots.txt

Файл robots.txt показывает поисковому роботу на что нужно обратить внимание на сайте, а что лучше обойти стороной. На самом деле, просто наличия файла robots.txt мало, важно, чтобы он корректно отображал данные. Но для подробной проверки файла всё-таки придётся хорошо разобраться в тонкостях seo оптимизации, что сегодня в наши с вами планы не входит. Для первичного анализа достаточно просто проверить его наличие. Напишите название своего сайта и через слеш robots.txt (site.ru/robots.txt). Если страница нашлась на сайте, то всё хорошо.

4. Смотрим настроена ли карта сайта

Карта сайта так же как и файл robots.txt помогает поисковому роботу верно изучать сайт. Проверить наличие карты можно так же через слеш site.ru/sitemap.xml

5. Ищем компанию в справочниках Яндекса и Гугла

Проверить есть компания в справочнике Яндекса или нет можно здесь http://sprav.yandex.ru/, а в справочнике Google здесь: http://goo.gl/aQ45QH

6. Анализируем скорость загрузки страниц

Время загрузки сайта влияет на скорость индексации и процент отказов от сайта. Ни роботы, ни люди не любят ждать долго. Тестировать скорость можно в массе сервисов, но за адекватность результатов, мы выбрали http://tools.pingdom.com/. Хороший показатель до 3, 5 s, всё что выше уже диагностирует проблему.

7. Оцениваем уникальность текстов

Неуникальные тексты – это зло, кто не верит читайте нашу статью. Проверить весь сайт на уникальность в бесплатных сервисах проблематично, так как проверка идёт постранично. Но если обнаружите на 2 страницах из 5 контент с уникальностью не более 60%, то вероятно на остальных будет не лучше. Советуем для проверки использовать сразу два сервиса – результаты иногда сильно отличаются и нужно брать среднее значение. Попробуйте работать с findcopy.ru и www.content-watch.ru

8. Проверяем всё ли ненужное закрыто от индексации.

Под ненужным я понимаю прежде всего страницы результатов поиска по сайту, внутренние страницы профилей, личные кабинеты, админ. панель и т.д. Проверить что скрыто от индексации и скрыто ли вообще, можно с помощью того же файла robots.txt

9. Тестируем редиректы

Редирект – это способ сделать одну и ту же страницу доступной под разными адресами. Нужны они для того, чтобы не было дублей страниц, поисковые роботы всегда негативно относятся к подобным задвоениям. Самый важный редирект – это главная страница сайта. Проверьте два варианта адреса: yoursite.com и yoursite.com/index.php или yoursite.com/index.html. Если сайт доступен одновременно по двум адресам, то у вас проблема.

10. Проверяем ЧПУ

ЧПУ– это сокращение от человекопонятный URL. То есть название страницы сайта, которое может быть легко прочитано пользователем. Вот так будет выглядеть нечеловекопонятное название: mysite.ru/articles.phpid=148, а так оно же, но в понятном для людей виде: mysite.ru/articles/tags/summer. В первом случае, код поймёт только робот, во втором - как робот, так и человек.

А теперь посмотрите на страницы вашего сайта. Можете прочитать? Если нет, то звоните разработчику.

11. Анализируем вложенность страниц

Этот пункт особенно интересен компаниям с каталогом продукции на сайте. Часто программисты делают каждый подраздел каталога на новом уровне вложенности. И получается, что товар “дверь шпонированная” лежит в каталоге, в разделе “двери межкомнатные”, в подразделе “двери шпонированные”, в подразделе подраздела “акционный товар”. А между тем, чем дальше ваша страница от главной, тем сложнее её будет продвинуть. Убирайте лишние уровни вложенности. Идеальная структура, когда все товары лежат на одном уровне и различаются кодировкой. Так сделаны каталог у Ulmart, где все товары выглядят так: www.ulmart.ru/goods/355148

12. Ловим битые ссылки.

Битыми называют ссылки, которые ведут в никуда. Чтобы проверить сколько на сайте таких “обманных путей” и на каких страницах они расположены, воспользуйтесь сервисом www.brokenlinkcheck.com/broken-links.php#8

Если по результатам краткого seo анализа, вы определите хотя бы 2 пункта с плохими показателями, то время бить тревогу. Ошибки в элементарном, говорят о более серьёзных проблемах. Связывайтесь с разработчиком, если найдёте проблемы чисто технического характера: скорость загрузки, отсутствие ЧПУ или большая вложенность страниц в каталоге. По всем остальным вопросам должен держать ответ ваш специалист по продвижению.


click fraud detection