Фундаментом любого сайта является его техническая сторона. Помимо широкого и приятного функционала, красивой обертки и юзабилити для продвижения очень важна SEO оптимизация, которая позволит роботам поисковых систем быстро и правильно индексировать содержимое ресурса. Давайте определим основные моменты, которые следует учесть для SEO оптимизации сайта.

1. Кабинеты вебмастеров и счетчики

Начиная работу над продвижением своего ресурса, нужно зарегистрировать его в кабинетах вебмастеров. Это самый лучший сигнал для поисковых систем, и вскоре роботы начнут посещать сайт.

Однако, недостаточно просто добавить домен, кабинеты необходимо правильно настроить. Например, в Яндекс.Вебмастере не будет лишним:

  • добавление карты сайта sitemap.xml в соответствующий раздел ()
  • указание региональности ()
  • проверка robots.txt на правильность составления ()

Помимо прочего, вебмастера располагают массой полезных инструментов:

  • различными валидаторами для проверки корректности составления тех или иных документов (карты сайта, микроразметки и т.д.)
  • возможность отслеживать статистику по запросам (показы, клики, CTR и т.д.)
  • просмотр статистики индексирования страниц (что попало в поиск, а что нет, и по каким причинам)

Для получения более полной и подробной информации о посещаемости и поведении пользователей на вашем сайте зарегистрируйте и установите счетчики посещаемости. Счетчик - это прекрасный инструмент, который поможет разобраться, как и в каком направлении двигаться, работая над популярностью ресурса.

Текстовый файл robots.txt должен присутствовать у каждого сайта и быть доступен по адресу example.ru/robots.txt . Это первый файл, к которому обращаются роботы при посещении сайта и в котором хранятся инструкции для них.

В зависимости от того, на какой системе управления работает ваш сайт, формируются эти самые правила. Давайте кратко определим, что должно быть в данном файле:

  1. Должны быть указаны правила для разных роботов (User-agent: Yandex, User-agent: GoogleBot и т.д.), т.к. правила и директивы для каждого из них могут отличаться.
  2. Закрыты от индексации все системные ресурсы (шаблоны, исполнительные файлы и т.д.).
  3. Закрыто все, то что не должно присутствовать в поиске (страницы регистрации/авторизации, результаты фильтрации/поиска и т.д.).
  4. Указана директива Host для робота Yandex.
  5. Указана карта(ы) сайта sitemap.xml.
  6. Для робота GoogleBot должны быть открыты файлы, влияющие на отображение сайта (js, css, изображения, шрифты). Подробнее об этом можно почитать .

Более подробно о настройке robots.txt можно прочитать и .

3. Sitemap (карта сайта)

Карта сайта - один основных способов улучшения навигации по сайту как для поисковых роботов, так и для пользователей.

Для роботов карта сайта генерируется в формате xml и должна содержать все ссылки, которые будут индексироваться и участвовать в выдаче.

Для многих популярных CMS существуют специальные плагины, позволяющие создавать и настраивать карту (например Google XML Sitemaps для WordPress или XMap для Joomla). Если сформировать карту при помощи дополнений нет возможности, то здесь помогут различные онлайн-генераторы, например MySitemapGenerator , или же настольные приложения, например ComparseR, Sitemap Generator .

Не будет лишним добавление карты сайта в формате html (обычная страница со списком разделов и ссылок). Она облегчит навигацию как для посетителей, так и для роботов. Не стоит делать её слишком объемной, например, для интернет-магазина достаточно будет сделать иерархию из основных разделов и категорий.

4. Битые ссылки

Большое количество таких ссылок отрицательно сказывается на отношении пользователей к вашему ресурсу, ведь мало кому понравится видеть сообщения об ошибке вместо интересующего материала.

Поисковые системы тоже способны сделать некие отрицательные выводы о ресурсе с чрезмерным количеством таких ссылок, например, что контент не актуальный, сайт не обновляется (за ним попросту не следят) и т.д.

Не ленитесь регулярно проверять свой ресурс на наличие битых ссылок. Воспользуйтесь довольно удобным сервисом для поиска .

5. Исключение дублей

Дубли страниц - это доступность одного и того же материала по нескольким адресам.

Наличие дублированного контента приводит к следующим проблемам:

  1. ПС могут неправильно определить основную (релевантную) страницу, что может повлиять на позиции сайта. Поисковые роботы могут склеить адреса, выбрав приоритетной страницей наименее желательную.
  2. Дубли создают дополнительную нагрузку при обходе сайта роботом, в следствие чего увеличивается время на индексацию.

Пожалуй, это одна из основных трудностей технической оптимизации сайта. Если нет возможности устранить дубли технически, нужно воспользоваться канонической ссылкой с атрибутом rel=canonical тега link.

Предположим, что материал доступен по двум адресам:

www.site.ru/page

www.site.ru/page111

Предпочтительным будет первый вариант, а канонический тег будет выглядеть так:

‹link rel="canonical" href="www.site.ru/page" /›

Он должен присутствовать в коде обеих страниц между тегами ‹head› и ‹/head›.

Если и это не удается сделать, имеет смысл закрыть дубли в robots.txt или настроить 301 редирект. Подробнее читаем .

6. Настройка ЧПУ

10. Ответ сервера

Когда пользователь открывает страницу в браузере (или робот начинает ее сканировать), сервер, на котором находится сайт, отдает в ответ на этот запрос код статуса HTTP, то есть предоставляет информацию о вашем сайте и запрашиваемой странице.

Например,

200 - со страницей все в порядке

404 - несуществующая страница (советы по оформлению страницы 404)

503 - сервер временно недоступен

Бывает, код статуса отдается неверный. Например, страница рабочая, а статус-код 404, или наоборот, несуществующие страницы отдают код 200. Это нужно обязательно отследить и провести корректную настройку статус-кодов в файле.htaccess.

Особенно важно настроить 404 ошибку. Если страница существует, а сервер при ее запросе сообщает о 404 ошибке, страница не будет проиндексирована поисковиками.

Проверить коды статусов можно с помощью соответствующего инструмента в Яндекс.Вебмастере или приложения «Firebug» для браузера Mozilla Firefox.

11. Скорость загрузки

Скорость работы ресурса, загрузки страниц, выполнения скриптов и т.д. - один из ключевых показателей технической оптимизации. Вряд ли пользователю будет приятно дожидаться долгого ответа сервера, отрисовки страницы, или отправки данных через какую-нибудь форму - он просто уйдет, и, как правило, не вернется.

На этот момент активно обращают внимание и поисковики. Ведь то, что не нравится пользователю - не должно нравиться и ПС.

Чтобы оценить и выявить факторы, которые тормозят работу ресурса, можно воспользоваться инструментом Google PageSpeed Insights . Результатом будут два относительных показателя с рекомендациями необходимых работ для поднятия скорости:

Итог

Все это только основные моменты, которые следует учесть для технической оптимизации сайта. Помните, грамотное SEO, а в частности техническая оптимизация - это результат большого объема работ, которые в сумме дают хороший эффект, и довольно часто пренебрежение хотя бы одним из параметров может все труды «свести на нет». Если хотите проверить, всё ли у вас в порядке с технической оптимизацией сайта, то SEO-аудит вам в помощь. Если хотите, чтобы не только проверили, но и правильно всё настроили, то вам необходимо

Это комплекс доработок технических аспектов сайта, главная цель которого устранение всех недочетов и .

Технические работы по сайту требуется проводить на самом первом этапе продвижения, даже предварительном. Для этого сначала проводиться технический аудит с целью обнаружения всех ошибок, которые затем устраняются специалистами. Если при аудите найдены все ошибки, и все они исправлены корректно, то такие работы достаточно провести единожды. Благодаря этому, сайт продвигать намного проще: загрузка работает быстро, сайт хорошо индексируется поисковыми системами, и нет никаких внешних препятствий.

Аспекты технической оптимизации сайта

Рассмотрим те моменты технической оптимизации сайта, которые необходимо оценить на корректность работы перед продвижением.

  1. Качественный хостинг и сервер. О критериях хорошего хостинга можно говорить много. Главное - чтобы он работал стабильно, и время ответа сервера было быстрым. Хорошо если у него будет «дружелюбная» поддержка и налаженная система бэкапов. Для больших сайтов, порталов или сайтов с большой посещаемостью важно постоянно мониторить нагрузку на сервер и стабильность его работы.
  2. Настройка ответов сервера. Во время загрузки страницы посылается запрос серверу, который отвечает кодом статуса http и загружает или нет страницу. Основные статус коды:
    • 200 - страница существует и корректно обрабатывается сервером
    • 404 - страница не существует
    • 503 - сервер недоступен
    Особенно важно, чтобы ваша страница 404 ошибки отдавала код 404, а не 200. Проверить ответ сервера можно в Яндекс Вебмастере .
  3. Устранение дублей страниц. Это, пожалуй, самая глобальная техническая проблема, которая встречается на большинстве сайтов. Из-за дублей страниц появляется несколько копий одной и той же информации и поисковой робот не может определить, какая из них наиболее релевантна, поэтому понижает в выдаче все. Целую отдельную статью можно написать о том, как найти и устранить дубликаты. Система управления сайтом, на которой чаще всего встречается данная проблема, Joomla. На ней нужно постоянно смотреть, чтобы дубли не генерировались автоматически. Основные виды дубликатов:
    • Не настроенное главное зеркало: сайт доступен как по www так и без него
    • Главная страница доступна по таким адресам как http://site.ru/index.php или http://site.ru/index.html и пр.
    • Слэш в конце url адреса - нечеткие дубли
    • Большой и малый регистр в url-адресе
    Удаление дублей осуществляется посредством устранения источника их образования и настройки редиректов через файл.htaccess или через php.
  4. Файлы robots.txt и sitemap.xml. Прописанные в данных файлах инструкции помогают поисковым роботам корректно индексировать сайт. Оба они должны находиться в корневой директории сайта. В файле robots.txt указывается, какие страницы и каким роботам индексировать не нужно, главное зеркало сайта и адрес xml карты, остальные инструкции используются редко. От индексации запрещаются обычно служебные разделы, поиск, страницы сортировки и пр.
    используется реже. В нем указываются страницы сайта, их последнее время редакции и частота обновления. В целом, если навигация на сайте организована хорошо, то в нем нет необходимости - поисковой робот и так найдет все страницы.
  5. Оптимизация скорости загрузки сайта. Время загрузки сайта становится все более важным показателем ранжирования. Если сайт будет грузиться долгое время, то пользователь просто закроет страницу и вернется в выдачу для продолжения поиска. Это увеличит показатель отказов на сайте и снизит поведенческие характеристики. Основные моменты оптимизации скорости загрузки сайта следующие:
    • Оптимизация графики. Смотрите на размер картинок перед загрузкой их на сайт. Чем они меньше, тем лучше. При этом качество должно сохраняться.
    • Скрипты на javascript и flash пока не совсем корректно обрабатываются поисковыми роботами и нагружают сайт, поэтому чем их меньше, тем лучше. Многие вещи сейчас можно реализовать посредством css3. Используйте приоритетно программирование на php, чем подключение плагинов и модулей (больше касается сайтов на системах управления wordpress и joomla).
    • Оптимизация css. С помощью сжатия кода css можно сократить объем загружаемых данных и ускорить их обработку.
    Очень хороший сервис по проверке скорости загрузки сайта и его отдельных страниц есть у google. Здесь вам выдаст критические ошибки и рекомендации, которые есть у google для оптимизации скорости загрузки. Его же можно найти в google analytics.
  6. Оптимизация кода сайта. Этот пункт во многом перекликается с предыдущим, так как оптимизируя код, вы уменьшаете время загрузки сайта. К указанному выше также можно добавить кроссбраузерность кода и кроссплатформенность, а также его валидность и правильную кодировку. Проверить код на валидность можно с помощью сервиса validator.w3.org . Не ждите, что ошибок совсем не будет, так как не весь интернет еще понимает html5, но и слишком много их не должно быть.

Кроме перечисленных аспектов необходимо проверить также наличие битых ссылок на сайте, идентификаторов сессий в url и другую информацию. Найти все эти ошибки без специальных знаний, опыта или без изучения технической литературы будет затруднительно, а с исправлением всех ошибок дело еще сложнее. В нашей компании вы можете заказать технический аудит сайта и решение всех разрешимых проблем нашими специалистами. Услуга аудита предоставляется бесплатно в рамках .

Звоните нам по телефонам или оставляйте заявку через форму на сайте!

Выполнение технических доработок - самый первый и наиболее важный этап . Обычно эта процедура проводится только один раз, перед стартом продвижения. В дальнейшем возможна корректировка некоторых технических составляющих сайта.

Техническая оптимизация сайта (технические доработки) – это комплекс мер, направленных на корректировку технических аспектов сайта, с целью улучшить его взаимодействие с роботами поисковых систем.

Основная задача технической оптимизации – обеспечить максимально полную и быструю страниц сайта. Без проведения технических доработок эффективное значительно усложняется или вовсе становится невозможным.

Обратите внимание, что в «Энциклопедии поискового продвижения» мы не даем инструкций по технической доработке сайта, а рассказываем о наиболее распространенных проблемах и способах их решения. Эта информация поможет вам правильно поставить задачу веб-разработчикам. Вносить технические изменения в сайт должны специалисты, обладающие необходимыми знаниями и умениями. Неквалифицированное вмешательство в код сайта способно привести к его полной неработоспособности.

Здесь и далее мы рассматриваем решения для сайтов, которые обслуживаются HTTP-сервером Apache, поскольку, по данным исследовательской компании Netcraft, этим типом сервера обслуживается более 60% всех сайтов в мире.

Технические доработки сайта делятся на следующие группы:

  • Устранение проблем хостинга и оптимизация кода. Чем ненадежнее хостинг и чем больше мусора в коде, тем дольше грузится страница. Это отрицательно влияет на . Именно по этой причине следует оптимизировать код и устранить проблемы с хостингом, дополнительно исправив ошибки, возникающие в разных браузерах.
  • Настройка редиректов и статус-кодов. Данные процедуры следует провести для настройки зеркал, склейки дублей страниц, настройки корректной обработки 404 ошибки. В случае стандартного PHP-хостинга перенаправления (редиректы) настраиваются в файле.htaccess. Обработка 404 ошибки поможет избежать дублей на сайте.
  • Сопутствующие настройки сайта. Корректно составленный файл robots.txt поможет запретить или разрешить индексацию страниц, дублей и разделов сайта, указать основное зеркало. Файл sitemap.xml поможет поисковику проиндексировать все страницы быстро и качественно.
  • Внутренние корректировки страниц сайта. Если навигация сайта или страницы целиком построена на технологии Flash, это значительно усложнит индексацию содержимого сайта или даже сделает её невозможной. Внутренние корректировки страниц сайта направлены на то, чтобы продублировать Flash, Frame, JavaScript элементы на HTML.
  • Настройка URL страниц. Из двух видов адресов страниц, псевдостатических и динамических, оптимальными в поисковой оптимизации считаются псевдостатические адреса. Их настройка производится в файле.htaccess. При этом очень важным моментом является корректная настройка редиректов со старых URL на новые.
  • Устранение дублей страниц и . Этот процесс требует особого внимания, так как наличие копий на сайте, как внутренних, так и внешних, может привести к наложению санкций со стороны . Работа с аффилиатами – это долгий и трудоемкий процесс, особенно если продвигаемый сайт уступает аффилиату.
  • Прочие технические доработки. Помимо перечисленного и в зависимости от сайта также приходится работать с удалением , устранением страниц с идентификаторами сессий, исправлением битых ссылок и другими техническими доработками.

Пренебрежительное отношение к технической оптимизации не дает многим хорошим сайтам достичь ТОПа.

Правильное и полное выполнение всех необходимых технических доработок является залогом корректной и быстрой индексации страниц сайта популярными поисковыми системами.

Как сделать сайт, готовый к продвижению? Основные технические критерии для успешной seo-оптимизации! Если у Вас уже есть сайт, то никогда не поздно проверить, найти ошибки и их исправить!

Структура сайта

Реализация логичной системы вложенности на сайте. Необходима реализация с учётом работы бизнеса. Это один из самых важных этапов, в котором закладывается фундамент. Переделывать – сложно и дорого.

Пример реализации

  1. Главная страница сайта
  2. Категория товара в интернет-магазине или раздел информационного сайта:

    domen.com/games/
    domen.com/sport/

  3. Подкатегории или подразделы:

    domen.com/games/tablehockey/
    domen.com/sport/football/

  4. Карточка товара или статья:

    Если есть уверенность, что выбранный раздел правильный и меняться не будет, то красиво организовать структуру и вложенность в ЧПУ согласно категориям \ разделам.

    domen.com/games/tablehockey/stiga-play-off/
    domen.com/sport/football/arshavin-pereshel-v-kuban/

    Если категории будут меняться, то вполне возможно лучше организовать структуру сайта так, чтобы конечные элементы (карточки товаров, статьи и т.д.) имели независимый адрес, тогда перемещение не будет за собой тянуть никаких сложностей.

    domen.com/stiga-play-off/
    domen.com/arshavin-pereshel-v-kuban/

  5. Теговые страницы, страницы брендов или вспомогательные и параллельные разделы.

    Обычно сайт должен иметь несколько параллельных веток.
    domen.com/brand/stiga/
    domen.com/tag/arshavin/

  6. Такая структура подразумевает, что каждая страница будет релевантна группе запросов, например:

  • игры в спб
  • купить игры
  • купить игры в спб
  • игры цены
  • спорт
  • новости спорта
  • новости спорта в россии
  • футбол
  • новости футбола
  • новости футбола в россии
  • стига плей-офф
  • настольный хоккей стига плей-офф
  • купить настольный хоккей стига плей-офф
  • аршавин
  • новости о аршавине
  • стига
  • стига настольные игры
  • купить стига
  • стига цены

И т.д.
Но это уже отдельная тема, группировки и составления семантического ядра сайта.

ЧПУ

ЧПУ нужно использовать либо полностью название «категории», «бренда», либо общепринятые обозначения. Важно, чтобы ЧПУ были все в нижнем регистре. Пробелы заменять «-» (тире). Не надо в ЧПУ использовать коммерческие слова «купить», «цена» и т.д. Не надо, чтобы в ЧПУ повторялись слова в разных уровнях вложенности. Если это ЧПУ товаров или статей, то необязательно использовать все название, можно сделать несколько ключевых слов (но помнить про уникальность). Лучше использовать транслит или перевод (не кириллические обозначения).

Ответы сервера

  1. Существующая страница должна отдавать ответ сервера – 200 ОК .
  2. Необходимо, чтобы несуществующие страницы отдавали – 404 ошибку .
  3. Настроить редиректы, страницы без слеша должны отдавать ответ 301 на страницы со слешем на конце.
  4. Настроить 301 редирект с www на «без www» или наоборот . Зависит от того, как больше нравится позиционировать сайт: www.domen.ru или domen.ru.
  5. Параметр Last-Modify должен или отсутствовать, или содержать реальное изменение информации на странице (обычно по тексту, содержанию).
  6. link-canonical – инструмент для того, чтобы сообщить поисковым сетям, что данная страница скорее носит “вспомогательный характер”, а есть основная, каноническая. Вес всех вспомогательных суммируется и передается основной. Хорошо использовать для пагинации, сортировок и т.д.

Карта сайта

Все страницы сайта должны быть собраны в sitemap.xml (если страниц много и ссылки не помещаются в один файл, то можно разбить на несколько файлов по смыслу).

Страница сайта

Каждая страница должна иметь возможность для размещения и редактирования:

  1. Текст
  2. Заголовок H1
  3. Title
  4. Keywords
  5. Description
  6. Название для вывода в меню сайта
  7. ЧПУ (уникальный)
  8. Картинки

Должна быть сделана генерация мета-данных (данные по умолчанию), которая бы легко генерировалась. Например, чтобы у всех страниц было что-то типа:

Title : Грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}
Keywords : грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}
Description : Грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}. Domen.ru – лучший сервис доставки грузов!

Генерация – это мета-теги по умолчанию, для каждой страницы введенные уникальные данные должны иметь приоритет.

Код сайта

  1. html код сайта не должен содержать стили и js-код (по возможности), все должно быть подключено через файлы, таблицы стилей. Вообще, чем короче, проще и валиднее код – тем лучше.
  2. Разметка заголовками h1-h6 должна быть только внутри зоны содержания текста, в остальном сайте должны использоваться обычные блочные элементы.
  3. Использовать schema.org и hcard – микроразметка поможет поисковым сетям хорошо понимать содержание Вашего сайта. Основное: контакты, хлебные крошки, фотографии. Если сайт подходит под тематику, то отзывы, рецепты и т.д.

Пагинация

Простой и удобный для пользователя способ разделить большой объем информации по страницам. Современные сайты часто используют подгрузку содержания по средствам AJAX, данный способ бывает удобен для пользователя, но затрудняет индексирование ресурса. Поэтому предпочтительнее использовать пагинацию, она может положительно сказаться и на поведенческие факторы (глубину просмотра). На страницах пагинации хорошо использовать мета-тег link-canonical.

Хлебные крошки

Необходима реализация хлебных крошек:

Главная >> Россия >> Финляндия
Главная >> Россия Санкт-Петербург >> Россия Москва
Главная >> Россия Санкт-Петербург >> Россия Москва >> 40DC Контейнер

Хлебные крошки должны использовать микроразметку – прочитать .

Перелинковка сайта

Реализовать перелинковку сайта (страниц, разделов). Т.е. реализовать что-то типа блока «Похожие направления», «Вам может быть интересно» и т.д. Цель – на каждую страницу должно вести (3-4 ссылки). Например, реализовать по принципу «кольца», когда страницы на одном уровне вложенности ссылаются на несколько соседних (по алфавиту или id).

Фавикон

Сайт должен иметь favicon (скорее всего уменьшенный логотип или его часть).

robots.txt

Сайт должен иметь robots.txt.

hreflang

Вместо вывода

Это основные пункты, есть ещё миллион мелочей для каждого конкретного случая, но если Вам кажется, что это список без этого неполный, то буду рад любым комментариям! Общий план оптимизации сайта я уже публиковал – .