Оптимизированный сайт – так ли сложно его создать?

Оптимизированный сайт – так ли сложно его создать?

Требования поисковых систем, алгоритмы, понижающие сайты в рейтинге, постоянные изменения и обновления в SEO — все это звучит безумно страшно для любого владельца сайта. Однако так ли это? Сложно ли создать сайт одновременно и для пользователей и для поисковых систем? В данной статье мы детально рассмотрим процесс создания сайта, который будет удобен и для людей и для машин. Немного забегая вперед скажу — он достаточно не сложен.

Рассмотрим основные требования с точки зрения поискового механизма и с точки зрения отдельно выделенного пользователя.

Удобная архитектура сайта

Первое, о чем вам необходимо позаботиться, так это логичная информационная архитектура сайта, которая будет удобна и пользователям и искусственному интеллекту. В основе опираемся на 2 принципа:

  • Удобство (простота использования сайта)
  • Логика построения архитектуры контента

Удобство использования сайта означает, что пользователь может найти для себя те самые продукт, услугу или информацию, которые им необходимы максимально быстро (чем меньше кликов совершит клиент, тем быстрее он будет удовлетворен). Тот же принцип (один из принципов ранжирования) относится и к поисковым движкам. Чем быстрее находится нужная страница, тем более релевантной (отвечающей запросам) она является и тем больше вероятность, что она будет показываться выше чем прочие аналогичные страницы.

Логичная архитектура сайта с четко продуманными разделами, подразделами и конечными страницами, а также с четко продуманной ссылочной структурой позволяет быстро находить нужную информацию. Такие структуры так же любят поисковики, поскольку благодаря такой структуре они могут максимально быстро найти нужную страницу и предоставить информацию о ней пользователям, которые вводят соответствующий запрос.

Такой же принцип используется в библиотеках, где существуют  тематики, каталоги и подкаталоги литературы, где введя нужный путь к интересующей вас книге, вы с большей долей вероятности ее получите.

Индексированный контент

Самый хороший контент – это быстро проиндексированный. Для высокого рейтинга контент должен быть организован в виде HTML-текста. Наиболее трудно поддаются индексации FLASH файлы. Именно поэтому они все реже и реже используются (если честно не припомню сайт, использующий сегодня такую технологию).

В достаточной степени трудно распознаются также различные изображения (форматы файлов JPG, PNG, GIF и т.д.). Для лучшего распознавания таких файлов придуманы поля для текстового ввода:

  • Название изображения
  • Alt

Рекомендую пользоваться и тем и другим (даже если изображений много). Ведь по картинкам, фото, инфографикам и прочим изображениям ваш сайт также могут найти, а значит приобрести ваш  товар или воспользоваться услугой (не забываем про раздел в поиске google «images» или «картинки» в яндексе).

Контент для пользователей

В последние годы представители поисковых систем в один голос все чаще говорят об уникальном и полезном контенте для пользователей. Это вино из каждой второй (если не первой статьи) публикуемых для интернет-маркетологов и специалистов по SEO. Это все очень правильно. Но возникает вопрос: а что это за контент? Каким точно он должен быть? Уникального рецепта здесь нет.

Но есть некоторые принципы построения такого контента:

  1. Структура контента. Любой текст на сайте должен быть четко структурирован и логично выстроен. Не рекомендуется писать длинные предложения. Даже если это научный или полунаучный текст, мысли лучше оформлять кратко и по теме (не увлекаться так называемой «водой» или размытостью понятий). Абзацы также лучше не делать большими. 3-6 предложений вполне достаточно чтобы оформить мысль. Если не удается, разбейте мысль на 2 абзаца. Для удобства чтения текста и для удобства распознавания его поисковыми машинами также применяйте подзаголовки. Они отлично демонстрируют логику пути по тексту.
  2. Разнообразие контента. Помимо текстового полотна разбавляйте контент изображениями (не забывайте проставлять названия и теги ALT). Так ваш контент будет изучен с большим интересом и меньше вероятность, что чтение прервется в самом начале текста. Интерес к контенту также проявляется благодаря вставкам коротких видео или GIF-динамических изображений.
  3. Уникальность. Это одна из основ правильного продвижения. Украденный или безграмотно скопированный текст может привести к дублированию контента на сайте, а значит поисковые системы не будут ранжировать такой контент в первую очередь. После написания контента проверяйте его на уникальность. Сегодня существует множество ресурсов для проверки уникальности контента:
  • Advego Plagiatus
  • ru
  • Etxt.ru и многие другие

Мета-теги для машин и людей

Одни из самых важных элементов – это мета-теги. Они находятся в блоке <head> </head> и предназначены для передачи информации о странице сайта поисковым роботам для максимально релевантной выдачи в поисковых системах. В поисковых системах они выдаются в виде сниппетов (блок информации, состоящий из заголовка и описания, отображающийся в результатах поиска).

Перечислим основные теги и их значения:

  1. Элемент TITLE является наиболее важным элементом для размещения релевантных ключевых слов. Элемент title находится в разделе (head) HTML-страницы. Это элемент, максимально влияющий на релевантность информации о странице. Его влияние на рейтинг сайта достаточно велико. Существует несколько правил для корректного составления title:
  • Ключевое слово лучше располагать вначале title
  • Длина не должна превышать 70 символов
  • Используйте релевантные фразы, написанные для людей, а не роботов
  1. Вторым по значимости мета-элементом является Description (мета-описание). Его используют для того, чтобы дать наиболее четкое и краткое описание содержимого страницы, которое служит своеобразным «анонсом» в поисковой выдаче. Также по мета-описанию пользователь может идентифицировать, подойдет ему этот товар или нет. Грамотно составленный description, описывает страницу или товар таким образом, чтобы пользователь проявил интерес. Именно поэтому хорошее описание трудно создать. Оно также оказывает влияние на трафик из поисковых движков.

 

  1. Заголовки в тексте (элементы H1,Н2 и т.д.)служат для расстановки иерархии заголовков по тексту. Н1 – это заголовок страницы. Элементы H2, Н3 и т.д. – подзаголовки, заголовки более низкого уровня. Поисковые системы благосклонно относятся к ключевым словам заголовкам. Максимальное предпочтение в заголовку Н1 (он может быть только один на страницу). Самое главное – они должны быть релевантны контенту и не переспамлены ключевыми словами.

XML-протокол Sitemap.

Движки поисковых систем Google, Яндекс, Yahoo!, Bing и т.д. поддерживают XML-протокол Sitemap. Google предъявили его в 2005 (самыми первыми), потом Yahoo! и Bing (ранееMSN Search) поддержали этот протокол. При помощи Sitemap вы обеспечите поисковые системы списком всех URL-адресов, которые вы бы хотели проиндексировать. Эта программа является очень серьезным подспорьем к стандартному просмотру ссылок поисковыми роботами.

Sitemap демонстрирует поисковым системам:

  • Вы демонстрируете местонахождения страниц вашего сайта
  • Время обновления этих страниц
  • Частота обновления страниц

Важность определенных страниц в общей структуре сайта

Применение файла robots.txt

Этот файл находится в корневом уровне домена (например, http://www.мойсайт.by/robots.txt) и является универсальным инструментом для управления тем содержимым, к чему разрешается доступ поисковым роботам  на вашем сайте.

robots.txt используется для:

  • предотвращения доступа роботов к непубличным разделам сайта;
  • блокировки доступа поисковым движкам к скриптам индексирования, утилитам и другим типам кода;
  • исключения индексирования дублированного контента сайта (такого, как версии для
  • печати HTML-страниц, а также различные сортировки каталога товаров/услуг).

Файл robots.txt обязательно находится в корневом каталоге, имя файла должно быть полностью набрано в нижнем регистре (robots.txt). Другого хранилища для данного файла быть не может. robots.txt создается только в текстовом формате.

Редиректы

Редиректы – это отличные помощники для демонстрации нужных страниц поисковым движкам. Если робот зашел в неправильную директорию, то вы оставляете там своеобразный «стикер» с указанием местонахождения правильной страницы. Благодаря этому ваши нужные страницы будут обходиться поисковыми роботами гораздо быстрее. Делайте редиректы с нерелевантного, старого контента на текущий актуальный на актуальных страницах, тогда они будут быстро индексироваться и попадать в поиск по нужным ключевым словам.

Микро-разметка schema.org или open graph?

На первый взгляд неочевидный выбор. Но если присмотреться повнимательнее и заглянуть в смысл каждой микро-разметки.  В принципе разметка может сделать ваш сайт более заметным в ковых системах и привлечь больше посетителей, принадлежащих целевой аудитории.

Schema.org является стандартом семантической разметки данных в сети, который объявлен поисковыми системами Google, Bing и Yahoo еще летом 2011 года. Данная разметка позволяет сделать сайт более понятным и структурированным для поисковых систем и специальных программ. Разметка располагается прямо в HTML-коде. Самое подробное описание стандарта вы сможете увидеть на официальном сайте https://schema.org/.

Стандарт Open Graph специально разработан социальной сетью Facebook. С его помощью можно осуществлять контроль за превью, которое формируется при публикации ссылки на сайт в социальных сетях, а также передавать информацию другим интернет-сервисам. Разметку Open Graph используют Facebook, Instagram, Вконтакте, Twitter, LinkedIn, Pinterest и другие сервисы.

Таким образом по моему мнению для наиболее эффективного продвижения в поисковых системах предпочтительнее использовать Schema.org.

Как вы видите требования к созданию нового оптимизированного сайта не так сложны. Просто их надо выполнять. И тога вероятность попадания вашего сайта в ТОП 10 значительно увеличится (все зависит от вас). Более подробно по внутренней оптимизации мы поговорим в следующих материалах.