10 обычных ошибок в SEO на стадии творения сайта | SEO кейсы: социалки, реклама, инструкция
Для начинающих
SEO – инструмент заслуги больших позиций в поисковых системах. При грамотной реализации он дозволит получать трафик и реализации, дешевенькие в сопоставлении с иными каналами привлечения.
Лет 7 назад для того, чтоб оказаться на вершине поисковых результатов, было довольно просто покупать ссылки на сайт сомнительного свойства и мало проработать тексты. Но с тех пор методы поисковых систем веско усложнились, и для заслуги фуррора необходимо детально проанализировать и доработать сайт с технической, коммерческой и контентной стороны. И здесь нас поджидает закавыка.
Обычно, обладатели онлайн-бизнеса сначала заказывают сайты у веб-студий, и лишь позже думают о том, как конкретно они будут его продвигать и получать трафик. В итоге, когда они прибывают за поддержкою к SEO-студиям, выясняется, что сайт просит масштабной переделки для заслуги превосходных позиций в результатах поиска. К этому моменту заказчик теснее изможден работой над сайтом, ему не охото ничего поменять, а охото в отпуск и чтоб все превосходно работало без каких бы то ни было последующих исправлений. Тем паче что почти все правки дотрагиваются невидимых долей сайта, и необходимость их приходится принимать необыкновенно на веру. К раскаянию, нередко итогом стают множественные компромиссы в оптимизации, что прогнозируемо плохо влияет на итог работ по продвижению.
Для того чтоб таковая ситуация не возникала, лучше всего завлекать SEO-специалиста теснее на стадии разработки. Это дозволит выпустить юный сайт в индексацию сходу чрезвычайно симпатичным для поисковых систем.
Но ежели по некий причине возможность привлечь SEO-агентство с самого начала разработки отсутствует, необходимо попытаться желая бы недопустить нередко встречающихся ошибок. В данной статье мы приводим 10 более главных из их.
Серьезные
1) Неимение адаптивной версии сайта
Таковая реализация мобильной версии, как адаптивный дизайн, официально рекомендован компанией Google как более дружественный для SEO. Адаптивную верстку необходимо предугадывать теснее на стадии ТЗ на разработку. В истиннее время 52% мирового веб-трафика генерируется мобильными устройствами, и поэтому приближающаяся для их версия сайта – обязательное условие фуррора бизнеса.
2) Динамические адреса страниц
Для SEO оптимальны статические человеко-понятные адреса. Это дозволяет передать поисковой системе структуру каталога и ключевое слово, главное для категории либо карточки продукта. Динамические же адреса передать эту информацию не могут, а к тому же нередко являются предпосылкой появления в индексе страниц-дублей либо мусорных станиц. Рекомендуется применять их необыкновенно для технических либо служебных частей сайта (например, для различных типов сортировок) , которые требуется закрыть от индексации.
3) Домен не на защищенном протоколе
Вот теснее года три как протокол https является одним из причин ранжирования в Google. Более того, Google Chrome отмечает сайты, которые его не употребляют, как небезопасные для юзера. Переезд на новейший протокол теснее опосля начала индексации сайта вероятен, но востребует клейки ветхого и новейшего «зеркала» сайта и вызовет потрясение позиций сайта. Чтоб недопустить этого, рекомендуется покупать SSL-сертификат теснее на стадии разработки.
4) Внедрение скриптов для отображения ключевых частей сайта
К раскаянию, почти все поисковые системы все еще не чрезвычайно превосходно могут читать скрипты, даже Google признает, что не постоянно делает это корректно. Из-за этого чрезвычайно главно соблюсти баланс меж красой и стилем сайта и его пригодностью для продвижения. Чрезвычайно не рекомендуется применять Java для отображения внутренних ссылок либо текста на страничке. Все ключевые элементы сайта обязаны быть видимыми и нормально работать даже при отключенном отображении Java в браузере. При всем этом полностью допускается применять динамические элементы для улучшения дизайна.
5) Robots.txt дозволяет индексацию мусорных страничек и страниц-дублей
Великое количество негодных страничек в индексе – распространенная причина отвратительного ранжирования сайта. Убрать излишние странички можнож и опосля релиза при поддержки доработки файла robots.txt, но удаляться из выдачи они могут довольно длинно. Проще вначале не дозволять их попадание, воспретив индексацию сортировок, фильтров и иных явно негодных в выдаче страничек. Необыкновенно главно проконтролировать недоступность для поисковых роботов собственного кабинета юзеров – вы же не желаете, чтоб данные ваших клиентов попали в сеть?
Пример robots.txt официального сайта Ikea
6) Дубли либо низкое качество метатегов на страницах
Нередко свежий сайт, ни разу не побывавший в руках SEO-специалиста, добавляется в индексацию с временными либо вообщем тестовыми Title, Description и Keywords, и в итоге он не занимает вообщем никаких позиций. Идет держать в голове, что теги имеют веское воздействие на позиции, необыкновенно Title и h1. Они могут быть сформированы по шаблону, но все одинаково обязаны быть взыскательно неповторимыми в рамках сайта и релевантными контенту странички, на которой они расположены.
Также идет держать в голове, что тег Description отвечает за формирование сниппета в Google, и, сделав его цепляющим, вы можете повысить возможность того, что посреди соседей по выдаче юзер выберет и кликнет конкретно на ваш сайт.
Keywords же мы рекомендуем вообщем удалить и пренебрегать как ужасный сон. Этот метатег издавна ни на что не влияет, но может принести много неурядицы и сиим навредить.
Некритичные, но важные
7) Неимение микроразметки
Микроразметка поможет вам дополнительно прирастить привлекательность сниппетов в поисковых системах, выведя туда цены, рейтинги и прочую полезную информацию. Ее неимение не является критической ошибкой, но довольно главно сходу ее предугадать, необыкновенно для ecommerce проектов, чтоб сайт индексировался сходу с чрезвычайно обогащенными сниппетами.
8) Неимение фавикона
Фавикон это маленькая иконка, которая отображается перед заглавием открытой странички в браузере, в истории браузера, в закладках, также в результатах выдачи ряда поисковых систем, например, Яндекса. Он содействует узнаванию бренда и увеличивает привлекательность сайта в результатах поиска тех систем, что его поддерживают. Творение и размещение его просит не больше 15 минут, так что чрезвычайно рекомендуется не забывать про него.
9) Неприглядная страничка 404
К раскаянию, у почти всех страничек страничка оплошности 404 входит в рейтинг более навещаемых страничек, необыкновенно пока сайт новейший и в нем не найдены еще все вероятные оплошности. Обратите делему в свою выгоду – пусть страничка оплошности будет привлекательна и содержит ссылки на более знаменитые разделы сайта, доказывая юзера продолжить путь по сайту.
10) Неимение карты сайта
Карта сайта в формате xml дозволит ботам прытче обойти сайт и включить его странички в базу поисковых систем. Она, обычно, генерируется средствами CRM и ее творение не занимает много ресурсов. Не пренебрегайте включить ссылку на нее в robots.txt, по другому ее не сумеют отыскать поисковые боты. Необыкновенно главно наличие карты сайта для больших страничек, со трудной структурой и великим количеством страничек.
Передайте этот перечень разрабу на стадии согласования технического задания, и даже без привлечения к работе SEO-специалиста сайт будет на базисном уровне привлекателен для поисковых систем.
Комментариев 0