Основные и распространенные ошибки поисковой оптимизации при создании сайта
На какие ошибки при создание сайта следует обратить свое внимание и стараться не допускать их наличия. На сегодняшний день для создания конкурентно сопосбного сайта требуется делать упор на поисковую оптимизацию, она пожет сделать сайт более качественным и менее затратным в плане продвижения в поиске, иногда поднять позиции сайта проще именно оптимизацией его в глазах поисковых роботов, чем покупкой ссылок в большом количестве на сомнительных площадках, но речь пойдет именно о оптимизации ресурса.Основные ошибки, которые чаще всего встречаются в содержании страницы…
Ошибки контента
- Контент на сайте полностью идентично другой странице;
- Тестовые страницы или технические доступны для индексации;
- В URL страницы присутствуют параметры при изменение которых, содержание страниц остается тем же, но при этом доступен для индексации поисковыми роботами;
- Присутствие ссылок на странице ведущие на дубли, например suite.domainzone/ и suite.domainzone/index.php или suite.domainzone/index.html;
- Сервер посылает ответ для удаленных страниц 200;
- Доступность страниц каталога по каталогу сайта, например: /catalog, /template/, /dir;
- Доступность страниц сайта по каталогу, например: /catalog/page.html и template/page.html;
- Печатная версия страницы доступна для индексации поисковыми роботами;
- Доступность к индексации 2 видов сайта как с www и без (нет редиректа);
- Использование блока с идентичным содержанием на разных страницах;
- Индексирование страниц без всякого содержания;
- Доступность сайта для индексации как с _http://, так и с _https://;
SEO Ошибки в HTML, CSS, JavaScript
Ошибки в исходной структуре сайта, обратите внимание на синтаксическую правильность использования тегов, а также таблицей стилей и ява скриптов, проверьте сервисом validator.w3.org для избежания использования не валидной разметки.- Тег «title» являться пустым;
- Теги «Description» присутствуют, но они ничего не содержат ;
- Теги «Keywords» присутствуют, но они ничего не содержат ;
- Одинаковое значение тега «title» встречается на нескольких страницах;
- Одинаковое значение тега «Description» встречается на нескольких страницах;
- Используется навигация при помощи «FLASH»;
- В меню название навигации оформлены через теги <h1-h6>;
- Изображения внутри тега заголовков <h1-h6>;
- Больше одного тега <h1> на странице;
- Использование в тегах <h1> или «title» ключевые слова, через запятую;
- Использование большого количества тегов <h1-h6>;
- Использование большого количества тегов <strong>, <b>, <em>;
- Тег <rel="canonical"> не проставлен для дублей страниц;
- Страница имеет пустые теги например <p></p>, такое бывает при использовании редактора;
- Тег «title» страницы, полностью копируется в заголовок <h1>;
- Слишком много ошибок по валидатору w3c;
- Теги «Keywords» и «Description», прописаны под копирку с другими страницами;
SEO Навигация, URL и пере-линковка
Навигация на сайте является особо важной деталью, так как через неё проходит почти любой пользователь и не только, следует обратить на неё достоенное внимание и исправить критические ошибки…- URL не ЧПУ вида, например: suite.domainzone/index.php?page=9;
- Использование на странице нескольких идентичных ссылок на иные страницы;
- Через-мерное наличие исходящий ссылок, такие страницы считаются "линко-помойками" ;
- Крайне редко но бывает, одинаковый URL, но контент изменяется динамически, в зависимости от метода попадания на страницу;
- Автоматическое подставление динамических ссылок (изменяющиеся при обновлении) на страницы ничего не имеющими общего с данной страницей;
- В URL встречается контент страницы;
- Использование большого уровня вложенности;
- Использование только 1 анкора при пере-линковке или часто повторяющийся;
- Большое количество исходящих внутренних ссылок, который при этом индексируются;
- Ссылки на сайте ведущие на удаленные внешние ресурсы;
- Ссылки без текста, но с картинкой;
Коды ответа, хостинг, свойства страниц
Ответы сервера очень важная деталь, так как перед началом индексирования робот распознает страницу именно по её ответу…- Скорость загрузки страниц слишком низкая не рекомендована более 3 сек;
- Ошибочное распознавание кодировки сайта charset;
- При ответе сервера 404 идет автоматическая пере-адресация на иную страницы по средствам шаблона;
- Не правильная последовательность редиректов 302->302->301;
- Присутствие ссылок ведущие на страницы с ответом сервера 302;
- Колоссальный вес страницы, влияет на время загрузки;
- Возникновение 503 ответа сервера, слишком часто, по причине высокой нагрузки;
- Ответ сервера 404 при существующей странице;
- Удаленные страницы отдают код ответа 302, 301, 200, вместо 404 и т.д;
- Непонимание разницы между 302 ответом сервера и 301;
Ошибки содержания — контента
Содержание страниц должно быть высокого качества. тексты должны быть читабельны и уникальны, важная деталь для сайта изготовленного для людей, не используйте переспам ключевых слов, а так же…- Содержание контент, слишком не уникален, плагиат;
- На странице имеется скрытый текст, например цвет текста подточен под цвет фона;
- Использование ключевых слов с повышенной частотностью, пере-спам;
- Важный контент страницы заключен в тег <iframe>;
- Использования текста в виде изображения, такие вещи не распознаются поисковыми роботами;
- Гигантское количество не отформатированного текста и не читабельного для человека;
- Клоакинг или разная информация на одной и той-же странице;
Ошибки robots.txt, неверные инструкции
Роботс и СайтМэп это технические документы содержащие важные инструкции для поисковых роботов, данные документы постоянно взаимодействует с новыми поисковыми работами, и также проверятся на изменение…- Инструкция Disallow: / в robots.txt, говорит о запрете индексирование всего сайта;
- Проставлен тег «robots» со значение noindex, nofollow на ключевых страницах сайта;
- В документе robots.txt указана инструкция о запрете индексирования ключевых страниц;
- Тег <noindex> был открыт в документе, но небыл закрыт, только для поисковой системы Яндекс;
- Поиск и его результаты доступны для индексирования поисковым роботам;
- Нет карты сайта sitemap.xml, влияет на пере-индексирование материала при его изменение, а так же замедляет индексацию нового;
- Параметр lastChange в карте сайта xml, не привязан к дате изменения материала;
- В карте сайта — sitemap.xml, присутствуют ссылки на удаленные страницы 404;
- Инструкция — User agent в роботс документе дана, только для одной системы поиска;
- В карте сайта xml не должны быть страницы, запрещенные к индексации по инструкциям документа robots;
- Статическая карта сайта xml без обновления;
- Параметр приоритета в карте сайта xml не должен быть одинаковый для всех страниц;
- Отсутствие в документе robots ссылку на карту сайта sitemap.xml;
- В карте сайта sitemap.xml существуют ссылки на картинки;
- При обращение к документу robots.txt он возвращает код ответа сервера отличный от 200;
Другие СЕО ошибки
Прочие ошибки поисковой оптимизации, которые следует избегать в целом…- Разделение сайта на 2 категории: для людей и роботов;
- Подавляющее большинство неуникализированного контента, чем уникализарованного;
- Страница для заказа имеет разный URL для разного товара;
- Календарь прокручивающийся в разные стороны бесконечно долго;
- XSS-уязвимости, используйте удаление тегов из полей и преобразование кавычек;
Важные сео ошибки Аффилированности
Ошибки встречающие в частности на сайтах фирм и организаций, пытающиеся в надежде подавить конкурентов по средствам количественного большинства, такая практика широко применялась на начале поисковой оптимизации, но на сегодняшний день такие ошибки, способны полностью исключить сайты из поиска оставив, только 1 по времени создания, который самый старший.- Более одного сайта фирмы, у которого некоторые данные полностью идентичны например: номер телефона;
- Более одного сайта фирмы с одинаковым контентом/содержанием/товарами;
- Более одного сайта фирмы с одинаковыми ip адресами, dns зонами и владельцем домена;
- Более одного сайта фирмы с идентичным названием организации;
Статья "Ошибки SEO" содержит 0 комментариев