Топ-100 Почему мой сайт не отображается в Google или Яндекс? - Разработка сайтов на WordPress

Почему мой сайт не отображается в Google или Яндекс?

Почему мой сайт не отображается в Google или Яндекс?

Вы сделали свой сайт с красивым дизайном и множеством страниц, но даже через неделю его нет в поисковиках. Может быть, у Вас был старый сайт, который стал  внезапно исчезать из поисковых систем? Это одни из наиболее распространенных сценариев, которые происходят с владельцами веб-сайтов.

Отказ от индексации страниц может быть вызван пробелами в оптимизации SEO или неправильной оптимизацией. В этой статье мы рассмотрим наиболее частые ошибки, которые могут привести к этому неприятному результату.

При создании сайта, основной целью которого является популярность в поисковых системах, крайне важно, чтобы он был хорошо подготовлен к этому. Прежде чем он будет публично загружен в интернет-пространство, необходимо провести тщательный seo-аудит, чтобы избежать будущих головных болей. Даже элементарные ошибки могут сильно повредить Вашей репутации перед поисковиками. Хотя большинство из них могут быть удалены впоследствии, это требует времени и дополнительных затрат.

1. Google песочница (Sandbox)

Это не может быть точно идентифицировано как “ошибка” , а скорее процесс, который нужно ждать.

Что такое песочница? Это фильтр, созданный Google, который защищает пользователей от спам-сайтов. Поисковая система не имеет большого доверия к вновь созданным веб-сайтам с совершенно новыми доменами и уникальной информацией. Она отправляет эти веб-сайты обратно в ранкинг, пока не убедится, что они не собираются обманывать пользователей.

Как нам с ним справиться? Этот вопрос мучает многих экспертов SEO, и часто ответ выражается просто во времени. Если веб-сайт не содержит других ошибок SEO, и его текст уникален, он безоговорочно будет ранжироваться дальше.

Чтобы помочь этому процессу, ссылки могут быть куплены на авторитетных веб-сайтах, чтобы ускорить выход сайта из “песочницы”. В конце концов, важно знать, что Google сам решает, когда это произойдет.

2. Ошибки Sitemap

При создании веб-сайта важно, чтобы была сделана учетная запись в веб-мастере. Эта учетная запись поможет Вам крайне оперативно решать вопросы в поиске различных ошибок на Вашем сайте, но особенно для отслеживания индексации страниц. Это очень важно, прежде чем создавать новый Sitemap, чтобы проверить, нет ли дубликатов страниц. Это можно предотвратить, выбрав опцию “сканировать” и “ошибки сканирования”. Там Вы будете проверять, есть ли ошибки на страницах, которые можно исправить. Когда Вы убедитесь, что все в порядке, Вы можете создать новую Sitemap.

3. Ошибки Robots.txt

Очень распространенная ошибка, которая может быть допущена, заключается в том, что неправильные команды были применены в robots.txt. Этот файл чрезвычайно важен, поскольку он указывает на то, какие страницы индексируются, а какие нет. Вот как выглядит наиболее распространенная ошибка в robots.txt:

User-agent: *
Disallow:\

Команда “Disallow:\” означает, что вы запретили поисковым роботам индексировать все страницы Вашего сайта.

Также рекомендуется добавить sitemap.xml к этому файлу, чтобы было легче найти Ваши страницы. Вот как должен выглядеть безупречный robots.txt.

User-agent: *
Disallow:
Sitemap: http://vashsite.ru/sitemap.xml

Есть страницы, которые не очень хорошо индексируются, потому что они представляют собой дублированный контент (“общие условия „ ,“ часто задаваемые вопросы ” и т. д). Если Вы не хотите, чтобы они индексировались поисковиками, убедитесь, что Вы это указали в robots.txt.

4. Дублированный контент

Многие клиенты считают, что им не нужно писать уникальный текст и они решают сэкономить расходы, просто скопировав информацию с других сайтов. Это чрезвычайно неправильно, потому что такая информация на Вашем сайте будет не уникальной. Это может привести к деиндексированию страниц с таким текстом и даже всего веб-сайта. Включение близкой или одинаковой информации с другого веб-сайта является частой практикой спама, и поэтому Поисковики строго наказывают сайты. Есть простые онлайн-инструменты, с помощью которых Вы можете проверить степень уникальности Вашего текста.

Вот один из них: text.ru

Чем больше уникальность имеет Ваш текст, тем меньше вероятность того, что Поисковики наложат наказание.

5. Внутренние ссылки

Если Вы заметили, что какие-то страницы с Вашего сайта, которые Вы хотите “ранжировать”, индексируются, а другие нет, это может быть из-за внутренних ссылок друг на друга.

Если у Вас есть такие непроиндексированные страницы, проверьте, есть ли на других страницах ссылки на них. Поисковые боты могут не дотянуться до них и держать их вне индекса, потому что они считают их недостаточно важной информацией. Все это можно проверить в аккаунте вебмастера в разделе “Трафик от поиска > внутренние ссылки”.

6. Неправильная структура ссылок

Здесь мы поговорим о “динамических” и “статических” адресах. Как видно из их названия, динамический адрес –  постепенно изменяет свою структуру. Это не очень хорошо для поисковика, который хочет точно знать, к чему относится страница, когда она „видит“ адрес. Вот пример динамического адреса:

http://www.vashsite.ru/product.php?PROD-id=40

Такой тип структуры содержит слишком много избыточных символов и почти никакой информации о странице. Это смущает поисковую систему, и она не может решить, следует ли индексировать эту информацию или нет. Такой тип ссылок распространен в интернет-магазинах и веб-сайтах с тысячами страниц. Хорошая SEO практика заключается в том, чтобы избежать этого, когда это возможно.

Структурированные адреса указывают ботам, какой тип текста будет найден пользователем на странице. Они выглядят вот так:

http://www.vashsite.ru/mens-nike-shoes

Поисковик всегда предпочел бы такую структуру и поставил бы ее выше в поисковых системах. Если у Вас есть несколько продуктов или услуг, можно ввести категории и подкатегории для большей ясности. Перед публикацией веб-сайта всегда проверяйте, нет ли у вас страниц с неправильными адресами.

7. Чрезмерное использование ключевых слов

У многих клиентов возникает соблазн упомянуть как можно больше раз свои ключевые слова на страницах, в попытке повлиять на их ранжирование. Эта практика называется “наполнение ключевыми словами”, а также может привести к деиндексации страниц.

Если у вас есть 400 слов текста на Вашей странице и вы упомянули 30 раз одно и то же ключевое слово, это означает, что ваш текст не имеет достаточного смысла и значения для поисковиков. Чрезмерных повторений можно избежать с вариациями слова или с добавлением более релевантного текста. Используйте более длинные ключевые фразы и вопросы. Поисковая система может понять, о чем идет речь на Вашей странице даже из 1-2 упоминаний ключевого слова.

8. Black Hat тактика

Этот тип практики не может быть описан в несколько слов и заслуживают целую статью. Но, короче говоря, это практика, которая направлена на то, чтобы обмануть поисковик, за счет лучшего ранжирования в онлайн-поисковой системе. Это использование пробелов в алгоритме Google. На протяжении многих лет они изменились и некоторые из них были отменены, но по-прежнему широко востребованы для достижения быстрых результатов. История доказала, что рано или поздно Google находит эти пробелы и наказывает сайты, которые воспользовались этим путем. Быстрая прибыль часто приводит к еще более быстрым потерям, поэтому не доверяйте “экспертам”, которые предлагают вам“ безопасный ” результат в течение нескольких недель. Очень возможно, что они пользуются именно такими тактиками, которые со временем будет пагубными для вашего онлайн присутствия.

Акция! Сайт + логотип + продвижение всего за 29000!

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Получить предложение

Pin It on Pinterest