Вебмастеры часто спрашивают, почему некоторые страницы сайта или сайт не индексируются. Честно говоря, никогда нельзя быть уверенным до конца, пока Вы не устраните проблему, из-за которой страница или сайт не индексируются. Нужно проверить все шаг за шагом.

Для начала необходимо убедится в том, что страницы или сайта действительно нет в индексе поисковой системы. Естественно, у каждой поисковой системы (сокращенно будем называть «ПС») свой индекс, поэтому нужно проверить наличие страницы в каждой из ПС. В большинстве поисковых машин можно использовать специальный оператор, с помощью которого можно проверить наличие страницы в индексе.

Code
allinurl: moipost.ru/ site:moipost.ru – для Google
url=”moipost.ru/ *" – для Яндекса

Обратите внимание, что в операторе для Яндекса нужно указывать искомую страницу без http://, иначе ничего не найдете. Затем лучше проверить индексируемость всего сайта, если не хватает много страниц, значит у вас проблема не только на одной старнице.

Сайт не индексируется

Основные причины, по которым страниц нет в индексе:

1. Спам. Если вы спамили другие сайты и оставляли там ссылку на свой или массово регистрировались в каталогах, поисковики могут наложить фильтр за спам и существенно сократить количество страниц в индексе.

2. Скрытый текст. За использование ключевых слов на странице тексом, который не виден пользователю или за использование ссылок размер 1х1 пиксель сайт тоже понижается в выдаче и сокращается число проиндексированных страниц. А можно и вообще получить бан от поисковой системы (ПС). В общем, лучше не пытаться обмануть ПС, это чревато печальными последствиями.

3. Не уникальные материалы. Если вы копируете материалы с других сайтов, а своих не пишете, или пишете мало, то за это тоже можно попасть под фильтр и опять же вылететь из индекса. Запомните! Уникальный материалы это основа сайта, ее фундамент.

4. Скрытые ссылки. Если навигация на сайте осуществляется путем JavaScript, Flash, и других не-HTML методов, маловероятно, что «пауки» смогут переходить по таким ссылкам, следовательно, и страницы не будут проиндексированы.

5. Динамические URL. Если ссылка чрезмерно длинная, если в ней есть множество параметров, идентификатор сессии, то поисковые системы могут их непроиндексировать.

6. Ошибка в robots.txt. Файл robots.txt показывает поисковикам, какие страницы включать в поиск, а какие исключать из сканирования. И если вы составите этот файл неправильно, то можете запретить «пауку» индексировать те страницы, которые индексировать нужно.

Это были проблемы, из-за которых в индексе могло не быть многих страниц, а теперь давайте рассмотрим возможные проблемы, которые ограничены одной страницей.

1. Неправильная пометка для роботов. Точно также, как файл robots.txt, метатеги рассказывают паукам, какую страницу включить в индекс, а какую исключить. Вот этот метатег запрещает поисковым системам индексировать страницу:

Code
<META NAME="robots" content="NOINDEX, NOFOLLOW" />

2. Требуется вход пользователя. Если на странице появляется всплывающее окошко, требующее залогиниться чтобы зайти на сайт, или требуется заполнить форму, то поисковые роботы не смогут этого сделать и проиндексировать страницу.

3. Неправильный редирект. Не используйте JavaScript перенаправление, потому что роботы его не понимают.

4. Плохое качество страниц. Если на странице множество ошибок и долгое html-кодирование, то вряд ли она будет правильно индексироваться.
Если вы исправите все проблемы, то вам останется только ждать, пока пауки вернутся на ваш сайт. Помните, что если страницы нет в индексе, то ее нельзя будет найти через поисковую систему. И не пользуйтесь «черными» методами.

Moipost.Ru


Разнообразные стратегии казино помогут вам выиграть неплохие деньги.