Не очевидное, но полезное для сайтов

Мэтт Каттс сообщил последние сведения о том, как Google воспринимает нижнее подчеркивание («_») и тире («–») в URL. Оказалось, что поисковик по-прежнему считает фразы с подчеркиванием одним словом (odno_slovo), а в словосочетаниях стире индексирует каждое слово отдельно. Сложилось это исторически.

«Когда мы начинали, AltaVista была огромной компанией, а Google – совсем крохотной. Но все мы были закоренелыми технарями – множество программистов», — поведал Мэтт Каттс. Определение нижнего подчеркивания как части единого слова было вызвано необходимостью находить в поиске такие специфические термины из области программирования, как FTP_BINARY или TMP_MAX («не TMP и MAX, которые могут появиться на странице отдельно»). Команда молодого Google сделала это по аналогии с C++ и некоторыми другими языками программирования, в которых знак «_» не является разделяющим.

Сегодня наличие этих знаков в словосочетаниях является одним из 200 факторов ранжирования, но оказывает малое влияние. Страницы Википедии с фразой war_of_1812 в URL не вылетят из выдачи по соответствующим запросом, так как существует множество более важных факторов: заголовки, PR и т.д. Не стоит менять URL у старых сайтов, если они находятся на хороших позициях, советует Мэтт Каттс. Но если речь идет о новом сайте, то тире будет предпочтительнее.

Яндекс.Вебмастер запустил инструмент для приоритетной индексации

В рамках сервиса Яндекс.Вебмастер появился новый функционал для быстрого возвращения в поисковую выдачу страниц «выпавших» из нее из-за неправильной настройки сервера или ограничений, наложенных в файле robots.txt.

Руководитель отдела по работе с веб-мастерами Михаил Сливинский рассказал о запуске функционала, который позволит вернуть в поисковую выдачу страницу, которая из нее «выпала».

jandeksvebmaster-zapustil

Новый инструмент, доступный в рамках сервиса Яндекс.Вебмастер, позволит переиндексировать «неправильную» страницу, выпавшую из поисковой выдачи. Бывает так, что из-за неправильно заданных параметров работы сервера или ограничений, установленных в файле robots.txt, поисковый краулер не может полностью проанализировать содержимое страницы. Или нужно срочно изменить содержимое сниппета, отображаемого в поисковой выдаче. Все эти проблемы поможет решить новый инструмент.

Для этого в интерфейсе сервиса Яндекс.Вебмастер появилась специальная форма, в которую следует ввести адрес нужной страницы и таким образом направить на нее поискового робота, чтобы он повторно проиндексировал ее содержимое. В течение суток с помощью нового инструмента можно «исправлять» не более 10 страниц по каждому хосту.

С помощью данной формы поисковому роботу передается заявка на приоритетный обход указанных страниц. Таким образом, их повторная индексация и попадание обновленных версий страниц в поисковую выдачу происходит намного быстрее.

Всего в новом инструменте предусмотрено три статуса состояния страниц, которые были указаны в заявке:

  • «Ошибка» — отображается, если поисковый робот не смог проанализировать содержимое страницы;
  • «В очереди» — заявка была принята поисковым роботом, и будет обработана в течение трех суток;
  • «Робот обошел» — краулер повторно проиндексировал содержимое страницы, указанной в заявке. Результаты индексации будут отображены в выдаче после очередного обновления базы поисковой выдачи.

Кроме того Михаил Сливинский сообщил, что в Яндекс.Вебмастере стали отображаться все запросы, по которым ресурс попадал в топ-50 поисковой выдачи. Данный функционал позволяет сортировать все ключевики по нескольким группам, а также анализировать динамические изменения по этим запросам.

С помощью нового функционала можно выяснить, какие запросы «приводят» пользователей в конкретный раздел сайта. Или, например, проследить статистику переходов по ключевикам, состоящим из слов «купить», «отзывы» и т.д. Кроме этого реализована возможность добавления своих ключевых запросов и их сравнения с запросами из топ-50.

Яндекс рассказал, как формируются сниппеты сайтов в выдаче

На привлекательность сайта и его популярность среди пользователей сильное влияние оказывает содержание сниппета в поисковых выдачах. Как людей встречают по одежке, так первоначальное восприятие веб-ресурса происходит через его сниппет.snippet

Итак, как же обеспечить формирование качественного анонса сайта? Недавно ведущий российский поисковик пояснил, как его роботы создают сниппеты сайтов и дал некоторые рекомендации веб-мастерам и seo-специалистам, занимающихся продвижением сайтов в Яндекс. Определяющим фактором является грамотное составление тэга title и мета-тэга description. Они призваны отражать идею проекта, но при этом не должны дублировать друг друга и быть перенасыщенными поисковыми запросами. Яндекс советует в данном случае нацеливаться на пользователей, а не на поисковых роботов. Подобным образом должен быть проработан весь контент ресурса, так как в случае неудачной подборки title и description сниппет может быть сформирован из любой текстовой информации на сайте. Вывод: разумное и умеренное использование ключевых фраз при обработке всего содержимого. Яндекс также акцентирует внимание на том, что сниппет может быть сформирован с учетом данных из Яндекса.Каталога и DMOZ. Дабы исключить такую возможность, стоит проработать соответствующим образом тэг robots.

Помимо всего, лидер Рунета использует партнёрские программы для улучшения качества сниппетов – появляется возможность вывода адреса, цен для сайтов коммерческих организаций и другую дополнительную информацию.