Разработчик программного обеспечения поисковой системы Google ответил на вопросы, оставленные пользователями в его блоге.
— Апдейты на Sitemaps зависят от постраничного просмотра сайта?
— Нет, постраничные просмотры не оказывают влияние на апдейты. В Sitemaps присутствуют разные виды данных, которые могут быть факторами апдейтов. (Мат Каттс перечислил 5, которые изменяются в разное время и с разной частотой, обычно в течение нескольких дней, а при внеплановых ситуациях в течение недель). Однако постраничные просмотры не являются фактором апдейтов.
— Какие общие рекомендации Вы можете дать, чтобы улучшить видимость сайта в Google?
— Во-первых, сайт должен быть легко доступным для поисковых роботов. Посмотрите на сайт глазами поисковой системы. Используйте текстовый браузер links»; Если весь сайт можно просмотреть, используя лишь текстовый браузер, значит все хорошо. Также неплохо сделать карту сайта.
Во-вторых, оптимизируйте сайт. Контент должен быть полезным и интересным. Обдумайте, зачем кому-то будет нужно ссылаться на вас. Определите свою целевую аудиторию и работайте для ее привлечения.
И, в-третьих, нужна «приманка» (linkbait). Предложите что-либо вирусное, например, информационные письма, обучающие программы и т.д. Постарайтесь придумать что-либо отличное от других сайтов и зарегистрируйте свою новинку на сайтах социальных сетей.
— Что может стать причиной использования сниппетов из DMOZ, если на странице уже есть надежный мета-тег description?
Матт Каттс затруднился ответить на этот вопрос и переадресовал его сотрудникам из Snippets Team (это не шутка).
— Главным образом, это имеет отношение к сниппетам, которые в большей степени релевантны запросу пользователя. Выбранный и продемонстрированный сниппет напрямую зависит от запроса. Если описание сайта из DMOZ для сниппета больше подходит введенному запросу, именно он будет продемонстрирован пользователю. Если вам не нравятся сниппеты из открытых директорий, используйте мета-тег «NOODP», тогда будет продемонстрирован мета-тег description вашей страницы.
— Какие теги Google предпочитает больше полужирные (bold) или жирные (strong)?
— Google отдает немного больше предпочтения полужирным тегам, хотя оно настолько мало, что беспокоиться по этому поводу нет смысла. Я рекомендую использовать теги, которые больше подходят сайту и его пользователям.
— Развейте мифы о большом количестве сайтов на одном сервере/ о сайтах с похожими IP-адресами/ о наличие сайтов, которые включают один и тот же javascript другого сайта.
— Если вы обычный вебмастер, не волнуйтесь ни по одному из этих поводов;
Если вы владелец нескольких сайтов (2-5) разной тематики, тоже можете не волноваться. Однако если у вас 2 000 сайтов, вам нужно удостовериться в том, что у вас хватает контента для поддержания такого количества сайтов (Матт Каттс считает, что его может не хватать).
Многие используют javascript трекеры, в этом случае для беспокойства нет причин. Вот, если у вас более 5 000 сайтов с поддержкой javascript, осуществляющей редирект, тогда стоит призадуматься о последствиях.
— При запуске каждого нового сайта мы сталкиваемся с трудностями, …мы одновременно запускает миллионы страниц нового сайта…С чем это связанно? [этот вопрос задают уже не первый раз]
Когда его спросили об этом на SES в Нью-Йорке, ответ был следующим: «Не останавливайтесь, запускайте и ни о чем не беспокойтесь. Сайт пройдет тщательную проверку и все будет в порядке». На этот раз Каттс ответил на данный вопрос по-другому.
— Я призываю владельцев сайтов с миллионами новых страниц быть как можно более осторожными. Постепенно запускайте небольшое количество страниц, например, по нескольку тысяч.
— В каком состоянии находится Google Images? Будет ли апдейт технологии индексации?
— Совсем недавно WebmasterWorld интересовал подобный вопрос. Апдейт индекса был на прошлых выходных, многие изменения остаются незамеченными для пользователя. Но они все-таки есть. Разработчики продолжают работать над улучшением Google Images.
— Что на Ваш взгляд является более важным при разработке и поддержке сайта: оптимизация под поисковые системы или оптимизация под конечного пользователя?
— Важны оба компонента. Без них работа не будет успешной. Без SEO сайт будет тяжело найти, без оптимизации под конечного пользователя, у сайта не будет конверсии, не будет благодарных и постоянных пользователей/ покупателей.
Умение заключается в одновременном сочетании обоих технологий. Суметь заинтересовать и пользователей, и поисковые системы в своем сайте. Удержать этот баланс значит преуспеть. В идеале, что хорошо пользователям, хорошо и поисковикам.
— Не могли бы Вы назвать некоторые инструменты для определения спама? Мне бы хотелось контролировать свой сайт на предмет спама и иметь надежный способ определять конкурентов, использующих спам-медоды.
— У Google много инструментов, определяющих спам, но большинство из них не доступны за пределами поисковика. Анализатор сайтов от Yahoo демонстрирует обратные ссылки на каждой странице или на каждом домене.
Есть инструменты, демонстрирующие все, что находится на определенном IP-адресе. На виртуальном хосте можно найти огромное количество хороших сайтов, порой по одному IP находится несколько сайтов. Если один из них является спамом, вы сможете найти еще сайты того же владельца. Нужно быть осторожным, т.к. они не всегда принадлежат одному человеку.
Карта сайта поможет выявить ошибки поискового робота и указать на проблемы, связанные с индексацией сайта.
— Расскажите о чистоте кода (например, W3C). Информация о доступной работе будет в любом случае добавлена в главный алгоритм?
— Обычные люди пишут коды с ошибками. Согласно статистике Эрика Брюэра 40% всех HTML страниц содержат синтаксические ошибки. Очевидно, что у поисковых систем нет возможности удалить 40% контента. Но есть и высококачественный контент (в основном прописанный вручную).
Я рекомендую проверять правильность HTML-кодов, однако это не первоочередная задача по работе с сайтом. В первую очередь необходимо составить привлекательный контент сайта, а уже затем «расставлять все точки над i».