Как продвигаться в Гугле? – обзор новых тенденций.
В мае Гугл внёс изменения в алгоритмы ранжирования, которые
затронули сайты с большим количеством не уникальных страниц. Теперь
чтобы быть в топе страница должна давать что-то больше, чем просто
соответствовать тайтлом и контентом запросу.
Сейчас уже можно делать некоторые выводы по апдейту и работе в новых
условиях. Судя по форумам, отзывам коллег и собственной практике,
каталоги товаров, мп3 каталоги, сервисы закладок, новостные социалки и
т.д. – на многих подобных ресурсах замечено уменьшение трафика. На
своих русскоязычных ресурсах я сдвигов не заметил, а англоязычные (судя
по симптомам – в результате этого апа) одни пострадали, другие наоборот
прибавили в трафике. Попробуем разобраться?
Какие мои ресурсы потеряли в трафе. Новостная социалка, мп3
каталоги, сгенереные шопы под Амазон. Какие прибавили: блоги с
уникальным контентом, небольшие экспериментальные ресурсы в основном
составленные из комментариев пользователей.
Ранее хорошо работала такая схема: делаем сайт с кучей страниц,
накачиваем морду и разделы хорошими пиаристыми (или с часто обновляемых
страниц) ссылками
и немного ссылок (например с жж, социалок и т.п.) ставим рандомно на
страницы товаров/mp3 альбомов м т.д. (в зависимости от тематики). Итог
– быстрое индексирование, трафик.
Что теперь? А ничего нового: контент и ссылки по прежнему рулят, только контент и ссылки потребуются всем страницам. Меньше влияние прокачаности морд и внутренней перелинковки при ранжровании остальных страниц под низкочастотку.
Более конкретный пример: обычный, каких тысячи, мп3 каталог. Загнать в индекс, получить трафик – не проблематично.
Но, добавим к страницам каталога по каждому артисту выжимку из вики
+ фотки с флика или поиска по картинкам, по каждому альбому в виде
коментов добавим инфу из серпов и социалок (в разумных дозах), видео с
ютуба. Правильно перелинкуем всё это добро + добавим блог (который
будем периодически обновлять) и RSS, возможность пользователям
добавлять коменты, используем свой шаблон, сделаем отличную от
конкурентов главную страницу (закажем у копиарайтера рекламную статью),
настроим трансляцию из RSS в микроблоги и социалки, обязательно
сгенерим xml карту сайта и добавим в webmasters tools. В результате:
гораздо больше трафика (но из-за сграбленного/сгенеренного контента –
более быстрый вылет из индекса). Это работало до апа, работает
(возможно, хуже) и сейчас.
В идеале под каждый товар – отдельная статья, реальные отзывы
пользователей, фото и видео материалы и т.д. Но если товаров тысячи, да
даже сотни – представьте во сколько вам обойдётся такая работа. Ну а
внешние ссылки на каждый товар? Видимо в полной мере это под силу
только Амазону.
Гугл сделал ещё один шаг в сторону "лучше меньше, да лучше”. ИМХО,
этот ап – ещё один довод в пользу более аккуратной, поштучной работы со
страницами сайтов.