Эта многоликая оптимизация

Развитие Всемирной сети. Развитие поисковых систем. Развитие методов продвижения сайтов. Все это — разные стороны одного и того же явления. Объемы информации растут, поисковые алгоритмы совершенствуются, и, для того чтобы вывести коммерческое предложение на главную страницу Яндекса или Рамблера, требуется все больше усилий. Усилий, порождающих, в конечном счете, усложнение информационной структуры и тем самым замыкающих круг.


Справка. Поисковая оптимизация — последовательность действий, необходимая для повышения позиций сайта заказчика в выдаче результатов поисковыми машинами по соответствующим запросам. Работы по оптимизации необходимо выполнять регулярно. Методы поисковой оптимизации принято делить на «черные» (запрещенные правилами поисковых систем), «серые» (использующие недостатки поисковых алгоритмов, но официально не запрещенные) и «белые» (осуществляемые в соответствии с требованиями поисковых машин).


 Информации в Сети с каждым днем становится все больше. Каждый день рождаются сотни новых сайтов. К чему это приводит? Главным образом, к тому, что найти нужную информацию становится все труднее.

Здесь мы, разумеется, не будем агитировать в пользу поисковых систем. Каждому ясно, что чем больше информации, тем большую ценность приобретают инструменты, направленные на ее структуризацию. Поисковые машины как раз и являются такими инструментами, основная задача которых — найти контент (как правило, текст), максимально релевантный запросу. Найти — и отсортировать странички в порядке убывания интереса для автора запроса. Понятно, что пока искусственного интеллекта не существует, а значит — поисковики будут выполнять эту задачу с тем или иным «градусом приближения». На практике это означает, что пользователь поисковой машины вместо нужной ему информации будет видеть коммерческие предложения различных компаний.

Поисковые машины ведут борьбу за то, чтобы пользователю выдавались результаты, максимально релевантные запросу. Интернет-коммерсанты (и их помощники — оптимизаторы) сражаются за то, чтобы пользователи поисковых машин видели в ответ на запрос в первую очередь коммерческие предложения. Поисковые машины упорядочивают, оптимизаторы мутят воду. Самое время задаться вопросом: а как относятся друг к другу оптимизаторы и администраторы поисковиков?

Самой большой ошибкой было бы думать, что оптимизаторы и поисковики — антагонисты. Будь так, разработчики и идеологи поисковых систем не проводили бы семинаров для оптимизаторов, не разрабатывали бы рекомендаций, не писали бы справочных статей. Это с одной стороны. С другой — даже несмотря на то, что оптимизаторы своей неустанной работой заставляют поисковые машины развиваться, делают их умнее, нельзя сказать, что администраторы поисковиков и оптимизаторы действуют в одной упряжке. Иначе не были бы так засекречены нюансы поисковых алгоритмов, а любое, даже самое незначительное изменение в правилах ранжирования сайта не вызывало бы паники в среде оптимизаторов.

Дело в том, что поисковая оптимизация двулика. Все методы оптимизации, все методы продвижения сайтов в поисковых системах можно разделить на две группы:

  • методы, использующие недостатки поисковых алгоритмов;
  • методы, использующие сильные стороны поисковых алгоритмов.

Говоря проще, добиться желаемого результата (вывести предложение заказчика на высокие позиции выдачи Яндекса или Google) оптимизатор может двумя способами. Во-первых, он может попытаться обмануть поисковую систему, искусственным образом увеличив релевантность страниц сайта, содержащего коммерческое предложение. Другими словами, пользователь, набравший в поисковике какой-нибудь нейтральный информационный запрос, в списке результатов увидит коммерческие предложения, имеющие к запросу лишь формальное отношение (например, на запрос «как выбрать холодильник» — модели холодильников с ценами). А во-вторых, что сегодня для нас более интересно, оптимизатор может играть на одной стороне с поисковиками. Другими словами, делать сайты своих заказчиков действительно более релевантными, более интересными для пользователей, задающих поисковикам соответствующие запросы. Но об этом — чуть позже.

Способов прямо или косвенно обмануть поисковую систему до сих пор достаточно много. Наивные поисковики начала 1990-х годов, перекочевавшие во Всемирную сеть из локальных «информаториев», к оптимизационной войне готовы не были. Обмануть их было нетрудно — в числе самых хитрых способов, имевшихся в арсенале первых оптимизаторов, была публикация на сайте огромного объема всевозможных текстов — от «Британики» и до полного собрания сочинений Чарльза Диккенса. Чем больше всякого текста, включающего все возможные слова во всех возможных сочетаниях, тем выше сайт в выдаче результатов. Буквально по всем запросам.

Разумеется, это был тупик. Поисковые машины в таком виде никому не были нужны. Стремясь угодить конечному пользователю, администраторы поисковиков все больше усложняли алгоритмы, стремясь приблизиться к запросам человека. Отсортировать сайты так, чтобы пользователь увидел страницы, полнее всего отвечающие на его запрос, отсечь все накрутки и «левые» коммерческие предложения — такая задача стояла перед разработчиками поисковых систем на протяжении последнего десятилетия. Перед оптимизаторами стояла противоположная задача. Борьба, как водится, шла с переменным успехом. Развивалась и та, и другая сторона.

Методы поисковой оптимизации, основанные на недостатках поисковых систем, долгое время альтернативы не имели. Неудивительно — если поисковик настолько несовершенен, что ставит сайт, содержащий реальную, нужную пользователю информацию, ниже ресурса, набитого мусорными текстами, ни о каких честных методах борьбы речи быть не могло. Если поисковик не умеет отличить по-настоящему релевантные страницы от грубых подделок, то владельцы сайтов, пренебрегающие всевозможными «накрутками», заведомо остаются в проигрыше.

Очень быстро методы оптимизации поделились на «черные», «серые» и «белые». За «черные» методы администраторы поисковых систем просто исключают сайт из рассмотрения (на первый раз могут и простить, но после второго «попадания» на сайте ставится крест). Существует немало способов нарушить правила поисковых машин — от создания «черных дорвеев», перенаправляющих потоки посетителей на сайт заказчика, и до такой, казалось бы, безобидной хитрости, как запись ключевых слов на главной странице «невидимым» (слишком мелким или в цвет фона) шрифтом.

С «серыми» методами немного сложнее: в их разряд входят приемы, совершенно не соответствующие идеологии поисковых систем, но при этом незапре¬ щенные — как правило, просто потому, что сформулировать запрет однозначно не получается. Использование «серых» методов к исключению из числа индексируемых сайтов, как правило, не приводит; поисковые системы борются с ними иначе, а именно — перестраивают свои алгоритмы таким образом, что данные методы теряют в эффективности, частично или полностью. Например, еще совсем недавно специализированное программное обеспечение позволяло автоматически разместить ссылки на сайт в десятках тысяч бесплатных Web-каталогов, что существенно поднимало его поисковые позиции. Небольшая смена алгоритма, — и все ссылки с каталогов, позволяющих проводить автоматическую регистрацию, учитываться перестали.

Итак, продвижение сайтов, основанное на ошибках, недочетах и «недокументированных возможностях» поисковых систем, отличается следующими недостатками.

  • Высокий уровень риска (при использовании запрещенных методов), негативные последствия для репутации ресурса.
  • Нестабильность получаемых результатов (вложения в «черную» или «серую» оптимизацию могут обесцениться в любой момент, после самого незначительного изменения поисковых алгоритмов).

Последний тезис необходимо рассмотреть подробнее. По сути, именно здесь и таится главное отличие «честных» методов от «нечестных». Вложения в раскрутку сайта «нечестными» методами по мере совершенствования поисковых алгоритмов обесцениваются. Рано или поздно это происходит — такова сама природа подобных методик.

Когда мы продвигаем сайт «честными» методами, мы никого не пытаемся обмануть, не пытаемся искусственными методами повысить релевантность Web-страниц. Мы и в самом деле делаем их более релевантными, более интересными потенциальному посетителю, набравшему интересующий нас запрос в Яндексе или Google. В этом — вся суть конентентной оптимизации.

А самое главное — поскольку поисковики справляются со своими задачами все лучше, вложения в контентную оптимизацию сайтов со временем не обесцениваются, напротив — чем совершеннее поисковые алгоритмы, тем лучше результаты сайтов, оптимизированных по контентной методике.

Posted in Основы контентной оптимизации.