Время:
Новых сообщений: Нет
Вы на форуме дней
Ваша группа: Гость
Ваш IP: 3.144.17.181
Logical-Portal — молодежный портал со своей изюминкой, каждый сможет найти что-то интересное и полезное для себя, например наш форум общения с которым вам обязательно нужно ознакомиться.
  • Страница 1 из 1
  • 1
Модератор форума: Hawk  
Обман поисковиков или повышение релевантности сайта
Сообщение оставлено 19.02.2012 в 18:44:43 | Сообщение #1
Вступление
На сегодняшний день найти нужную информацию в Интернете становится все сложнее и сложнее. Причиной этого является огромный рост количества сайтов и еще более большой рост информационного мусора, различной рекламы. Как часто тебе приходилось делать запрос в любимом поисковике на поиск последней песни любимого исполнителя или лучшего xxx сайта? И как часто тебе приходилось наблюдать, что результат поиска совсем не связан с запросом? Вместо новой песни тебе предлагают вступить в финансовую пирамиду, а вместо лучшего xxx сайта заказать девушку по крайне низким ценам с доставкой на дом. Все это результат обмана поисковых роботов. О способах обмана и повышении рейтинга сайта в поисковиках рассказано в этой статье.
Принцип работы

Вот типичный пример работы рядового поисковика. Существует программный модуль (паук, spider), который бродит по ссылкам, считывает содержание страниц, и для каждого слова делает запись в индексном файле. Например, для слова «халява» будет создана примерно такая запись в индексном файле: «халява1». Затем в файле, где хранятся ссылки будет сделана запись «1 URL страницы». Пояснение: 1 – это номер, который связывает записи в индексном файле (таблице) и файле ссылок. Потом паук поползёт на другую страницу и наткнётся там опять на слово «халява». Теперь в индексной таблице он создаст запись: «халява12», а в таблице ссылок: «2 URL страницы». Когда пользователь наберет в строке поиска слово «халява», поисковик посмотрит индексный файл, найдет там строчку «халява», прочитает номера 12 и найдет в таблице ссылок адреса, соответствующие номеру 1 и 2, и выдаст их пользователю. Вот основной принцип работы поисковых систем, который носит название индексирование. От чего тогда зависит положение сайтов в результате поиска? Ответ: от релевантности, т.е. от соответствия документа запросу юзера. От чего зависит релевантность? Вообще, алгоритмы оценки релевантности отличаются у разных поисковых системах, и держатся в строжайшем секрете. Вот основные параметры:

Количество повторяющихся слов в документе.
Ключевые слова, заключенные в теги , , , , . Т.е. если страница связана с халявой, то лучше слово «халява» написать между тегами, , и в дальнейшем тексте выделять это слово.
Расстояние между ключевыми словами в документе. Чем меньше расстояние, тем выше релевантность.
Индекс цитирования – величина, обозначающая количество ссылок с других ресурсов на данный сайт. Чем больше сайтов ссылается на данный ресурс, тем больше индекс цитирования. Имеет значение и популярность сайта с которого идет ссылка.
Не менее важный параметр: толщина кошелька владельца ресурса. Поисковые системы делают люди, которым тоже хочется есть, пить пиво, покупать журнал «Хакер». И они показывают рекламу непосредственно в результатах поиска. Оплаченные ссылки, показывающиеся в верхних строчках результата поиска, не очень часто оказываются подходящими к запросу.
Естественно, что чем выше релевантность, тем выше окажется сайт в результате поиска, и тем выше вероятность того, что юзер зайдет именно на этот сайт. Следовательно, у тебя возникает вопрос о том, как повысить релевантность у поисковых систем.
Обман поисковиков

Вообще, обмануть современную поисковую систему довольно сложно, и с каждым днем это сделать становится все сложнее. В начале скажу о том, чего нельзя делать:

Использовать ключевые слова не относящиеся к тематике страницы. Ключевые слова были придуманы для облегчения процесса индексирования. По замыслу, вебмастеры помещали в тег , слова, которые наиболее полно отражали содержание их страниц. Тогда спам в сети еще не был так распространен как сейчас, и первое время ключевые слова действительно помогали найти нужную информацию. Но потом, создатели сайтов стали впихивать в этот тег самые популярные слова, которые набирались при поиске в Интернете, в надежде, что на их сайт зайдут посетители. С таким спамом большинство поисковиков научилось бороться: теперь пауки стали анализировать весь текст на странице и сравнивать его с текстом в ключевых словах, и если соответствия не находилось, то страница не индексировалась. Поэтому нет смысла включать ключевые слова, которых нет на странице;
Употреблять какое-либо ключевое слово много раз. Паук воспримет это как спам и перестанет индексировать страницу;
Размещать на странице популярные ключевые слова, например: Интернет, программы, компьютер, фото. Часто поисковой робот просто игнорирует эти слова, поскольку ими уже загружены десятки миллионов других страниц;
Использовать цвет текста равный цвету фона. Раньше к этим способом часто пользовались спамеры. Таким образом им удавалось скрыть слова от посетителя, но оставить их видимыми для пауков. Большинство поисковых систем умеет с этим бороться. Они сравнивают цвет фона в теге с цветом текста, и если значения оказываются равными, то индексация прекращается. Некоторые спамеры делают так: задают в теге , например синий цвет, цвет текста делают белым, затем указывают следующий тег: , где fon.gif – маленький рисунок белого цвета. Дело в том, что браузер для отображения фона страницы будет использовать файл fon.gif, и сделает фон белый, и слов не будет видно, тогда как пауку цвет фона будет казаться синим. У этого способа есть обратная сторона: многие юзеры в нашей стране не могут похвастаться быстрой связью, и поэтому часто отключают загрузку графики, и у них браузер будет отображать цвет фона таким, каким он указан в теге , т.е. в нашем примере синим, и посетитель будет видеть все слова, которые предназначались для поискового робота.

Помещать ключевые слова в отдельный слой (Layer) и делать его невидимым.
Использовать переадресаторы на странице типа . Этот тег через 5 секунд после загрузки перенаправит посетителя на сайт http://ca1.dax.ru/. Большинство поисковиков воспринимает это как спам. Этим примером часто пользуются xxx-сайты, помещая на страницу много ключевых слов, а посетителя практически сразу посылают на другой ресурс.
Повышение релевантности

Теперь о том, что нужно сделать, чтобы действительно повысить релевантность ресурса:

Самостоятельно прописывать ключевые слова на каждой странице сайта, стараясь, чтобы они максимально соответствовали тематике страницы;
Не ставить запятые после ключевых слов. Во-первых, это увеличивает размер файла, во-вторых, большинство поисковиков читает только первые 200-250 символов;
Составлять очередность слов в соответствии их важности. Самые важные слова должны стоять вначале;
Лучше, если слова, используемые в тегах , , , , а также в атрибуте ALT будут встречаться в ключевых словах;
Не стоит повторять ключевые слова на разных страницах сайта;
Некоторые поисковики отображают описание страницы из тега , а некоторые из первых строчек документа. Описание надо составлять так, чтобы юзеру захотелось зайти на сайт. Если первые строчки текста на странице адаптировать под описание не хочется, то можно пойти на хитрость. Сделать невидимый слой, с помощью каскадных стилей таблиц (CSS), и разместить его после тега . Т.о. поисковик, который отображает первые строчки документа будет отображать текст в невидимом слое. Стоит отметить, что не стоит составлять большое описание страницы, поскольку поисковики выводят обычно только первые 170 символов.
Поисковые роботы плохо относятся к таблицам.
На каждой странице используй как можно больше ссылок на другие страницы твоего ресурса и как можно меньше на страницы других сайтов.
Как я уже говорил, оценка релевантности различается у разных поисковых систем. Более 90% всех запросов в мире приходится всего на пару десятков поисковиков, поэтому есть смысл рассмотреть технологию работы самых популярных из них.

Yandex

На сегодняшний день самая популярная в России поисковая система. Количество ответов Yandex’а на поисковые запросы превысило 147 миллионов. По заявлениям компании, yandex готов давать каждому жителю России по одному ответу в месяц. Поисковой паук Яндекса славится быстротой работы. Уже после нескольких часов, индексируемая страница становится доступна в результатах поиска.

Советы по оптимизации страниц для Yandex’а

Страницы должны быть среднего размера, насыщены текстом, ключевых слов не должно быть много. Слова, стоящие в аббревиатуре ALT ценятся на порядок ниже ключевых слов. Хорошо индексируются страницы, созданные скриптами: гостевые книги, доски объявлений, форумы, а также страницы, расположенные на бесплатном хостинге narod.ru.

Rambler

Один из самых молодых поисковиков, при разработке которого был учтен опыт других поисковых систем. Ежедневно робот рамблера скачивает около 2 миллионов страниц. При индексации ключевые слова не обрабатываются, а обработки подвергаются лишь те, которые посетитель может увидеть на экране. В результате поиска предпочтение отдается сайтам, зарегистрированным в каталоге Rambler Top100.

Aport

С момента добавления сайта в Апорт до момента его появления в поисковой базе проходит от двух-трех дней до двух недель. Не индексирует страницы, в адресе которых встречается символ «?». Кроме текста, который видит посетитель, Апорт индексирует еще заголовок документа (TITLE), ключевые слова (META KEYWORDS), описания страниц (META DESCRIPTION) и подписи к картинкам (ALT). Кроме того, Апорт индексирует как принадлежащие документу тексты гиперссылок на этот документ с других страниц, находящихся, как внутри сайта, так и за его пределами, а также составленные (или проверенные) редакторами описания сайтов из каталога.

Google

Релевантность в Google зависит от:

индекса цитирования;
ключевых слов;
ключевых слов в ссылках;
выделенных слов.
Поисковой робот Google отличается своим умением глубоко индексировать сайт, т.е. он старается охватить максимальное количество ссылок с одной страницы.

AltaVista

Особенности поиска на AltaVista: большую роль играет наличие ключевых слов в теге , также подписи к картинкам (ALT). Большую роль играют ключевые слова, в первой 1000 символов.
Заключение

Ну вот и все. Хочу отметить, что оптимизация страниц для поисковиков – это, пожалуй, самый важный этап в раскрутке сайта. Обмануть поисковик можно, но подумай, нужно ли тебе это? Ведь ничего, кроме негативной реакции посетителя ты не добьешься. А правильно оптимизированный сайт будет привлекать куда более активную аудиторию, такой трафик очень качественный и высоко ценится, поскольку пользователь приходит на твой сайт с определенной целью и намерениями.
 
 
   
  • Страница 1 из 1
  • 1
Поиск:
 
Графика от: Megas, GraFOS | Дизайн сверстал E.A.
Хостинг от uCoz
Яндекс.Метрика