Время:
Новых сообщений: Нет
Вы на форуме дней
Ваша группа: Гость
Ваш IP: 18.118.0.48
Logical-Portal — молодежный портал со своей изюминкой, каждый сможет найти что-то интересное и полезное для себя, например наш форум общения с которым вам обязательно нужно ознакомиться.
  • Страница 1 из 1
  • 1
Модератор форума: Hawk  
Что такое робот Googlebot?
Сообщение оставлено 19.02.2012 в 12:40:02 | Сообщение #1
Робот Googlebot – это разработанная Google программа сканирования Интернета ("паук"). Сканирование – это процесс, в ходе которого робот Googlebot обнаруживает новые и обновленные страницы для добавления в индекс Google.
Мы используем огромную сеть компьютеров, чтобы извлечь (или "просканировать") содержание миллиардов веб-страниц. Робот Googlebot использует следующую алгоритмическую процедуру. Компьютерные программы определяют сайты, которые нужно сканировать, частоту сканирования и количество извлекаемых страниц на каждом сайте.

Процедура сканирования начинается с получения списка URL-адресов веб-страниц, который создается на основе результатов предыдущих сеансов сканирования. Его дополняют данные из файлов Sitemap, предоставленных веб-мастером. Просматривая каждый из этих сайтов, робот Googlebot находит на каждой странице ссылки (SRC и HREF) и добавляет их в список страниц, подлежащих сканированию. Все новые и обновившиеся сайты, а также неработающие ссылки помечаются для обновления в индексе Google.
Для веб-мастеров: робот Googlebot и ваш сайт
Каким образом робот Googlebot работает с вашим сайтом?

Робот Googlebot не должен обращаться к сайту чаще, чем раз в несколько секунд (в среднем). Это относится к большинству сайтов. Но из-за задержек сети в короткие периоды времени эта частота может оказаться несколько выше. Как правило, робот Googlebot должен загружать только одну копию каждой из страниц. Если робот Googlebot загружает страницу несколько раз, это может быть вызвано остановкой и перезапуском поискового робота.

Робот Googlebot предназначен для распределенной работы на нескольких компьютерах. Это обеспечивает рост эффективности и масштабирования системы по мере роста сети. Кроме того, для повышения пропускной способности сети некоторые поисковые роботы запускаются на компьютерах, расположенных рядом с индексируемыми сайтами. Поэтому в ваших журналах могут быть записаны обращения от нескольких компьютеров в домене google.com с роботом Googlebot, указанным в качестве агента пользователя. Наша цель заключается в том, чтобы просканировать как можно больше страниц на сайте за один раз, не снижая пропускной способности сервера.
 
 
   
Сообщение оставлено 19.02.2012 в 13:06:45 | Сообщение #2
Спасибо помог очень
 
 
   
  • Страница 1 из 1
  • 1
Поиск:
 
Графика от: Megas, GraFOS | Дизайн сверстал E.A.
Хостинг от uCoz
Яндекс.Метрика