Шишигин Михаил Иванович : другие произведения.

Построение оптимального веб-сайта на примере реально существующего веб-сайта www.websiteceo.com

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:


 Ваша оценка:
  • Аннотация:
    Статья на актуальную тему сайтпромоутинга


Построение оптимального веб-сайта на примере реально существующего веб-сайта www.websiteceo.com

  

Часть I.

(Статья на актуальную тему сайтпромоутинга)

   Не будет преувеличением сказать, что проблема оптимизации является в определенном смысле, пожалуй, самой острой проблемой современности. В любой сфере деятельности человек всегда ищет оптимальные решения. Оптимальность является той жар-птицей, за которую стоит заплатить обожженными руками.
   Особое место в теории построения систем экстремального управления занимает универсальный метод решения задач оптимизации объектов, в основе которого положен поиск, доставляющий информацию, необходимую для отыскания оптимального решения.
   Следует обратить внимание на то, что алгоритмы поиска представляют собой развитие итеративных процессов при решении сложных аналитических задач.
   Невольно возникает мысль о том, что вычислительная схема PR неустанно напоминает владельцу сайта о необходимости оптимизации.
  
   Рассмотрим уравнения рекурсивной вычислительной схемы:
  
   PR(A) - Page Rank страницы A,
   PR(T1) - Page Rank сайта (страницы), ссылающегося на страницу A.
   Ci(T1) - количество индивидуальных ссылок, исходящих от страницы T1,
   Cr(T1) - общее количество ссылок, исходящих от страницы T1,
   d - демпфирующий коэффициент (обычно 0,85)
   1 - d - нормировочный коэффициент,
   n - количество страниц в сайте.
  
   PR(A) = (1 - d) + d ( Ci(T1) PR(T1) / Cr(T1) + ... + Ci(Tn) PR(Tn) / Cr(Tn) ).
  
   Сходимость рекурсивной вычислительной схемы обеспечивается простым условием:

d < 1.

   Демпфирующие коэффициенты для различных страниц сайта могут быть различными.
   Важно то, что величины нормировочных коэффициентов могут быть распределены в зависимости от предпочтения страниц. В известном смысле для "поощрения" той или иной страницы величину нормировочного коэффициента можно повысить за счет уменьшения нормировочных коэффициентов остальных страниц. Этот способ "поощрения" страницы назовем асимметрией нормировочных коэффициентов.
   Например, уже в первом сеансе индексации сайта поисковый робот Googlebot может "поощрить" индексную страницу сайта (home.index), задав для неё величину нормировочного коэффициента (0.1*n + 0.9)*0.15, а другим страницам - величину нормировочного коэффициента 0.9*0.15.
   [ 0.1*n + 0.9 + 0.9*(n-1) = n - количество страниц в сайте.]
  
   В последующих сеансах индексации сайта величины нормировочного коэффициента для индексной страницы (home.index) и величины нормировочных коэффициентов для других страниц могут принимать значения:
  

(0.2*n + 0.8)*0.15

0.8*0.15

(0.3*n + 0.7)*0.15

0.7*0.15

...

(0.9*n + 0.1)*0.15

...

0.1*0.15

   Поощрение может заслужить та или иная страница по ряду критериев (например, благодаря большой "словесной массе"). В алгоритме вычисления PR действуют обратные связи, позволяющие оперативно поощрять страницы с учетом их достоинств по различным критериям.
   Таким способом Googlebot может поощрять сайт, который длительное время располагается в Сети, заслуживает доверие, пользуется известным интересом.
   Поисковый робот Googlebot, как бы сам пытается подвести собственника сайта к принятию решения об оптимальном линковании в пользу страниц, которые в большей степени раскрывают тематику сайта.
   Такой подход со стороны Googlebot объясняет, почему со временем может повыситься значение PR на табло без каких-либо изменений в структуре страниц сайта.
  
  
 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список
Сайт - "Художники" .. || .. Доска об'явлений "Книги"