Шишигин Михаил Иванович : другие произведения.

Концепция построения оптимальных веб-сайтов на основе Pagerank

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:


 Ваша оценка:
  • Аннотация:
    Статья на актуальную тему продвижения сайта


Концепция построения оптимальных веб-сайтов на основе PageRank.

  
  

( Статья на актуальную тему продвижения сайта. )

  
   Фактически World Wide Web представляет собой некую новую планету, наподобие планеты людей. Эта новая планета населена человеческими документами, веб-сайтами.
   Земля помогает нам понять самих себя. Ибо земля нам сопротивляется. Человек познает себя в борьбе с препятствиями. Точно так же WWW позволяет нам понять самих себя. Веб-сайты, наподобие живых организмов, зарождаются, развиваются, гибнут, вступают в коалиции, конкурируют между собой.
   Другими словами, веб-сайт - это виртуальная проекция человека или фирмы на Сеть.
   Ваша главная задача: сделать веб-сайт максимально жизнеспособным, правильно понять сайтпромоутинг и воплотить его принципы в реальной жизни WWW.
   Важно, чтобы сайт имел хороший рейтинг в поисковой системе, т.е. чтобы находился на одном из первых мест в ответах поисковика на запросы пользователей.
   С точки зрения сайтпромоутинга поисковые системы интернет-ресурсов - важный источник, как принято говорить, трафика любого веб-сайта.
   В дальнейшем изложение будет ориентированно на поисковую систему Google по причине её лидирующего положения среди поисковых систем.
   Для правильного методического освоения и понимания проблематики построения оптимального веб-сайта, а также понимания анатомии крупномасштабной гипертекстовой поисковой системы Google, необходимо задаться вопросом, что собой представляет индекс документа (страницы сайта).
   Это то самое важное, для достижения чего трудится поисковый робот Googlebot.
   Можно упрощенно сказать, что индекс документа представляет собой его аннотацию. Методически это будет не верно. Для Googlebot объектом для обработки является сайт.
   Веб-сайт для Googlebot представляет направленный мультиграф, в вершинах которого располагаютя страницы. Робот поисковой системы исследует сайт и строит его модель.
   В модели отображено основное содержание сайта.
   Таким образом, индекс представляет собой модель исследуемого сайта и формально задается структурой, которая включает: тексты (части текстов) заглавий (title), заголовков (head), якорные тексты (anchor text), части текстов тела (body) гипертекстов страниц сайта.
   Другими словами, представлены все элементы гипертекстов и, что очень важно, формируются в сжатой форме поисковые единицы, которые следует называть поисковыми концептами: K(title), K(head), K(anchor), K(body).
   Безусловно, в этой структуре особое место занимает Page Rank.
   Page Rank позволяет оценить топологию сайта. Page Rank задаёт оценочные величины страницам, входящим в сайт.
   Исходя из этих оценок, поисковый робот Googlebot в различной мере уделяет внимание каждой странице, входящей в сайт. Более того, часть страниц может остаться проигнорированной по причине их низкой оценки. Но даже, если имеются многочисленные страницы, связанные интенсивными взаимными ссылками (интенсивное интерлинкование), то технология PR присвоит каждой странице одинаковую оценку (1) и Googlebot сохранит за собой право обработать только часть этих страниц.
   Вывод: необходимо оптимально выполнить внутреннее линкование, задав такую структуру связей между страницами сайта, чтобы оценочные величины наиболее важных страниц явно превосходили оценочные величины остальных (дополнительных) страниц.
   Образно говоря, направленный мультиграф сайта ассоциируется со скелетом, на котором крепится мясо - текстовые и другие данные.
   В математическом смысле вычислительная схема PR представляет собой рекурсивную процедуру, особенностью которой является то, что выходные значения, полученные на определенном этапе итерации, становятся входными для последующей итерации.
   Важно то, что какие бы ни были стартовые значения (можно даже нули задать) рекурсивная процедура, после выполнения конечного числа итеративных циклов, вычислит предельные значения. Для предельных оценочных величин характерно то, что эти величины не изменяются при дальнейших итерациях, и итеративный процесс на этом завершается.
   Безусловно, когда поисковый робот заново индексирует сайт, то он использует имеющиеся величины в качестве стартовых.
   Рекурсивная процедура позволяет судить об изменениях на сайте, которые могли произойти с момента последней индексации.
   Возможна такая ситуация, когда поисковая система, не доведя рекурсивную процедуру до предельных величин, сохранит промежуточные результаты и вернется для дальнейшего подсчета в другой сеанс индексации.
   Это очень важно для Googlebot, особенно при анализе внешних связей. Такой подход позволяет убедиться в том, что новые внешние связи устойчивые, а не временные и блефовые, организованные коммерческой сделкой.
  
   Уравнения рекурсивной вычислительной схемы:
  
   PR(A) - Page Rank страницы A,
   PR(T1) - Page Rank сайта (страницы), ссылающегося на страницу A.
   Ci(T1) - количество индивидуальных ссылок, исходящих от страницы T1,
   Cr(T1) - общее количество ссылок, исходящих от страницы T1,
   d - демпфирующий коэффициент (обычно 0,85)
   1 - d - нормировочный коэффициент,
   n - количество страниц в сайте.
  
   PR(A) = (1 - d) + d ( Ci(T1) PR(T1) / Cr(T1) + ... + Ci(Tn) PR(Tn) / Cr(Tn) ).
  
   Высказанные положения автором статьи промоделированы в среде Excel.
  
  
   mike@websiteceo.com
 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список
Сайт - "Художники" .. || .. Доска об'явлений "Книги"