Что такое Алгоритмы ПС

Плюсануть
Поделиться
Класснуть

Алгоритмы поисковых систем (ПС) – это особые математические формулы, которые помогают поисковым системам решать задачи выдачи в результаты поиска нужных сайтов. Всем известно, что поисковые машины находят сайты по определённым ключевым фразам либо словам. Алгоритмы ПС позволяют найти сайты, которые наиболее точно соответствуют запросам пользователя, при этом отсекая площадки, использующие неразрешённые методы оптимизации или ненужные пользователю. Руководствуясь алгоритмом поисковая машина анализирует контент сайта и выясняет наличие ключевой фразы в составе контента, а после принимает решение, насколько сайт соответствует позиции в выдаче – ниже или выше. Для каждой поисковой машины разрабатываются свои алгоритмы. Схема работы всех алгоритмов поисковой машины построена на схожих принципах. К примеру, все поисковые системы непременно оценивают уникальность контента. Алгоритмы ПС отличаются некоторыми другими инструментами для анализа.

Описание

Для нахождения нужной пользователю информации поисковым системам на начальной стадии развития всемирной сети Интернет достаточно было анализировать только самые основные данные содержания страниц: объём текста, ключевые фразы, наличие заголовков… Но вот с появлением многочисленных способов спама и оптимизации поисковики были вынуждены свои алгоритмы усложнить в целях отсеивания и распознавания сайтов, т.к. в отношении их применялись подобные методы и это превратило их дальнейшее развитие в ответ на появление новых способов продвижения.

Вообще, механизмы поисковых алгоритмов – это засекреченная информация и абсолютно никто, конечно же, кроме самих разработчиков, не знает, на какие факторы алгоритмы обращают внимание и что именно они учитывают. Все сведения об их работе, которые появляются в интернете, представляет собой в большинстве случаев личные выводы оптимизаторов, которые основаны на практическом наблюдении за продвигаемыми сайтами.

Так, при выдаче в поисковых результатах сайтов некоторые системы способны анализировать информацию помимо частоты ключевых слов, еще и наиболее популярные страницы и затрачиваемое пользователем время на их просмотр. Чем больше это время, тем выше вероятность, что на сайте размещены действительно качественные данные. Существует и другой подход, который подразумевает вычисление авторитетного веса площадки и определение количества ссылок. Это показатели PR. ТИЦ. и т.п. механизм определения которых является ещё одним алгоритмом ПС. Количество параметров, учитываемых алгоритмами, может достичь нескольких сотен. Вот например, при ранжировании сайтов система «Google» обращает внимание более чем на 200 факторов.

Алгоритмы ПС Google

История алгоритмов ПС Google началась с внедрения индекса цитирования в поисковый механизм. Он заключается в ранжировании сайтов и страниц в зависимости от авторитетного веса и количества ссылок (пэйдж-ранк), ведущих с других ресурсов на них. Сеть интернет таким образом превратилась в коллективный разум, который определял релевантность сайтов. Данная концепция оказалось удачным внедрением, благодаря которому система поиска Google стала наиболее популярной.

Алгоритмы Google на ранних этапах уделяли внимание только внутренним атрибутам страницы. А уже потом стали учитываться факторы - географическая принадлежность и свежесть информации. В 2000 году начал свое движение алгоритм Hilltop, который был предложен для более точного расчёта пэйдж-ранк Кришной Бхаратом. В 2001 году был полностью переписан изначальный механизм действия системы и, с этого момента, ПС Google стала разделять некоммерческие и коммерческие страницы. Также в этом году был введён коэффициент, добавляющий ссылкам больший вес, которые вели с авторитетных сайтов.

Первым, по-настоящему тяжелым для специалистов SEO барьером, стал алгоритм «Флорида», который введен в 2003 году Google. Кроме того, что он поставил под сомнение правильность использования распространённых способов продвижения, он еще и существенно проредил места поисковой выдачи, при этом из неё исключив страницы с переспамленные ключевыми словами и повторяющимся анкором.

В 2006 году Google стала использовать разработку Ори Алона, израильского студента, под названием алгоритм «Орион». Он улучшал поиск благодаря отображению наиболее важных результатов, а также принимал во внимание особенность индексируемых сайтов.

Компания Google в 2007 году внедрила ещё одну систему штрафных санкций и фильтров – это алгоритм «Аustin». Многие страницы, занимающие в рейтинге первые места до его введения, понизились на несколько мест и не могли подняться выше 6-го места.

В 2009 году был анонсирован новый алгоритм «Caffeine», который выступил в качестве важного улучшения инфраструктуры «Google». И с этого момента поисковая система стала значительно быстрее производить поиск и индексировать больше страниц.

Алгоритмы ПС Яндекса

Компания Яндекс. летом 2007 года, начала сообщать публике об изменениях в своем механизме ранжирования. Они были неизвестны до этого момента.

В 2008 году началось тестирование алгоритма «Магадан», ставший учитывать вдвое большее число факторов, в отличие от предыдущих версий. Были также добавлены следующие нововведения: обработка транслита и распознавание аббревиатур. Помимо этого, Яндекс начал индексировать сайты зарубежного происхождения, что привело к увеличению борьбы по запросам, которые содержали иностранные слова. Заключительный релиз «Магадана» был обнародован 16 мая того же 2008 года.

В этом же году появился еще один алгоритм под названием «Находка». Он вызвал изменения в способе подсчета факторов ранжирования. Было также замечено, что в поисковой выдаче Яндекса по некоторым запросам стали появляться сайты информационного характера, в частности Википедия. В апреле 2009 года начала работать поисковая программа «Арзамас». Связанные с её появлением нововведения отразились серьёзным образом на продвижении сайтов. Молодым сайтам стало очень сложно наращивать ссылочную массу и пробиваться на лидирующие позиции. Но внедрение географической принадлежности весьма благоприятно отразилось на региональном продвижении источников.

В том же 2009 году компания Яндекс анонсировала свой новый поисковый алгоритм, название которого «Снежинск». Особенностью его стало внедрение новейшей технологии машинного обучения. Разработчики назвали ее Матрикснет. С этого момента продвижение сайтов фактически стало менее подконтрольным оптимизаторам. Система поиска Яндекс благодаря новой системе связала огромное количество показателей и факторов сайтов, что сделало в итоге ранжирование максимально важным оценкам асессоров.

2010 год принес изменение в анализе текстового содержания сайтов. Страницы, напитанные ключевыми словами, начали попадать под фильтры, а после удаляться из выдачи поиска. Так на первый план и вышел копирайтинг. Очень быстро был анонсирован еще один апдейт «Матрикснет», осуществляющая своё «обучение»раз в месяц. По сообщениям представителей компании, в этом же 2010 году, из стадии тестирования дал свое начало новый алгоритм «Обнинск». Он предназначен для лучшего качества ранжирования гео-запросов.

Источник новости: http://seowikipedia.su/

Плюсануть
Поделиться
Класснуть