На заре развития
интернет-маркетинга рецепт успеха в SEO был предельно прост — максимум ключевых слов, максимум ссылок проталкивали сайт в топ. То есть само наличие внешних ссылок обеспечивало высокие позиции в поиске. Вебмастеру или SEO-специалисту оставалось только определить страницы, которые надо "прокачать" и ключевые слова к ним. При чем ключевые слова часто и беспорядочно использовались в анкорах. Поисковые системы же определяли ссылки как инструмент цитирования, а продвигаемый сайт с покупной ссылочной массой как надежный источник, отвечающий на запросы пользователя. В итоге в топе часто оказывались некачественные и неудобные переспамленные сайты с большим количеством платных неуместных упоминаний в интернете.
Постепенно работа поисковых систем стала перетекать от количества внешних ссылок к качеству и тематичности. В начале 2010-х уже не работал принцип "чем больше ссылок, тем лучше" — стала важна тематичность сайта-донора, а также уровень его траста. 2010-2015 годы стали расцветом разного рода "пузомерок" сайта: ТИЦ, PageRank и другие, — именно на них обращали внимание вебмастера при закупке ссылок.
Однако, когда интернет стал переполнен спамом, арендными "мигающими" ссылками и откровенно некачественными сайтами-однодневками, поисковики начали применять фильтры. 2015 год запомнился вебмастерам рунета Минусинском и реальными санкциями за покупные ссылки в Яндексе (читайте также:
Фильтры поисковых систем). Часто это были показательные наказания лидеров тематик и единственным способом выйти из-под санкций стало снятие размещенных ранее покупных ссылок. Несколькими годами ранее подобный алгоритм анонсировал и Google. Влияние ссылок снизилось, наступил кратковременный кризис ссылочных брокеров, но тотчас начались поиски новых путей. Неизменным оставался факт — ссылки продолжали работать, но уже не все.