Деньги, как известно, имеют различные функции. Одной из них является непрестанное движение денег в обращении, обслуживание процесса обращения. Без выполнения деньгами этой функции торговля была бы невозможна.

#SEO Создайте свою внутреннюю семантическую сетку с #R

Вот моя последняя статья о генерации семантической внутренней сетки

Вот моя последняя статья о генерации семантической внутренней сетки.
Общая цель состоит в том, чтобы уменьшить количество просканированных страниц и количество уровней дерева.
Таким образом, мы можем:
- Увеличить сканирование страниц до ранее выбранных целевых страниц "Звездных войн" ( Часть 2 )
- Значительно увеличьте количество просмотренных страниц, потому что участники будут заинтересованы в контенте "Звездных войн".
- Оптимизировать семантическое поле, на которое реагирует сайт.

- Оптимизировать семантическое поле, на которое реагирует сайт

Эпизод 3: Распределение семантических связей

Задача 1: Приоритетом является уменьшение глубины целевых страниц, мы разместим их ближе к домашней странице.

Уровень BB8:
Уровень BB8:

Для этого отмечу, что у меня есть более 110 страниц на уровне 1, я напишу программу на R, которая позволяет разместить как минимум две ссылки на каждой из первых 55 страниц. Я сохранил свои файлы из Xenu, чтобы показать, что мы можем делать все с помощью бесплатных инструментов.

библиотека (dplyr) #On использует страницы поддержки, отсканированные Xenu, и сортирует их по глубине DF_page_support <- read.csv ("./projects/scifi-universe.com/xenu_links.txt", header = TRUE, sep = "t") DF_page_support_select <- выбрать (DF_page_support, Адрес, Тип, Уровень, Status.Code, Размер, Links.In, Links.Out)%> %range (Уровень)%>% filter (grepl ('http: / /www.scifi-universe.com ', Address), complete.cases (Level), complete.cases (Status.Code), complete.cases (Size), Type == "text / html", # на удаленных страницах новостные ленты ('actualites /', Address)) DF_page_support_depth <- выбрать (DF_page_support_select, Address, Level)%>% mutate (url1 = "", url2 = "", url3 = "", url4 = "", url5 = "", url6 = "", url7 = "", url8 = "", url9 = "", url10 = "") #on занимает целевые страницы статьи 2 во внутренней SEO-рассылке DF_page_objective <- read.csv ("./projects/scifi-universe.com/results-page-objectives2-anchortext.csv", header = FALSE, sep = ";") colnames (DF_page_objective) <- c ("Pos", "Url", " Anchor1 "," Anchor2 "," Anchor3 ") DF_pa ge_objective <- выберите (DF_page_objective, Url, Anchor1, Anchor2, Anchor3) DF_merge <- объединить (DF_page_objective, DF_page_support_depth, by.x = "Url", by.y = "Address")%>% упорядочить (уровень) ## в разместим наши ссылки на страницах уровня 1 или уровня 2, которые относительно просканированы и т. д. <- 1 макс. <- 55 для (строка в 1: nrow (DF_page_support_depth)) {DF_page_support_depth $ url1 [row] <- toString (DF_merge $ Url [iter]) DF_page_support_depth $ url2 [row] <- toString (DF_merge $ Url [iter + 1]) iter <- iter + 2; if (iter> max) перерыв}

Задача 2: Оптимизировать семантическое поле с учетом ценности для бизнеса, объемов SEO и семантического проскальзывания, ...

Уровень джедая:
Уровень джедая:

Мы используем генетический алгоритм, в этой части стоит хотя бы уровень джедая на языке R! Я не использовал такие методы, как «kmeans», которые слишком трудоемки, или матрицы ассоциаций, которые дают довольно случайные результаты.
Мы разместим каждую ссылку в лучшем из возможных мест в соответствии с несколькими факторами. (Ценность для бизнеса, объем SEO, семантическое скольжение)

Цель состоит в том, чтобы получить приближенное решение задачи оптимизации. Генетический алгоритм использует понятие естественного отбора, где мы постепенно приближаемся к результату, применяя его к совокупности потенциальных решений.

Перед использованием этого алгоритма я собираю в Google Planner все тома SEO целевых страниц на якорях, определенных с помощью Visiblis.

Я даю вам код, чтобы показать вам, что в R очень быстро перейти от таблицы к трем столбцам таблицы к 1 столбцу, добавив ключевое слово «звездные войны»

ДО

ПОСЛЕ

7 строк кода (40 с)

result_all <- read.csv ("./ projects / scifi-universe.com / results-page-tasks2-anchortext.csv", header = FALSE, sep = ";") colnames (result_all) <- c ("Pos" , «Anl», «Anchor1», «Anchor2», «Anchor3») DF_SEO <- union (result_all $ Anchor1, result_all $ Anchor2) DF_SEO <- as.data.frame (union (DF_SEO, result_all $ Anchor3)) столбцы ( DF_SEO) <- c ('query') DF_SEO <- mutate (DF_SEO, query = paste ('звездные войны', query, sep = "")) write.csv (DF_SEO, "./ projects / scifi-universe.com /keyword_for_googleplanner.csv «)

Скопируйте все в Google Planner и экспортируйте результаты в CSV

Вы получаете этот тип файла CSV

Затем я советую вам назначать приоритет (бизнес-ценность) каждому ключевому слову, фактически вы не можете основывать свою внутреннюю сетку только на объемах SEO, но на своем опыте и, следовательно, на своих бизнес-правилах.

В случае со «Звездными войнами» вы должны сосредоточиться на последних играх и последних фильмах. Для моего алгоритма, если я поставлю ценность бизнеса на уровне 10, это даст ему самый высокий уровень в моей шкале.

Тогда для моих 111 целевых страниц у меня есть более 220 000 страниц поддержки.
Я представил блок, который будет содержать десять ссылок, поэтому мы должны разделить 111 целевых страниц между 2 220 000 мест.

Было бы целесообразно разместить максимум 10 000 ссылок на целевую страницу. Важно установить пороговые значения, в противном случае это всегда одни и те же ссылки, которые будут найдены на всех страницах. Порог будет установлен в соответствии с оценкой страницы, потому что не всем страницам нужно одинаковое количество входящих ссылок.

Таким образом, на приоритетных 10 страницах с большими объемами SEO будет высока вероятность наличия по крайней мере 10 000 ссылок на сильно просканированных страницах.

Основная цель - позволить пользователям Интернета находить контент, соответствующий их исследованиям.

Вот упрощенная версия моего генетического алгоритма, потому что было бы неразумно тонуть в коде. Если мы абстрагируемся от языка R, мы должны просто определить математическую формулу, которая выберет лучшую совокупность, которая отвечает нашей проблеме.

Зачастую мы можем учитывать общее количество ключевых слов, чтобы разместить наиболее релевантные ссылки, но на этом научно-фантастическом сайте контент «Звездные войны» актуален на всех страницах, а «Звездные войны» будут очень модными на следующие несколько месяцев или даже следующие несколько лет. Я не буду приводить свою версию, которая учитывает семантический сдвиг и позволяет более общим сайтам размещать ссылки, полностью соответствующие анализируемой странице.

Цель состоит в том, чтобы выделить целевые страницы на основе оценки от 1 до 10, которая соответствует ценности бизнеса, где интерес страницы и объем SEO соответствующего запроса.

Я предпочитаю нормализовать два значения по шкале от 1 до 1000 и распределить вес на 50-50, но вы можете оптимизировать формулу в зависимости от сайта, конкурентов и его тематики.

Я предпочитаю нормализовать два значения по шкале от 1 до 1000 и распределить вес на 50-50, но вы можете оптимизировать формулу в зависимости от сайта, конкурентов и его тематики

Функция написана на R:

normalit <-функция (d) {max <- max (d) min <- min (d) return (round ((((d - min) / (max-min)) * 1000), 0))}

Функция, которая поможет сделать выбор в генетическом алгоритме, является суммой его факторов и управляет тем, что количество ссылок ограничено 10 на страницу.

Функция, которая поможет сделать выбор в генетическом алгоритме, является суммой его факторов и управляет тем, что количество ссылок ограничено 10 на страницу

Я создал небольшой пример, где для каждой страницы поддержки я размещаю от 1 до 3 ссылок на 10 целевых страниц, и мы ограничиваемся частотой 5 на страницу цели.

библиотека (genalg) библиотека (dplyr) # загрузка страниц поддержки page_support <- read.csv ("./projects/scifi-universe.com/page-support.csv", header = TRUE, sep = ";") colnames ( page_support) <- c («Корпус», «URL-адрес», «Сессия», «Уровень», «Links.Out», «Links.In», «Status.Code», «Размер») page_support = filter (page_support, ! grepl ("actualite", Url)) # количество ссылок max_links <- 3 # количество страниц поддержки max_page_support <- 10 # увеличить население, чтобы получить релевантные для вас результаты # чтобы определить соотношение между точностью результатов и скорость расчета max_population <- max_page_support * 10 кошка ('популяция', max_population, 'n') # набор данных тестового набора <- data.frame (item = c ("url_objective_1", "url_objective_2", "url_objective_3", "url_objective_4" "," url_objective_5 "," url_objective_6 "," url_objective_7 "," url_objective_8 "," url_objective_9 "," url_objective_10 "), volume_seo = c (1000, 5000, 150, 200, 3000, 1000, 3000, 100, 90, 300 ), # приоритет: высокий -> 10: низкий -> 1 приоритет = c (1, 5, 10, 2, 3 , 4, 5, 6, 10, 2), вес = c (1, 1, 1, 1, 1, 1, 1, 1, 1, 1), #corpus = c (0,0,0,0, 0,0,0,0,0,0), max = c (5,5,5,5,5,5,5,5,5,5)) # функция, которая оценивает актуальность каждого предложения evalFunc <- function (x) {current_volume_seo <- x% *% набор данных $ volume_seo current_priority <- x% *% набор данных $ приоритет current_weight <- x% *% набор данных $ weight # Объем и бизнес-значение SeO имеют одинаковую важность current_importance <- current_volume_seo + current_priority # Если результат содержит больше ссылок, чем наш максимум ссылок в блоке, мы удаляем его, если (current_weight> weightlimit) return (0), иначе return (-current_importance)} #normalize: вернуть значение в диапазоне от 0 и 1000 normalit <-функция (d) {max <- max (d) min <- min (d) return (round ((((d - min) / (max-min)) * 1000), 0))} #on нормализует факторы между 0 и 1000 набором данных $ volume_seo <- normalit (набор данных $ volume_seo) набор данных $ priority <- normalit (набор данных $ priority) для (j in 1: nrow (support_page)) {#cat (toString ($ support_page) URL [у]) " n ") GAmodel <- rbga.bin (size = max_page_support, popSize = max_population, iters = 100, mutationChance = 0,01, elitism = T, evalFunc = evalFunc) #result cat ('sol', GAmodel $ население [max_population,], 'n') решение <- GAmodel $ population [max_population,] # как только решение найдено, обновите фрейм данных, уменьшив порог набора выбранных ссылок. $ max = набор данных $ max - решение #, если порог достигнут, мы не можем разместить ссылку # при увеличении веса ссылки или снижении ее idx <- which (набор данных $ max <= 0) if (length (idx)> 0) {#dataset [idx,] $ weight < - weightlimit набор данных [idx,] $ volume_seo <- 0 набор данных [idx,] $ priority <- 10} cat ('max', набор данных $ max, 'n') # если существует столько ссылок, сколько допустимых ссылок, остановить расчет # алгоритм будет менее надежным в конце расчета, но это не важно, потому что размещено более 90% ссылок # на них можно поставить их как и как оставшиеся позиции, если (длина (которая (набор данных $ max> 0)) - max_links <= 0) {pr int ('достигнуто предельное значение') break; }} Вот результат этого маленького примера, библиотека (genalg) библиотека (dplyr) # загрузка страниц поддержки page_support <- read

Выбор якорей и обновление
Для каждой страницы поддержки мы выберем семантическую привязку.
Кроме того, я создал функцию R, которая выберет наиболее подходящий якорь для темы страницы.
Я оставляю вас, чтобы развивать свои собственные функции. Якоря уже основаны на корпусе «Звездных войн», поэтому они очень хорошо реагируют на вашу страницу целей.
Для обновления необходимо регулярно повторять вычисления, потому что наиболее часто просматриваемые страницы поддержки будут сильно развиваться, а свод новостей будет меняться очень регулярно.

Здесь мы следуем последнему совету Мастера Йоды:

  • Столько же страниц поддержки вы сохраните
  • Глубина, ты будешь обновлять
  • Семантические якоря, вы сохраните
  • Visiblis, вы будете использовать
  • К новым целевым страницам «Звездных войн» вы добавите
  • Генетический алгоритм, вы перезапустите

заключение
Я надеюсь, что эта статья не слишком сложна, но теперь SEO использует много областей: математика, статистика, алгоритмы, семантика ...

Я создал плоский файл, содержащий якоря и ссылки для размещения на каждой странице поддержки, и как только он будет реализован веб-мастером, мы будем следить за развитием событий. Во время написания этих трех статей он уже исправил многие проблемы, возникающие при каждом сканировании (заголовок не уникален, дублируется H1, бесконечный пейджинг, который отвечает 200, ...)

В остальном я работал на R с моим любимым языком, но использовал технологию, с которой вам удобнее всего.
Конечно, эти ссылки можно выдвинуть, поработав над дизайном html-блока, который их приветствует.
Основная цель - обеспечить постоянный контент для ваших пользователей.

Чтобы проследить влияние этой сетки, следуйте следующим показателям:

  • Количество страниц поддержки
  • Количество целевых страниц
  • Используемый корпус (1-граммовый, 2-граммовый, 3-граммовый Visiblis)
  • Глубина объективных страниц до и после
  • Часть сканирования на страницах «Звездных войн» до и после
  • SEO трафик на этих страницах с помощью Google Analytics
  • Положение в поисковой выдаче с SemRush или новым Serposcope

спасибо
Большое спасибо моим трем любимым рецензентам и большое спасибо всем моим читателям, которые делятся в социальных сетях.

Также спасибо Жерому Россиньолю, который значительно упростил семантический анализ благодаря своему инструменту Visiblis: http://www.visiblis.com/

Вы можете найти меня на следующем SEOCamp de Lille, а также на QueDuWeb, который пройдет в Довиле в этом году, темой будет использование R для SEO
https://deauville.queduweb.fr/

Если вы хотите найти другой метод, я предлагаю вам прочитать 3 статьи Грегори Флорина:
http://gameofseo.fr/2016/01/creer-un-outil-de-maillage-interne-la-generation-des-liens-33/

Мы запланировали дать специальный подкаст на Internal Mesh (вероятно, 18 января), где мы обсудим наши различные методы.
http://www.moise-le-geek.fr/category/podcast/

Да пребудет с тобой сила!

Фото предоставлены: StarWars

Реклама
Навигация сайта
Реклама
Популярные новости
Хорошая туристическая компания

Наш мир является по своему своеобразию прекрасным и очаровательным. Куда ни кинь свой взгляд, везде присутствуют свои прелести и чудеса, смотря на которые, мы упиваемся их изящностью и прелестью. В

Финансы и бизнес
Чтобы повысить производительность и результативность бизнеса, руководителям и персоналу маркетинга, сбыта, цепочки поставок, производства необходимо понимать конкретную ситуацию, что происходит и куда

Выдача свидетельства государственной регистрации
Вот пожалуй и все, что нужно знать о документах которые Вы получите из налоговой инспекции после регистрации ООО. Процедура государственной регистрации общества с ограниченной ответственностью теперь

Шкафы недорого эконом готовые
После того, как ремонт или отделка закончена приходит время подумать и о мебели. Ну, наверно каждый человек выберет то, что он поставит в своем доме первым: диван, стол, кресло… А почему бы первым не

Виза в Китай
Виды виз в КНР определяются целью поездки и сроком их действия. В целом это классификация не отличается от перечня виз в другие государства: основными являются туристическая, деловая, учебная, рабочая

Меры государственной поддержки Томской
Не для кого не секрет, что некоторые регионы нашей страны отстают в своем развитии и даже деградируют в социальном и экономическом смысле. На это есть ряд причин объективного и субъективного характера,

Рефинансирование ипотеки в Москве 2019
Россельхозбанк в 2018-2019 году проводит рефинансирование кредитов как своих, так и других банков: рассмотрим, процентные ставки и условия перекредитования в Россельхозбанке для физических лиц, бюджетников

Курсы изучения китайского языка
Хотите получить помощь в изучении китайского языка, но не знаете кому можно доверять ? Отвечаю вам товарищи, ещё недавно я был таким же, как вы ровно до того момента, как узнал здешний адрес. Друзья,

Реклама
Облако тегов