Деньги, как известно, имеют различные функции. Одной из них является непрестанное движение денег в обращении, обслуживание процесса обращения. Без выполнения деньгами этой функции торговля была бы невозможна.

Используйте R для SEO: Руководство по выживанию

  1. Начать с R
  2. Где написать R?
  3. Основные функции
  4. Обрабатывать большие объемы данных
  5. Откройте и сохраните набор данных
  6. Другие методы лечения, которые нужно знать
  7. Скребок и извлечение контента
  8. XML Scraper
  9. Скребок HTML
  10. JSON Scraper
  11. Лучший учебник SEO с R

Если вы когда-либо слышали о языке R и принимаете оптимизаторов, которые используют его для инопланетян, вы не ошибаетесь.

Изначально предназначенный для ученых и статистиков, язык R в течение нескольких лет оказывался в неожиданной аудитории, и причина проста:

Автоматизируйте действия, извлекайте данные через API и объединяйте их, очищайте веб-страницы, объединяйте несколько файлов (например, из ключевых слов) или выполняйте машинное обучение, НЛП, анализ текста и семантический анализ, возможности что R предлагает и его многочисленные пакеты для SEO многочисленны .

Тем не менее, мы хорошо слышим:

R не сделает вас первым в Google !

R тоже не секрет SEO !

Что я знаю после нескольких месяцев использования, так это то, что R революционизирует подход SEO, предлагая новые идеи и методы работы.

Если вы когда-либо мечтали создать свои собственные инструменты SEO или перейти от традиционного эмпирического SEO к подходу, основанному на данных, вы тоже становитесь сторонним ресурсом.

Начать с R

Недавно приземлился в компании OVH, Винсент Терраси, один из пионеров SEO данные ", Дал SEO-команде флэш-тренинг на языке R. Со своей стороны, я начал R с 0 и решил углубить онлайн-тренинг по общему мнению на известном сайте онлайн-обучения Coursera. .org, с начала 2017 года.

Курс наук о данных Университета Джонса Хопкинса включает в себя несколько модулей и стоит 45 евро в месяц.

Я советую вам в основном следующие курсы:
- Инструментарий Data Scientist
- R Программирование
- Получение и очистка данных

После нескольких недель обучения в среднем по часу в день я теперь могу сэкономить много времени в своих проектах SEO, создав свои первые сценарии .

Многие ручные SEO-задачи, повторяющиеся и часто отнимающие много времени, постепенно заменяются R-скриптами.

Этот новый способ сделать SEO вас интересует? Здесь вы найдете все, что вам нужно для начала работы: ресурсы, полезные командные строки (для использования в качестве « шпаргалки R»), некоторые сценарии R, которые вы можете использовать для своих проектов, и R tutos для SEO.

Где написать R?

Начните с:

Обзор интерфейса R Studio со скриптом, который позволяет восстанавливать данные из SEMrush

После установки R Studio вы можете напрямую протестировать следующие R-скрипты в консоли (внизу слева) или скопировать и вставить их в новый скрипт: Файл> Новый файл> R-скрипт

Основные функции

sessionInfo () # Показать информацию об окружении ?? прочитать # Просмотреть справку getwd () # Узнать рабочий каталог setwd ("/ Users / remi / folder /") # Указать рабочий каталог list.files ( ) # Смотреть содержимое каталога dir.create ("имя_фолдера") # Создать папку в каталоге

R пакеты

R имеет множество пакетов (больше «функций» для загрузки), которые вы можете найти на сайт крана ,

install.packages ("имя_пакета") # Установить пакет install.packages (c ("packageA", "packageB", "packageC")) # Установить сразу несколько пакетов # Установить список пакетов, только если их нет еще не установлено list.of.packages <- c ("dplyr", "ggplot2", "tidyverse", "tidytext", "wordcloud", "wordcloud2", "gridExtra", "grid") new.packages <- list .of.packages [! (list.of.packages% in% instal.packages () [, "Package"])] if (length (new.packages)) библиотека install.packages (new.packages) ("имя_пакета") # Вызов установленного пакета? Packagename # Просмотр документации пакета packageVersion ("имя_пакета") # Узнать версию пакета отсоединения ("package: dplyr", unload = TRUE) # Закрыть закрытый пакет, не закрывая R Studio

Вот некоторые из пакетов R, которые вы будете использовать чаще всего для SEO:

  • dplyr : манипулировать данными из фрейма данных (фильтровать, сортировать, выбирать, суммировать и т. д.)
  • SEMrushR : Используйте API SEMrush (мой первый официальный пакет на CRAN!)
  • majesticR : Используйте Majestic API (мой второй официальный пакет)
  • kwClustersR : Кластеризация списка ключевых слов
  • duplicateContentR : Рассчитать оценку сходства между 2 страницами, чтобы обнаружить дублирующийся контент
  • text2vec : извлечь n грамм
  • eVenn : создание диаграмм Венна (полезно для семантических аудитов)
  • тм : лечить ударения и пустые слова
  • ggplot : создание графиков
  • блестящий : создать приложение из ваших скриптов
  • searchConsoleR : использование API консоли поиска Google
  • httr : делать запросы GET, POST, PUT, DELETE
  • Rcurl : также для выполнения запросов, более полный, чем httr
  • XML : для анализа веб-страниц
  • jsonlite : собрать json
  • googleAuthR : для управления аутентификацией Google API
  • googleAnalyticsR : работа с API Google Analytics
  • searchConsoleR : Загрузить данные консоли поиска в R
  • urltools : выполнение обработок в URL

Обрабатывать большие объемы данных

Использование данных является систематическим в любом проекте SEO: будь то данные из Screaming Frog, SEMrush, Search Console, вашего инструмента веб-аналитики или другого. Они могут поступать непосредственно из API или из экспорта, сделанного вручную.

В следующих разделах вы найдете советы по работе с этими наборами данных (буквальный перевод «наборов данных»).

Откройте и сохраните набор данных

mondataframe <- data.frame () # Создать фрейм данных (позволяет смешивать цифровые данные и текстовые данные) объединить <- data.frame (df1, df2) #Mixer 2 фреймы данных # Открыть TXT Fichier_txt <- read.table ( "filename.txt", header = FALSE, col.names = c ("columnname1", "columnname2", "columnname3")) # Открыть библиотеку XLS (readxl) File_xls <- read_excel ("cohorte.xls", sheet = 1, col_names = FALSE, col_types = NULL, skip = 1) # Откройте файл CSV file_csv <- read.csv2 ("df.csv", header = TRUE, sep = ";", stringsAsFactors = FALSE) # Сохраните запись набора данных .csv () # create csv write.table () # create txt # Изменить заголовки столбцов cnames <- c ("ключевые слова", "searchvolume", "Competition", "CPC") # на определенных именах для 4 столбца кадра данных> colnames (mydataset) <- cnames #on назначить имена столбцов для кадра данных

Лучше знать его набор данных

object.size (набор данных) # Сколько места занимает объект в байтах head (набор данных) # Смотреть хвост первой строки (набор данных) # Просмотреть последние имена столбцов строк (набор данных) # Узнать, какие имена столбцов применяются (набор данных, 2 , function (x) length (unique (x))) # Сколько значений содержится в каждом столбце сводки набора данных (набор данных) # Имеется сводка по каждому столбцу набора данных (минимум, медиана, среднее значение, максимум, и т. д.) итоги (набор данных $ column) # То же для определенного столбца dim (набор данных) # Размеры набора данных (количество столбцов и строк) str (набор данных) # Более завершено, чем dim (): Размеры набора данных + Тип данные в каждом столбце, которые (набор данных $ Column == "seo") # Поиск строк в столбце "Столбец", которые содержат значение "seo"

Нажмите на пакет DPLYR

DPLYR - это пакет, который вы должны знать. Благодаря этому вы сможете выполнять множество процедур в ваших файлах: выбор, фильтрация, сортировка, классификация и т. Д.

библиотека ("dplyr") # Выбрать столбцы и выбрать строки (df, colA, colB) # Выбрать colA и colB в наборе данных df select (df, colA: colG) # Выбрать из colA в colG select (df, -colD ) # Удалить столбец colD select (df, - (colC: colH)) # Удалить сегмент среза столбцов (df, 18:23) # Выбрать строки с 18 по 23 # Создать фильтр фильтра (df, country == " EN "& page ==" home ") # Фильтровать строки, содержащие фильтр FR (столбец страны) и фильтр home (столбец страницы) (df, country ==" US "| country ==" IN ") # строка ввода с Страна - это фильтр США или IN (df, размер> 100500, r_os == "linux-gnu") фильтр (cran ,! is.na (r_version)) # введите строки столбца r_version, которые не являются пустыми #Class и сортировать компоновку (keywordDF, volume) # классифицировать набор данных в соответствии со значениями в столбце громкости (в порядке возрастания). расположение (keywordDF, desc (volume)) #class классифицировать набор данных в порядке убывания (keywordDF, Compettece, Volume) # вывести данные по нескольким переменным (больше столбцы) упорядочить (ключевое словоDF, конкуренция, desc (объемы), цена Adwords)

Другие методы лечения, которые нужно знать

Следующие строки представляют собой команды, которые я очень часто использую для выполнения операций в больших наборах данных ключевых слов, в частности, вытекающих из SEMrush, Ranxplorer или export Screaming Frog.

Эти операции позволяют мне ускорить поиск возможностей для SEO. Например, это вопрос классификации ключевых слов по темам, дедупликации ключевых слов после слияния нескольких списков, удаления пустых ячеек и разделения моих наборов данных на несколько небольших наборов данных, соответствующих каждому из суб-тематических. эксплуатировать.

Для экспорта Screaming Frog вы найдете здесь команды для подсчета таких вещей, как количество просканированных URL-адресов, количество пустых ячеек в столбце и количество URL-адресов для каждого кода состояния. Size (Bytes) `, File_xls $ Type, mean) # Разрезать набор данных на несколько наборов данных # Очень полезно для разделения списка ключевых слов по тематическому разделению (ключевые слова, ключевые слова $ Thematique)

Скребок и извлечение контента

Создание сканера очень полезно для быстрого извлечения определенных элементов страницы. Это поможет вам, например, следить за развитием конкурирующего сайта: его ценовой стратегией, обновлениями контента и т. Д.

XML Scraper

С помощью следующего скрипта вы сможете скачать файл XML, проанализировать его и восстановить некоторые переменные, которые вас интересуют. Вы также увидите, как преобразовать его в массив данных.

# 1. Загрузка библиотеки (RCurl) библиотеки (XML) пакетов # 2. Получить исходный код URL <- "https://www.w3schools.com/xml/simple.xml" xml <- getURL (url, followlocation = TRUE, ssl.verifypeer = FALSE) # 3. Отформатируйте код и получите корневой узел XML. Doc <- xmlParse (xml) rootNode <- xmlRoot (doc) # 3.1. Сохраните исходный код в html-файле, чтобы увидеть его полностью в capture.output (doc, file = "). file.html ") # 4. Получить элементы страницы xmlName (rootNode) # Имя XML (1-го узла) rootNode [[1]] # Все содержимое первого узла rootNode [[2]] [[1]] # 1-й элемент 1-го узла xmlSApply (rootNode, xmlValue) # Удалить теги xpathSApply (rootNode, "// name", xmlValue) # Некоторые узлы с xPath xpathSApply (rootNode, "/ Breakfast_menu // food [calories = 900]", xmlValue) #Filter узлов XML по значению (здесь рецепты с 900 калориями) # 5. Создать фрейм данных или список образцов меню <- xmlToDataFrame (doc) menusample <- xmlToList (doc)

Скребок HTML

Получить ссылки на странице, получить список статей, вот несколько примеров того, что вы можете сделать с помощью следующего скрипта.

# 1. Загрузка библиотеки (httr) библиотеки (XML) пакетов # 2. Получить исходный код url <- "https://remibacha.com" request <- GET (url) doc <- htmlParse (request, asText = TRUE) # 3. Получить заголовок и посчитать количество символов PageTitle <- xpathSApply (doc, "// title", xmlValue) nchar (PageTitle) # 4. Получить имена статей PostTitles <- data.frame (xpathSApply (doc, "// h2 [@ class = 'entry-title h1']", xmlValue)) PostTitles <- data.frame (xpathSApply (doc, "// h2 ", xmlValue)) # 5. Получить все ссылки со страницы и сделать их списком ссылок <- xpathSApply (doc, "// div / a", xmlGetAttr, "href") hrefs <- data.frame (matrix (unlist (hrefs), byrow = T) )) # 6. Получить ссылки из меню linksmenu <- xpathSApply (doc, "// ul [@ id = 'menu-menu'] // a", xmlGetAttr, 'href') linksmenu <- data.frame (matrix (unlist (linksmenu)) , byrow = T)) # 7. Получить код состояния и заголовок заголовок status_code (запрос) <- заголовок заголовка (запрос) <- data.frame (matrix (unlist (header), byrow = T))

JSON Scraper

# 1. Загрузите пакет библиотеки (jsonlite) # 2. Получить JSON JSONData <- fromJSON ("https://api.github.com/users/jtleek/repos") # 3. Получить имена всех имен (jsonData) # 4 узлов. Получить имена всех узлов в именах «владельца» (jsonData $ owner) # 5. Получить значения в узле входа в систему jsonData $ owner $ login

Скачать файл в Интернете

# 1. Определите рабочий каталог setwd ("~ / Documents / R") # 2. Укажите URL fileURL <- "https: // url_of_file_to_select" # 3. Скачать файл (curl позволяет скачать файл в https) download.file (fileURL, destfile = "~ / Documents / R / filename.csv", method = "curl") # 4. Убедитесь, что файл был загружен list.files () # 5. Отслеживать дату загрузки dateDownloaded <- date ()

Я надеюсь, что эти несколько примеров использования R для обработки ваших файлов SEO заставят вас пойти дальше!

Не стесняйтесь хранить эту статью в избранном и делиться ею в социальных сетях, чтобы держать ее под рукой, когда вам понадобится антисухое средство для создания ваших сценариев.

Как и в случае с Skyrock в конце фристайла, теперь я хотел бы выразить искреннюю преданность энтузиастам данных, которые учили меня R или хотели бы поделиться своими идеями.

Лучший учебник SEO с R

Ниже вы найдете очень полные учебники, которые я приглашаю вас для тестирования:

Улучшите свои данные Google Analytics с помощью R and Shiny от Vincent Terrasi. Смотреть статью

Управляйте семантической внутренней сеткой с помощью R от Vincent Terrasi. Смотреть статью

Создайте механизм рекомендаций по контенту с R и GTM от Vincent Terrasi. Смотреть статью

Руководство по Google Analytics R от Райана Праски. Смотреть статью

Учебник R Heatmap для Google Analytics от Райана Праски. Смотреть статью

Атрибуция конверсии: модель Маркова (с использованием Google Analytics и пакета R ChannelAttribution). Автор - Jules Stuifbergen. Смотреть статью

Исследование ключевых слов SEO с использованием searchConsoleR и googleAnalyticsR Марка Эдмондсона. Смотреть статью

Определите ключевые слова для оптимизации с R от Грегори Флорина. Смотреть статью

Анализ текста и облако слов с помощью программного обеспечения R: 5 простых шагов, которые нужно знать STHDA. Смотреть статью

Этот новый способ сделать SEO вас интересует?
Где написать R?
Packages (new.packages) ("имя_пакета") # Вызов установленного пакета?
Реклама
Навигация сайта
Реклама
Популярные новости
Хорошая туристическая компания

Наш мир является по своему своеобразию прекрасным и очаровательным. Куда ни кинь свой взгляд, везде присутствуют свои прелести и чудеса, смотря на которые, мы упиваемся их изящностью и прелестью. В

Шкафы недорого эконом готовые
После того, как ремонт или отделка закончена приходит время подумать и о мебели. Ну, наверно каждый человек выберет то, что он поставит в своем доме первым: диван, стол, кресло… А почему бы первым не

Финансы и бизнес
Чтобы повысить производительность и результативность бизнеса, руководителям и персоналу маркетинга, сбыта, цепочки поставок, производства необходимо понимать конкретную ситуацию, что происходит и куда

Выдача свидетельства государственной регистрации
Вот пожалуй и все, что нужно знать о документах которые Вы получите из налоговой инспекции после регистрации ООО. Процедура государственной регистрации общества с ограниченной ответственностью теперь

Виза в Китай
Виды виз в КНР определяются целью поездки и сроком их действия. В целом это классификация не отличается от перечня виз в другие государства: основными являются туристическая, деловая, учебная, рабочая

Рефинансирование ипотеки в Москве 2019
Россельхозбанк в 2018-2019 году проводит рефинансирование кредитов как своих, так и других банков: рассмотрим, процентные ставки и условия перекредитования в Россельхозбанке для физических лиц, бюджетников

Меры государственной поддержки Томской
Не для кого не секрет, что некоторые регионы нашей страны отстают в своем развитии и даже деградируют в социальном и экономическом смысле. На это есть ряд причин объективного и субъективного характера,

Курсы изучения китайского языка
Хотите получить помощь в изучении китайского языка, но не знаете кому можно доверять ? Отвечаю вам товарищи, ещё недавно я был таким же, как вы ровно до того момента, как узнал здешний адрес. Друзья,

Реклама
Облако тегов