- Тэхнічнае SEO кіраўніцтва па прасоўванні, індэксацыі і ранжыраванню
- сканаванне
- Добрая архітэктура сайта
- бюджэт сканавання
- кантроль сканавання
- серверныя логі
- індэксацыя
- Сегментацыя карты сайта
- статус індэксавання
- ранжыраванне
Тэхнічнае SEO кіраўніцтва па прасоўванні, індэксацыі і ранжыраванню
Пераклаў карысную артыкул Paddy Moogan з заходняга SEO блога stateofdigital.com - у ёй вельмі падрабязна раскрываецца тэма пра індэксацыю кантэнту сайта і стварэнне сайтаў для людзей.
Ад тэхнічнага SЕО можна ў шэрагу выпадкаў адмовіцца на карысць такіх рашэнняў, як стварэнне кантэнту, праца са СМІ і купля спасылак. Аднак я заўсёды лічыў, што існуе шмат магчымасцяў для павелічэння трафіку, гледзячы знутры, а не звонку. Я мяркую, што адна з самых важных задач - гэта пераканацца, што дадзены вэб-сайт у поўнай меры падыходзіць для пошукавых сістэм.
Гэта даволі проста - калі пошукавыя сістэмы не могуць эфектыўна сканаваць ваш вэб-сайт, вы наўрад ці зможаце заняцца прасоўваннем. А спасылкі і SMM не вырашаюць усе пытанні.
У гэтым артыкуле я хачу разгледзець некаторыя з асноўных момантаў, пра якія вам трэба ведаць, калі гаворка ідзе аб стварэнні даступнага для пошукавікаў вэб-сайта. Даступнасць вэб-сайта азначае, што ўсе асноўныя старонкі будуць праіндэксаваныя і могуць быць ранжыраваць для вашых мэтавых ключавых запытаў.
Каб захаваць логіку ў артыкуле, я б вылучыў тры асноўныя напрамкі:
- сканаванне
- індэксаванне
- ранжыраванне
сканаванне
Перш за ўсё, вам неабходна пераканацца, што ўсе нашы мэтавыя старонкі могуць быць прасканавала пошукавымі рухавікамі. Я кажу «мэтавыя старонкі», таму што могуць быць выпадкі, калі ў вас з'явіцца намер актыўна спыніць сканаванне пэўных старонак. Гэта я растлумачу пасля.
У першую чаргу давайце паглядзім, як нам зрабіць наш вэб-сайт сканаваных і як знаходзіць патэнцыйныя праблемы.
Добрая архітэктура сайта
Добрая архітэктура вэб-сайта з'яўляецца не толькі зручнай для пошукавых рухавічкоў, яна падыходзіць таксама для карыстальнікаў. Карацей кажучы, вы хочаце пераканацца, што вашыя самыя важныя старонкі лёгка выявіць у ідэале за некалькі клікаў ад галоўнай старонкі, і гэта эфектыўна па наступных меркаваннях:
- Звычайна найчасцей спасылаюцца паступае на вашу хатнюю старонку і, такім чынам, можна перадаць на пакінуты сайт вялікі рэйтынг PageRank.
- Наведвальнікі змогуць хутка знайсці вашы асноўныя старонкі - павялічваецца верагоднасць знаходжання таго, што трэба, і ператварэння іх у вашых пакупнікоў.
Спрошчаная структура сайта будзе выглядаць так:
Калі вы валодаеце сайтам электроннай гандлю, дэталёвыя старонкі ў гэтым прыкладзе будуць старонкамі вашага прадукту. Разгледжаная лагічная структура рэкамендуецца для вэб-сайтаў памерам ад невялікага да сярэдняга.
Але што рабіць, калі ваш вэб-сайт змяшчае мільёны старонак? Нават з добрай структурай катэгорый ваш асноўны прадукт будзе далёкім ад хатняй старонкі. У гэтым выпадку вам можа спатрэбіцца вырашэнне пытання аб укараненні шматграннай навігацыі, якая можа дапамагчы вам. Шматгранная рух адаптуецца да таго, што шукае карыстальнік, і выдаляе шмат непатрэбных рэчаў, забяспечваючы лёгкую фільтраванне для знаходжання менавіта таго, што патрабуецца. Найлепшае, што можна зрабіць, - гэта паказаць прыклад таго, што я маю на ўвазе. На шчасце, мае калегі з Madgex напісалі гэтую добрую артыкул і стварылі вось такі наглядны прыклад:
Як вы можаце бачыць, карыстачу вельмі лёгка адфільтраваць вялікая колькасць інфармацыі хутка, пстрыкаючы па атрыбутам, якія шукаюцца. Гэта добрая тэхналогія для вэб-сайтаў, так як звычайна маюцца ўсе віды атрыбутаў прадукту - такіх як як памер, колер, брэнд і г.д., якія вы можаце дазволіць карыстачу адфільтроўваць. Наглядным прыкладам гэтага ж рашэння з іншым тыпам вэб-сайта з'яўляецца сайт аб рабоце Reed . Калі вы заходзіце ў катэгорыю, такую як Accountancy , Фільтры з левага боку падганяюцца пад гэтую катэгорыю, так што вы можаце фільтраваць вакансіі з дапамогай атрыбутаў Accounts Assistant або Credit Controller. Але вы не атрымаеце гэтых опцый, калі зойдзеце ў катэгорыю Marketing. Менавіта так вялікія вэб-сайты могуць палегчыць карыстальнікам і пошукавым рухавічкоў хуткі доступ да аддаленым старонках.
У дачыненні да хуткасці сканавання тут можна адзначыць яшчэ адну асаблівасць. Часам вы можаце захацець пазбавіцца ад старонак глыбокай ўкладзенасці і забараніць сканаваць і знаходзіць старонкі з вялікай колькасцю атрыбутаў. Напрыклад, давайце скажам, што мы прадалі ўсю вопратку для прагулак і сканцэнтраваліся толькі на форменных куртках. У жакета могуць быць наступныя паказчыкі:
- колер
- памер
- Пол спажыўца
- брэнд
- цана
- вадаўстойлівасць
Таксама мы ведаем, што ключавое словазлучэнне, - такое як «водатрывалыя жакеты для мужчын» мае досыць вялікая колькасць запытаў мяркуючы па дадзеных з інструмента падборка ключавых слоў Adwords. Таму мы хочам мець такую старонку, дзе пошукавыя сістэмы могуць сканаваць, індэксаваць і ранжыраваць інфармацыю для гэтага ключавых слоў. Мы можам пераканацца ў магчымасці гэтага дзякуючы нашай шматграннай навігацыі, якая забяспечвае прастату і лёгкасць знаходжання спасылак.
З іншага боку, такое ключавое словазлучэнне, як «чорны мужчынскі водатрывалы жакет да £ 100» мае вельмі малую колькасць пошукавых запытаў. Так што нам уяўляецца магчымым спыненне сканавання і індэксавання такой старонкі пошукавымі рухавікамі. Але відавочна, нам бы хацелася, каб старонка засталася даступнай для карыстальнікаў, калі яны ўжываюць нашу навігацыю.
Навошта пра гэта клапаціцца? Прынцып бюджэту сканавання або дазволу на сканаванне ў гэтым паведамленні разглядаецца, і я буду абмяркоўваць гэта ў наступнай частцы. Ніжэй мы з вамі пагаворым пра тое, як нам спыніць сканаванне і індэксаванне некаторых старонак.
бюджэт сканавання
Google вылучае бюджэт сканавання кожнаму дамену. У адпаведнасці з Мэтам Катсу (гл. інтэрв'ю у якім у прыватнасці гаворыцца аб бюджэце сканавання), гэты бюджэт вызначаецца арыентыровачна рэйтынгам PageRank, які ў вас ёсць. Пакуль Google імкнецца знайсці неабходны кантэнт, мы выкарыстоўваем існуючы ўзровень рэсурсаў, каб сканаваць разрастаецца павуцінне. Неабходна прызначыць прыярытэты і мы нейкім чынам выбарчым - патрабуецца, як мінімум, пераканацца, што «добры матэрыял» скануецца найлепшым чынам. Я інтэрпрэтую яго каментары, як зацвярджэнне, што Google будзе сканаваць і індэксаваць ваш вэб-сайт столькі, колькі зможа. Аднак калі ваш рэйтынг PageRank невысокі, то спатрэбіцца нямала часу, каб даследаваць усё і знайсці аддаленыя старонкі на вашым вэб-сайце.
кантроль сканавання
Мы ведаем, што вы можаце стварыць больш якасныя спасылкі на свой вэб-сайт, а гэта можа дапамагчы з вашым рэйтынгам PageRank. Гэта тое, што нам адназначна неабходна зрабіць. Але вы можаце працаваць і над пытаннем аптымізацыі свайго бюджэту сканавання, зрабіўшы некалькі крокаў, каб акуратна падштурхнуць Google на патрэбны кірунак, калі адбываецца сканаванне:
- Дадайце тэг rel = "nofollow" да спасылках на малазначныя старонкі, якія вы не хочаце аддаваць Google для сканавання.
- Зрабіце спасылкі такімі, каб Google было цяжка іх абыходзіць, напрыклад з дапамогай Javascript або AJAX.
- Блакіруйце некаторыя старонкі ў сваім файле robots.txt, каб Google спыніў іх сканаванне.
Мэтай ўсяго гэтага зьяўляецца ня кантраляванне PageRank, а спроба праверыць, якія старонкі выкарыстоўвае ваш бюджэт сканавання. Дрэнна, калі Google выкарыстоўвае увесь свой бюджэт сканавання на старонках якія не прынясуць ніякага трафіку да вас на сайт.
Гэтак жа, як rel = "nofollow" і robots.txt, вы можаце выкарыстоўваць МЕТА-тэгі, каб пракантраляваць, як Google скануе ваш вэб-сайт. Яны змяшчаюцца ў <head> секцыі вашай старонкі і могуць зрабіць многае, уключаючы:
Памятаеце, што названыя тэгі - працуюць на ўзроўні старонак, і яны закранаюць толькі саму старонку. Яшчэ адна важная дэталь, якую трэба мець на ўвазе, - гэта тое, што пошукавыя рухавічкі павінны дабірацца да самай старонкі, каб убачыць гэты тэг. Так што калі вы блакуеце старонку ў robots.txt, то пошукавыя рухавічкі, магчыма, ніколі не праскануюць старонку і ня знойдуць там МЕТА-тэга.
Кароткае рэзюмэ і тлумачэнне:
- Тэг rel = "nofollow", які выкарыстоўваецца ў індывідуальнай спасылцы, уздзейнічае на тое, як Google ставіцца да гэтай спасылцы. Ён не ўздзейнічае на іншыя спасылкі ў вашым вэб-сайце.
- МЕТА-тэг rel = "nofollow" - гэта ўяўленне ўзроўню старонкі, які ўздзейнічае на ўсе спасылкі там, дзе ён змешчаны.
- Файл robots.txt можа ўздзейнічаць на асобныя старонкі, аддзелы вэб-сайта або на ўвесь вэб-сайт
А як наконт тэга rel = canonical? Ён дазваляе ўладальнікам вэб-сайта вызначыць кананічную версію старонкі і ключавы скапіяваны або амаль скапіяваны кантэнт, падаючы пошукавым рухавічкоў сігнал аб старонках, якія яны могуць або не могуць сканаваць, індэксаваць і ранжыраваць. У гэтым месцы вам трэба адзначыць, што дадзены тэг - гэта не дырэктыва, гэта значыць, пошукавыя рухавікі могуць выбіраць метады абыходжання з тэгам і мець магчымасць ігнараваць яго па сваім меркаванні.
Гэты тэг можа дапамагчы вам пераканацца, што скапіяваны кантэнт не перашкодзіць вашаму вэб-сайту, і дазволіць вызначыць, што правільны URL бачаць карыстальнікі ў выніках пошуку. За час сканавання было б разумна для тэга часцей адводзіць пошукавыя рухавічкі ад сканаваных скапіяваных старонак. Але гэтак жа, як і МЕТА-тэг robots, пошукавыя рухавікі павінны быць здольныя дабірацца да старонкі перш, чым яны змогуць знайсці тэг.
серверныя логі
Калі вам трэба атрымаць больш падрабязную інфармацыю пра тое, якім чынам пошукавыя рухавічкі скануюць ваш вэб-сайт і выявіць праблемы, вы можаце паглядзець серверныя лог-файлы. Вашы серверныя лог-файлы будуць запісаныя, калі старонкі будуць прасканавала пошукавымі сістэмамі (і іншымі сканарамі), роўна як і рэгістрацыя наведванняў сайта. Вы можаце затым адфільтраваць дадзеныя з лог-файлаў, каб ведаць дакладна, як менавіта бот Google скануе ваш вэб-сайт. Гэта можа даць вам дакладнае ўяўленне аб тым, якія файлы прасканавала найбольш часта і старанна, а якія - зусім не прасканавала.
Падобна на тое, што гэта адзін з лепшых індыкатараў, які паказвае, што менавіта перашкаджае індэксацыі і ранжыраванню старонкі. Вы можаце выкарыстоўваць усе віды аналізу сайта, але, у канчатковым рахунку, калі вы можаце выразна ўбачыць з часопісаў сервера, што старонка не скануецца, вы атрымалі адказ на сваё пытанне. Затым вы можаце прыступіць да выяўлення таго месца, дзе можа быць праблема, і папрацаваць над яе рашэннем.
Мне падабаецца выкарыстоўваць праграму Splunk для аналізу серверных логаваў. Патрабуецца шмат часу для асваення, але гэта вызначана адна з лепшых праграм, якія я выкарыстаў.
Ніжэйпрыведзены малюнак дае нам выдатны прыклад дарэмнага расходу бюджэту сканавання Google на старонках, якія нас не цікавяць:
індэксацыя
Вы задаволены тым, што пошукавыя рухавічкі карэктна скануюць ваш вэб-сайт. Пара праверыць, як вашыя старонкі на самай справе індэксуюцца, і актыўна маніторыць праблемныя пазіцыі.
Самы просты спосаб пераканацца, што Google індэксуе старонку правільна, - гэта праверыць кэшаваць версію і параўнаць яе з дзеючай. Вось тры спосабу, з дапамогай якіх вы можаце зрабіць гэта хутка.
- Запусціць пошук Google.
- Пстрыкнуць па выніках пошуку Google.
- Скарыстацца закладкай.
Каб праверыць кэш старонкі, на якой я знаходжуся, я карыстаюся звычайным букмарклетом на Chrome. Стварыце новую закладку ў сваім браўзэры і зрабіце ў ёй такую дадатак:
"Javascript: location.href = 'http: //www.google.com/search? Q = cache:' + location.href" (без двукоссяў)
Прыгожа і проста!
Задачы праверкі кэша старонкі:
- Пераканацца, што старонка кэшуецца рэгулярна
- Пераканацца, што кэш змяшчае ўвесь ваш кантэнт
Калі тут усё ў парадку, то вы ведаеце, што пэўная старонка добра прасканаваць і праіндэксавана.
Сегментацыя карты сайта
Пра гэта пісалася ўжо неаднаразова, так што я не буду тут паўтараць усё. Сур'ёзны аналіз праблемы быў праведзены ў пасце SEOmoz ў дачыненні да карт сайта XML. Карацей кажучы, ідэя заключаецца ў стварэнні некалькіх xml карт сайта для некалькіх частак вашага вэб-сайта, так вы зможаце маніторыць індэксацыю, выкарыстоўваючы інструментарый Google Webmaster:
Вышэйпададзеным матэрыял узяты з майго ўласнага акаўнта і паказвае тры карты сайта, якія я перадаў у Google. Хоць прыведзеныя тут колькасці недастаткова важкія, вы можаце пераканацца, што гэты падыход ўсё-такі дапаможа вам выявіць праблемы.
статус індэксавання
Яшчэ адно карыснае ўласцівасць інструментара Google Webmaster - гэта статус індэксавання. Ён дае пэўнае ўяўленне аб тым, як Google скануе і індэксуе ваш сайт, а таксама пра тое, колькі старонак не патрапіла ў індэкс Google. Вось прыклад з майго ўласнага справаздачы:
Ўсплёск зялёнай лініі паказвае, калі Google павялічыў колькасць URL, якія ён класіфікаваў як «нявыбраныя». Гэта значыць, што Google палічыў, што старонкі падобныя да іншых старонкі або ўтрымліваюць рэдырэкт або нізкаякасныя. Я ўважліва разгледзеў гэтую праблему і прыйшоў да высновы, што крывой убудова стаў прычынай з'яўлення мноства дубляў URL, на якія ідзе спасылка.
Калі вы ўвесь час дадаеце новыя старонкі на ваш вэб-сайт і бачыце паступовае павелічэнне колькасці праіндэксаваных старонак, то гэта, магчыма, сведчыць аб тым, што яны правільна прасканаваць і праіндэксаваныя. З іншага боку, калі вы бачыце вялікі скачок (які ня чакаўся), то гэта можа азначаць наяўнасць праблем, і пошукавыя сістэмы не змогуць належным чынам дабрацца да вашага вэб-сайта.
ранжыраванне
Гэта заключная частка нашай працы, некалькі спрэчная, што выклікае нашу заклапочанасць! Ці з'яўляецца ранжыраванне нашых старонак такім, якім яно павінна быць? Мы пастаянна працуем над тым, каб пазіцыі нашых старонак павышаліся, так што я хачу сканцэнтравацца на гэтай тэме.
Спачатку вам трэба выявіць, на якія менавіта старонкі вы збіраецеся прыцягнуць трафік. Магчыма, гэта будзе ваша хатняя старонка, катэгорыі, прадукт і кантэнтныя старонкі. Існуе некалькі спосабаў, як вы можаце атрымаць адказ на гэтае пытанне ў залежнасці ад асаблівасцяў вашага вэб-сайта:
- Паглядзіце на колькасць URL на вашай карце сайта (гэта тычыцца абноўленых канкрэтных карт сайта)
- Пракансультуйцеся з вашымі распрацоўшчыкамі, якія змогуць даць вам агульнае ўяўленне
- Вы можаце таксама прасканаваць свой вэб-сайт, але гэта, у першую чаргу, датычыцца ўсіх даступных старонак
Адразу ж, калі вы даведаецеся шуканае лік старонак, вам трэба праверыць, колькі старонак маюць арганічны трафік. Вы можаце зрабіць гэта, выкарыстоўваючы праграму Google Analytics.
Просты і гатовы спосаб зрабіць гэта - перайсці да гэтай схеме.
Пераканайцеся, што вы фильтруете толькі ў адпаведнасці з арганічным пошукам, абярыце вялікі дыяпазон дат (як мінімум, шэсць месяцаў), а затым пракруціць ўніз, каб убачыць, колькі старонак атрымалі доступ:
Калі атрыманае колькасць істотна ніжэй колькасці старонак, якое ў вас ёсць на самай справе, то вы, магчыма, губляеце патэнцыйны трафік.
Калі вам патрабуецца больш рацыянальная ідэя, і вы сапраўды хочаце ўбачыць, колькі старонак не наведваецца, вы можаце экспартаваць спіс URL з аналітыкі ў CSV, затым параўнаць іх з наяўных спісам усіх старонак. Простая праграма VLOOKUP паведаміць вам, колькі маецца старонак, якія не атрымалі трафіку.
Адразу ж, калі ў вас будзе спіс старонак, якія не ўвайшлі ў трафік, вы маеце магчымасць больш старанна вывучыць прычыну гэтага. Вы можаце зрабіць гэта некалькімі спосабамі, выкарыстоўваючы вышэйапісаны матэрыял:
- Стварыце спецыялізаваную карту сайта, у якой ёсць толькі гэтыя URL, і праверце, як іх індэксуе Google
- Працадзіў свае серверныя часопісы, каб уключыць гэтыя URL і пераканайцеся, што яны прасканавала
- Праверце кэш, каб убачыць, кэшаваць Ці яны
Навошта пра гэта клапаціцца?
Com/search?
Ці з'яўляецца ранжыраванне нашых старонак такім, якім яно павінна быць?