- Techniczny poradnik SEO dotyczący promocji, indeksowania i rankingu
- Skanuj
- Dobra architektura witryny
- Skanuj budżet
- Kontrola skanowania
- Dzienniki serwera
- Indeksowanie
- Segmentacja mapy witryny
- Status indeksowania
- Ranking
Techniczny poradnik SEO dotyczący promocji, indeksowania i rankingu
Przetłumaczył użyteczny artykuł Paddy Moogana z zachodniego bloga SEO. stateofdigital.com - ujawnia bardzo szczegółowo temat indeksowania zawartości strony i tworzenia stron internetowych dla ludzi.
W niektórych przypadkach techniczne SES mogą zostać porzucone na rzecz takich rozwiązań, jak tworzenie treści, praca z mediami i kupowanie linków. Zawsze jednak uważałem, że istnieje wiele możliwości zwiększenia ruchu, patrząc od wewnątrz, a nie z zewnątrz. Uważam, że jednym z najważniejszych zadań jest upewnienie się, że ta strona jest w pełni odpowiednia dla wyszukiwarek.
To dość proste - jeśli wyszukiwarki nie mogą skutecznie indeksować Twojej witryny, nie możesz zrobić promocji. A linki i SMM nie rozwiązują wszystkich problemów.
W tym artykule chcę rozważyć kilka głównych punktów, które musisz wiedzieć, gdy chodzi o tworzenie strony internetowej dostępnej dla wyszukiwarek. Dostępność witryny oznacza, że wszystkie strony główne zostaną zindeksowane i mogą zostać uszeregowane pod kątem docelowych żądań kluczowych.
Aby zachować logikę tego artykułu, chciałbym podkreślić trzy główne obszary:
- Skanuj
- Indeksowanie
- Ranking
Skanuj
Przede wszystkim musisz upewnić się, że wszystkie nasze strony docelowe mogą być skanowane przez wyszukiwarki. Mówię „strony docelowe”, ponieważ mogą zdarzyć się sytuacje, w których masz zamiar aktywnie zatrzymać skanowanie niektórych stron. Wyjaśnię to później.
Po pierwsze, zobaczmy, w jaki sposób skanujemy naszą stronę i jak znaleźć potencjalne problemy.
Dobra architektura witryny
Dobra architektura witryny jest nie tylko wygodna dla wyszukiwarek, ale także dla użytkowników. Krótko mówiąc, chcesz mieć pewność, że Twoje najważniejsze strony będą łatwo znaleźć idealnie za pomocą kilku kliknięć na stronie głównej, a to jest skuteczne z następujących powodów:
- Zazwyczaj większość linków przechodzi na stronę główną, dlatego można przekazać dużą ocenę PageRank do pozostałej witryny.
- Odwiedzający będą mogli szybko znaleźć główne strony - prawdopodobieństwo znalezienia tego, czego potrzebujesz, i przekształcenia ich w klientów wzrasta.
Uproszczona struktura witryny będzie wyglądać następująco:
Jeśli posiadasz witrynę e-commerce, szczegółowe strony w tym przykładzie będą stronami Twojego produktu. Rozważana struktura logiczna jest zalecana dla stron internetowych od małych do średnich.
Ale co, jeśli Twoja witryna ma miliony stron? Nawet z dobrą strukturą kategorii, główny produkt będzie daleko od strony głównej. W takim przypadku może być konieczne podjęcie decyzji o wprowadzeniu wieloaspektowej nawigacji, która może ci pomóc. Wielostronna nawigacja dostosowuje się do tego, czego szuka użytkownik i usuwa wiele zbędnych rzeczy, zapewniając łatwe filtrowanie, aby znaleźć dokładnie to, co jest wymagane. Najlepiej zrobić przykład tego, co mam na myśli. Na szczęście moi koledzy z Madgex napisał ten dobry artykuł i stworzył taki żywy przykład:
Jak widać, bardzo łatwo jest szybko filtrować dużą ilość informacji, klikając przeszukiwane atrybuty. Jest to dobra technologia dla stron internetowych, ponieważ zazwyczaj można filtrować wszystkie atrybuty produktu, takie jak rozmiar, kolor, marka itp. Żywym przykładem tego samego rozwiązania z innym rodzajem witryny jest strona o pracy Reed . Po wprowadzeniu kategorii, takiej jak Księgowość Filtry po lewej stronie pasują do tej kategorii, więc możesz filtrować wolne miejsca za pomocą atrybutów Asystenta kont lub Kontrolera kredytu. Ale nie dostaniesz tych opcji, jeśli jesteś w kategorii Marketing. W ten sposób duże witryny internetowe ułatwiają użytkownikom i wyszukiwarkom szybki dostęp do odległych stron.
Pod względem szybkości skanowania istnieje jeszcze jedna funkcja. Czasami możesz chcieć pozbyć się stron głębokiego zagnieżdżania i zabraniać skanowania i znajdowania stron o dużej liczbie atrybutów. Załóżmy na przykład, że sprzedaliśmy wszystkie ubrania do chodzenia i skoncentrowaliśmy się tylko na kurtkach. Kurtka może mieć następujące wskaźniki:
- Kolor
- Rozmiar
- Płeć konsumenta
- Marka
- Cena
- Odporność na wodę
Wiemy również, że kluczowa fraza - na przykład „wodoodporne kurtki dla mężczyzn” - ma dość dużą liczbę żądań, wynika z danych narzędzia słów kluczowych Adwords. Dlatego chcemy mieć stronę, na której wyszukiwarki mogą indeksować, indeksować i oceniać informacje o tym słowie kluczowym. Możemy być przekonani o możliwości tego dzięki naszej wieloaspektowej nawigacji, która zapewnia prostotę i łatwość znajdowania linków.
Z drugiej strony, taka fraza kluczowa jak „wodoodporna kurtka męska poniżej 100 funtów” ma bardzo małą liczbę zapytań. Wydaje się więc możliwe, abyśmy przestali indeksować i indeksować taką stronę przez wyszukiwarki. Ale oczywiście chcielibyśmy, aby strona pozostała dostępna dla użytkowników, gdy korzystają z naszej nawigacji.
Dlaczego to obchodzi? Omówiono zasadę budżetu skanowania lub rozdzielczości skanowania w tym poście i omówię to w następnej sekcji. Poniżej porozmawiamy o tym, jak przestajemy skanować i indeksować niektóre strony.
Skanuj budżet
Google przydziela budżet indeksowania dla każdej domeny. Według Mat Cats (patrz wywiad który w szczególności odnosi się do budżetu indeksowania), budżet ten jest określany z grubsza przez ocenę PageRank, którą masz. Dopóki Google stara się znaleźć potrzebną treść, używamy istniejącego poziomu zasobów do skanowania rozwijającej się sieci. Konieczne jest ustalenie priorytetów i selektywność w pewien sposób - co najmniej konieczne jest upewnienie się, że „dobry materiał” jest skanowany w najlepszy możliwy sposób. Jego komentarze interpretuję jako stwierdzenie, że Google będzie indeksować i indeksować witrynę tak bardzo, jak to możliwe. Jeśli jednak ocena PageRank nie jest wysoka, zajmie dużo czasu, aby zbadać wszystko i znaleźć zdalne strony na swojej stronie.
Kontrola skanowania
Wiemy, że możesz tworzyć lepsze linki do swojej strony, a to może pomóc w twoich rankingach PageRank. To jest coś, co zdecydowanie musimy zrobić. Ale możesz pracować nad kwestią optymalizacji budżetu skanowania, wykonując kilka kroków, aby delikatnie przesunąć Google we właściwym kierunku, gdy trwa skanowanie:
- Dodaj tag rel = ”nofollow” do linków do nieistotnych stron, których Google nie chce indeksować.
- Twórz linki, aby Google nie mógł ich ominąć, na przykład używając Javascript lub AJAX.
- Zablokuj niektóre strony w pliku robots.txt, aby Google przestał je skanować.
Celem tego wszystkiego nie jest kontrola PageRank, ale próba sprawdzenia, z których stron korzysta budżet budżetu. Źle jest, jeśli Google wykorzystuje cały budżet indeksowania na stronach, które nie powodują żadnego ruchu w Twojej witrynie.
Podobnie jak rel = ”nofollow” i robots.txt, możesz używać tagów META do kontrolowania sposobu, w jaki Google skanuje Twoją witrynę. Są one umieszczane w sekcjach <head> Twojej strony i mogą wiele zrobić, w tym:
Pamiętaj, że tagi nazwane działają na poziomie strony i mają wpływ tylko na samą stronę. Innym ważnym szczegółem, o którym należy pamiętać, jest to, że wyszukiwarki muszą dostać się do samej strony, aby zobaczyć ten tag. Jeśli więc zablokujesz stronę w robots.txt, wyszukiwarki mogą nigdy nie zeskanować strony i znaleźć tam tag META.
Krótkie podsumowanie i wyjaśnienie:
- Tag rel = "nofollow" użyty w pojedynczym łączu wpływa na powiązania Google z tym linkiem. Nie ma wpływu na inne linki w Twojej witrynie.
- META rel = ”nofollow” to widok poziomu strony, który wpływa na wszystkie linki, w których jest umieszczony.
- Plik robots.txt może mieć wpływ na poszczególne strony, działy witryny lub całą witrynę.
Co z tagiem rel = canonical ? Pozwala właścicielom stron internetowych określić kanoniczną wersję strony i klucz skopiowanej lub prawie skopiowanej treści, dając wyszukiwarkom sygnał o stronach, które mogą lub nie mogą skanować, indeksować i oceniać. W tym momencie należy zauważyć, że ten tag nie jest dyrektywą, tzn. Wyszukiwarki mogą wybierać metody radzenia sobie z tagiem i być w stanie go zignorować według własnego uznania.
Ten tag może pomóc Ci upewnić się, że skopiowana treść nie koliduje z Twoją witryną i pozwoli Ci określić, czy użytkownicy widzą prawidłowy adres URL w wynikach wyszukiwania. Podczas skanowania rozsądne byłoby częstsze przekierowywanie wyszukiwarek ze zeskanowanych skopiowanych stron. Ale tak jak znacznik robotów META, wyszukiwarki muszą być w stanie dotrzeć do strony, zanim znajdą znacznik.
Dzienniki serwera
Jeśli potrzebujesz uzyskać bardziej szczegółowe informacje o tym, jak wyszukiwarki wyszukują Twoją witrynę i wykrywają problemy, możesz przejrzeć pliki dziennika serwera. Pliki dziennika serwera zostaną zapisane, gdy strony zostaną zeskanowane przez wyszukiwarki (i inne skanery), a także podczas rejestracji odwiedzin witryny. Następnie możesz filtrować dane z plików dziennika, aby dokładnie wiedzieć, jak bot Google skanuje Twoją witrynę. Dzięki temu możesz zorientować się, które pliki są najczęściej i ostrożnie skanowane, a które w ogóle nie są skanowane.
Wydaje się, że jest to jeden z najlepszych wskaźników, pokazujący, co utrudnia indeksację i ranking stron. Możesz korzystać ze wszystkich rodzajów analizy witryn, ale ostatecznie, jeśli wyraźnie widzisz z dzienników serwera, że strona nie jest skanowana, otrzymasz odpowiedź na swoje pytanie. Następnie możesz zacząć identyfikować, gdzie może być problem i pracować nad jego rozwiązaniem.
Lubię korzystać z programu Splunk do analizy dzienników serwera. Opanowanie zajmuje dużo czasu, ale jest to zdecydowanie jeden z najlepszych programów, z których korzystałem.
Poniższy rysunek przedstawia wspaniały przykład marnotrawstwa budżetu indeksowania Google na stronach, które nas nie interesują:
Indeksowanie
Jesteś zadowolony, że wyszukiwarki poprawnie skanują twoją stronę. Nadszedł czas, aby sprawdzić, jak Twoje strony są faktycznie indeksowane i aktywnie monitorować pozycje problemów.
Najłatwiejszym sposobem upewnienia się, że Google indeksuje stronę poprawnie, jest sprawdzenie wersji z pamięci podręcznej i porównanie jej z bieżącą. Oto trzy sposoby, które możesz zrobić szybko.
- Uruchom wyszukiwanie google.
- Kliknij wyniki wyszukiwania Google.
- Użyj zakładki.
Aby sprawdzić pamięć podręczną strony, na której jestem, używam zwykłego bookmarkletu Chrome. Utwórz nową zakładkę w przeglądarce i dodaj do niej następujące elementy:
„Javascript: location.href = 'http: //www.google.com/search? Q = cache:„ + location.href ”(bez cudzysłowów)
Piękne i proste!
Zadania sprawdzania pamięci podręcznej strony :
- Upewnij się, że strona jest regularnie buforowana.
- Upewnij się, że pamięć podręczna zawiera całą zawartość.
Jeśli wszystko jest w porządku, wiesz, że pewna strona jest dobrze zeskanowana i zaindeksowana.
Segmentacja mapy witryny
Już wielokrotnie o tym pisano, więc nie powtórzę wszystkiego tutaj. Przeprowadzono poważną analizę problemu post SEOmoz do map witryn XML. Krótko mówiąc, chodzi o stworzenie kilku map witryn xml dla kilku części witryny, aby można było monitorować indeksowanie za pomocą zestawu narzędzi Google dla webmasterów:
Powyższy materiał pochodzi z mojego konta i pokazuje trzy mapy witryny, które przekazałem Google. Chociaż podane tutaj liczby nie są wystarczająco ważne, możesz być pewien, że takie podejście nadal pomoże Ci znaleźć problemy.
Status indeksowania
Inną przydatną funkcją zestawu narzędzi Google dla webmasterów jest status indeksowania. Daje pewne wyobrażenie o tym, jak Google indeksuje i indeksuje Twoją witrynę, a także ile stron nie jest uwzględnionych w indeksie Google. Oto przykład z mojego raportu:
Plusk zielonej linii pokazuje, kiedy Google zwiększył liczbę adresów URL, które sklasyfikował jako „niewybrane”. Oznacza to, że Google zdecydowało, że strony są podobne do innych stron lub zawierają przekierowanie lub niską jakość. Starannie rozważyłem ten problem i doszedłem do wniosku, że krzywa wtyczki spowodowała pojawienie się wielu duplikatów adresów URL.
Jeśli ciągle dodajesz nowe strony do swojej witryny i widzisz stopniowy wzrost liczby indeksowanych stron, może to oznaczać, że są one odpowiednio skanowane i indeksowane. Z drugiej strony, jeśli zobaczysz duży skok (który nie był oczekiwany), może to oznaczać problem, a wyszukiwarki nie będą w stanie poprawnie dotrzeć do Twojej witryny.
Ranking
To ostatnia część naszej pracy, nieco kontrowersyjna, co powoduje nasze obawy! Czy ranking naszych stron powinien być taki, jaki powinien być? Nieustannie pracujemy nad zwiększeniem pozycji naszych stron, więc chcę się skoncentrować na tym temacie.
Najpierw musisz dowiedzieć się, na które strony przyciągniesz ruch. Być może będzie to Twoja strona główna, kategorie, strony produktów i treści. Istnieje kilka sposobów uzyskania odpowiedzi na to pytanie w zależności od funkcji witryny:
- Sprawdź liczbę adresów URL na mapie witryny (dotyczy to zaktualizowanych konkretnych map witryn)
- Skonsultuj się z deweloperami, którzy mogą dać ci ogólny pomysł.
- Możesz także zaindeksować swoją witrynę, ale dotyczy to przede wszystkim wszystkich dostępnych stron.
Natychmiast, gdy rozpoznasz liczbę stron, których szukasz, musisz sprawdzić, ile stron ma ruch organiczny. Możesz to zrobić za pomocą Google Analytics.
Prostym i gotowym sposobem jest przejście do tego schematu.
Upewnij się, że filtrujesz tylko według wyszukiwania organicznego, wybierz duży zakres dat (co najmniej sześć miesięcy), a następnie przewiń w dół, aby zobaczyć, ile stron jest dostępnych:
Jeśli otrzymana kwota jest znacznie niższa niż liczba faktycznie posiadanych stron, możesz stracić potencjalny ruch.
Jeśli potrzebujesz bardziej racjonalnego pomysłu, a naprawdę chcesz zobaczyć, ile stron nie jest odwiedzanych, możesz wyeksportować listę adresów URL z analiz do CSV, a następnie porównać je z istniejącą listą wszystkich stron. Prosty program VLOOKUP powie Ci, ile stron nie odbiera ruchu.
Natychmiast, gdy masz listę stron, które nie są uwzględnione w ruchu, masz możliwość dokładniejszego zbadania przyczyny tego. Możesz to zrobić na kilka sposobów, używając powyższego materiału:
- Utwórz specjalną mapę witryny zawierającą tylko te adresy URL i sprawdź, jak Google je indeksuje.
- Filtruj dzienniki serwera, aby uwzględnić te adresy URL i upewnij się, że są skanowane.
- Sprawdź pamięć podręczną, aby sprawdzić, czy są one buforowane.
Dlaczego to obchodzi?
Com/search?
Czy ranking naszych stron powinien być taki, jaki powinien być?