Деньги, как известно, имеют различные функции. Одной из них является непрестанное движение денег в обращении, обслуживание процесса обращения. Без выполнения деньгами этой функции торговля была бы невозможна.

Ewolucja SEO od Archie do trendów jutra

Kiedy sieć World Wide Web stała się publiczna w 1991 r., Sprawy były łatwe, ale wystarczająco zadziwiające, aby entuzjastycznie nastawieni do przyszłości entuzjaści przyszłości. Wraz z rozwojem WWW, wyszukiwarki stały się niezbędne do indeksowania stron internetowych i umożliwienia użytkownikom szybkiego wyszukiwania informacji.


Krótka historia wyszukiwarek

Pierwsza wyszukiwarka nazywała się „Archie” - skrót od „archiwizowany”. Została utworzona w 1990 roku jako projekt szkolny, aby pomóc w znalezieniu plików FTP.

Następnie, w 1991 roku, Mark McCahill i jego zespół z University of Minnesota stworzyli protokół Gopher, wczesną alternatywę dla World Wide Web, która chwaliła się Gopherspace za pomocą wyszukiwarki o nazwie Veronica. Zamknięto go w 2000 roku, zgodnie z Historia Gopher Tima Gihringa , ale nadal możesz uzyskać dostęp do przestrzeni Gopherspace, postępując zgodnie z instrukcjami podanymi na Public Gopher Proxy Floodgap. Publiczna wyszukiwarka nazywa się dziś Gopher, która określa się jako „wyszukiwarka, która chroni Twoją prywatność”, to nie to samo.

W 1993 roku pojawił się World Wide Web Wanderer. Był to bot - robot sieciowy z misją mierzenia wielkości sieci World Wide Web. Na tej podstawie wygenerował indeks Wandex. Został stworzony w Massachusetts Institute of Technology przez Matthew Graya, obecnie inżyniera oprogramowania w Google.

Do Yahoo! został wynaleziony w 1994 r., po czym nastąpił zestaw prymitywnych wyszukiwarek. Nazwy takie jak ALIWEB Martijna Kostera - jak w „Indeksowaniu sieci w stylu Archie-Like” - JumpStation, robak WWW i Excite reprezentowały spójne kroki w ewolucji wyszukiwania w ich czasie. Następnie powstały katalogi internetowe: pierwsza VLib, wirtualna biblioteka Tima Bernersa-Lee, a następnie EINet Galaxy. Yahoo !, który pierwotnie był katalogiem, został założony w kwietniu 1994 r. Przez Davida Filo i Jerry'ego Yanga. Początkowo zawierał tylko swoje ulubione strony internetowe z krótkimi opisami tekstowymi adresów URL, które wymienili. Wraz z rozwojem katalogu opcja „wyszukiwania” stała się niezbędna. Katalog nie jest już samodzielną jednostką i jest teraz częścią Yahoo! Małe firmy, chociaż Yahoo! ogłosił upadek w 2014 roku.

Po Yahoo! Katalog, WebCrawler był pierwszym, który indeksował całe strony i nadal jest w użyciu. Lycos, który został utworzony w 1994 roku, jest nadal w pobliżu. Infoseek Steve'a Kirscha był na tyle popularny, że został kupiony przez The Walt Disney Company w 1998 roku.

Ważne jest również włączenie Open Directory Project (ODP), który został stworzony przez zespół prowadzony przez Richa Skrentę w 1998 roku. Później stał się świętym Graalem dla wielu SEO na początku 2000 roku. Możesz nadal pamiętać ODP jako DMOZ. Zamknięto go w 2017 r., Ponieważ AOL, który był jego właścicielem, nie chciał już obsługiwać projektu. Kopia DMOZ w stanie, w jakim była zamknięta, jest nadal dostępna na stronie dmoztools.net. DMOZ jest niezbędny, ponieważ sam Google postanowił skopiować projekt, w tym tylko jego algorytm rankingu stron do rankingu aukcji. Katalog Google był dostępny tylko do 2011 r., Kiedy firma ustaliła, że ​​wyszukiwanie jest lepszym sposobem na znalezienie informacji przez użytkowników.

W 1995 roku AltaVista była pierwszą wyszukiwarką oferującą nieograniczoną przepustowość i pozwalającą na zapytania w języku naturalnym. Miały też inne zaawansowane funkcje, takie jak umożliwienie użytkownikom dodawania i usuwania adresów URL. Został zakupiony przez Yahoo! w 2003 r. i zamknięty w 2013 r.

Wreszcie, do roku 1996, wyszukiwarka wykorzystująca linki zwrotne do wyszukiwania informacji trafiła do WWW. Zliczono również liczbę linków wskazujących na stronę jako sygnał „autorytetu” i oceniano strony internetowe na podstawie notowań cytowań. Czy to brzmi znajomo? Nazywał się BackRub, co prawdopodobnie nie było niefortunne. Dwóch znakomitych studentów z Uniwersytetu Stanforda pracowało nad tym projektem: Larry Page i Sergey Brin. Tak, BackRub jest poprzednikiem Google.

Później, w 1996 r., Inktomi był pionierem modelu płatnej integracji, aw 1997 r. Ask Jeeves uruchamia się jako wyszukiwarka języka naturalnego. MSN Search firmy Microsoft uruchomiony w 1998 r. Przy użyciu wyników wyszukiwania z Inktomi. Później wzięła także oferty od Looksmart, a następnie w 1999 roku od AltaVista. Ostatecznie zastąpili te wyszukiwarki własną kreacją, która była stale aktualizowana i ulepszana, a także przemianowana na Windows Live Search w 2006 r., Live Search w 2007 r. I ostatecznie Bing w 2009 r.

1998 to także rok, w którym Google oficjalnie weszło na rynek. Pod koniec 1999 roku Brin i Page próbowali sprzedać swoją wyszukiwarkę Excite za 1 milion dolarów, ale prezes Excite George Bell odrzucił ich ofertę. To była szczęśliwa decyzja, ponieważ Excite zbankrutował w 2001 roku, a Infospace kupił ją za 10 milionów dolarów. Do 2001 r. Google było siłą, z którą należy się liczyć. Innym interesującym aspektem wczesnego rozwoju Google jest to, że już w 2000 r. Zaczęli sprzedawać reklamy tekstowe oparte na wyszukiwaniu słów kluczowych, w przeciwieństwie do wcześniejszego oświadczenia Brina i Strony, że Google pozostanie bez reklam. Po publicznej ofercie publicznej Google nadal rozwijało się i ulepszało, publikując aktualizacje po aktualizacjach, które zmieniły się i ukształtowały sposób, w jaki dzisiaj działamy w SEO.

Oczywiście Google nie była ostatnią wyszukiwarką, która trafiła do sieci. Po nim pojawiło się wielu innych, niektóre wciąż w pobliżu, ale wiele nieistniejących: Cuil, Powerset, Hakia są pierwszymi, którzy przychodzą na myśl. W rzeczywistości Powerset został przejęty przez Microsoft w 2008 r. Za około 100 mln USD na integrację z Bing. Hakia została zamknięta w 2014 r., Ale jej technologia nadal zasila inne witryny.

DuckDuckGo został uruchomiony w 2008 roku i jest obecnie jedną z najbardziej niezawodnych wyszukiwarek, które nie śledzą i nie przechowują żadnych danych osobowych od swoich użytkowników. Gigablast, który został uruchomiony w 2000 roku, przetrwa również konkurencję, wspierając specjalistyczne wyszukiwania i operatorów algebry Boole'a. Następnie, od 2009 roku, Wolfram Alpha jest bardzo niezawodnym silnikiem wiedzy obliczeniowej. Międzynarodowe wyszukiwarki, takie jak Yandex (Rosja) i Baidu (Chiny), również są silnymi graczami.

Jest jeszcze wiele do dodania, ale te dane są wystarczające, aby dać ci wystarczającą wiedzę na temat ewolucji SEO. Podczas gdy pierwsze wyszukiwarki miały ograniczone możliwości, dziś są to złożone protokoły oparte na algorytmach, które wykorzystują uczenie maszynowe i potrafią rozszyfrować naturalną mowę ludzką, zdolną do odkrycia prawie wszystkiego, co ma do zaoferowania sieć. A ponieważ od marca 2016 r. Indeksowana sieć się liczyła co najmniej 4,62 miliarda stron , to oczywiste, dlaczego strony internetowe, które są zoptymalizowane zgodnie z kryteriami SEO zdefiniowanymi przez Google, najlepiej byłoby znaleźć się szybciej. I oferują Przewodnik startowy dla optymalizacji wyszukiwarek powinieneś sprawdzić, co musisz zrobić, aby Twoja strona była zgodna z zasadami najbardziej znanej wyszukiwarki na świecie.

I oferują   Przewodnik startowy dla optymalizacji wyszukiwarek   powinieneś sprawdzić, co musisz zrobić, aby Twoja strona była zgodna z zasadami najbardziej znanej wyszukiwarki na świecie

Kredyt: https://searchengineland.com )

Patrząc wstecz na początek SEO

SEO zaczęło się, gdy pierwsze wyszukiwarki pozwoliły użytkownikom przesyłać strony do indeksowania. AltaVista był pionierem tej funkcji. Następnie BackRub postanowił policzyć linki, a po uruchomieniu przez Google paska narzędzi PageRank w 2000 r. Handel linkami stał się jedną z wiodących strategii SEO, na których można polegać. Był to również prymitywny etap SEO, kiedy upychanie słów kluczowych było denerwującym trendem, który powodował, że strony były czytane jak pisane przez przedszkolaki z zaburzeniami płynności.

PageRank nie był jedyną rzeczą wprowadzoną przez Google w 2000 roku. Jest to rok, w którym zaczęli sprzedawać reklamy tekstowe w celu zarabiania na wyszukiwarce, co początkowo nie stanowiło problemu, ale po wprowadzeniu AdSense w 2003 r. Made for AdSense strony internetowe nękały sieć jak hiszpańska grypa. Od lat witryny MFA i skrobaki szkodzą jakości wyników wyszukiwania, powodując obawy dotyczące praw autorskich wielu wydawcom i właścicielom witryn, których treści zostały skradzione

Ale spójrzmy na strategie łączenia, które działały tak dobrze w okresie niemowlęctwa SEO. W chwili obecnej oprogramowanie takie jak iBusinessPromoter SEO firmy Axandra było ulubionymi narzędziami pomagającymi webmasterom i SEO w wysyłaniu stron do setek katalogów internetowych. PageRank domagał się linków, a linki do katalogów - zwłaszcza z Yahoo! Directory, DMOZ i Google Directory - zawierały wiele linków. Dlatego też przesyłanie katalogów działało cudownie w szybkich rankingach. Lub strony takie jak Entireweb, które również były katalogiem internetowym, oferowały bezpłatne zgłoszenia do wszystkich głównych wyszukiwarek oraz setki innych, by nie wspomnieć o nich. Był to szybki sposób na umieszczenie witryny na liście wyszukiwarek, a więc przed potencjalnymi klientami i czytelnikami, i działała dobrze.

Dopóki Google nie rozpoczął tańca aktualizacji algorytmu. Moz ostrzega, że ​​Google zmienia swój algorytm wyszukiwania około 500–600 razy w roku, ale ogłasza tylko swoje główne aktualizacje. „ Boston ”Była pierwszą aktualizacją ogłoszoną na początku 2003 r. Niedługo potem Cassandra, aktualizacja mająca na celu ograniczenie ukrytych treści i wypychanie słów kluczowych - ale tylko aktualizacja na Florydzie w listopadzie tego samego roku znacząco wpłynęła na tę technikę SEO, czyniąc spam słowami kluczowymi bezużyteczny w rankingach wyszukiwarek. Cassandra karała także strony zaangażowane w masową wymianę linków. Późniejsza aktualizacja znana jako farmy linkowane Dominic.

Wraz z aktualizacją Brandy w lutym 2004 r. Wprowadzono ukryte indeksowanie semantyczne (LSI), a SEO musieli nauczyć się optymalizować witryny pod kątem konkretnych intencji (motywów), a nie gęstości słów kluczowych.

Google, Yahoo! I MSN Search wprowadziły atrybut „nofollow” dla linków zwrotnych w 2005 r. W celu zwalczania spamu internetowego. SEO zmierzyli się z kolejnym wyzwaniem, aby dostosować się do nowych zasad. Google ponownie połączyło się z nienaturalnymi linkami z aktualizacją Jaggera w październiku 2005 r., Po czym nastąpiło wiele innych mniejszych aktualizacji do czasu, gdy jeden z najważniejszych gigantów wyszukiwarek nigdy nie wydał: Panda.

Początkowo wpływając na wyniki wyszukiwania w języku angielskim w Stanach Zjednoczonych, Panda, wydana w 2011 r., Była skierowana do witryn o niskiej jakości. Dotyczyło to farm z zawartością, ale także witryn z dużą ilością powielonych treści, stron zawierających zbyt wiele reklam i witryn, które nie przynosiły żadnej realnej wartości użytkownikom. Aktualizacja Pandy w 2014 r., Pomogła stronom z dużą zawartością redakcyjną znacząco poprawić swoje rankingi, podczas gdy witryny z zbyt dużą liczbą linków partnerskich i automatycznie generowanych treści są karane. Uruchomili również algorytm układu strony, który wyszydza strony z małą zawartością „nad fałdą”.

Linki powróciły ponownie w 2012 r. Wraz z wydaniem aktualizacji Penguin, która jest skierowana do witryn, które zajmują się kupowaniem i sprzedażą linków, a także innych strategii linków, które Google odradza . Pingwin jest w czasie rzeczywistym i częścią podstawowego algorytmu używanego przez Google do indeksowania stron.

Dobre wieści dla wydawców pojawiły się w sierpniu 2012 r. Wraz z aktualizacją kary DMCA wobec witryn naruszających prawa autorskie.

Hummingbird w 2013 roku był aktualizacją, która ostatecznie przekonała społeczność SEO do skupienia się na języku naturalnym i kontekście. Dzięki Hummingbird Google jest w stanie rozpoznać zamiar zapytania. Następnie Pigeon w 2014 r. Koncentruje się na dostarczaniu lepszych wyników wyszukiwania lokalnego. Niedługo potem HTTPS wszędzie staje się wielką sprawą, a Google zawiera HTTPS wśród swoich sygnałów rankingowych.

Rok 2015 jest rokiem mobilności: zarówno aktualizacje algorytmów Google, jak i Bing opracowane z myślą o korzystaniu z przyjaznych dla telefonów stron w wynikach wyszukiwania w telefonach komórkowych. Następnie w 2016 i 2017 roku inne aktualizacje które przewidują, jak będzie wyglądać SEO w przyszłości.

Przyszłość SEO - historia w toku

Zwiększenie długości kodu w listopadzie 2017 r. Zaleca teraz 300 znaków dla Meta Descriptions, co wskazuje na nowy trend SEO w 2018 r. Jeśli Google chce więcej treści w Meta Descriptions, niewątpliwie doceni więcej tekstu na stronach internetowych. Pamiętaj jednak o aktualizacjach omówionych wcześniej i pamiętaj, że Google ceni treść stworzoną dla użytkowników i funkcjonalny interfejs użytkownika.

Mobile-first to rzecz, a nie trend, ale w przyszłości wszystkie witryny powinny być mobilne i gotowe do rankingu.

Z wyszukiwaniem głosowym trend z 2018 roku , są nowe strategie SEO, na których należy się skupić - i omówimy je szczegółowo w następnym artykule. Ale na przyszłość powinieneś również rozważyć optymalizację pod kątem intencji klienta Pomyśl z Google jest doskonałym źródłem pomocy w tym zakresie.

Ponadto nadszedł czas, aby rozważyć sztuczną inteligencję - Facebook jest już aktywnie patrząc na to i używać go znaczące sposoby . A ponieważ AI to „ bez magii, tylko kod „Dla SEO sensowne jest zastanawianie się, jak zoptymalizować przyszłość, ponieważ nie ma wątpliwości, że AI i technologie uczenia maszynowego wpłyną na przyszłość SEO. W tym kontekście Google ma już RankBrain, sztuczną inteligencję, która określa kontekst wszelkiego rodzaju treści zamieszczanych na stronach internetowych. Czy jesteś gotowy na adaptację? AI to miejsce, w którym wszystko stanie się dalej w SEO.

Czy to brzmi znajomo?
Czy jesteś gotowy na adaptację?