Деньги, как известно, имеют различные функции. Одной из них является непрестанное движение денег в обращении, обслуживание процесса обращения. Без выполнения деньгами этой функции торговля была бы невозможна.

Еволюція SEO від Арчі до тенденцій завтрашнього дня

Коли Всесвітня павутина стала публічною в 1991 році, все було легко, але все ж достатньо захоплююче, щоб рано прийняти ентузіазму майбутнє. Коли WWW зростала, пошукові системи стали необхідними для індексування веб-сторінок і для того, щоб користувачі могли швидко знайти інформацію.


Коротка історія пошукових систем

Перша пошукова система називалася «Арчі» - скорочена від «архівована». Вона була створена в 1990 році як шкільний проект для допомоги у пошуку файлів протоколу передачі файлів (FTP).

Потім, у 1991 році, Марк Маккаїлл і його команда в Університеті Міннесоти створили протокол Gopher як рання альтернатива Всесвітній павутині, яка похвалилася Gopherspace з пошуковою системою під назвою Veronica. Вона закрилася в 2000-х роках, згідно з Gopher історія Тім Gihring , але ви все ще можете отримати доступ до Gopherspace, дотримуючись вказівок, наведених на проксі-програмі Glopers Public Gopher. Громадська пошукова система Gopher сьогодні, яка ідентифікує себе як «Пошукова система, яка захищає вашу приватність», не є одним і тим самим.

World Wide Web Wanderer пішов у 1993 році. Це був бот - веб-сканер з місією для вимірювання розміру World Wide Web. З цього, він генерував індекс Wandex. Вона була створена в Массачусетському технологічному інституті Метью Грей, який зараз є інженером-програмістом Google.

До Yahoo! був винайдений у 1994 році. Такі назви, як ALIWEB Мартина Костера - як у "Archie-Like Indexing of Web" - JumpStation, World Wide Web Worm і Excite представляли послідовні кроки вперед у еволюції пошуку свого часу. Потім з'явилися веб-каталоги: перший VLib, Віртуальна бібліотека Тіма Бернерса-Лі, потім Галактика EINet. Yahoo !, яка спочатку була каталогом, була заснована в квітні 1994 року Девідом Філо і Джеррі Яном. Спочатку вона включала лише їхні улюблені веб-сторінки з короткими текстовими описами перелічених URL-адрес. Зі зростанням каталогу, необхідним був варіант пошуку. Каталог більше не є автономним об'єктом, і тепер він є частиною Yahoo! Малий бізнес, хоча Yahoo! оголосив про свій прихід в 2014 році.

Після Yahoo! Каталог, WebCrawler був першим, хто індексував цілі сторінки, і він все ще використовується. Lycos, який був створений в 1994 році, все ще навколо. Infoseek Стіва Кірша був достатньо популярним у свій час, щоб бути придбаним компанією Walt Disney Company в 1998 році.

Тут також важливо включити проект Open Directory (ODP), який був створений командою, яку провів Річ Скрента в 1998 році. Це стало б священним Граалем для багатьох SEO-партнерів на початку 2000-х років. Ви все ще можете пам'ятати ODP як DMOZ. Вона була закрита в 2017 році, тому що AOL, який володів нею, більше не хотів підтримувати проект. Копія DMOZ, як вона була при закритті, все ще доступна на сайті dmoztools.net. DMOZ має важливе значення, оскільки Google вирішив скопіювати проект, включаючи лише його алгоритм ранжирування сторінок для ранжирування списків. Каталог Google був доступний лише до 2011 року, коли компанія визначила, що пошук є кращим способом для користувачів знайти інформацію.

У 1995 році AltaVista була першою пошуковою системою, яка пропонувала необмежену пропускну здатність і дозволяла запитувати природні мови. Вони також мали інші розширені функції, наприклад, дозволяючи користувачам додавати та видаляти URL-адреси. Його придбав Yahoo! у 2003 році і закрито в 2013 році.

Нарешті, до 1996 року пошукова система, яка використовувала зворотні посилання для пошуку інформації, знайшла свій шлях до WWW. Вона також підрахувала кількість посилань, які вказували на сайт, як сигнал "авторитету", і вона класифікувала веб-сайти на основі позначення цитування. Це звучить знайомо? Вона називалася BackRub, яка, ймовірно, не була невдалою назвою. На цьому проекті працювали два блискучих студента Стенфордського університету: Ларрі Пейдж і Сергій Брін. Так, BackRub є попередником Google.

Пізніше, в 1996 році, Inktomi піонером платної моделі включення, і в 1997 році Ask Jeeves запускає в якості природного мови пошукової системи. MSN Search від Microsoft було запущено в 1998 році з використанням результатів пошуку з Inktomi. Пізніше він також взяв списки від Looksmart, а потім, в 1999 році від AltaVista. Зрештою, вони замінили ці пошукові системи власним творінням, яке постійно оновлювалося та вдосконалювалося, а також ребрендіровані до Windows Live Search у 2006 році, Live Search у 2007 році, і в кінцевому підсумку - у 2009 році.

1998 рік - також рік, коли Google офіційно вийшов на ринок. До кінця 1999 року Брін і Пейдж намагалися продати свою пошукову систему Excite за 1 мільйон доларів, але генеральний директор Excite Джордж Белл відкинув їхню пропозицію. Це було щасливе рішення, тому що Excite збанкрутувала в 2001 році, і Infospace купив його за 10 мільйонів доларів. До 2001 року Google змушений був рахуватися. Ще одним цікавим аспектом ранньої розробки Google є те, що вони почали продавати текстові оголошення на основі пошуків ключових слів ще в 2000 році, всупереч попередній заяві Бріна та Сторінки, що Google залишатиметься без реклами. Після публічного IPO, Google продовжував розвиватися і вдосконалюватися, випускаючи оновлення після оновлення, яке змінилося і сформулювало те, як ми сьогодні займаємося SEO.

Звичайно, Google не був останньою пошуковою системою, що потрапила в Мережу. За ним слідували інші, деякі все ще навколо, але багато хто з неї: Cuil, Powerset, Hakia, першими приходять на розум. Фактично, Powerset був придбаний Microsoft в 2008 році близько $ 100 млн. Для інтеграції з Bing. Hakia закрита в 2014 році, але її технології все ще володіє іншими сайтами.

DuckDuckGo запущений в 2008 році і в даний час є одним з найбільш надійних пошукових систем, які не відстежують і не зберігають будь-яку особисту інформацію від своїх користувачів. Gigablast, який був запущений в 2000 році, також виживає в конкурентній боротьбі, підтримуючи спеціалізовані пошукові операції та булеві оператори алгебри. Потім, з 2009 року, Wolfram Alpha є дуже надійним обчислювальним механізмом знань. Міжнародні пошукові системи, такі як Yandex (Росія) і Baidu (Китай), також є потужними гравцями.

Можна додати набагато більше, але цих даних достатньо, щоб дати вам достатній фон для того, що формувало еволюцію SEO. Хоча перші пошукові системи мали обмежені можливості, сьогодні вони є складними протоколами на основі алгоритмів, які використовують машинне навчання і можуть розшифрувати природну людську мову, здатну виявити майже все, що може запропонувати Мережа. І тому, що за станом на березень 2016 року індексований веб розраховував не менше 4,62 мільярда сторінок , це досить очевидно, чому веб-сайти, які оптимізовані відповідно до критеріїв SEO, визначених Google, в ідеалі, знайдуться швидше. І вони пропонують Пошукова оптимізація (SEO) Посібник для початківців що ви повинні перевірити, щоб дізнатися, що потрібно зробити, щоб ваш сайт відповідав правилам найвідомішої у світі пошукової системи.

І вони пропонують   Пошукова оптимізація (SEO) Посібник для початківців   що ви повинні перевірити, щоб дізнатися, що потрібно зробити, щоб ваш сайт відповідав правилам найвідомішої у світі пошукової системи

Кредит: https://searchengineland.com )

Озираючись назад на зорі SEO

SEO почалася дуже часто, коли перші пошукові системи дозволяли користувачам надсилати веб-сайти для індексації. AltaVista піонером цієї функції. Потім BackRub вирішив підрахувати посилання, і після того, як Google запустив панель інструментів PageRank в 2000 році, торгівля посиланнями стала однією з провідних стратегій SEO, на яку можна покластися. Це була також примітивна стадія SEO, коли ключове наповнення було дратівливим трендом, який зробив сторінки прочитаними, як написані дошкільниками з розбіжності у володінні.

PageRank був не єдиним, що було запущено Google у 2000 році. Це рік, коли вони почали продавати текстові оголошення, щоб монетизувати пошукову систему, що не було проблемою спочатку, але після запуску AdSense у 2003 році, зроблено для AdSense сайти переслідували веб, як іспанський грип. Протягом багатьох років сайти MFA та scraper погіршують якість результатів пошукової системи, що викликає занепокоєння для багатьох видавців і власників сайтів, зміст яких було вкрадено

Але давайте поглянемо назад на стратегії зв'язування, які так добре працювали в дитинстві SEO. На даний момент, програмне забезпечення, подібне iBusinessPromoter SEO від Axandra, було улюбленим інструментом, що допомагає веб-майстрам і SEO-компаніям подавати сайти в сотні веб-каталогів навалом. PageRank вимагав посилань, а посилання на каталоги - особливо з довідника Yahoo !, DMOZ і Google Directory - мали багато посилальних соків. Таким чином, подання по каталогах творило чудеса для швидкого рейтингу. Або сайти, такі як Entireweb, який у дитинстві теж був веб-каталогом, пропонували безкоштовні подання всім основним пошуковим системам плюс сотні інших, щоб не згадувати. Це був швидкий спосіб мати сайт, перерахований пошуковими системами, тому перед потенційними клієнтами і читачами, і він працював нормально.

До Google почав алгоритм оновлення танцю. Moz попереджає, що Google змінює свій алгоритм пошуку приблизно 500-600 разів на рік, але оголошує про свої основні оновлення. “ Бостон Це було перше оновлення, яке вони оголосили на початку 2003 року. За ним незабаром пішла Cassandra, оновлення, спрямоване на приборкання прихованого вмісту та ключового слова, але тільки оновлення Флориди в листопаді цього року суттєво вплинуло на цю техніку чорної капелюхи SEO, зробивши спам для ключових слів марно для рейтингу пошукових систем. Кассандра також покарала сайти, які займалися масовими обмінами посиланнями. Пізніше оновлення, відоме як домінік цільових ферм посилання.

З оновленням Бренді у лютому 2004 року було введено приховане семантичне індексування (LSI), і SEO повинні були навчитися оптимізувати сайти за їх конкретним наміром (темою), а не щільністю ключових слів.

Google, Yahoo! і MSN Search представили атрибут "nofollow" для зворотних посилань у 2005 році для боротьби з веб-спамом. SEO-рішення зіткнулися з ще однією проблемою адаптації до нових правил. У жовтні 2005 року компанія Google продовжила неприродні зв'язки з оновленням Jagger, за якими слідували інші невеликі оновлення, доки один з найважливіших гігантів пошукових систем ніколи не випускався: Panda.

Початково впливаючи на результати пошуку в англійській мові в Сполучених Штатах, Panda, випущена в 2011 році, була орієнтована на неякісні сайти. Це вплинуло на контент-ферми, а також на сайти з великою кількістю дубльованого вмісту, сторінки з занадто великою кількістю оголошень і сайти, які не принесли реальної цінності користувачам. Оновлення Panda в 2014 році допомогло сайтам з важким редакційним змістом значно покращити свій рейтинг, а сайти з занадто великою кількістю партнерських посилань та автоматично згенерованим контентом були покарані. Вони також запустили алгоритм макета сторінки, який дерендує сайти з невеликим вмістом "вище рази".

Посилання знову у фокусі знову у 2012 році з випуском оновлення Penguin, націлене на сайти, які займаються покупкою та продажем посилань, а також інші стратегії посилання Google радить проти . Пінгвін - це реальний час і частина основного алгоритму, який Google використовує для індексування сайтів.

Добрі новини для видавців у серпні 2012 року були оновлені за допомогою покарання DMCA щодо сайтів, що порушують авторські права.

Hummingbird в 2013 році було оновлення, яке, нарешті, переконали спільноти SEO зосередитися на природній мові та контексті. З Hummingbird, Google, нарешті, зможе розпізнати наміри, що стоять за запитом. Потім Pigeon в 2014 році зосереджується на покращенні результатів пошуку на місцевому рівні. Незабаром після цього HTTPS усюди стає великою справою, і Google включає HTTPS серед своїх рейтингових сигналів.

2015 рік - рік мобільного: як оновлення алгоритму випуску Google, так і Bing розроблені для зручності мобільних сторінок у результатах мобільного пошуку. 2016 та 2017 року інші оновлення що прогнозують, як буде SEO в майбутньому.

Майбутнє SEO - це історія, що розвивається

Збільшення довжини фрагментів у листопаді 2017 року рекомендує 300 символів для описів Meta, що вказує на нову тенденцію до SEO у 2018 році. Якщо Google хоче більше вмісту в мета описах, він, безсумнівно, оцінить більше тексту на веб-сторінках. Але пам'ятайте, що обговорювалися раніше оновлення, і пам'ятайте, що Google оцінює вміст, створений для користувачів і функціональний інтерфейс користувача.

Мобільний перший - це річ, а не тенденція, але в майбутньому всі сайти повинні бути готовими до мобільного зв'язку.

За допомогою голосового пошуку тенденція 2018 року , є нові стратегії SEO, на які можна зосередитися - і ми обговоримо їх поглиблено в наступній статті. Але, надалі ви повинні також розглянути можливість оптимізації для клієнтських намірів, і Подумайте про Google це великий ресурс, який допоможе вам у цьому.

Плюс, пора вважати штучний інтелект - Facebook вже активно дивлячись на це і використовувати його в значущих шляхів . А тому, що ІІ - це немає магії, просто код «Для SEO-виробників має сенс замислюватися, як оптимізувати майбутнє, тому що немає сумніву, що технології AI та технології машинного навчання вплинуть на майбутнє SEO. У цьому контексті Google вже має RankBrain, AI, який визначає контекст усіх видів вмісту, розміщених на веб-сайтах. Чи готові ви до адаптації? AI, де це все відбудеться далі в SEO.

Це звучить знайомо?
Чи готові ви до адаптації?