-
18 Фев 2026 |
USD / BGN 1.6636
GBP / BGN 2.2450
CHF / BGN 2.1046- Радиация: София 0.11 (µSv/h)
- Времето:
София 0°C 
Оптимизация на сайт за Google
10 Януари 2014 | 14:08
/КРОСС/ Оптимизацията на сайтовете става все по-... трудна. Да, въпреки че всички говорят за нея и има безброй статии и семинари, където я обясняват доказани специалисти, най-голямата търсачка Google също не си губи времето. Използва го, за да създава неудобства и препятствия пред SEO оптимизаторите.
Получава се порочен кръг - когато ъпдейт на някой от Google алгоритмите бъде преодолян, се появява поредният такъв, за да обърка всички! Дори при най-добрите и най-подготвените има „сривове".
Какви резултати показва Google?
Търсачката, към чиито първи места всички фирми се целят, „обладани" от духа на SEO оптимизацията и нейните методи, обхожда сайтовете през определен интервал със своя „паяк" (бот). Той събира с невероятна скорост цялата информация, която намери, а в нея търси ново съдържание, а от няколко години - и уникално! Преди беше достатъчно само в сайта да има някакво съдържание, написано някак или копи-пейстнато от някъде. И резултатите бяха налице.
След това обаче, като всеки бранд, Google започна да се стреми да предлага най-добрия продукт на своите клиенти. Т.е., сайтове с висококачествено съдържание и текстове, които да са в реална полза на търсещите. И борбата стана безмилостна и... интелигентна.
Как Google контролира качеството на сайтовете в резултатите си?
Най-краткият, но и изумителен отговор е: със своите животни. И това не е шега.
Алгоритмите за търсене Panda, Penguin и Hummingbird се използват от Google, за да са по-добри резултатите при търсене в търсачката. Google алгоритмите се използват най-общо, за да се сортират милиардите уебсайтове и уебстраници по определен начин.
Panda - този алгоритъм „хапе" основно много кратко уебсъдържание - под един абзац. Както и нискокачественото и дублираното (особено при онлайн магазини, където има много еднакви страници). Сайт, покосен от Панда, може да започне да се позиционира лошо, дори при търсене на по-дълъг текст от сайта! „Лекува" се!
Penguin - този алгоритъм „кълве" купени връзки, линкове, купени от съмнителни източници, сайтове, наказвани от Google в миналото или такива, които не са обновявани скоро. Сайтовете, които нямат трафик или не задържат дълго време потребителите, също са застрашени. „Лекува" се с успеваемост под 50%!
Hummingbird - най-младият алгоритъм, който коренно се различава от предишните два. С колибрито заявките за търсене от търсещата машина вече ще се асимилират много по-добре, за да връщат още по-близки резултати.
Животни - малки, симпатични, но и истински страшилища в процеса оптимизация на сайт. Ухапали и клъвнали с доста негативни последствия (изпадане от търсенето в Google) са били не един и два сайта. И, въпреки че дори и най-добрите в SEO оптимизацията не са застраховани, добре е да потърсите и да се доверите точно на такъв. Шансовете ви да не срещнете панда или пингвин и да се харесате на колибрито са много по-големи.