Optimizare Site Google: algoritmi Google și update-uri SEO care au marcat publicitatea online

Cuprins

Ce sunt algoritmii motorului căutare Google?

Algoritmii Google sunt mecanisme complexe care au rolul să extragă din baza de date Google răspunsuri / rezultate pentru căutările utilizatorilor și să afișeze paginile web în ordinea relevanței și a calității conținutului.
Algoritmii / crawl-erii trec prin miliarde de pagini web din indexul Google, pentru a afișa cât mai rapid cele mai relevante pagini – conținut text, conținut audio sau video, imagini care răspund cel mai bine la interogarea fiecărui utilizator
Google păstrează confidențialitatea detaliilor algoritmilor de clasificare a căutărilor, însă sunt și criterii pe care le face publice și care permit astfel optimizarea site-urilor pentru Google – vorbim aici despre SEO (Search Engine Optimization) sau optimizarea unui site pentru Google.
Google își actualizează în mod regulat algoritmii de indexare și ranking, pentru a îmbunătăți funcționarea motorului de căutare pe diferite dispozitive Desktop și Mobile, pentru orice tip de browser, dar și pentru a îmbunătăți calitatea rezultatelor căutării și experiența utilizatorilor.
Algorithms Evolve – algoritmii Google de indexare și ranking evoluează odată cu utilizatorii săi
Google nu urmărește, prin ranking, cuvinte cheie sau topicuri, în mod expres și exclusiv. Scopul motorului de căutare este să rezolve problema utilizatorului care efectuează o căutare. De aceea, prin update-urile periodice, Google încearcă să înțeleagă căutările utilizatorilor și conținutul paginilor web, astfel încât să returneze la căutările efectuate, pagini web care răspund cât mai bine acestor căutări.
Un website care se concentrează foarte mult pe cuvinte cheie și optimizarea excesivă, fără să ofere informații concrete și relevante care să răspundă căutărilor utilizatorilor, vor fi defavorizate de Google. Site-ul nu va pierde ranking și trafic din cauza cuvintelor cheie și a optimizării, ci pentru că nu rezolvă problema / căutarea utilizatorilor.

Ce înseamnă Optimizarea unui Site pentru Google?

Optimizarea site-urilor pentru Google a evoluat odată evoluția tehnologiilor web și cu accesul la internet al utilizatorilor. În 2006, când Google avea 8 ani și se număra printre primele 10 cele mai cunoscute branduri în întreaga lume, avea mecanisme de funcționare destul de simple.

Pasionații de internet și tehnologie puteau să manipuleze destul de ușor algoritmii de indexare și ranking, folosind metode simple de optimizare a unui site pentru Google.

Scopul era ca un website care nu avea o calitate foarte bună a conținutului să fie clasat în primele rezultate listate la căutările utilizatorilor, încălcând regulile motorului de căutare. 

Pentru a bloca aceste tehnici de SPAM (încercări de manipulare a roboților), au început să apară acești algoritmi Google tot mai sofisticați și update-uri ale acestor algoritmi Google complexe și tot mai frecvente.

Google a lansat numeroase update-uri de-a lungul timpului, dar 10 sunt considerate update-uri majore ale algoritmilor, pentru că au schimbat modul de indexare și ranking: Google PageRank, Panda, Penguin, Pirate, Hummingbird, Pigeon, Mobile, Rank Brain, Possum și Fred.  

Algoritmi Google și cele mai importante update-uri Google pentru SEO

Ca să înțelegem cum s-au schimbat strategiile și tehnicile de optimizare SEO a unui site pentru Google și care este abordarea actuală, trecem printr-un istoric al algoritmilor Google, cu cele mai importante update-uri ce au impactat domeniul SEO.

Google March Core Update (2024)

Google March 2024 core update a fost lansat în 5 martie și s-a încheiat in 19 aprilie; au rulat algoritmi și sisteme de indexare și ranking care au vizat aspecte tehnice și de conținut ale paginilor web.

Au fost penalizate prin scăderea în ranking sau eliminarea / dezindexarea din baza de date Google paginile web de tip spam. Conform datelor oferite de un purtător de cuvânt Google, a fost redus cu 45% conținutul irelevant, inutil și lipsit de originalitate.

Inginerii Google nu au confirmat în mod explicit că acest update a urmărit penalizarea conținutului generat cu instrumente generatoare de conținut de tip ChatGPT, dar declarațiile acestora și urmările update-ului ne fac să credem acest lucru:

“The updates led to larger quality improvements than we originally thought – you’ll now see 45% less low quality, unoriginal content in search results, versus the 40% improvement we expected across this work.”

“The March 2024 core update is a more complex update than our usual core updates, involving changes to multiple core systems. It also marks an evolution in how we identify the helpfulness of content,” Google’s Chris Nelson

Ce verificăm, pentru a vedea cauzele care au determinat scăderea volumului de trafic organic în site-ul nostru, aflăm de la Daniel Waisberg – Google Search Advocate:
  • Probleme tehnice ale site-ului: erori care pot împiedica Google să acceseze cu crawlere, să indexeze și să afișeze paginile site-ului la căutările utilizatorilor în Google (erori de server; fișierele de indexare; linkuri ne-funcționale etc.).
  • Probleme de Securitate: dacă site-ul este afectat de malware sau phishing; Google poate alerta utilizatorii înainte de a accesa paginile din site cu diferite alerte sau avertismente. Verificăm acest tip de probleme tehnice în Search Console.
  • Probleme legate de spam: Google detectează practicile care încalcă politicile de spam prin sisteme automate și prin examinare umană, care poate determina o penalizare manuală; în urma penalizărilor automate sau manuale, paginile site-ului vor avea un ranking mai scăzut în Google sau sunt dezindexate.
  • Sezonalitate și schimbarea intereselor utilizatorilor: comportamentul utilizatorilor influențează în mod direct volumul de căutare pentru anumite interogări, fie datorită unei noi tendințe, fie a sezonului pe parcursul anului. Ca urmare, traficul organic al site-ului poate să scadă pur și simplu, ca urmare a influențelor externe. Putem să facem analizele de trafic și tendințe cu Google Search Console, GA4 și Google Trends pentru a înțelege dacă scăderea este specifică pentru site-ul nostru sau pentru toate site-urile pe o industrie / o nișa specifică.
  • Mutarea / migrarea conținutului din site pe un alt domeniu web: dacă modificăm adresele URL ale paginilor existente în site, prin mutarea pe un alt domeniu web sau pur și simplu modificarea unui volum mai mare de URL-uri din site, vom avea fluctuații ale rankingului, până la accesarea și reindexarea URL-urilor noi.

Google Algorithm Update (2023)

Principalele update-uri ale algoritmilor de indexare și ranking Google au vizat în 2023 relevanța conținutului din paginile web, dar și calitatea review-urilor:
Reviews Update din aprilie 2023 are ca scop aprecierea sau recompensarea recenziilor care împărtășesc o experiență concretă și sunt dezavantajate cele care rezumă pur și simplu o listă de produse sau servicii. Acest update afectează recenziile despre produse, servicii, destinații, jocuri, filme și multe altele. Anterior, update-urile Google pentru recenzii, review-uri se concentrau pe aprecierea produselor.
March 2023 Core Update a urmărit identificarea conținutului de calitate și îmbunătățirea rezultatele căutărilor pentru utilizatori.
Product Reviews Update din februarie 2023 a avut ca scop recompensarea recenziilor de produse de bună calitate și a impactat site-urile care publică acest tip de conținut

Google Algorithm Update (2022)

Principalele update-uri ale algoritmilor de indexare și ranking Google au vizat în 2022 calitatea backlink-urilor și a conținutului, dar și experiența utilizatorilor la navigarea pe desktop.
Link Spam Update a îmbunătățit capacitatea Google de a identifica site-urile care cumpără și vând link-uri în scopuri SEO. Acest update a venit ca o îmbunătățire a algoritmului bazat pe inteligență artificială SpamBrain care detectează link-urile de tip spam. Așadar, site-urile care beneficiau anterior de aceste backlink-uri probabil au scăzut în clasament.
Helpful Content Update a avut ca scop retrogradarea site-urilor care creează conținut irelevant, în primul rând în scopuri SEO, nu pentru oameni. Google a schimbat ghidul de bune practici pentru E-A-T (Expertise, Authoritativeness, Trustworthiness) în E-E-A-T, adăugând un “E” în plus pentru “Experiență”. Scopul update-ului a fost acela de a ridica în ranking conținutul de foarte bună calitate.

Page Experience Update for Desktop a făcut din Core Web Vitals un factor de ranking pentru desktop. Astfel, ranking-ul pentru desktop a fost influențat de acești parametri:

  • Largest Contentful Paint (LCP)
  • First Input Delay (FID)
  • Cumulative Layout Shift (CLS)

Am detaliat ce reprezintă aceștia și care sunt limitele optime pentru un website performant, în materialul nostru SEO tehnic – elemente de bază și tehnici de optimizare tehnică.

Algoritmul Google Passages Indexing (2021)

Passages Indexing (indexarea pasajelor) este o nouă tehnologie a algoritmului Google pentru a clasifica pasajele individuale dintr-o pagină în rezultatele căutărilor, pe baza interogărilor făcute de utilizatori și care este considerată relevantă pentru întregul text.
Algoritmul Google de indexare a pasajelor este o funcție automată care extrage secțiuni din paginile web în rezultatele motorului de căutare, chiar dacă pagina respectivă acoperă un subiect ușor diferit de cel principal.
Rolul acestui algoritm, este să îmbunătățească performanțele algoritmilor deja cunoscuți Google RankBrain și Google BERT, bazați pe inteligență artificială, și care au ca principală funcționalitate, să învețe comportamentul utilizatorului de internet.

Google Broad Core Algorithm Update (2019)

Google March 2019 Core Update (martie 2019): scopul acestui update este să filtreze și să excludă din paginile de rezultate site-urile de slabă calitate, site-uri care fac spam sau încalcă regulile și practicile impuse de politica de funcționare Google.
Google Broad Core Algorithm Update (iunie 2019): prin acest update, Google urmărește să țină pasul cu evoluția internetului și, mai ales, cu evoluția comportamentului utilizatorilor.
Aici ajungem la punctul sensibil – Google încearcă să țină pasul cu utilizatorii motorului de căutare, iar relevanța și viteza de încărcare a paginilor site-urilor sunt, în acest context, esențiale.
John Mueller, Webmaster Trends Analyst la Google, ne spune că update-ul din Iunie 2019 nu a țintit niște aspecte anume legate de viteza de încărcare a paginilor web pe dispozitive mobile sau de calitatea și relevanța conținutului site-urilor web. Acest update a fost unul general, care a țintit mai multe aspecte legate de calitatea paginilor web. Ca urmare, nu poate să ne spună că trebuie să remediem ceva anume în site-ul nostru, dacă impactul update-ului a fost negativ și a cauzat o scădere a traficului organic în site.
Deși ne spune că nu sunt aspecte punctuale de remediat sau de optimizat, John Mueller sugerează totuși că trebuie să înțelegem ce caută utilizatorii care ajung pe site-ul nostru, ce așteptări au și să ținem cont de ele.
Pentru a fi mai specific, Muller ne amintește de un articol despre conținutul de calitate din 2011, pe blogul Google “More guidance on building high-quality sites” și enumeră câteva repere din acest material, ce țin de construirea unui site ce oferă conținut de calitate, relevant și de încredere.

La ce întrebări trebuie să-și răspundă fiecare webmaster sau deținător al unui website:

  • Tu ai încredere în informațiile din articolele de pe site-ul tău?
  • Conținutul articolului din site-ul tău este scris de un specialist în domeniu sau de un entuziast care a studiat puțin subiectul abordat?
  • Există în site conținut duplicat sau articole care reiau aceleași topicuri ori topicuri similare, pentru a folosi cuvinte cheie asemănătoare / sinonime?
  • Aveți încredere în acest site, astfel încât să lăsați în formulare date bancare?
  • Subiectele și topicurile abordate în articole sunt de interes pentru utilizatorii site-ului sau sunt abordate teme în mod aleatoriu, în speranța că pot sa aducă trafic în site și un ranking bun în Google?
  • Conținutul paginilor site-ului oferă informații mai complete, mai relevante și mai valoroase în comparație cu alte site-uri care au conținut pe aceleași topicuri?
Revenind la utilizatorii site-ului, Muller subliniază din nou importanța acestora: felul cum apreciază ei site-ul nostru este foarte important; webmasterii sau deținătorii site-urilor pot să nu vadă probleme de uzabilitate sau de relevanță, pe care un utilizator le vede imediat ce intră pe site.
Google BERT (octombrie 2019): Bidirectional Encoder Representations from Transformers
BERT este un algoritm Google de învățare, înțelegere și procesare a limbajului natural. BERT ajută mașina de învățare Google să înțeleagă sensul cuvintelor dintr-o propoziție, cu toate nuanțele contextului, în mod special la nivel conversațional. BERT ajută Google să returneze răspunsuri relevante, atât la căutările scrise, cât și la căutările vocale.

Cu toții ne-am întrebat cum facem optimizarea SEO a unui site pentru BERT și RankBrain și avem aici câteva direcții:

BERT – algoritmul Google pentru înțelegerea limbajului natural, conversațional
Optimizarea paginilor site-ului pentru Google BERT și Rank Brain

Ce țintește Google prin aceste update-uri în 2019 și care este direcția în care se îndreaptă strategiile de optimizare site pentru Google?

Parcursul update-urilor Google, privit în ansamblu, este unul interesant: intră în atenția motorului de căutare și sunt penalizate, pe rând, tehnicile de manipulare a algoritmilor de ranking:

  • link-urile de tip spam – backlink-urile ne-naturale și supra-optimizate care încearcă să manipuleze ranking-ul, obținând poziții de top în paginile Google, fără să ofere calitate și relevanță;
  • supra-optimizarea și conținutul de slabă de calitate, având ca unic scop ranking-ul, fără să ofere utilizatorilor răspunsuri valoroase la căutările lor;
  • viteza mică de încărcare, adaptarea și funcționarea corectă pentru dispozitivele mobile;
  • lipsa încrederii utilizatorilor în conținutul pe care îl găsesc în site-urile pe care le accesează prin căutările în Google, cauzată de un conținut irelevant și de slabă calitate sau chiar înșelător.
Astfel, răspunsul la întrebarea “Ce a urmărit Google prin aceste update-uri și încotro se îndreaptă?” este ușor de intuit: Google își concentrează întreaga atenție asupra UTILIZATORILOR.
Ce contează în optimizarea SEO pentru Google în perioada următoare?

Focusul întregii strategii de optimizare SEO a site-ului trebuie să fie utilizatorii, iar strategia are ca piloni principali:

  • acuratețea tehnică a site-ului;
  • calitatea conținutului;
  • gradul de indexare
  • strategia de cuvinte cheie / topicuri – orientată către utilizatori;
  • promovarea brandului;
Noii algoritmi Google și update-urile periodice au ca scop să rezolve problema utilizatorului care efectuează o căutare și așteaptă un răspuns cât mai precis.
De aceea, prin aceste frecvente update-uri ale algoritmilor, Google încearcă să înțeleagă comportamentul și gândirea utilizatorilor, dar și conținutul paginilor web, astfel încât să returneze la căutările efectuate, pagini web care răspund cât mai bine acestor căutări.

Google Mobile-first Indexing. Speed update. Medic update (2018)

Google Mobile-first Indexing continuă tranziția către indexarea pe mobil începută în 2016. Acum versiunea paginilor web luată în considerare și apreciată în ranking devine versiunea mobile (pentru telefoane mobile inteligente).
Google Speed are un rol tehnic, acela de a detecta site-urile care se încarcă greu pe dispozitivele mobile. Viteza de încărcare a paginilor web în diferite browsere și dispozitive inteligente a devenit factor de ranking Google.
Medic update: deși Google nu a confirmat explicit Medic update, cele mai afectate site-uri au fost cele din domeniul medical. Acest update a venit cu o apreciere a site-urilor din perspectiva E-A-T (Expertise, Authoritativeness, Trust).

Google Fred Algorithm Update (2017)

Google Fred este o actualizare a algoritmului care vizează tacticile black-hat legate de optimizare și monetizare agresivă. Google Fred a afectat site-uri și bloguri cu un conținut de slabă calitate, irelevant și supra-optimizat, paginile web supra-încărcate cu reclame care aveau un conținut de valoare redusă și cu puține beneficii pentru utilizator.

Algoritmul Google Possum (neconfirmat) 2016

Possum este denumirea dată de comunitatea de specialiști în optimizarea pentru căutările pe localizare, algoritmului, lansat de Google la începutul lunii septembrie 2016. Possum Google Update avea ca scop să ofere utilizatorilor opțiuni de localizare mai relevante, mai exacte, dar și să elimine și să penalizeze spamul galopant din Google Maps și Local Finder.
Algoritmul a fost creat pentru a diversifica paginile web listate în ranking-ul pentru căutările locale, acordând mai multă importanță locației persoanei care efectuează căutarea decât înainte. Astfel, cu cât ne aflăm mai aproape de adresa unei afaceri, cu atât este mai probabil ca aceasta să apară în rezultatele căutării, dacă se potrivește cu ceea ce am căutat și dacă pagina web este bine optimizată.
Possum aduce beneficii și întreprinderilor din afara limitelor orașului în care se află persoana care efectuează căutarea. Înainte de update-ul Possum, Google nu includea companiile aflate în afara liniilor de demarcație ale unui oraș, chiar dacă acestea se aflau la o distanță rezonabilă de utilizatori.
Odată cu apariția Algoritmului Google Possum, aceste întreprinderi au o șansă mai bună să fie afișate la căutările locale, chiar dacă firma nu se află în aceeași zonă cu utilizatorul. Însă, ceea ce contează cel mai mult este proximitatea.

Google Mobile Update. Mobilegeddon (2015)

Actualizarea Mobile-Friendly Update, cunoscută sub denumirea Mobilegeddon a început să ruleze la nivel global în aprilie 2015 și avea ca scop să îmbunătățească clasamentul paginilor web mobile-friendly în rezultatele căutărilor mobile.
Google a început tranziția către indexarea pe mobil în noiembrie 2016, iar acest lucru înseamnă că Google începea să evalueze și să ia în considerare în primul rând versiunea mobilă a unei pagini web în scopul clasificării în rezultatele afișate la căutări (al ranking-ului).
Vedem cum s-au schimbat în timp direcțiile de optimizare pentru Google, în materialul din blogul nostru Optimizare SEO site – cum au evoluat factorii de ranking Google din 2013 până în 2023.

Algoritmul Google RankBrain (2015)

RankBrain a fost primul sistem de inteligență artificială și model de învățare pe care Google l-a integrat în funcționarea sistemului de căutare. Google a început să utilizeze RankBrain în aprilie 2015 pentru a înțelege mai bine comportamentul utilizatorilor umani care care caută informaţii pe internet, cum îşi formulează căutările, ce tipuri de site-uri preferă şi accesează mai des etc.
RankBrain – Inteligenţa Artificială Google este într-o continuă schimbare, o adaptare permanentă la evoluția comportamentului utilizatorilor. Modul în care Google apreciază paginile web și le listează în paginile de rezultate la o căutare (SERP), este într-o continuă schimbare, iar specialiștii SEO trebuie să încerce să țină pasul cu aceste schimbări.
Ce au adus update-urile RankBrain până în prezent: RankBrain – Inteligenţa Artificială Google – implicații SEO

Algoritmul Google Pigeon (2014)

Google Pigeon a fost lansat în 24 Iulie 2014 pentru U.S. şi căutările în engleză; scopul acestui algoritm Google este să ofere rezultate mai bune, mai relevante şi mai precise la căutările utilizatorilor pe locaţii sau în funcţie de zona / regiunea / ţara în care se află şi de unde efectuează căutarea.
Pigeon reprezintă o provocare pentru deținătorii de afaceri locale, pentru că ia în considerare anumiți factori asupra cărora afacerile au puțin sau deloc control.
De exemplu, o întreprindere nu poate controla raza pe care Google o trasează în jurul punctului de căutare pentru a oferi utilizatorilor rezultate relevante pentru o locație specifică. Dacă un restaurant situat în partea de vest a unui oraș oferă cea mai bună mâncare, este posibil ca acesta să nu fie listat în rezultatele căutărilor, dacă utilizatorii care efectuează căutarea se află în partea de est a orașului.

Nu pot fi controlate aspectele de acest fel, dar avem la dispoziție câțiva factori de care putem să ne folosim pentru optimizarea unui site pentru Google Pigeon Algorithm:

  • optimizarea clasică a paginilor web: publicarea unui conținut excepțional, optimizarea navigabilității și a sistemului de link-uri interne, construirea unui profil de backlink-uri puternic și sănătos;
  • o strategie de optimizare SEO cu accent pe localizarea foarte exactă: crearea de conținut text, video, imagini care asociază afacerea cu o zonă sau o regiune specifică;
  • Google My Business – numit acum Google Business Profile le permite proprietarilor de afaceri să ajungă la clienți prin Google Search și Google Maps; acest profil de afaceri bine optimizat și actualizat în permanență ne ajută să creștem vizibilitatea pe Google și să câștigăm credibilitate, cu ajutorul recenziilor;

Algoritmul Google Hummingbird (2013)

Google Humingbirds este un algoritm lansat în septembrie 2013, care vine cu o tehnologie sofisticată de înţelegere şi interpretare a conţinutul din paginile web, dar şi cu un mod diferit de înţelegere a modului în care utilizatorii îşi caută răspunsuri şi informaţii în baza de date Google.
Humingbirds Algorithm are ca principali factori de apreciere şi ranking calitatea conţinutului textual (relevanţă şi stil natural), contextul în care este prezentat un produs sau un serviciu, aprecierile obţinute pe reţelele de socializare sau din alte surse.
Update-ul Hummingbird este diferit de majoritatea actualizărilor de algoritm Google, precum Penguin sau Panda, și vizează felul în care Google “înțelege” / “interpretează” conținutul din paginile web pe care le analizează. Noul algoritm Google va influența în mod special căutările pe expresii medii și lungi (long-tail searches).
Prin “long-tail” înțelegem căutările pe bază de expresii mai lungi, mai specifice, și care așteaptă un răspuns la fel de precis. Conform statisticilor realizate de-a lungul timpului, se pare că aceste căutări de tip long-tail ocupau deja la acea vreme peste 50% din întregul volum de căutări în Google.
Google a devenit din ce în ce mai sofisticat în privința conținutului, a contextului, a analizei de text, astfel încât Hummingbird Algorithm este mai degrabă un update de infrastructură, decât unul de algoritm. Penguin și Panda pot fi văzuți ca niște update-uri de algoritm.
Algoritmul Google Caffeine, care a îmbunătățit viteza de răspuns a motorului de căutare, și Algoritmul Google Hummingbird, care actualizează mecanismele de procesare a textului și de înțelegere a conținutului și a contextului, erau în 2013 cei care determinau în cea mai mare măsură, ordinea de listare a website-urilor în rezultatele afișate la căutări.
Căutările long-tail de tipul “unde mergem să mâncăm în Timișoara” creează dificultăți în identificarea cuvântului-cheie care este de fapt obiectul căutării. Astfel, și optimizarea paginilor site-ului pentru Google devine mai complicată, iar o strategie de optimizare SEO pentru aceste căutări long-tail formulate ca întrebări necesită experiență și un timp de lucru mai mare.
Avantajul, din punctul de vedere al optimizării “SEO on site” și “SEO off site” pe expresii cheie mai lungi și mai complexe, este oportunitatea pentru un conținut variat, bogat în informații și de foarte bună calitate.
Un beneficiu important al paginilor web cu un conținut relevant pentru astfel de “long-tail searches” este acela că vin în întâmpinarea nevoilor celor care caută un răspuns cât mai precis posibil.
Pentru un ranking bun, pe lângă optimizarea paginilor din site și din blog pe expresii-cheie lungi sunt necesare și alte strategii și campanii de marketing, ce țin de construirea unui brand, backlink-uri, popularitate / aprecieri pe rețele de socializare, review-uri etc.

Algoritmul Google Penguin (2012)

Google Penguin este lansat în 24 aprilie 2012 și este programat să identifice şi să penalizeaze backlink-urile de tip spam, cu un text-ancoră supra-optimizat şi backlink-urile care nu sunt obținute natural.
Specialiștii SEO erau inventivi și aplicau tot felul de tehnici ingenioase de optimizare a unui site pentru Google, mergând până la link-urile ascunse pe spațiile albe sau pe punct ori pe virgulă, înscrierea automată în portaluri cu liste de link-uri (acele ferme de link-uri), conținutul ascuns în cod și invizibil în pagina afișată utilizatorilor etc.
Astfel, scopul principal al algoritmului Google Penguin este să elimine web-spam-ul din rezultatele căutărilor în Google. O mare parte din acest web-spam erau link-urile generate de rețele de site-uri de slabă calitate.
Update-urile Google Penguin care au urmat în 2012 nu au schimbat nimic din ceea ce Google considera deja inacceptabil, doar au rulat ca îmbunătățiri sau completări ale motorului de indexare si clasificare a website-urilor, astfel încât să identifice mai rapid și mai efficient site-urile care nu oferă utilizatorilor calitate și relevanță.
Google Penguin – efecte în timp real în ranking-ul site-urilor penalizate

Google a anunţat la sfârșitul anului 2015 că algoritmul de identificare şi penalizare a backlink-urilor de tip spam, Google Penguing Agorithm, va avea efecte în timp real. Lista tehnicilor de link-building care generează spam și care sunt vizate pentru penalizare a fost completată și clarificată:

  • comentarii “nenaturale” pe bloguri şi forumuri, cu link-uri către site;
  • obţinerea unui volum foarte mare de backlink-uri într-un termen foarte scurt;
  • backlink-uri care duc numai către homepage sau către o singură pagina din site;
  • text ancoră identic, de regulă o expresie cheie fixă, integrată nenatural într-un text;
  • plasarea de link-uri sau bannere ce se repetă în toate paginile site-ului de pe care vin link-urile către site-ul de promovat;
  • link-uri plasate pe site-uri de tip “fermă de link-uri”, directoare sau agregatoare automate de conţinut;
  • un volum foarte mare de link-uri care vin de pe un număr foarte mic de site-uri / domenii web.

Strategiile de optimizare off site: Google consideră backlink-urile drept “voturi” editoriale; așadar site-urile care primesc cele mai importante voturi (link-uri externe) ar trebui să aibă un ranking foarte bun.
Algoritmul Google Penguin analizează cantitatea, calitatea și relevanța website-urilor care trimit link-uri către un site:

  • ce tipuri de site-uri trimit link-uri către site-ul nostru;
  • cât de repede am primit aceste link-uri;
  • ce conțin textele ancoră (cuvintele pe care dăm click să accesăm un link) folosite de către site-ul care trimite link-urile către site-ul nostru;
  • ce volum de backlink-uri avem și cât de variate sunt ele: dacă avem majoritatea backlink-urilor de la un singur domeniu web sau primim link-uri de la diferite site-uri;
  • cum sunt distribuite în site-ul nostru aceste backlink-uri.
Când algoritmul Google Penguin detectează un volum foarte de backlink-uri noi sau un dezechilibru în textul ancoră (este irelevant pentru link-ul respectiv), site-ul este avertizat (penalizat) printr-o scădere mică în ranking (în clasamentul din paginile de rezultate la căutări).
Dacă fenomenul persistă și este repetat în continuare, site-ul este penalizat prin dezindexare sau scăderea în clasament cu câteva zeci de pozitii.
Link-urile nenaturale sau backlink-urile de tip spam: analizele și testarea diferitelor tehnici de optimizare site pentru Google și promovare online au identificat 5 probleme comune cu care se confruntă portalurile web afectate de algoritmul Penguin.
1. Backlink-uri plătite care folosesc exact același text ancoră: pentru companiile care vor să aibă o poziționare bună în Google cu un anume termen de căutare, o cale de realizare a acestui obiectiv este să cumpere link-uri de la alte website-uri cu exact același text ancoră. Google însă consideră aceste link-uri plătite o metodă de manipulare a PageRank-ului.
2. Spam-ul din comentarii: două lucruri s-au dovedit a fi problematice pentru website-urile care încearcă să aibă un ranking bun obținut rapid și într-un mod nenatural. Pe de o parte, sunt semnăturile din comentarii, care conțin exact același text ancoră ca și expresia cheie, iar pe de alta parte sunt cei care folosesc un nume de utilizator generator de spam ca text ancoră.
3. Postările invitaților de pe site-uri îndoielnice: deși postările invitaților sunt o cale legitimă de a câștiga backlink-uri, site-urile penalizate de algoritmul Google Penguin aveau backlink-uri de la site-uri cu articole de foarte slabă calitate, unde textul din pagina web era supra-optimizat și centrat pe un keyword – text ancoră, fără alte informații de interes pentru utilizatiori.
4. Site-urile care fac marketing prin articole: link-urile plasate în articole de foarte slabă calitate și cu exact același text ancoră sunt, de asemenea, un factor comun al site-urilor afectate de noul algoritm Google Penguin.
5. Backlink-uri de la site-uri periculoase: aveți link-uri de la site-uri care au fost marcate deja ca fiind rău-intenționate, cu numeroase pop-up-uri sau alte elemente spam? Acesta este un alt factor care a făcut multe site-uri să își piardă rankingul în Google și chiar să fie dezindexate. Toate link-urile spre și dinspre cei care spamează pe web sunt un pericol.
SEO – optimizarea site-ului pentru Google Penguin
Cum reparam daunele produse de algoritmul Google Penguin? Prin eliminarea rapidă a elementelor de spam: aglomerări de cuvinte cheie, conținut nenatural, link-uri ascunse și orice alte tehnici de spam. Aceste acțiuni de eliminare a spam-ului nu garantează revenirea imediată sau într-un termen anume la pozițiile pierdute în clasament. Prin dezvoltarea și optimizarea site-ului pe principii agreate de Google, putem să revenim în clasament sau chiar mai sus după 2-3 luni de zile.
Tehnicile de optimizare website de tip SEO off-page s-au schimbat dramatic după lansarea acestui algoritm iar cei care apelează la servicii SEO trebuie să fie foarte atenți cum își aleg furnizorul pentru aceste servicii.
Dacă furnizorul de servicii SEO nu folosește tehnici corecte de optimizare a site-ului și plasează link-uri pe site-ul companiei doar cu scop comercial, este posibil ca site-ul să se califice pentru Penguin.
Dacă peste 50% din volumul de backlink-uri nu este agreat de algoritmul Google Penguin, atunci site-ul poate fi penalizat pentru spam – tentativă de manipulare a motorului de căutare, indiferent de sursa acestora: directoarele de link-uri sau alte link-uri obținute prin campanii de marketing.
Atâta vreme cât optimizarea on-page a site-ului este corectă și există câteva link-uri care duc spre alte site-uri, câștigăm autoritate și încredere și pentru site-ul nostru. Pare o idee nepotrivită și este împotriva tehnicilor tradiționale de optimizare SEO Google, dar funcționează cu rezultate foarte bune.
Așadar, trebuie să analizăm cu grijă textele ancoră pentru backlink-urile pe care le avem; găsim aceste date în Google Search Console sau le putem obține folosind alte instrumente precum SEMrush, Moz, Ahrefs etc.

După ce am listat toate textele ancoră, le analizăm astfel:

  • dacă termenii comerciali ocupă top 10 în această listă, trebuie să încercăm să le modificăm pentru o varietate mai mare și mai naturală;
  • dacă foarte multe backlink-uri vin de la același domeniu web și în plus au același text ancoră, este important să reducem din aceste backlink-uri și să obținem link-uri noi de la alte domenii web – cu cât mai variate, cu atât mai bine.
Trebuie să avem grijă la reclamele pentru servicii SEO – optimizarea site-ului pentru Google Penguin; reclamele de tipul “Noi putem repara pagubele provocate de penalizarea Penguin prin crearea de pagini multe de conținut pentru site-ul dumneavoastră.”
De fapt, aceste pagini noi pot să afecteze și mai mult un website deja penalizat pentru spam, iar explicația este simplă: unul dintre lucrurile pe care încearcă să le facă algoritmul Google Penguin este să penalizeze conținutul inutil și de slabă calitate din paginile web
Încă mai sunt companii mari, cu departamente de marketing specializate, care cumpără lunar articole pentru blogul companiei și advertoriale pentru backlink-uri de orice fel, fără să fie atente la conținutul acestor materiale – dacă aduc un plus la valoare prin complexitatea informației și oferă utilizatorilor o experiență plăcută prin structură, abordare și stil.
Recomandarea noastră este să vă concentrați resursele pe crearea unor surse de informare de foarte bună calitate pentru a deveni o autoritate în industria sau nișa în care va derulați afacerea. Veți vedea în scurt timp că un număr moderat de pagini și articole de foarte bună calitate va ridica site-ul mai repede decât sufocarea acestuia cu multe articole noi dar lipsite de informație valoroasă.
Este important să ținem cu toții seama de un lucru: nu există soluții rapide, trebuie să avem răbdare și perseverență; să ne concentrăm pe eliminarea conținutului copiat, a conținutului irelevant sau chiar învechit, expirat și care nu oferă în mod real informații folositoare.
Este mai atractiv și mai practic un website care arată cât mai natural cu putință; putem să construim pagini și postări de blog care să câștige autoritate, iar backlink-urile pot să fie mai puține dar de la site-uri relevante și agreate de Google. În acest fel, nu numai că rezolvăm problemele cauzate de algoritmul Google Penguin, dar putem să obținem un ranking foarte bun și trafic organic calificat.

Algoritmul Google Panda (2011)

Google Panda este unul dintre cei mai cunoscuți algoritmi Google, cu update-uri care au determinat schimbări majore în optimizarea SEO începând cu anul 2011.
Algoritmul Google Panda nu își propunea să penalizeze website-urile dintr-un motiv sau altul, ci doar să-i învețe și să-i ajute pe specialiștii SEO să ofere utilizatorilor numai pagini web de calitate, informații relevante, conținut original și valoros.
Algoritmul Google Panda lansat în februarie 2011 a afectat portaluri web ce au pierdut peste 25% din trafic, în timp ce alte website-uri au câștigat cel puțin pe-atât sau chiar mai mult trafic organic și mai multă popularitate.
Cu actualizarea algoritmului Panda 2.0 din septembrie 2021, Google avea ca scop penalizarea / declasarea site-urilor cu un conținut de slabă calitate; astfel erau filtrate și excluse din primele pagini de rezultate Google site-urile care aveau foarte mult conținut dar irelevant, repetitiv, lipsit de informații reale.
Update Google Panda 4.0: un nou update al algoritmului Panda care penalizează paginile web cu un conţinut irelevant, de tip spam sau supra-optimizat. Ultimul update, confirmat de Matt Cutts în 20 mai 2014, a vizat penalizarea site-urilor care practică spamming-ul pe diferite tipuri de căutări (keywords) din domenii precum “împrumuturi rapide”, “pariuri”, “casino” etc.
Google Panda integrat în algoritmul general de ranking
Google Panda, algoritmul lansat de Google pentru identificarea şi penalizarea tehnicilor de optimizare şi promovare de tip spam în 2011, este integrat în 2015 în algoritmul principal de ranking Google.

Principalele aspecte care erau vizate de algoritmul Google Panda și update-urile acestuia:

  • penalizarea modalităților de generare de conținut spam: guest posts și comentarii ne-naturale pe bloguri și forumuri;
  • penalizarea site-urilor cu pagini fără un conţinut relevant şi a conţinutului textual duplicat (copiat), precum şi a informaţiilor “repovestite” în diverse variante, fără a aduce un plus de valoare / de informaţie;
  • penalizarea conţinutului textual supra-optimizat prin repetarea forţată a aceleiaşi expresii cheie (keywords stuffing), în formă identică sau în diverse variante foarte apropiate;
  • sunt favorizate în ranking paginile web care au conţinut de calitate, corect şi coerent, uşor de citit şi bine organizat;
  • au un ranking bun site-urile care reprezintă este o sursă de informaţie de încredere pentru utilizatori;
  • Google Panda Algorithm poate să înțeleagă în ce măsură informaţiile şi analizele pe care un website le prezintă sunt originale sau sunt o compilaţie de informaţii preluate de pe alte site-uri.
Pe blogul oficial Google, găsim lista completă a aspectelor pe care algoritmul Panda îşi propunea în 2011 să le urmarească şi care acum sunt integrate în algoritmul general de ranking: More guidance on building high-quality sites

PageRank - primul algoritm de ranking Google (1998)

Numit după unul dintre fondatorii săi, algoritmul PageRank a fost lansat în 1998 de Larry Page și Sergey Brin, ca parte a unui proiect de cercetare a unui nou tip de motor de căutare. Din 2000 până în 2016, a fost afișat public în Google Toolbar, până când această bară din browser-ul web a fost scoasă pentru totdeauna, iar odată cu ea a dispărut și PageRank. Cel puțin oficial.

PageRank (PR) este un algoritm Google care măsoară importanța unei pagini web în funcție de cantitatea și calitatea linkurilor care trimit către aceasta. Link-urile sunt văzute ca voturi de încredere, ceea ce înseamnă că paginile cu backlinkuri de calitate vor ocupa poziții mai bune în căutări.

Algoritmul PageRank determină importanța unei pagini web prin analiza structurii sale de linkuri. Atfel, o pagina web este considerată mai importantă cu cât este menționată de mai multe pagini din alte site-uri care trimit link-uri către ea.

Cuprins între 0 și 10 (scorul paginilor cu cea mai mare autoritate), PageRank funcționa pe o scară logaritmică, și nu pe una liniară.

Motivul principal pentru care acest indicator este foarte important este că scorul PageRank este transmis de la o pagină la alta. Astfel, un site își poate crește autoritatea dacă are backlinkuri din pagini web cu un scor PageRank ridicat.

În 2016, Google a eliminat indicatorul PageRank din bara de sus a browser-ului de internet, pentru a reduce tentativele de spam.

Specialiștii de SEO deveniseră obsedați de PageRank, acesta devenind foarte rapid principalul lor obiectiv în strategiile de optimizare și promovare a unui website, chiar mai important decât crearea de conținut de calitate și oferirea unei experiențe foarte bune utilizatorilor.

Factori care influențează PageRank-ul și în prezent

Să vedem care sunt elementele care pot contribui la creșterea PageRank-ului:

  • textul ancoră;
  • probabilitatea ca un link să fie accesat;
  • linkurile interne;
  • linkurile nofollow.

Citește studiul complet: Ce înseamnă Google PageRank, cum funcționează și cum îl măsurăm?

Info:
On Key

Ce înseamnă E-E-A-T sau cum funcționează Google?

E-E-A-T se referă la conținutul web și înseamnă Experience (experiența celor care scriu conținutul), Expertise (expertiza autorului într-un domeniu), Authoritativeness (autoritatea sursei informațiilor), Trustworthiness (încrederea

Bookisite
Prezentare generală

Acest site utilizează cookie-uri.

Folosim cookie-uri pentru a personaliza conţinutul și anunțurile publicitare, pentru a oferi funcții de reţele sociale şi pentru a analiza traficul. De asemenea, le oferim partenerilor de reţele sociale, de publicitate şi de analize informații cu privire la modul în care folosiţi site-ul nostru. Aceştia le pot combina cu alte informaţii oferite de dvs. sau culese în urma folosirii serviciilor lor.

Politica de confidențialitate