Checklist Pentru SEO Tehnic:
În general, se vorbeşte foarte mult despre SEO off-page. Construirea, gestionarea şi auditare backlink-urilor sunt aspecte extrem de importante în SEO şi care sunt încă dificil de realizat. De asemenea, un subiect arzător este reprezentat de SEO on-page, mai ales prin prisma faptului că Google începe să schimbe treptat modul de căutare către cel semantic, iar practicile clasice nu par să mai funcţioneze ca altădată.
Fără îndoială, acestea sunt aspecte foarte importante în SEO, dar există un lucru pe care avem tendinţa să-l ignorăm. SEO nu însemnă doar off-page sau on-page. Partea tehnică a procesului este cel puţin la fel de importantă; de fapt, dacă nu creezi corect baza tehnică, orice altă acţiune de SEO nu îţi va aduce niciun rezultat.
În cadrul acestui articol ne vom concentra pe principalele aspecte ale SEO tehnic care te vor ajuta să maximizezi gradul de utilizare, căutarea cu ajutorul crawler-lor, indexarea şi, nu în ultimul rând, clasamentele în căutări. Să începem!
În mod sigur ştii cât de important este un sitemap. Acesta informează motoarelor de căutare despre structura site-ului tău şi le facilitează identificarea conţinutului adăugat recent. (Dacă încă nu ai sitemap, trebuie neapărat să-ţi creezi unul chiar în acest moment. Pentru realizarea lui, poţi să foloseşti WebSite Auditor în care iniţiezi un proiect pentru site-ul tău, apoi mergi la tabloul de bord Pages şi apeşi pe butonul Sitemap.)
Pe măsură ce verifici sitemap-ul, asigură-te că este:
Dacă vrei să afli mai multe despre sitemap, accesează ghidul Google.
Să trecem la paginile site-ului care sunt indexate de motarele de căutare. Pentru a verifica rapid acest lucru, mergi la WebSite Auditor, crează un proiect cu numele site-ului tău (sau modifică unul deja existent) şi mergi la Domain Strength.
În mod ideal, numărul paginilor indexate trebuie să fie apropiat de numărul total al paginilor site-ului (număr pe care îl poţi vizualiza folosind Site Structure > Pages în proiectul WebSite Auditor) minus cele restricţionate în mod deliberat de la indexare. Dacă există un decalaj mai mare decât cel aşteptat, va fi nevoie să revizuieşti paginile neacceptate. Ceea ce ne duce la…
S-ar putea să fii tentat doar să verifici în robots.txt pentru a afla dacă toate paginile pot fi accesate cu crawlere. Dar, în realitate, fișierul robots.txt este doar una dintre modalitățile de a restricționa pagini de la indexare. Ce zici de meta tag-ul noindex, de X-Robots-Tag sau de paginile orfane care nu sunt legate intern? Ce zici de fișierele JavaScript și CSS care ar putea fi critice pentru redarea paginilor? Pentru a executa o verificare completă a accesibilităţii cu crawlere, va trebui să utilizezi un crawler SEO.
Dacă oricare dintre resursele de pe listă nu ar trebui să fie blocate, verifică pe coloana instrucțiuni Robots pentru a vedea unde a fost găsita indicația Disallow, astfel încât să poți repara rapid.
Odată ce reconstruirea este completă, vei putea să vizualizezi paginile orfane folosind tag-ul Orphan page.
Notă: Dacă site-ul este construit folosind AJAX, sau se bazează pe JavaScript pentru a genera conținut, va trebui să activezi redarea accesării cu crawlere în WebSite Auditor pe măsură ce creezi sau reconstruieşti un proiect. Pentru a realiza acest lucru, la Pasul 2 al creării/reconstruirii proiectului, comută la Advanced Options şi bifează casuţa Execute JavaScript.
Crawl budget reprezintă numărul de pagini ale unui site pe care motoarele de căutare le accesează cu crawlere într-o anumită perioadă de timp. Acesta nu este un factor de ranking în sine, dar determină cât de des sunt accesate cu crawlere paginile importante ale site-ului tău (şi dacă unele dintre ele nu sunt accesate cu crawlere deloc). Poţi să-ţi faci o idee despre dimensiunea zilnică a crawl budget mergând la Google Search Console, apoi Crawl > Crawl Stats.
Din raportul de mai sus, pot să văd că, în medie, Google accesează cu crawlere 32 de pagini ale site-ului meu pe zi. De aici, îmi dau seama că, lunar, crawl budget-ul meu este de 960 de unităţi.
Odată ce ştii care este crawl budget-ul tău, va trebui să te întrebi cum poţi beneficia la maximum de el.
Dacă te poţi debarasa de o pagină duplicat, fă-o. Dacă trebuie să păstrezi pagina, cel puţin asigură-te că e blocată pentru roboţii motoarelor de căutare. În ceea ce priveşte crawl budget, URL-urile canonical nu sunt de mare ajutor: motoarele de căutare vor continua să identifice paginile duplicat şi astfel se pierd unităţi din crawl budget de fiecare dată.
O structură simplă, dar logică a site-ului este foarte importantă atât pentru utilizatori, cât şi pentru roboţii motoarelor de căutare. În plus, crearea link-urilor interne ajută la răspândirea mai eficientă a ranking power (sau link juice) printre paginile site-ului tău.
Pe măsură ce controlezi link-urile interne, iată care sunt lucrurile pe care trebuie să le verifici:
Încă din 2014, Google a început să utilizeze HTTPS ca pe unparametru de ranking. Din acel moment, migrările către HTTPS au devenit din ce în ce mai frecvente. Astăzi, peste 50% dintre primele pagini din rezultatele căutarile Google utilizează HTTPS.
Dacă site-ul tău utilizează deja HTTPS (fie parţial, fie în întregime), e important să controlezi problemele obişnuite ale HTTPS ca parte a auditării site-ului. În mod special, nu uita să verifici:
Pentru o listă completă a resurselor non-HTTPS de pe site-ul tău, mergi la tabloul de bord All Resources din WebSite Auditor. Fă clic pe HTML în secţiunea Internal Resources şi sortează lista după URL (făcând clic pe antetul coloanei). În acest fel, ar trebui să poţi vedea mai întâi paginile HTTP. Pentru fiecare pagină HTTP găsită, verifică, folosind Found on Pages List din partea de jos a ecranului, lista completă a paginilor care au link către pagina pe care o examinezi. Tot aici vei putea vedea unde a fost găsit link-ul, astfel încât să rezolvi rapid lucrurile.
Dacă site-ul tău încă nu a trecut la HTTPS, ai putea să iei în considerare o migrare.
Google se aşteaptă ca paginile să se încarce în două secunde sau mai puţin, şi au şi confirmat în mod oficial că viteza este un factor luat în considerare în ranking. Viteza are, de asemenea, un impact masiv asupra UX: paginile mai lente au rate de respingere mai mari și rate de conversie mai mici.
Viteza paginii nu este doar una din priorităţile de top ale Google în 2017, este, de asemenea, un factor de ranking. Pentru a verifica dacă paginile tale trec testul de viteză al Google, deschide proiectul din WebSite Auditor şi mergi la Content Analysis. Fă clic pe Add page, specifică adresa URL pe care vrei să o testezi şi introdu cuvintele cheie ţintă. Într-un moment, pagina ta va fi analizată din punctul de vedere al optimizării on-page şi al SEO tehnic. Comută la Technical Factors şi derulează la secţiunea Page Speed (Desktop) a factorilor on-page pentru a vedea dacă au fost găsite probleme.
Dacă pagina nu trece unele dintre aspectele testului, vei putea vedea detaliile și recomandările de reparare în ecranul din dreapta.
Google a experimentat indexarea ‘mobile-first’ pentru un timp, iar acum are în plan să o lanseze la începutul anului viitor. O ‘indexare mobile-first’ înseamnă că Google va indexa versiunile mobile ale site-urilor în detrimentul versiunilor desktop. Acest lucru înseamnă că versiunea mobile a paginilor tale va determina ranking-ul lor, atât în rezultatele căutarilor mobile, cât şi desktop.
Chiar înainte ca acest lucru să se întâmple, ar trebui să te gândeşti serios la versiunea mobile a site-ului tău. Google declara anterior că mai mult de jumătate din interogările de căutare la nivel global provin de la dispozitive mobile; iar un raport Hitwise sugerează că 58 % din totalul interogărilor din SUA sunt căutari mobile.
Iată cele mai importante aspecte pe care trebuie să le ai în vedere atunci când îţi auditezi site-ul mobile.
Pentru a face un audit în profunzime al site-ului mobil, vei avea nevoie să rulezi un crawler cu agent utilizator personalizat și setările fişierului robots.txt. În proiectul din WebSite Auditor, mergi la tabloul de bord Pages şi fă clic pe butonul Rebuild Project. La Pasul 2, asigură-te că ai bifat căsuţa Follow robots.txt Instructions; din meniul drop-down de lângă ea, alege Googlebot-Mobile. Imediat mai jos, bifează căsuţa Crawl ca agent utilizator specific. În meniul drop-down din partea dreaptă, alege al doilea agent utilizator de pe listă:
Acesta este agentul utilizator pe care Google îl foloseşte atunci când accesează cu crawlere versiunile mobile ale paginilor. Imediat, acest instrument va efectua un audit complet al site-ului mobil. Reţine că orice problemă SEO pe care o găseşti poate afecta în aceeaşi măsură atât ranking-ul desktop, cât și pe cel mobile; aşa că uită-te prin factorii tradiționali SEO, cum ar fi lanțurile de redirecționare, link-urile nefuncţionale, pagini grele, duplicate sau lipsite de tag-uri title sau meta description etc.
Folosind cei 8 pași de mai sus, sunt sigur că ai identificat câteva probleme ale site-ului pe care trebuie să le rezolvi. Odată ce le-ai rezolvat, mergi la Google şi cere-i în mod explicit să-ţi reacceseze paginile pentru a te asigura că modificările sunt luate în considerare imediat.
Tot ce trebuie să faci este să te loghezi la Google Search Console, apoi mergi la Crawl > Fetch as Google. Introdu adresa URL a paginii pe care o doreşti reaccesată cu crawlere (sau lasă câmpul necompletat dacă vrei ca Google să acceseze cu crawlere pagina de pornire) şi fă clic pe Fetch.
Reține că statusul acţiunii de preluare trebuie să fie ori complet, ori parțial, ori redirecționat pentru a putea trimite pagina la indexul Google (în caz contrar, va apărea o listă ce conţine problemele pe care Google le-a identificat pe site-ul tău şi va trebui să le rezolvi, abia apoi să reiei acţiunea). Dacă Googlebot îţi preia cu succes pagina, nu rămâne decât să faci clic pe butonul Submit to Index pentru a încuraja Google să o reacceseze cu crawlere.
Poți trimite fie adresa URL exactă care urmează să fie reaccesata cu crawlere (până la 500 de adrese URL pe săptămână), fie URL-ul și toate paginile legate de la el (până la 10 pe lună). Dacă alegi varianta din urmă, Google va utiliza această adresă URL ca punct de pornire în indexarea conținutului site-ului tău și va urma link-urile interne pentru a accesa restul paginilor. Google nu garantează indexarea tututor paginilor site-ului, dar în cazul în care site-ul este destul de mic, cel mai probabil o va face.
(De asemenea, există o opțiune similară în Bing Webmaster Tools. Trebuie doar să localizezi secțiunea Configure My Site din tabloul de bord și fă clic pe Submit URL-uri. Completează adresa URL pe care vrei să o reindexezi, iar Bing o va accesa cu crawlere în mod obișnuit în câteva minute.)