Checklist Pentru SEO Tehnic:
În general, se vorbeşte foarte mult despre SEO off-page. Construirea, gestionarea şi auditare backlink-urilor sunt aspecte extrem de importante în SEO şi care sunt încă dificil de realizat. De asemenea, un subiect arzător este reprezentat de SEO on-page, mai ales prin prisma faptului că Google începe să schimbe treptat modul de căutare către cel semantic, iar practicile clasice nu par să mai funcţioneze ca altădată.
Fără îndoială, acestea sunt aspecte foarte importante în SEO, dar există un lucru pe care avem tendinţa să-l ignorăm. SEO nu însemnă doar off-page sau on-page. Partea tehnică a procesului este cel puţin la fel de importantă; de fapt, dacă nu creezi corect baza tehnică, orice altă acţiune de SEO nu îţi va aduce niciun rezultat.
În cadrul acestui articol ne vom concentra pe principalele aspecte ale SEO tehnic care te vor ajuta să maximizezi gradul de utilizare, căutarea cu ajutorul crawler-lor, indexarea şi, nu în ultimul rând, clasamentele în căutări. Să începem!
1. Revizuieşte fişierul sitemap.
În mod sigur ştii cât de important este un sitemap. Acesta informează motoarelor de căutare despre structura site-ului tău şi le facilitează identificarea conţinutului adăugat recent. (Dacă încă nu ai sitemap, trebuie neapărat să-ţi creezi unul chiar în acest moment. Pentru realizarea lui, poţi să foloseşti WebSite Auditor în care iniţiezi un proiect pentru site-ul tău, apoi mergi la tabloul de bord Pages şi apeşi pe butonul Sitemap.)
Pe măsură ce verifici sitemap-ul, asigură-te că este:
- Păstrează sitemap-ul liber de erori, redirecţionări sau URL-uri blocate la indexare. Altfel, există un risc ridicat ca motoarele de căutare sa îl ignore, ca şi cum nu ar exista.
- Asigură-te că sitemap-ul tău este actualizat de fiecare dată când este adăugat conţinut nou sau când este îndepărtată o parte din cel deja existent – acest lucru va ajuta motoarele de căutare să descopere rapid noul conţinut.
- Google nu va accesa cu crawlere sitemap-uri cu peste 50.000 URL-uri. Ideal ar fi să păstrezi sitemap-ul mai scurt de atât, pentru a fi sigur că paginile cele mai importante sunt accesate cu crawlere mai des. Experienţa ne-a arătat că restrângerea sitemap-ului are ca rezultat accesări cu crawlere mai eficiente.
- Înregistrat în Search Console.Google trebuie să-ţi cunoască sitemap-ul. Poţi să îl transmiţi manual către Google Search Console sau să-i specifici locaţia oriunde în fişierul robots.txt în felul următor:
Sitemap: http://yourdomain.com/sitemaplocation.xml
Dacă vrei să afli mai multe despre sitemap, accesează ghidul Google.
2. Verifică indexarea.
Să trecem la paginile site-ului care sunt indexate de motarele de căutare. Pentru a verifica rapid acest lucru, mergi la WebSite Auditor, crează un proiect cu numele site-ului tău (sau modifică unul deja existent) şi mergi la Domain Strength.
În mod ideal, numărul paginilor indexate trebuie să fie apropiat de numărul total al paginilor site-ului (număr pe care îl poţi vizualiza folosind Site Structure > Pages în proiectul WebSite Auditor) minus cele restricţionate în mod deliberat de la indexare. Dacă există un decalaj mai mare decât cel aşteptat, va fi nevoie să revizuieşti paginile neacceptate. Ceea ce ne duce la…
3. Asigură-te că toate resursele importante pot fi accesate cu crawlere.
S-ar putea să fii tentat doar să verifici în robots.txt pentru a afla dacă toate paginile pot fi accesate cu crawlere. Dar, în realitate, fișierul robots.txt este doar una dintre modalitățile de a restricționa pagini de la indexare. Ce zici de meta tag-ul noindex, de X-Robots-Tag sau de paginile orfane care nu sunt legate intern? Ce zici de fișierele JavaScript și CSS care ar putea fi critice pentru redarea paginilor? Pentru a executa o verificare completă a accesibilităţii cu crawlere, va trebui să utilizezi un crawler SEO.
- Identifică paginile şi resursele restricţionate de la indexare.Folosind WebSite Auditor, poți obține rapid o listă completă a tuturor paginilor și a resurselor blocate. Pentru a face acest lucru, deschide proiectul din WebSiteAuditor, mergi la Site Structure> Site Audit și fă clic pe resurse restricționate de la indexare.
Dacă oricare dintre resursele de pe listă nu ar trebui să fie blocate, verifică pe coloana instrucțiuni Robots pentru a vedea unde a fost găsita indicația Disallow, astfel încât să poți repara rapid.
- Verifică paginile orfane. Acestea sunt pagini care există pe site, dar nu se poate ajunge la ele prin intermediul link-urilor. Acest lucru înseamnă că, dacă motoarele de căutare le descoperă, foarte probabil le va indexa extrem de rar. Pentru a verifica dacă există pagini orfane pe site-ul tău, reconstruieşte proiectul din WebSite Auditor, apoi mergi la Site Structure> Pages şi apasă butonul Rebuild Project. La Pasul 2 al procesului, bifează căsuţa de căutare pentru pagini orfane şi continuă cu reconstruirea.
Odată ce reconstruirea este completă, vei putea să vizualizezi paginile orfane folosind tag-ul Orphan page.
Notă: Dacă site-ul este construit folosind AJAX, sau se bazează pe JavaScript pentru a genera conținut, va trebui să activezi redarea accesării cu crawlere în WebSite Auditor pe măsură ce creezi sau reconstruieşti un proiect. Pentru a realiza acest lucru, la Pasul 2 al creării/reconstruirii proiectului, comută la Advanced Options şi bifează casuţa Execute JavaScript.
4. Amplifică crawl budget-ul.
Crawl budget reprezintă numărul de pagini ale unui site pe care motoarele de căutare le accesează cu crawlere într-o anumită perioadă de timp. Acesta nu este un factor de ranking în sine, dar determină cât de des sunt accesate cu crawlere paginile importante ale site-ului tău (şi dacă unele dintre ele nu sunt accesate cu crawlere deloc). Poţi să-ţi faci o idee despre dimensiunea zilnică a crawl budget mergând la Google Search Console, apoi Crawl > Crawl Stats.
Din raportul de mai sus, pot să văd că, în medie, Google accesează cu crawlere 32 de pagini ale site-ului meu pe zi. De aici, îmi dau seama că, lunar, crawl budget-ul meu este de 960 de unităţi.
Odată ce ştii care este crawl budget-ul tău, va trebui să te întrebi cum poţi beneficia la maximum de el.
- Curăţă conţinutul duplicat. Paginile duplicat reprezintă cel mai frecvent motiv pentru care se pierde crawl budget. Pentru a avea o idee despre paginile duplicat de pe site-ul tău, verifică în secţiunea On-pagea tabloului de bord al Site Audit din WebSite Auditor. Paginile cu tag-uri title şi meta description duplicat foarte probabil au şi conţinut duplicat (daca este aşa, va trebui să le rescrii).
Dacă te poţi debarasa de o pagină duplicat, fă-o. Dacă trebuie să păstrezi pagina, cel puţin asigură-te că e blocată pentru roboţii motoarelor de căutare. În ceea ce priveşte crawl budget, URL-urile canonical nu sunt de mare ajutor: motoarele de căutare vor continua să identifice paginile duplicat şi astfel se pierd unităţi din crawl budget de fiecare dată.
- Restricţionează indexarea paginilor fără valoare SEO. Gândeşte-te care sunt paginile fără relevanţă în căutări: Politici de Confidenţialitate, Termeni şi Condiţii, promoţii vechi etc. Toate aceste pagini sunt buni candidaţi pentru aplicarea Disallow.
- Adaugă parametrii URL în Google Search Console. În mod implicit, Google poate să acceseze cu crawlere în mod separat aceeași pagină cu anumiți parametri URL și fără ei, ca și cum ar fi două pagini diferite.De aceea este util să adaugi parametrii adresei URL utilizate în Google Search Console – acest lucru va permite ca Google să ştie că este vorba despre aceeaşi pagină şi să facă accesarea cu crawlere mai eficientă.
- Ai grijă de link-urile nefuncţionale.Atunci când un robot de căutare ajunge la o pagină 4XX/5XX, se pierde o unitate din crawl budget. De aceea este important să identifici şi să repari toate link-urile nefuncţionale de pe site-ul tău. Poți obține o listă completă a acestora din tabloul de bord al Site Audit din Website Auditor, în secțiunea Link-uri, făcând clic pe Broken Links.
- Repară lanţurile de redirecţionare.Fiecare căutare redirecționată, pe care roboții motoarelor o urmează, reprezintă o pierdere a unei unități din crawl budget. Mai mult decât atât, în cazul în care există un număr excesiv de redirecţionări 301 şi 302 la rând pe site-ul tău, la un moment dat, păianjeni de căutare se vor opri în urma redirecţionărilor, iar pagina de destinaţie ar putea să nu mai fie accesată cu crawlere.
Poţi obţine o listă completă a paginilor cu redirecţionări, dar şi o listă a lanţurilor de redirecţionare găsită pe site-ul tău din WebSite Auditor. Mergi la tabloul de bord al Site Audit şi caută paginile cu redirecţionare 301 sau 302 şi paginile cu lanţuri lungi de redirecţionare.
5. Controlează link-urile interne.
O structură simplă, dar logică a site-ului este foarte importantă atât pentru utilizatori, cât şi pentru roboţii motoarelor de căutare. În plus, crearea link-urilor interne ajută la răspândirea mai eficientă a ranking power (sau link juice) printre paginile site-ului tău.
Pe măsură ce controlezi link-urile interne, iată care sunt lucrurile pe care trebuie să le verifici:
- Profunzimea clicului. Asigură-te că paginile importante ale site-ului tău nu sunt la mai mult de 3 clicuri distanţă de pagina principală. Pentru a verifica profunzimea clicului pentru paginile site-ului tău, mergi din nou la WebSite Auditor, apoi la Site Structure > Pages. Apoi sortează URL-urile în funcţie de profunzimea clicului, în ordine descrescătoare, făcând clic de două ori pe antetul coloanei.
- Link-uri nefuncţionale.Aşa cum am spus deja, link-urile nefuncţionale pot reprezenta o pierdere din crawl budget. Mai mult decât atât, ele zăpăcesc utilizatorii şi consumă şi din link juice-ul paginilor. Este important să ne reamintim că, în afară de tag-urile <a>, link-urile nefuncţionale se pot ascunde şi în tag-urile <link>, în antetele HTTP şi în sitemap-uri. Pentru o listă completă a tuturor resurselor cu cod de răspuns 4xx/5xx, cel mai bine este să verifici în tabloul de bord All Resources din WebSite Auditor. Fă clic pe Internal Resources şi sortează lista după HTTP Status Code (făcând clic pe antetul coloanei). Apoi, fă clic pe oricare dintre resursele nefuncţionale pentru a vedea unde se ascund link-urile către ea.
- Pagini orfane.Acestea nu sunt legate de alte pagini ale site-ului şi de aceea sunt greu de găsit de către vizitatori sau de motoarele de căutare. Pentru a verifica dacă există pagini orfane pe site-ul tău, reconstruieşte proiectul din WebSite Auditor, mergi la Site Structure > Pages şi apasă pe butonul Rebuild Project. La Pasul 2 al reconstruirii, bifează căsuţa de căutare pentru pagini orfane şi continuă cu reconstruirea. Odată cu finalizarea reconstruirii, poţi să identifici cu uşurinţă paginile orfane folosind tag-ul Orphan page.
6. Controlează conţinutul HTTPS.
Încă din 2014, Google a început să utilizeze HTTPS ca pe unparametru de ranking. Din acel moment, migrările către HTTPS au devenit din ce în ce mai frecvente. Astăzi, peste 50% dintre primele pagini din rezultatele căutarile Google utilizează HTTPS.
Dacă site-ul tău utilizează deja HTTPS (fie parţial, fie în întregime), e important să controlezi problemele obişnuite ale HTTPS ca parte a auditării site-ului. În mod special, nu uita să verifici:
- Conţinutul mixt.Problemele de conţinut mixt apar atunci când o pagină securizată încarcă o parte din conţinutul său (imagini, video, script-uri, fişiere CSS) printr-o conexiune HTTP nesecurizată. Acest lucru slăbește securitatea paginii și ar putea împiedica browserele să încarce conținutul nesecurizat, sau chiar întreaga pagină. Pentru a verifica problemele de conţinut mixt ale site-ului tău, deschide proiectul din WebSite Auditor şi mergi la Site Audit. Localizează paginile HTTPS cu probleme de conţinut mixt (în secţiunea Encoding la factori tehnici). Fă clic pe această secţiune pentru a vedea lista paginilor care au conţinut mixt, dacă este cazul.
- Canonicale, link-uri şi redirecţionări.În mod ideal, toate link-urile de pe un site HTTPS, ca şi redirecţionările şi canonicalele, ar trebui să conducă spre paginile HTTPS imediat. Chiar dacă redirecţionările de la HTTP la HTTPS sunt implementate în mod corespunzător pentru întregul site, probabil că nu vrei să obţii utilizatori prin intermediul unor redirecţionări inutile, deoarece acest lucru va face ca site-ul tău să pară mult mai lent decât este. De asemenea, astfel de redirecţionări ar putea reprezenta o problemă pentru accesarea cu crawlere şi, în acelaşi timp, vei pierde câte puţin din crawl budget de fiecare dată când robotul unui motor de căutare ajunge la o redirecţionare.
Pentru o listă completă a resurselor non-HTTPS de pe site-ul tău, mergi la tabloul de bord All Resources din WebSite Auditor. Fă clic pe HTML în secţiunea Internal Resources şi sortează lista după URL (făcând clic pe antetul coloanei). În acest fel, ar trebui să poţi vedea mai întâi paginile HTTP. Pentru fiecare pagină HTTP găsită, verifică, folosind Found on Pages List din partea de jos a ecranului, lista completă a paginilor care au link către pagina pe care o examinezi. Tot aici vei putea vedea unde a fost găsit link-ul, astfel încât să rezolvi rapid lucrurile.
Dacă site-ul tău încă nu a trecut la HTTPS, ai putea să iei în considerare o migrare.
7. Testează şi îmbunătăţeşte viteza paginii.
Google se aşteaptă ca paginile să se încarce în două secunde sau mai puţin, şi au şi confirmat în mod oficial că viteza este un factor luat în considerare în ranking. Viteza are, de asemenea, un impact masiv asupra UX: paginile mai lente au rate de respingere mai mari și rate de conversie mai mici.
Viteza paginii nu este doar una din priorităţile de top ale Google în 2017, este, de asemenea, un factor de ranking. Pentru a verifica dacă paginile tale trec testul de viteză al Google, deschide proiectul din WebSite Auditor şi mergi la Content Analysis. Fă clic pe Add page, specifică adresa URL pe care vrei să o testezi şi introdu cuvintele cheie ţintă. Într-un moment, pagina ta va fi analizată din punctul de vedere al optimizării on-page şi al SEO tehnic. Comută la Technical Factors şi derulează la secţiunea Page Speed (Desktop) a factorilor on-page pentru a vedea dacă au fost găsite probleme.
Dacă pagina nu trece unele dintre aspectele testului, vei putea vedea detaliile și recomandările de reparare în ecranul din dreapta.
8. Adoptă versiunea mobile.
Google a experimentat indexarea ‘mobile-first’ pentru un timp, iar acum are în plan să o lanseze la începutul anului viitor. O ‘indexare mobile-first’ înseamnă că Google va indexa versiunile mobile ale site-urilor în detrimentul versiunilor desktop. Acest lucru înseamnă că versiunea mobile a paginilor tale va determina ranking-ul lor, atât în rezultatele căutarilor mobile, cât şi desktop.
Chiar înainte ca acest lucru să se întâmple, ar trebui să te gândeşti serios la versiunea mobile a site-ului tău. Google declara anterior că mai mult de jumătate din interogările de căutare la nivel global provin de la dispozitive mobile; iar un raport Hitwise sugerează că 58 % din totalul interogărilor din SUA sunt căutari mobile.
Iată cele mai importante aspecte pe care trebuie să le ai în vedere atunci când îţi auditezi site-ul mobile.
- Testează paginile pentru uşurinţa în utilizarea mobile.Testarea Google pentru uşurinţa în utilizarea mobile include o serie de de criterii, cum ar fi configurarea viewport, folosirea plugin-urilor, precum şi dimensiunea textului şi elementele care atrag clicuri. Este de asemenea important să ne amintim că versiunea mobile este evaluată pe bază de pagină, deci este nevoie să verifici separat fiecare dintre paginile de destinație pentru acest lucru. Verifică ușurința utilizarii în WebSite Auditor, care are incorporată testarea Google pentru dispozitive mobile. Folosind proiectul tău, mergi la modulul Content Analysis, selectează pagina pe care vrei să o analizezi şi introdu cuvintele cheie ţintă. Când analiza este gata, mergi la secţiunea Page Usability (Mobile) pentru a vedea dacă s-au constatat erori sau avertismente.
- Execută auditări extinse ale site-ului mobil.Dacă toate paginile au trecut testarea Google pentru dispozitive mobile, este un bun început, dar mai sunt multe de analizat. Un audit complet al site-ului tău mobil este o modalitate foarte bună de a te asigura că toate paginile importante şi resursele sunt accesibile pentru Googlebot şi nu conţin erori.
Pentru a face un audit în profunzime al site-ului mobil, vei avea nevoie să rulezi un crawler cu agent utilizator personalizat și setările fişierului robots.txt. În proiectul din WebSite Auditor, mergi la tabloul de bord Pages şi fă clic pe butonul Rebuild Project. La Pasul 2, asigură-te că ai bifat căsuţa Follow robots.txt Instructions; din meniul drop-down de lângă ea, alege Googlebot-Mobile. Imediat mai jos, bifează căsuţa Crawl ca agent utilizator specific. În meniul drop-down din partea dreaptă, alege al doilea agent utilizator de pe listă:
Acesta este agentul utilizator pe care Google îl foloseşte atunci când accesează cu crawlere versiunile mobile ale paginilor. Imediat, acest instrument va efectua un audit complet al site-ului mobil. Reţine că orice problemă SEO pe care o găseşti poate afecta în aceeaşi măsură atât ranking-ul desktop, cât și pe cel mobile; aşa că uită-te prin factorii tradiționali SEO, cum ar fi lanțurile de redirecționare, link-urile nefuncţionale, pagini grele, duplicate sau lipsite de tag-uri title sau meta description etc.
9. Cere motoarelor de căutare să-ţi reacceseze site-ul cu crawlere.
Folosind cei 8 pași de mai sus, sunt sigur că ai identificat câteva probleme ale site-ului pe care trebuie să le rezolvi. Odată ce le-ai rezolvat, mergi la Google şi cere-i în mod explicit să-ţi reacceseze paginile pentru a te asigura că modificările sunt luate în considerare imediat.
Tot ce trebuie să faci este să te loghezi la Google Search Console, apoi mergi la Crawl > Fetch as Google. Introdu adresa URL a paginii pe care o doreşti reaccesată cu crawlere (sau lasă câmpul necompletat dacă vrei ca Google să acceseze cu crawlere pagina de pornire) şi fă clic pe Fetch.
Reține că statusul acţiunii de preluare trebuie să fie ori complet, ori parțial, ori redirecționat pentru a putea trimite pagina la indexul Google (în caz contrar, va apărea o listă ce conţine problemele pe care Google le-a identificat pe site-ul tău şi va trebui să le rezolvi, abia apoi să reiei acţiunea). Dacă Googlebot îţi preia cu succes pagina, nu rămâne decât să faci clic pe butonul Submit to Index pentru a încuraja Google să o reacceseze cu crawlere.
Poți trimite fie adresa URL exactă care urmează să fie reaccesata cu crawlere (până la 500 de adrese URL pe săptămână), fie URL-ul și toate paginile legate de la el (până la 10 pe lună). Dacă alegi varianta din urmă, Google va utiliza această adresă URL ca punct de pornire în indexarea conținutului site-ului tău și va urma link-urile interne pentru a accesa restul paginilor. Google nu garantează indexarea tututor paginilor site-ului, dar în cazul în care site-ul este destul de mic, cel mai probabil o va face.
(De asemenea, există o opțiune similară în Bing Webmaster Tools. Trebuie doar să localizezi secțiunea Configure My Site din tabloul de bord și fă clic pe Submit URL-uri. Completează adresa URL pe care vrei să o reindexezi, iar Bing o va accesa cu crawlere în mod obișnuit în câteva minute.)
Apreciază:
Apreciază Încarc...
Similare