Narzędzia online są fajne, bo nie trzeba niczego instalować, wystarczy załadować stronę i gotowe. A gdy jeszcze coś pożytecznego jest darmowe, to już więcej nie trzeba. Z ciekawości sprawdziłem, co oferują polskie narzędzia do darmowego audytu SEO online 🙂
Wcześniej pisałem już o stronie darmowyaudytseo.pl, ale to nie jedyna tego typu strona. Z polskich adresów umożliwiających analizę strony online wybrałem: Konsultant-seo.pl, Pluseo.pl, Seoptimer.com, seokitten.pl. Prezentują niemal identyczne dane i są równie przydatne.
Konsultant-seo.pl
W konsultant-seo.pl do analizy podajemy adres strony. Raport podzielony na 6 części – dane ogólne, nagłówek http, body, mapa strony sitemap.xml, robots.txt. Podział jest jak najbardziej przejrzysty. Raport wskazuje następujące dane:
- nazwa domeny
- standard dokumentu html (4,5, xhtml, etc)
- Kodowanie dokumentu
- Przekierowanie 301 (z www, bez www)
- Status http
- Data
- Serwer (np Apache, LiteSpeed)
- Połączenie (close)
- Protokół Pingback
- Content-Type
- Vary
- Inne dane cache, cookie, etc
- Tytuł strony
- Opis strony
- Słowa Kluczowe
- Liczba plików CSS
- Liczba skryptów Javascript
- Liczba wyrazów i znaków
- Współczynnik html ratio (treści do kodu)
- Nagłówek H1 (podany)
- Nagłówek H2 (podane)
- Nagłówek H3 (podane)
- Paragrafy
- Pogrubienia
- Linki kanoniczne
- Linki „nofallow” (literówka, powinno być nofollow)
- Linki (dofollow, raportuje brak title)
- Liczba adresów w mapie strony
- Zasady w pliku robots.txt (reguły dla robotów)
Narzędzie pozwala na pobranie do pliku .pdf wygenerowanego raportu. W raporcie wyróżnione zostały wskazówki dotyczące analizowanych elementów budowy serwisu. Wskazówki są generowane automatycznie, przez co nie należy do nich podchodzić bezkrytycznie. (konsultant-seo.pl)
Pluseo.pl
W PluSEO.pl do analizy podajemy adres domeny oraz słowo kluczowe. Słowo kluczowe jest później wykorzystywane w ocenie optymalizacji podstrony. W raporcie dostajemy informacje podzielone na 9 segmentów:
- Wiek domeny
- ilość zaindeksowanych stron
- ilość linków przychodzących (wg serwisu SeoMoz)
- PageRank
- AlexaRank
- MozRank
- PageAuthority
- Podwójna indeksacja (brak przekierowania 301)
- Walidacja W3C (ilość błędów i ostrzeżeń)
- Google analytics
- Tytuł strony (długość, treść, nasycenie słowem kluczowym)
- Description (treść, długość, nasycenie słowem kluczowym)
- Keywords
- Kodowanie
- Czas pobierania kodu strony
- Nasycenie treści słowem kluczowym
- Słowa/znaki (ilość)
- Tekst/HTML (stosunek w %)
- Wytłuszczenie tekstu
- Ramki
- Zdjęcia (ilość, ilość bez atrybutu alt)
- Nagłówki (ilość i treść)
- linki wewnętrzne (ilość, ilość nofollow, spis)
- linki zewnętrzne (ilość, ilość nofollow, spis)
- Robots.txt (obecność)
- sitemap.xml (obecność, ścieżka)
- Facebook likes (ilość lajków)
- Facebook shared (ilość udostępnień)
- Google+
- Nagłówki (http)
- dane z who.is
- blacklist (lista)
Wygenerowany raport można pobrać w pliku .pdf
Seoptimer.com
Podobnie jak poprzednie narzędzia, Seoptimer.com wypluwa dane pogrupowane w kilku segmentach. Podaje następujące dane:
- Page Title (treść i długość)
- Description (treść i długość)
- Keywords (treść i długość)
- Robots (zawartość)
- Encoding
- Words and Charts (ilość)
- Text/HTML Ratio
- Headers (ilość i zawartość)
- Bolds
- Images (ilość, ilość bez atrybutu alt)
- Frames
- External Links (ilość linków wychodzących)
- Internal Links (ilość linków wewnętrznych)
- Robots.txt (ścieżka do pliku)
- Sitemap.xml
- Facebook Likes
- Facebook Shares
- Google +1
- Http Headers
- IP Address
- Name Servers
- Server Geolocation
Wygenerowany raport można pobrać w pliku .pdf. Dostępna jest też aplikacja do przeglądarki Chrome, która jednym kliknięcie generuje audyt załadowanego adresu. Wygodne.
Seokitten.pl – już nie istnieje.
Seokitten pobierał dane między innymi z Mozscape (opensiteexplorer.org):
- Domain Alexa Rank
- PageRank
- Moz Domain Authority
- MozRank
- Moz Page Authority
- Wiek domeny
- Zaindeksowane strony
- Facebook likes
- Facebook shares
- Facbook comments
- Facebook Click count
- Google+
- Twitter Followers
- Tytuł strony
- Opis strony
- Niezaindeksowane (tag „noindex”)
- Kanoniczny adres URL
- Kodowanie
- Słowa
- Znaki
- Stosunek tekstu do HTML
- Nagłówki (ilość, treść)
- Stron i bold
- Tagi ALT
- Ramki
- Błędy HTML i CSS
- Nagłówki (status http)
- Typ treści
- Rozmiar nagłówka
- Ilosć przekierowań
- Robots.txt
- Mapa strony
- IP
- Chmura słów kluczowych
- Prędkość ładowania strony
- Prędkość pobierania
- Kompresja plików
- Minify CSS
- Minify Html
- Minify Java Script
- Optymalizacja obrazków
- TOP10 najlepszych linków do analizowanego adresu
- Similar Sites (podobne strony do analizowanej)
Na dole, w stopce jest historia analizowanych adresów. Pamiętaj o tym, że wpisując adres do analizy, na dole strony pojawi się informacja, że serwis był analizowany. Nie jest to wiedza tajemna, ale nie wszyscy chcą się takimi informacjami dzielić.
Z zagranicznych wynalazków tego typu można przytoczyć popularny serwis woorank.com. Prezentacja danych jest bardziej rozbudowana i np. wskazuje „główne” słowa kluczowe wraz z ich lokalizacją na stronie.
Co ciekawe, woorank pokazał, że domena onet.pl została zarejestrowana …. 4 lata temu 😉
W odróżnieniu od 3 poprzednich polskich przedstawicieli, woorank analizuje również wersję mobilną strony. Jeden rzut oka pozwala zorientować się, jak serwis wygląda na tablecie i smartfonie.
Raport z Wooranka zawiera około 60 punktów, ale wśród nich są tak mało istotne jak np. obecność favicon.
Wszystkie narzędzia wskazują bardzo zbliżone dane i różnią się jedynie prezentacją wyników i ilością pobieranych informacji, np. z who.is, czy nagłówka. Kwestią gustu pozostaje wybór narzędzia dla siebie, ponieważ wszystkie dane mają charakter poglądowy i bez interpretacji (na podstawie wiedzy SEO) niewiele da się z każdym z tych raportów zrobić.
Na co zwrócić szczególną uwagę?
Status nagłówka http:
- 200 w przypadku działającej strony,
- 301 w przypadku adresu przekierowanego na inny
- 404, 410 w przypadku strony błędu, strony nieistniejącej
Meta tagi „robots” w nagłówku (<head></head>):
- index, follow w przypadku strony indeksowanej w Google
- noindex, (no)follow w przypadku strony zablokowanej przed indeksowaniem Google
- brak tagu robots – dopuszczalny w przypadku indeksowanej strony przez Google
Przekierowanie 301 i tag canonical:
- adres kanoniczny musi być zgodny z przekierowaniem 301, aby nie robić „miękkiej” pętli przekierowań, gdy wskazywany adres kanoniczny jest przekierowywany przekierowaniem na inną wersję;
- należy zwrócić uwagę na przekierowania 302, które w długiej perspektywie działają niekorzystnie na pozycje i należy je natychmiast zmienić na 301
Nagłówki H1:
- w przypadku prostych stron/wizytówek unikamy dużej ilości nagłówków H1 (chyba że prowadzimy Onet;) )
- sprawdzamy, czy nagłówek H1 jest widoczny zarówno w kodzie jak i na stronie, i czy nie zawiera nagromadzonych sztucznie słów kluczowych;
- dopuszczalny jest całkowity brak nagłówków
Atrybut ALT dla grafik:
- należy sprawdzić, czy alt-y nie służą do upchania słów kluczowych
- lepszy brak alt-ów od uzupełnionych nienaturalnymi frazami kluczowymi (np. zdjęcie powozu z młodą parą z alt=”fotograf ślubny Katowice”)
Żadne z powyższych narzędzi nie analizuje powielonych podstron, nie wskaże duplikatów strony głównej (lub jakiejkolwiek innej strony w serwisie), nie mierzy głębokości struktury serwisu ani dostępności każdej z jego podstron. To warto „przeklikać” ręcznie i zbadać indeksowane adresy w samej wyszukiwarce. Są to wygodne serwisy do doraźnej, pobieżnej i szybkiej analizy podstawowych czynników życiowych.
ja sobie też sam sprawdzam funkcjonalność mojej stronki. Wychodzę z założenia, że po co mam płacić za coś, co mogę sam zrobić. A artykuł bardzo konkretny i z wieloma fajnymi informacjami.
O jednym narzędziu nie wiedziałem ale chętnie sprawdzę 🙂