Oto garść podstawowych sposobów z elementarza pozycjonera. Zastosowanie tych prostych sposobów daje natychmiastowe i widoczne rezultaty. Oczywiście czas oczekiwania na wynik uzależniony jest od wyboru słów kluczowych. Tutaj obowiązuje zasada: im słowo jest bardziej ogólne np.: okna, buty, drzwi, tym większa konkurencja na placu boju i trudniej się przebić na wysokie pozycje. Najszybsze efekty dają dłuższe frazy tzw. long tail, czyli frazy długiego ogona lub określenia niszowe.
Tak więc optymalizacja stron internetowych może się rozpocząć od prostych czynności. Zaprezentowany dekalog można wdrożyć podczas stawiania nowego serwisu w trakcie komponowania kodu źródłowego, ale również może być zastosowany jako program wspomagający modernizację.
1. Tytuły strony głównej i podstron powinny być unikalne, czyli różnić się między sobą. Jest to ważne, gdyż podlegają indeksacji i przeglądarka wyświetla je w pasku zakładki. Dla potrzeb pozycjonowania lokalnego warto wpleść do nich nazwę miejscowości.
2. Jak ognia należy unikać kopiowania treści z innych portali. Roboty przeglądarek sprawnie wynajdują takie miejsca i obniżają ranking podczas indeksowania zawartości stron nadając im rangę duplicate content.
3. W celu przyspieszenia ładowania plików należy odchudzić zawartość serwisu. Szczególną „wagę” ma grafika. Wielkość fotografii; kadrowanie do pola widzenia; rozszerzenia plików – to tylko kilka powodów wolnego działania strony spowodowane przeładowaną grafiką.
4. Połączenie witryny z ruchem social media daje spory ruch sieciowy. Internauci chętnie odwiedzają znajomych z kręgu mediów społecznościowych; w myśl zasady – to się lubi co często przed oczami stoi.
5. Oprócz tytułu w sekcji „head” kodu strony znajduje się meta znacznik „description” Wbrew pozorom jest to bardzo ważny element układanki Przeglądarka pobiera informacje umieszczone w opisie i prezentuje je w wynikach wyszukiwania w trzeciej linii rekordu Jest to około 250 znaków tekstu, w którym w niebanalny sposób można zachęcić internautów do wizyty w zasobach serwisu.
6. Generatorem zainteresowania mogą stać się działy, w których użytkownicy mogą przyczynić się do aktualizowania treści serwisu (komentarze, nowości, promocje).
7. Warto zadbać o plik tekstowy dla robotów. Dokument robot. txt jest jednym z pierwszych odwiedzanych przez aplikacje wędrujące po sieci i zbierające informacje o serwisach. Następnie informacje deponowane są w bazach danych przeglądarek i stąd pochodzi ich wiedza o stronach www.
8. W momencie wybierania adresu domeny trzeba się zdecydować na wersję z prefiksem www lub bez niego.
9. W celach kontrolnych dobrze jest zunifikować serwis z narzędziem od Google – panel narzędzi dla webmasterów
10. Dla ochrony danych podczas komunikacji należy zainstalować na stronie certyfikat bezpieczeństwa SSL. Niezmiernie ważny dla umocnienia pozycji sklepów internetowych, które realizują operacje finansowe.
Oczywiście to nie koniec działań, jakie obejmuje pozycjonowanie i optymalizacja. Praca na tym polu nie kończy się nigdy.
Dlaczego?
Głównym powodem jest konkurencja i jej działania.
Po zakończeniu podstawowych działań należy wykonywać codzienną pracę nad strukturą kodu, zawartością strony i połączeniami z resztą sieci.
1. Walidacja kodu HTML nie jest być może priorytetem i nie wpływa bezpośrednio na pozycje strony, ale jej wykonanie jest zdecydowanie dobrą praktyką i ukłonem w stronę organizacji certyfikującej W3C. W wyniku walidacji zostają ujawnione zwykle drobne niedociągnięcia, które należy skorygować.
2. Pozycjonowanie polega na zdobywaniu w jak najbardziej naturalny sposób odniesień z innych miejsc sieci. Jeśli ktoś zechce nas zacytować, będzie to wyróżnienie i bonus. Pozostałe linki trzeba zdobywać mozolną pracą. W pozycjonowaniu stosuje się metodę linkowania z tekstów i stron specjalnie do tego przeznaczonych. Katalogi presel page są źródłem dużej ilości dobrych linków. Tak samo postrzegane są strony tzw. zapleczowe, na których umieszcza się słowa kluczowe, służące za kotwice dla linków.
3. Najnowszym wymogiem jest stosowanie standardów stron mobilnych. Nowy indeks Google – mobile first – promuje strony w układzie mobilnym i to im daje pierwszeństwo przy indeksacji.
4. Kolejny element to dane strukturalne. Pozwalają na lepsze czytanie strony przez roboty przeglądarek. Ze stosowania danych w formacie JSON-LD wynikają też korzyści dla użytkowników. Przeglądarki wyświetlają o wiele więcej informacji w organicznych wynikach wyszukiwania. Oprócz tytułu i opisu prezentowane jest całe mnóstwo danych szczegółowych o stronie, aktualizujących jej treść.
5. Wszyscy znają przyjemny zapach nowej książki. Należy zatem wciąż aktualizować treści w serwisie, żeby nie pokryły się kurzem, jak w nieodwiedzanej bibliotece.
Reasumując optymalizacja i pozycjonowanie, choć jest pracą mozolną, to warto przyłożyć się do niej, bo efekty są godne pozazdroszczenia.
Marian Zieliński – https://mediaclick.pl/