Nie ma potrzeby Optymalizacji – to jest bardzo częsty i poważny błąd. Zwykle większość stron internetowych musi przejść proces optymalizacji, chyba że rzeczywiście jest naprawdę bardzo dobrze przygotowana.
Wystarczy sama Optymalizacja serwisu – takie myślenie, również jest błędne. Oczywiście trzeba zadbać o dobrą optymalizację serwisu, jednak na tym świat pozycjonowania się nie kończy. Oprócz tego trzeba wykonać jeszcze całą masę innych działań.
Im więcej linków wychodzących, tym większa szkodliwość dla serwisu – faktycznie tutaj tą kwestę można rozpatrywać na wiele sposobów. Mianowicie jeśli linki wychodzą do tak zwanych zaufanych źródeł, albo tematyka ze stroną pozycjonowaną się zgadza, to raczej nie powinniśmy być spokojni. Inaczej jeśli linki będą bezwartościowe i dodawane bez żadnego przemyślenia.
Broken-link nie są szkodliwe – niestety ale cała masa linków wychodzących, prowadzących do serwisów, które nie istnieją, mają negatywny wpływ na serwis.
Dobrym rozwiązaniem jest duża liczba stron w indeksie – to też jest błędne przekonanie. Mianowicie trzeba kierować się jakością, a nie ilością. Na wagę złota są wartościowe strony, a nie indeksowanie pierwszych lepszych serwisów.
W rankingu może pomóc implementacja Schema.org – Nie tylko jest to nie pomocne, ale może okazać się również bardzo szkodliwe dla serwisu. Mianowicie może to doprowadzić również do nałożenia kary. Shema pozwala wyszukiwarkom zauważyć jak skonstruowana jest strona, a także znajduje stosowną zawartość do zadanego zapytania.
Istotne znaczenie ma znacznik H1 – Jest to poniekąd prawda, ale też nie do końca. Jeśli serwis przeszedł profesjonalną optymalizację, to takie znaczniki nie mają już aż takiego wpływu na SEO. Inaczej jest w przypadku słabej optymalizacji.
Nagłówki META są bardzo pomocne w SEO – niestety są bardzo zdradliwe. Ponieważ stosowanie za dużej ilości słów kluczowych, może przyczynić się do nałożenia kary. Ponadto wyszukiwarki zwykle pomijają nagłówki, po to by serwis został wypozycjonowany na podstawie zawartej treści, a nie nagłówków.
Należy zawsze pamiętać o zastosowaniu Nagłówka Meta Robots – Nie jest on konieczny. Okazuje się jednak dość pomocny, jeśli nie ma obowiązku indeksowania konkretnych podstron. Jednak w tym przypadku lepiej jest zastosować robots.txt
Na ranking strony ma wpływ mapa stron w XML – nie ma takiego wpływu. Rzeczywiście okazuje się pomocna w przypadku szybszego indeksowania stron.
Google karze za nieprawidłowy kod HTML – Jest to nieprawda. Ponieważ kod HTML nie ma wpływu na żywotność strony.
Obowiązkiem jest to, by adresy URL, zawsze miały końcówkę .html – to kolejny mit. Nie ma znaczenia jaka zostanie zastosowana końcówka. Istotne jest, by podstrony dobrze się indeksowały.
W adresach URL powinny być zawarte słowa kluczowe – Tutaj zdania są nieco podzielone. Ponieważ we wcześniejszych technikach optymalizacji serwisu, było to niezwykle istotne. W chwili obecnej jednak SEOMoz nie ma to już takiego znaczenia.
Ranking można podnieść poprzez linkowanie na zewnątrz – warto jednak tutaj stwierdzić, że takie działania nie bardzo zdają się na lepsze pozycjonowanie strony, chociaż w rzeczywistości nie ma konkretnego ustosunkowania do tej kwestii.
Google nie czyta plików CSS – okazuje się, że Google nie tylko czyta takie pliki, ale również je dokładnie analizuje.
Na SEO nie ma wpływu linkowanie wewnętrzne – okazuje się jednak, że ma to znaczenie i nawet ogromne. Ma to wpływ przede wszystkim na user ezpirience, a także nawigację. A jeśli to nie jest dopracowane, to wtedy serwis może mieć gorsze rankowanie.
Przed optymalizacją, serwis musi zostać ukończony – tak naprawdę wybranie momentu optymalizacji serwisu nie jest istotny. Oczywiście optymalnie byłoby, gdyby optymalizacja została skoordynowana z serwisem przed jego powstaniem.
W komentarzach HTML powinny znaleźć się słowa kluczowe – okazuje się, że ich obecność jest nieistotna. Za to bardzo stosowne okazują się słowa kluczowe w TITLEsach oraz w Altach dla obrazków, a także kotwic (ahref).
0 opinii