Wnioski po aktualizacji algorytmu „Pingwin”

W ostatnim czasie miała miejsce aktualizacja algorytmu „Pingwin” (moje pierwsze przemyślenia odnośnie aktualizacji) i myślę, że można zrobić już małe podsumowanie. Choć podobna przez SERPy przeszła już kolejna wersja aktualizacji Pingwin 1.1, ale pewien schemat działania można zauważyć już teraz. Swoją drogą Google mogłoby wymyślać jakieś bardziej neutralne nazwy, dla części osób po ostatnich zmianach pingwin będzie się kojarzył negatywnie (tak jak panda) a co winne to zwierzątko, że tak poprzestawiało wyniki.

Co na moich stronach

Najlepiej przyjęły (co miłe) update strony moich klientów i firmowa – tutaj albo strony utrzymały pozycje, albo zanotowały niewielkie wzrosty (tak do +2 w top 10). No i jedna nowa strona, która mnie zadziwiła i poszła w górę (zwiększyła ruch z 15 odwiedzin dziennie do 400).

Dalej nie było już tak dobrze choć większość serwisów utrzymała pozycje dla fraz prowadzących do strony głównej, ale straciła dla fraz na podstronach (średnie spadki dla stron głównych porządnych serwisów – 2 pozycji, dla słabszych – 6, dla podstron odpowiednio 7 i 22).

No i dwie strony zaliczyły spektakularny spadek po kilkaset pozycji dla większości fraz. W jednym z nich obroniły się 4 z około 50 fraz.

W sumie analizę robiłem na jakiś dwudziestu stronach – nie jest to jakaś duża próba – jednak już na takiej próbie widać (po sposobach linkowania i optymalizacji) co miało wpływ na takie zachowania stron.

Wnioski po aktualizacji

Pierwszy wniosek jaki mi wyszedł – filtr (tak ja przynajmniej rozumiem tą karę dla stron) działa na konkretną stronę (podstronę) i frazę. To znaczy, że strona główna może być zafiltrowana na jedną frazę a na inną zachowuje swoje pozycje. Może być też tak, że jedna podstrona w serwisie ma filtr a inne zachowują się zupełnie normalnie. Oczywiście cała strona też może polecieć w niebyt.

Drugi wniosek jest połączeniem trzech elementów – źródeł linków, anchorów i czasu. Im bardziej ujednolicone te elementy tym większy spadek. To znaczy, im bardziej zbliżone źródła linków (np. linkowanie z samych katalogów i precli) i podobieństwo anchorów (Google dobrze rozpoznaje zarówno odmiany jak i synonimy słów) tym większe prawdopodobieństwo filtra.

Myślę, że rozkład linków w czasie ma też znaczenie, to znaczy, że działania SEO i pozyskiwania linków charakteryzuje się pewną regularnością a linkowanie naturalne nie. Prawdopodobnie znaczenie ma też jakość linków w czasie, przy działaniach SEO najczęściej schemat wygląda tak – najpierw najlepsze linki a z czasem coraz słabsze.

Jednym słowem aktualizacja algorytmu Pingwin bazuje na profilu linków i metodach ich pozyskiwania. Z różnych źródeł można znaleźć informacje, że linkowanie na nazwę domeny (linki brandowe), przy pewnym % chronią przed karą. Warto sobie zrobić testy i przeanalizować linki domen, które nie są intensywnie pozycjonowane a mają dobre pozycje i przejrzeć sposób linkowania. Okazuje się, że mój post – jak linkować stronę – jest jak najbardziej na czasie – powinienem częściej czytać swój blog.

Jak wyglądają SERPy po aktualizacji

W sumie dominują dwa poglądy, pierwszy – jak to fatalnie pogorszyła się jakość serpów i drugi – wyniki wyszukiwania nie były lepsze, który z jakiego forum można się domyśleć.

W sumie nie podzielam żadnego z tych skrajnych poglądów, a poziom dyskusji – jeżeli można tak to nazwa – bywa momentami mało smaczny. A rysowanie profilu psychologicznego innych – jak to zrobił jeden z użytkowników PiO – jak dla mnie powinno go skłonić do zbadania swojego. Przepraszam za offtop, ale nie mogłem powstrzymać się od komentarza.

Jak dla mnie jakość wyników definiuje się tym czy da się znaleźć to czego się szuka i w jakim czasie. I tutaj raczej rewolucji nie ma – powiedziałbym, że jak na takie „sprzątanie” to nie jest źle. W końcu część stron jakie tworzą i pozycjonują osoby zajmujące się SEO jest wartościowa a sporo z nich poszło w niebyt – w końcu sam doświadczyłem – a o treści na stronach bardzo dbam.

Co prawda dla sporej części zapytań pojawiły się w wynikach różne dziwne strony. Najczęściej wiąże się to z powiązaniem nazwy domeny ze słowem zapytania. Pod frazą „giewont” znajdziemy hurtownię odzieży i prace wysokościowe, co raczej nie ma wiele wspólnego z zapytaniem – natomiast domeny posiadają tą frazę w nazwie. Można odnieść wrażenie, że wzrosło znacznie fraz w domenie. Choć może to być też tymczasowy sposób na zapełnienie wyników po filtrach, z założeniem, że domeny z daną frazą są adekwatne.

Natomiast zupełnie innego typu problem występuje na frazie, która jest często przytaczana „szybkie pożyczki Częstochowa”, gdzie pierwsza strona, która nie jest spamem z forów znajduje się na 22 pozycji. I jak dla mnie nie ma się tu z czego cieszyć, że fraz jest bardziej niż niszowa.

Przed Pingwinem znaleźlibyśmy tu prawdopodobnie jakieś zapleczówki czy strony programów partnerskich. Po ich „wycięciu” dostajemy informacje z czym algorytm Google sobie nie radzi i wiedza o tym jest dla pozycjonerów dość oczywista. I teraz te osoby, które dziergały sobie jakieś zaplecze, czy linkowały z katalogów i precli sięgną po to co działa. Ja w ostatnim czasie obserwuję znaczący wzrost spamu odsiewanego przez Aksimet na stronach postawionych na Worpressie. Nie widzę powodów, żeby cieszyć się z tego, że spam z xRummera i Srapeboxa wypływa tylko na niszowe frazy, bo to się akurat może zmienić.

Podsumowanie

Mam wrażenie, że algorytm Google zrobił kolejny krok w kierunku oceny sztucznego wpływania na pozycje w wynikach wyszukiwania. Po aktualizacji Panda, które dotyczyła rozpoznawania treści i oceniania jakości strony pod tym kątem, mamy kolejną, która analizuje sposób linkowania. Google ewidentnie dąży do tego, żeby w wynikach pojawiały się strony, które mają dobre treści i są naturalnie popularne w sieci (posiadają naturalne linki), wśród internautów. Ma to istotny wpływ na SERPy, gdyż duża część stron – również dobrej jakości – jest tam dzięki pozycjonowaniu.