Google wprowadziło ciekawe zmiany w algorytmie
Przed weekendem (8.09.10) miała miejsce dość istotna aktualizacja SERPów, spora liczba stron zmieniła swoje pozycje. Wnioskując z różnych dyskusji zmiana miała charakter szeroki i nie dotyczyła normalnych wahań wyników organicznych. Sam miałem jej okazję doświadczyć (na szczęście in +), jedna z moich stron na hasło „zakopane” przesunęła się o 15 miejsc w ramach pierwszej trzydziestki. Taki skok na pewno nie miał nic wspólnego z linkowaniem w ostatnim czasie (nie ta fraza i nie te linki). Z tego, co czytałem sporo stron zmieniło miejsca i to dość radykalnie, włączając w to stare domeny, które gościły w top 10 długi czas.
Wygląda na to, że Google dość mocno zmodyfikował pewne elementy algorytmu. O oficjalnym stanowisku ma być więcej w poniedziałek (11.10.10) na oficjalnym blogu Google dla webmasterów (dlaczego swl przekazujące PR mogą zaszkodzić witrynie). Aktualizacja ta była przez Google przygotowywana już od jakiegoś czasu, w ostatnim okresie miały miejsce dwie próby wprowadzenia nowego algorytmu. Pierwsza trwała jeden dzień, druga około trzech, na różnych data center można było oglądać różne wyniki. Obecnie nowe wyniki dostępne są właściwie na wszystkich dc przez cały czas, można więc wnioskować, że zmiana jest stała (o ile w przypadku Google można mówić o jakiejś stałości wyników).
Co mogło się zmienić w algorytmie jest chyba najbardziej interesującą kwestią, zaraz po sprawdzeniu jak wyglądają pozycje naszych stron w SERP. Nowe wyniki są stosunkowo krótko, żeby coś w miarę wiarygodnego dało się o nich powiedzieć. Czytałem trzy w miarę sensowne hipotezy:
- błąd Google – ta teza raczej się nie da obronić. Raz, bo takie wyniki są już trzeci raz, więc byłoby to dziwne gdyby powtarzali ten błąd co jakiś czas i utrzymywali go coraz dłużej.
- obniżenie wartości za wiek (historię) domeny – ciekawa teza, choć trochę naciągana. Dlaczego Google miałoby rezygnować z dość precyzyjnego czynnika, nie obciążającego zbytnio algorytmu. Jeżeli ktoś posiada dobrą stronę z długim stażem w Google to niby czemu mieliby tą wartość obniżać.
- obniżenie wartości słabych (nietematycznych) linków – ta teza najbardziej do mnie przemawia. Zarówno w kontekście prawdopodobieństwa jak i obserwacji zmian na moich stronach. Zresztą o spamowaniu linkami Google cały czas mówi, więc mogli coś w tej kwestii wyrzeźbić.
Aktualizacja: 13.10.2010
Przeczytałem jeszcze jedno dość interesujące wyjaśnienie ostatnich zawirowań w SERP. Chodzi o systematyczne obniżanie ilości stron znajdujących się w indeksie. Dotyczyły to stron o mało unikalnej zawartości, słabo podlinkowanych. W związku z tym domeny, które posiadały linki na takich stronach utraciły je. Im więcej linków pochodziło z takich serwisów tym większy spadek ogólny.
Na rzecz hipotezy o obniżeniu wartości słabych linków przemawia fakt łatwości wprowadzenia i jednocześnie uniemożliwienia szkodzenia konkurencji. Przeczytałem taki pogląd, jeżeli Google za słabego linka z systemów rotacyjnych przyznawałby np. 0,0000001 (1 to maksymalnie dobry link) to obniżenie tej wartości do 0 spowodowałoby bezużyteczność wszystkich linków uznanych za spam. Mniej liczenia dla algorytmu, zerowa możliwość zaszkodzenia przez konkurencję spamującą naszą stronę, mniej stron w necie do indeksacji (brak tworzenia stron pod spamowanie linkami). Kilka problemów za jednym zamachem z głowy.
Wyjaśniałoby to również brak prawidłowości zmian w wynikach w zależności od ilości linków, lub bardziej faktu, że nie wszystkie strony linkowane swl rotacyjnym spadły jednakowo. Po prostu najbardziej spadły te, które miały największy % linków z swl. Im mniejszy % wykorzystania słabych linków w pozycjonowaniu strony, tym mniejsza zmiana pozycji w dół. W przypadku, kiedy sporo stron wyżej stosowało swl – oznacza to wzrosty. Stąd pewnego rodzaju paradoksy w wynikach, że strona z niewielką ilością linków jest dużo wyżej niż te z większą ilością. Takie rzeczy miały już miejsce, ale w niewielkim stopniu i trzeba było naprawdę silnych linków, żeby mieć ich mało i konkurować skutecznie o pozycje.
Jeżeli rzeczywiście tak jest, że Google potrafi rozpoznawać takie linki (co nie jest znowu takie trudne – rotacja) to czekają nas ciekawe czasy w pozycjonowaniu, przynajmniej na rynku polskim. Mnie tam osobiście zupełnie nie przeszkadzają takie zmiany, będzie więcej porządnych tematycznych stron w internecie, choćby jako zaplecze. Zmniejszy się też liczba osób zajmujących się SEO (wybierze stabilniejsze źródła dochodów) i zmniejszy się też liczba umów rozliczanych za efekt, bo trzeba będzie ponieść sporo kosztów i pracy własnej zanim osiągnie się dobrą pozycję.
Dla uzytkownikow takie zmiany sa jak najbardziej na +. Oczyszczone zostana serpy ze spamu :)
To z jednej strony, choć tego spamu w wynikach nie było za dużo. Top 10 zajmowały raczej przyzwoicie zrobione strony, choć czasem z zapytaniem miały mniej wspólnego. Z drugiej strony ta zmiana może spowodować większy nacisk na treść i optymalizację co na pewno wyjdzie na dobre wynikom.
Tia, tylko że:
1. Część storn robionych tylko swlem poszla w gore.
2. Część stron robionych bez SWL poszla ostro w dol.
Tak więc doszukiwanie sie przyczyny w rozprawieinu sie z swlem jest naciagane. Choc pewnie tego bedzie dotyczyc komunikat PR-owy, skoro czesc ludiz chetnie podchwytuje ta hipoteze.
BTW – w wynikach zaczely sie tez pojawiac storny nietematyczne, w ciagu weekendu trafilem tez na kilka parkingow pod zupelnie normalnymi frazami.
[…] innych Google zaczęło całkowicie ignorować linki systemowe. O zmianach w algorytmie pisał także Jacek Biernacki, którego bardziej przekonuje druga teza: obniżenie wartości słabych (nietematycznych) linków […]
Zmiany jak najbardziej na +. Nie ważne, że strony poleciały w górę czy w dół, będzie trzeba być bardziej kreatywnym jeśli chodzi o zdobywanie linków :)
Teoria o szkodliwości dużej ilości linków dynamicznych (duży ich %) nie jest prawdziwa. Padają również strony dopalane statycznymi linkami, jak i nieraz idą w górę strony dopalane wyłącznie linkami dynamicznymi. Nie ma prawidłowości poza tendencja do spadku domen długo pozycjonowanych… co jest dosyć nielogiczne.
„Po prostu najbardziej spadły te, które miały największy % linków z swl.”
No właśnie nie zawsze tak było – jak spamerskie zaplecza linkowane tylko z SWLi pojawiły się wysoko w SERPach to raczej nie jest dobrze.
No takiego podejscia jeszcze nie bylo ;) W tym kontekscie dla pozycjonerow nie polegajacych tylko na automatach zmiany na plus, ale czy dla zwyklego uzytkownika tez? ;) No chyba, ze w tym sensie, ze zacheci go do sprawdzania bardziej skomplikowanych zapytan lub nie tylko pierwszej storny. To by bylo bardoz na plus.
Mnie ta sytuacja cieszy, zwłaszcza w kontekście rozliczania SEO. Staram się nie bazować na SWL, co jednak powoduje wyższe koszta świadczonych przeze mnie usług, więc ciężej pozyskać mi klienta.
Tomasz mam ten sam problem, jak tłumaczę klientowi, że trzeba ponieść koszty zanim się osiągnie pozycję to dziwnie na mnie patrzą :).
Jeżeli chodzi o jakość wyników dla userów to na razie wypowiadają się o tym głównie pozycjonerzy, co jest mocno tendencyjne.
Co do swl, robiłem dziś analizę mojej konkurencji (coś około 30 domen) i ewidentnie widać, że strony bez swl poszły do góry.
Niestety, sporo moich stron, które są dopalane tylko SWLami (w celach indeksacji), praktycznie bez żadnych innych linków, powpadała do TOP10 na szereg fraz.
Domeny młode, frazy łatwe, średnio łatwe, content w powijakach, bo to był zalążek na zaplecze.
[…] Google wprowadziło ciekawe zmiany w algorytmie – komentarza na cognitive-it.org […]
Ja podzielam zdanie autora odnośnie SWLi. Sprawdzałem strony konkurencji i te dopalane SWLem oraz te które mają linki umieszczone na bardzo kiepskich jakościowo stronach poszły w dół. Może to tylko przypadek… Ja osobiście nie używam wogóle SWLa (dla niektórych może to wydawać się straszne :) ) i każda z pozycjonowanych przeze mnie stron poszła w górę.
Ja również zauważyłem przyrost pozycji moich stron. Nagroda za etyczne pozycjonowanie?
I bardzo dobrze, SWL zawsze mnie denerwowały i uważam jest za wielkie zło, dobrze, że google stara się z tym walczyć.
Czy Wam się to podoba czy nie, ale pozycjonowanie bez swl’i nie istnieje na szerszą skalę. Tak jest i już. Mam na codzień do czynienia z jednymi z większych firm pozycjonerskich i każda używa SWL’i
Mnie nie denerwują swl jeśli są stateczne i z normalnych stron. Niestety coraz więcej syfu w sieci, dlatego może być to drażniące.
Niemniej bez swl też ciężko obecnie sobie wyobrazić by coś ogólnie pozycjonować. Szczególnie tyczy się to gdy brak zaplecza:)