Algorytm Google a negatywne SEO

Sporo się ostatnio pisze o negatywnym SEO w świetle ostatnich zmian algorytmu. Co prawda o tym, że linki przychodzące mogą szkodzić wiadomo już od Google bomb – jednak ten sposób miał trochę inne cele. O tym, że można sobie zafiltrować witrynę przez własną nieudolność również wiadomo (np. dużo słabych linków na ten sam anchor). Wobec tego o co chodzi w dzisiejszej dyskusji o negatywnym SEO, skoro takie działania mogła stosować również konkurencja.

Google o negatywnym SEO

Zacznijmy od cytatu z dyskusji z Kasprem Szymańskim:

„W przeszłości byliśmy zdania że negatywne SEO nie jest możliwe, przynajmniej nie bez naruszeń prawnych. W chwili obecnej wychodzimy z założenia że nie jest ono wykluczone, chociaż jest bardzo trudne. Wykrywanie prób negatywnego SEO jest stosunkowo proste.”

Przy okazji bardzo lubię taki sposób wypowiedzi, żeby za dużo nie powiedzieć, ale przynajmniej można wywnioskować, że Google oficjalnie przyznaje, że takie działania są możliwe, no i oczywiście radzą sobie z nimi, bo to proste.

Jak proste, ano tak – cytat z hangoutu z John Mueller:

„In general, if you remove the page that is being linked to (such as a spammy forum thread) and make sure that it returns a 404/410 HTTP response code, we’ll ignore the links to those pages.”, „ …moving the forum to a different URL might be a possibility …”.

Dla nie obeznanych z językiem angielskim moje wolne tłumaczenie:

„Możesz usunąć stronę (żeby zwracała kod 404 lub 410), do której prowadzą niskiej jakości linki i wtedy będą ignorowane. Jeżeli problem dotyczy całej strony możesz przenieść ją na inną domenę.” Proste ? proste.

Dodając do tego moje doświadczenia z 301 po aktualizacji Pingwin, które po około 2 – 3 tygodniach powoduje ponowne problemy z filtrem na frazy to rozwiązanie idealne. Chyba, że chodzi o to, żeby przenieść zawartość na nową stronę i poprosić administratorów stron, które do niej linkują o zmianę adresów linków. Wtedy rozwiązanie już nie tylko jest proste, ale i banalne w zastosowaniu.

Jak widać Google nie ma zbyt wiele do powiedzenia w tej sprawie a rozwiązania, które proponują raz – są znane pozycjonerom już od dawna, dwa – nie są bezpośrednio związane z problemem i trzy – zastosowane nie rozwiązują go.

Teoretycznie o negatywnym SEO

No tak, ale jak pisałem na początku zaszkodzenie stronie było możliwe już wcześniej – mało to pytań w sieci jak poradzić sobie z filtrem lub banem. To, że go sami zrobiliśmy nie zmienia faktu, że dokładnie te same działania – prowadzące do tego samego – mogła wykonać konkurencja.

Myślę, że jednym z powodów takiej dyskusji jest to, że poleciały strony, które były pozycjonowane zgodnie z regułami, które działały dotychczas. Dlatego tak mocno akcentowany jest ten aspekt negatywnego SEO, bo wiedza o tym co działało jest dość powszechna. Na pewno jest też prościej, bo kiedyś trzeba było zneutralizować pozytywne aspekty SEO, teraz wystarczy po prostu coś do nich dodać.

Moim zdaniem skutki działań związanych z negatywnym SEO mogą w różnym stopniu dotykać domen. Podzieliłbym je na trzy grupy.

Niskie ryzyko

Do tej grupy zaliczyłbym strony, które w swoim profilu linków mają odnośniki zaliczone przez algorytm Google do naturalnych (niekoniecznie tylko wysokiej jakości). W takim przypadku pojawienie się niskiej jakości linków jest stosunkowo łatwo wykrywalne – nawet jeżeli działania rozłożone są w czasie. Myślę, że istotny jest też czas jaki domena istnieje w sieci – im dłużej z dobrym profilem linków tym lepiej. Myślę, że w tym przypadku rzeczywiście Google może twierdzić, że wykrycie tego jest proste.

Średnie ryzyko

W tej grupie znajdują się większość pozycjonowanych serwisów, co zresztą widać po zakresie stron dotkniętych aktualizacją „Pingwin”. Profil linkowania tutaj zawiera prawdopodobnie zarówno te porządne akceptowane przez algorytm jak i te, które mogą powodować filtr. Tutaj wykrycie negatywnego SEO będzie trudniejsze, gdyż nie łatwo jest określić, które linki zaszkodziły – czy nasze czy dodane przez konkurencję. Ciężko jest też komuś z zewnątrz określić które są które, a przyrost „gorszych” linków może nie różnić się niczym od tych dodawanych przez nas.

Wysokie ryzyko

Tutaj są domeny nowe i te z założenia o niższej jakości (np. któryś poziom zaplecza). Nie mają one jeszcze żadnej historii linkowania lub mają nie najlepszą. Właściwie jeżeli nie poleciały przy aktualizacji to niewiele im potrzeba, żeby znalazły się daleko w SERPach. Tutaj wykrycie przez osoby trzecie, czy linki są działaniem ze strony konkurencji jest praktycznie niemożliwe – chyba, że ktoś naprawdę nieudolnie to zrobi.

Czy opłaca się szkodzić

To, że coś można zrobić to jeszcze nie oznacza, że trzeba. Mam nadzieję, że jest sporo osób, które zajmują się SEO i nie mają zamiaru nagle przestawić się ze swoich stron na konkurencję. Ja osobiście niezależnie od tego czy negatywne SEO jest możliwe nie mam zamiaru zacząć szkodzić konkurencji. Ci, którzy obiekcji moralnych nie mają również mogą tego nie robić oceniając opłacalność takich działań. Co za tym przemawia ?

Pierwsza sprawa to rzecz raczej będzie dotyczyć stron pojawiających się na popularne frazy, chyba, że ktoś z czystej złośliwości postanowi depozycjonować strony na frazę „wypas owiec w Bieszczadach”. To będzie raczej zjawisko marginalne a na głupotę i zawiść raczej lekarstwa nie ma. Druga rzecz to będzie to dotyczyć wyników z top 10, bo nie wyobrażam sobie, że ktoś postanowi szkodzić stroną z trzeciej czy czwartej dziesiątki.

To teraz proponuję przeanalizować strony jakie znajdują się w Google na popularne frazy w top 10 i zastanowić się ile trzeba pracy i kosztów, żeby je zafiltrować. Myślę, że lepiej tą pracę i pieniądze przeznaczyć na pozycjonowanie własnej strony.

Myślę, że najbardziej to należy obawiać się działań ze strony Google, bo coraz wyraźniej widać, że sobie nie radzą o czym świadczą propozycje z usuwaniem stron.

Przyłącz się do walki Google ze spamem – usuń stronę, do której prowadzą niskiej jakości linki.
Istny Monty Python (adekwatna wersja angielska).