Algorytm Google a negatywne SEO
Sporo się ostatnio pisze o negatywnym SEO w świetle ostatnich zmian algorytmu. Co prawda o tym, że linki przychodzące mogą szkodzić wiadomo już od Google bomb – jednak ten sposób miał trochę inne cele. O tym, że można sobie zafiltrować witrynę przez własną nieudolność również wiadomo (np. dużo słabych linków na ten sam anchor). Wobec tego o co chodzi w dzisiejszej dyskusji o negatywnym SEO, skoro takie działania mogła stosować również konkurencja.
Google o negatywnym SEO
Zacznijmy od cytatu z dyskusji z Kasprem Szymańskim:
„W przeszłości byliśmy zdania że negatywne SEO nie jest możliwe, przynajmniej nie bez naruszeń prawnych. W chwili obecnej wychodzimy z założenia że nie jest ono wykluczone, chociaż jest bardzo trudne. Wykrywanie prób negatywnego SEO jest stosunkowo proste.”
Przy okazji bardzo lubię taki sposób wypowiedzi, żeby za dużo nie powiedzieć, ale przynajmniej można wywnioskować, że Google oficjalnie przyznaje, że takie działania są możliwe, no i oczywiście radzą sobie z nimi, bo to proste.
Jak proste, ano tak – cytat z hangoutu z John Mueller:
„In general, if you remove the page that is being linked to (such as a spammy forum thread) and make sure that it returns a 404/410 HTTP response code, we’ll ignore the links to those pages.”, „ …moving the forum to a different URL might be a possibility …”.
Dla nie obeznanych z językiem angielskim moje wolne tłumaczenie:
„Możesz usunąć stronę (żeby zwracała kod 404 lub 410), do której prowadzą niskiej jakości linki i wtedy będą ignorowane. Jeżeli problem dotyczy całej strony możesz przenieść ją na inną domenę.” Proste ? proste.
Dodając do tego moje doświadczenia z 301 po aktualizacji Pingwin, które po około 2 – 3 tygodniach powoduje ponowne problemy z filtrem na frazy to rozwiązanie idealne. Chyba, że chodzi o to, żeby przenieść zawartość na nową stronę i poprosić administratorów stron, które do niej linkują o zmianę adresów linków. Wtedy rozwiązanie już nie tylko jest proste, ale i banalne w zastosowaniu.
Jak widać Google nie ma zbyt wiele do powiedzenia w tej sprawie a rozwiązania, które proponują raz – są znane pozycjonerom już od dawna, dwa – nie są bezpośrednio związane z problemem i trzy – zastosowane nie rozwiązują go.
Teoretycznie o negatywnym SEO
No tak, ale jak pisałem na początku zaszkodzenie stronie było możliwe już wcześniej – mało to pytań w sieci jak poradzić sobie z filtrem lub banem. To, że go sami zrobiliśmy nie zmienia faktu, że dokładnie te same działania – prowadzące do tego samego – mogła wykonać konkurencja.
Myślę, że jednym z powodów takiej dyskusji jest to, że poleciały strony, które były pozycjonowane zgodnie z regułami, które działały dotychczas. Dlatego tak mocno akcentowany jest ten aspekt negatywnego SEO, bo wiedza o tym co działało jest dość powszechna. Na pewno jest też prościej, bo kiedyś trzeba było zneutralizować pozytywne aspekty SEO, teraz wystarczy po prostu coś do nich dodać.
Moim zdaniem skutki działań związanych z negatywnym SEO mogą w różnym stopniu dotykać domen. Podzieliłbym je na trzy grupy.
Niskie ryzyko
Do tej grupy zaliczyłbym strony, które w swoim profilu linków mają odnośniki zaliczone przez algorytm Google do naturalnych (niekoniecznie tylko wysokiej jakości). W takim przypadku pojawienie się niskiej jakości linków jest stosunkowo łatwo wykrywalne – nawet jeżeli działania rozłożone są w czasie. Myślę, że istotny jest też czas jaki domena istnieje w sieci – im dłużej z dobrym profilem linków tym lepiej. Myślę, że w tym przypadku rzeczywiście Google może twierdzić, że wykrycie tego jest proste.
Średnie ryzyko
W tej grupie znajdują się większość pozycjonowanych serwisów, co zresztą widać po zakresie stron dotkniętych aktualizacją „Pingwin”. Profil linkowania tutaj zawiera prawdopodobnie zarówno te porządne akceptowane przez algorytm jak i te, które mogą powodować filtr. Tutaj wykrycie negatywnego SEO będzie trudniejsze, gdyż nie łatwo jest określić, które linki zaszkodziły – czy nasze czy dodane przez konkurencję. Ciężko jest też komuś z zewnątrz określić które są które, a przyrost „gorszych” linków może nie różnić się niczym od tych dodawanych przez nas.
Wysokie ryzyko
Tutaj są domeny nowe i te z założenia o niższej jakości (np. któryś poziom zaplecza). Nie mają one jeszcze żadnej historii linkowania lub mają nie najlepszą. Właściwie jeżeli nie poleciały przy aktualizacji to niewiele im potrzeba, żeby znalazły się daleko w SERPach. Tutaj wykrycie przez osoby trzecie, czy linki są działaniem ze strony konkurencji jest praktycznie niemożliwe – chyba, że ktoś naprawdę nieudolnie to zrobi.
Czy opłaca się szkodzić
To, że coś można zrobić to jeszcze nie oznacza, że trzeba. Mam nadzieję, że jest sporo osób, które zajmują się SEO i nie mają zamiaru nagle przestawić się ze swoich stron na konkurencję. Ja osobiście niezależnie od tego czy negatywne SEO jest możliwe nie mam zamiaru zacząć szkodzić konkurencji. Ci, którzy obiekcji moralnych nie mają również mogą tego nie robić oceniając opłacalność takich działań. Co za tym przemawia ?
Pierwsza sprawa to rzecz raczej będzie dotyczyć stron pojawiających się na popularne frazy, chyba, że ktoś z czystej złośliwości postanowi depozycjonować strony na frazę „wypas owiec w Bieszczadach”. To będzie raczej zjawisko marginalne a na głupotę i zawiść raczej lekarstwa nie ma. Druga rzecz to będzie to dotyczyć wyników z top 10, bo nie wyobrażam sobie, że ktoś postanowi szkodzić stroną z trzeciej czy czwartej dziesiątki.
To teraz proponuję przeanalizować strony jakie znajdują się w Google na popularne frazy w top 10 i zastanowić się ile trzeba pracy i kosztów, żeby je zafiltrować. Myślę, że lepiej tą pracę i pieniądze przeznaczyć na pozycjonowanie własnej strony.
Myślę, że najbardziej to należy obawiać się działań ze strony Google, bo coraz wyraźniej widać, że sobie nie radzą o czym świadczą propozycje z usuwaniem stron.
Przyłącz się do walki Google ze spamem – usuń stronę, do której prowadzą niskiej jakości linki.
Istny Monty Python (adekwatna wersja angielska).
Słusznie „prawisz” – też wychodzę z założenia, że lepiej skupić się na swojej stronie, niż majstrować przy innych. Różnice między stronami często są niewielkie i szkoda czasu i środków na takie „partyzanckie podchody”. Tym bardziej, że nie tylko pracownicy Google, ale i osoby z branży przyznają, że dobrej domenie wręcz niemożliwym jest, aby coś zrobić. Więc po co tracic czas na depozycjonowanie?
Tak to właśnie wygląda, poza tym jak jesteś dobry w tym co robisz to dasz sobie radę bez depozycjonowania. No, ale nie dla każdemu zależy na takiej satysfakcji.
W sumie teraz mieć domenę z dobrą historią to ogromna wartość.
I bardzo dobrze – jeszcze pół roku „akcji” Google i SEO w Polsce może się bardzo zmienić – już większość „specjalistów” nie zna podstaw z zakresu Wskazówek Google – tych podstawowych (o zgrozo!)
„ile trzeba pracy i kosztów, żeby je zafiltrować”
Wystarczy ledwie 20-30zł i 4-6 tygodni a strona będąca w TOP3 wyleci i znajdzie się pod koniec pierwszej dziesiątki. Do tego samo Google doprowadziło przez jedną z aktualizacji, ale cóż z „gigantem” nie ma co dyskutować, oni „zawsze” muszą mieć rację. Wartościowe artykuły przesunęli o 20-30 pozycji w dół a na topie usadowili spamiarki – nic dodać nic ująć. Zamiast walczyć ze spamem premiują go. Pozdrawiam.
To praktyczny przykład czy teoria ? Bo ja bym chętnie to sprawdził, ten blog jest na drugie pozycji na frazę „blog seo” – do końca sierpnia za 30 zł poproszę poza top 10 – ktoś chętny ? Sprawozdanie z podjętych działań do wglądu.
@Jacek Biernacki, znasz przysłowie… nie czyń drugiemu co tobie nie miłe?
„ktoś chętny”
Jak zapłacisz to czemu nie ;)
„Sprawozdanie z podjętych działań do wglądu”
Może jeszcze za free chcesz się dowiedzieć jak bardzo konkurencyjną frazę w 2 miesiące wprowadzić do TOP3?
Litości Jacku, za sam pomysł na ciekawy biznes w USA zapłacono milion dolarów, a Ty chcesz mieć wszystko na tacy za okrągłe 0zł. Zejdź na ziemię wiedza kosztuje.
Pozdrawiam!
Zadałem Ci proste pytanie na które widzę nie umiesz odpowiedzieć.
Natomiast piszesz o przykładach za milion, które pewnie dotyczą Cię tak samo teoretycznie jak wiedza, którą sugerujesz, że posiadasz.
Natomiast zauważyłem, że popularne robi się sprzedawanie wiedzy na blogach SEO, pewnie stąd te reklamy AdTaily bo tyle jest ona warta.
Zejdź na ziemię Twoja wiedza nie leży obok milionów.
Pozdrawiam
A mi wydaje się, że te wszystkie absurdalne wyniki są tylko wstępem do rewolucji. Nowsza wersja pingwina lub innego nielota.
Mieliście jakieś doświadczenia z przypadkami depozycjonowania. Jeśli tak to jak sprawa się zakończyła?
Z artykułu wynika, że najbardziej zagrożone są nowe strony i te o niskiej jakości. Ktoś musiałby się mocno nudzić, żeby chcieć szkodzić stronom, które i tak są daleko w wynikach wyszukiwania. Chociaż kto wie, szaleńców i eksperymentatorów pewnie nie brakuje. Aż się nawet zastanawiam, że przecież antyglobaliści w ten sposó mogliby walczyć ze znieawidzonymi koncernami, gdyby to było możliwe.
Tak czy siak ciekawostka z tym depozycjonowaniem. Chciałem poznać jakieś case study, jeśli ktoś coś zna. Pozdrawiam serdecznie
Ja niestety muszę zgodzić się z autorem.. niestety bo właśnie moje strony poleciały na skutek ostatnich zmian i teraz czeka mnie dłuższa walka.. mam tylko nadzieje, że będzie ona zwycięska a ostatecznie przynieście długotrwałe korzyści..
Natomiast odnośnie kwestii depozycjonowania – to Google przez ostatnie zmiany sprawiło, że pozycjonowanie staje się chore..
pzdr,
Pablo
A klientowi nie wytłumaczysz, że konkurencja zaszkodziła… Musi powstać usuwanie linków.
Rzeczywiście z nowymi stronami trzeba uważać, u mnie lokalna strona o kosmetyce w ciągu dwóch tygodni w top 15, nie za bardzo linkowana, raptem 100 linków… W ciągu kolejnych dwóch tygodni pozycje – 50, na frazy z anchora linków, ciekawe że nie spadła po tych co nie były linkowane.
Generalnie logicznym wydaje się, aby zamiast szkodzić 1 stronie przeskoczyć od razu 20 innych. No chyba, że ktoś komuś zalazł za skórę, ale to już inna bajka ;)
Nikt jakoś nie zauważył pewnej sprzeczności – skoro niby linki nie szkodzą i niby tak trudno zaszkodzić to skąd się biorą filtry zarówno te ręczne jak i z automatu, że nie wspomnę o wysyłanych „laurkach” typu : „wykryliśmy bla bla bla nienaturalne bla bla bla …”
Sporo się ostatnio pisze o negatywnym SEO… ale osobiście jeszcze się z tym nie spotkałem. Chyba to pozostanie tylko w sferze dyskusji akademickich.
Negatywne seo rządzi – teraz tak naprawdę stronę można wywalić z topów linkując ją automatami. Miesiąc i po sprawie – takie są wspaniałe reformy Google.
A podobno linki przychodzące miały nie szkodzić, jak tu na poważnie traktować ich wytyczne/wskazówki itp? To, że dzisiaj twierdzą, że coś jest ok nie znaczy, że jutro tak bęzie. Dla mnie bełkot płynący z ust pracowników Google stracił znaczenie…
Dziwi mnie jednak, że wszyscy chodzą tak na około wokół tematu *depozycjonowania* i walczenia z nim – nawet autor.
A teraz do rzeczy, jeśli komuś naprawdę zależy na zniszczeniu konkurencji to myślę, że tygodniowy blast z xrumara i mu podobnych narzędzi plus „do smaku” katalogowanie na v*agre za ~10usd wystarczy…(oczywiście nie sprawdzałem w praktyce)
A teraz jak się bronić:
https://www.google.com/webmasters/tools/disavow-links-main
Mam nadzieję, że pomogłem. ;)
@Jacek Biernacki, wciąż twierdzisz że depozycjonowania nie ma? I kto tu ma mało wiedzy mistrzu. Żałosne są te Twoje komentarze, atak jest oznaką słabości ale taki mistrz jak Ty powinien to wiedzieć, w końcu kłania się tutaj jedna z umiejętności które każdy dobry pozycjoner powinien posiadać – umiejętność panowania nad sobą. Pozdrawiam.
Proszę o przytoczenie miejsca, gdzie twierdziłem, że depozycjonowania nie ma lub, że nie jest możliwe …
Na resztę nie odpowiadam, chyba, że bardzo sobie życzysz. Pozdrawiam
Bardzo interesująca dyskusja wywiązała się pod tym artykułem. Pozdrawiamy.
Oczywiście, że negatywne SEO istnieje, istniało i będzie istnieć
Popieram Cię całkowicie bez sensu tyle czasu poświęcać na depozycjonowanie jeśli można zająć się pozycjonowaniem swojej strony w tym czasie
A po ostatnich zmianach w wytycznych google dopiero będą akcje, jak konkurencja będzie kupowała multikod dodawała do całej sieci zamiast swoją to czyjąś stronę… :)
Negatywne seo jest ale jak sprawdzić historię linkowania, to nagle się okazuje że to albo sam klient z niewiedzy, albo firma jakiej zlecił działania jest sprawcą spadków. Spotkałem się z prawdziwym takim negatywnym pozycjonowaniem może raz…
Ja wiele razy spotykałem się z negatywnym seo. Mam wrażenie, że dobrze dobrane „złe strony” są jak najbardziej w stanie skrzywdzić webmastera i jego serwis. Tak sobie spamerzy testują dobre listy.
Dla przykładu. Spamer X linkuje konkurencję lub kogoś innego pewną listą (wstępnie posegregowaną), sprawdza efekty. Jeśli nastąpił wzrost – wykorzystuje ją dla siebie. Jeśli spadek to wiadomo, że lista ma jeszcze toksyczne linki. Przerabiałem temat wielokrotnie.
Negatywne seo będzie się nasilać z każdym rokiem. Ogólnie taktyka znana od zawsze. Zwykle atakowanie stron masowym spamem w postaci XR lub innych programów. Obecnie google nie działa natychmiastowo. Zanim strona poleci w niebyt, chwilę to zajmie przez co webmaster może sobie nie zdawać sprawy przez co jest filtr.
Negatywne SEO to bardzo szkodliwe zjawisko, bardzo ciężko się przed nim bronić, ale jeśli mamy naprawdę dobre treści, to ciężko będzie nam zaszkodzić.