Przekierowanie 301 miało bardzo szerokie zastosowanie przy SEO. Służyło głównie do: podniesienie mocy strony – przekierowanie z innej domeny przenosiło sporą część jej wartości na stronę docelową, radzenie sobie z problemem filtrów – 301 nie przenosiło kar a przenosiło moc strony (moc linków), ukrycie linków – narzędzia SEO nie pokazywały przekierowania i linków z przekierowywanej domeny. [czytaj dalej ...]
]]>Każda osoba, która zajmuje się SEO, niezależnie czy robi to zawodowo czy prywatnie, ciekawa jest efektów swojej pracy. Upraszczając, chce wiedzieć na jakiej pozycji znajduje się strona na wybrane słowa kluczowe. Można to robić na piechotę, czyli wyszukiwać frazy bezpośrednio w Google co przy dużej ilości słów jest zajęciem żmudnym, nudnym i mało efektywnym. Dlatego powstało wiele narzędzi do monitorowania pozycji, które mają ułatwić pracę w tym zakresie. [czytaj dalej ...]
]]>Ostatnio dostałem swojego pierwszego filtra w Google, w sumie taki solidny – wszystkie frazy w dół o jakieś kilkadziesiąt pozycji i nie wyświetla się nic z tytułów artykułów, wyświetlane są natomiast ciągi zdań. W sumie dobrze, że go dostałem, bo bym sobie tak żył w błogiej nieświadomości nie przejmując się, że mnie to może spotkać (to tak jak z backup’em, są Ci co robią i Ci co jeszcze nie stracili danych). [czytaj dalej ...]
]]>Roland Topór w swoim „Dzienniku Panicznym” (osobiście polecam wszystkim, którzy lubią groteskę i czarny humor w dobrym wydaniu) rozważał przeprowadzenie się z Francji do jakiegoś kraju afrykańskiego celem oszczędności. Z racji tego, że w Polsce mamy dobrobyt to rafinerie oraz spółki cukrowe postanowiły ten fakt wykorzystać i podnieść ceny, zachęcając w ten sposób Polaków do oszczędności (nie wszyscy jeszcze wiedzą, że są bogaci). Ja też chyba jeszcze nie wiem, bo wybrałem kierunek oszczędzania i niestety padło na SEO. [czytaj dalej ...]
]]>Ostatnimi czasy Google zaserwowało nam sporo zmian w wynikach wyszukiwania, na początek były zmiany w algorytmie (przez niektórych nazywane awarią Google), potem w wynikach organicznych pojawiły się odnośniki z map (nie tylko na hasła lokalne – pisała Lexy: Masakra w SERPach, w komentarzach jest sporo odnośników do innych artykułów w tym temacie). W sumie skończyło się podobnie jak przy innych aktualizacjach, czyli jednym wzrosło drugim spadło – o tym czy jest lepiej czy gorzej nie piszę, bo staram się mieć pragmatyczny stosunek do zmian w Google – można podziękować albo się dostosować. [czytaj dalej ...]
]]>Czasem sobie czytam posty na forach zaczynające się pytaniem „Do ilu katalogów dziennie dodawać stronę” lub „Ile artykułów dziennie dodawać do presell page”. Tak mnie zastanawia to poszukiwanie recepty na pozycjonowanie, bo algorytmu Google nikt nie zna i mogą być jedynie lepsze lub gorsze teorie, mniej lub bardziej sprawdzone w działaniu. W sumie odpowiedz zależy od dość sporej liczby czynników i też nie jest za bardzo precyzyjna. Do tego dochodzi jeszcze optymalna pod względem bezpieczna / efektywna i mamy już dość spory kawałek wiedzy o pozycjonowaniu. Poniżej kilka elementów, które warto uwzględnić przy podjęciu decyzji o działaniach związanych z linkowaniem strony. [czytaj dalej ...]
]]>Robiłem sobie ostatnio mały test na Duplicate Content i skuteczność linków umieszczonych w zdublowanej treści. Głównie chciałem sprawdzić na ile skuteczne jest kopiowanie treści z jedngo presell page na innych w ramach wykorzystania artykułów do przedruku. Niekiedy ktoś korzysta z moich precli i umieszcza artykuły z zachowaniem linków u siebie. Druga sprawa związana z updatem Google zwanym MayDay i dość solidnym sprzątaniem indeksu. Sporej części domen spadła ilość stron w indeksie, a analizując statystkę precli do których dodaję artykuły, to na niektórych zostało 1% (słownie: jeden %) serwisu po zapytaniu (site:). [czytaj dalej ...]
]]>Po ostatnich zmianach w algorytmie Google mieliśmy przetasowania w wynikach, zmiany nie były może jakieś spektakularne, ale niektórym pewnie podniosły ciśnienie. Ma to związek ze sposobem linkowania stron, Google jedne linki ceni bardziej od innych a teraz jeszcze bardziej zaznaczył tą dysproporcję. I tak kilka porządnych tematycznych linków do strony z porządną zawartością rozdziela w wynikach strony z kilkudziesięcioma tysiącami linków. Dobra starczy o jakości linkowania bo to nudne i nieżyciowe … chyba. [czytaj dalej ...]
]]>Czasem mam okazję śledzić dyskusję zaczynającą się zdaniem „mam podobne parametry SEO jak strona X i mam więcej linków, a jestem niżej w wynikach”. Odpowiedzi bywają różne od linkuj dalej, przez Google tak ma, na szczęście zawsze ktoś zauważy, że liczy się też jakość linków. Nie chcę za bardzo w tym poście wnikać czym są linki dobrej jakości (pisałem: jak ocenić wartość strony), natomiast skupiłbym się na dwóch ważnych aspektach linków, wpływie na pozycję na dane słowo oraz na moc domeny. [czytaj dalej ...]
]]>W ostatnim czasie uruchomiłem drugi serwis z ofertami, po doświadczeniach z funkcjonalnością pierwszego wprowadziłem sporo zmian pod kątem użytkowników, co niestety odbiło się na dostosowaniu pod SEO. Rozwiązanie kompromisu pomiędzy tym, że ludzie lubią oglądać a boty czytać poskutkowało tym, że serwis ma sporo obrazków (elementów wizualnych) a mało treści, dodatkowo przez ładowanie tego wszystkiego demonem prędkości nie został. Do obejrzenia – kwatery Zakopane. Ale … Google twierdzi, że należy robić strony pod użytkownika i „jestem przekonany” że znajdzie to odzwierciedlenie w docenieniu przez bota stron niewiele różniących się zawartością … z pewnością. [czytaj dalej ...]
]]>