Robiłem sobie ostatnio mały test na Duplicate Content i skuteczność linków umieszczonych w zdublowanej treści. Głównie chciałem sprawdzić na ile skuteczne jest kopiowanie treści z jedngo presell page na innych w ramach wykorzystania artykułów do przedruku. Niekiedy ktoś korzysta z moich precli i umieszcza artykuły z zachowaniem linków u siebie. Druga sprawa związana z updatem Google zwanym MayDay i dość solidnym sprzątaniem indeksu. Sporej części domen spadła ilość stron w indeksie, a analizując statystkę precli do których dodaję artykuły, to na niektórych zostało 1% (słownie: jeden %) serwisu po zapytaniu (site:). [czytaj dalej ...]
Po ostatnich zmianach w algorytmie Google mieliśmy przetasowania w wynikach, zmiany nie były może jakieś spektakularne, ale niektórym pewnie podniosły ciśnienie. Ma to związek ze sposobem linkowania stron, Google jedne linki ceni bardziej od innych a teraz jeszcze bardziej zaznaczył tą dysproporcję. I tak kilka porządnych tematycznych linków do strony z porządną zawartością rozdziela w wynikach strony z kilkudziesięcioma tysiącami linków. Dobra starczy o jakości linkowania bo to nudne i nieżyciowe … chyba. [czytaj dalej ...]
Zdaje się, że w ostatnim czasie nowa wersja Google – Caffeine, wraz ze zmianami w silniku wyszukiwania zagościła już na dobre. Przez ostatni miesiąc otrzymywaliśmy na zmianę wyniki z nowej wersji i starej. A ostatni tydzień czy półtora to też nowy interfejs, w sumie dla pozycjonowania bez znaczenia, ale jakiś grafik mógłby popracować nad ikonkami i czytelnością mapki (jakaś taka rozmyta). [czytaj dalej ...]
Czasem mam okazję śledzić dyskusję zaczynającą się zdaniem „mam podobne parametry SEO jak strona X i mam więcej linków, a jestem niżej w wynikach”. Odpowiedzi bywają różne od linkuj dalej, przez Google tak ma, na szczęście zawsze ktoś zauważy, że liczy się też jakość linków. Nie chcę za bardzo w tym poście wnikać czym są linki dobrej jakości (pisałem: jak ocenić wartość strony), natomiast skupiłbym się na dwóch ważnych aspektach linków, wpływie na pozycję na dane słowo oraz na moc domeny. [czytaj dalej ...]
W ostatnim czasie uruchomiłem drugi serwis z ofertami, po doświadczeniach z funkcjonalnością pierwszego wprowadziłem sporo zmian pod kątem użytkowników, co niestety odbiło się na dostosowaniu pod SEO. Rozwiązanie kompromisu pomiędzy tym, że ludzie lubią oglądać a boty czytać poskutkowało tym, że serwis ma sporo obrazków (elementów wizualnych) a mało treści, dodatkowo przez ładowanie tego wszystkiego demonem prędkości nie został. Do obejrzenia – kwatery Zakopane. Ale … Google twierdzi, że należy robić strony pod użytkownika i „jestem przekonany” że znajdzie to odzwierciedlenie w docenieniu przez bota stron niewiele różniących się zawartością … z pewnością. [czytaj dalej ...]
Ostatnio toczy się sporo dyskusji na temat parametru site:, który teoretycznie sprawdza ilość podstron danego serwisu. Piszę, że teoretycznie, gdyż komenda ta podaje te wartości w przybliżeniu, czasem nawet dużym. Ostatnio w ogóle pokazuje różne, raz podaje w miarę zbliżone wartości a raz obcina je o kilkanaście lub kilkadziesiąt %. Bliżej mu czasem do liczby stron zaindeksowanych przez Google pokazywanych w narzędziach dla webmasterów. [czytaj dalej ...]
Dwa podstawowe działania związane z pozycjonowaniem stron to budowanie zawartości i jej optymalizacja oraz pozyskiwanie linków najlepiej w sposób naturalny. Pierwsze z tych działań jest w pełni zależne od nas i warto to jak najlepiej wykorzystać. Głównym elementem optymalizacji serwisu jest sposób użycia (rodzaje atrybutów html) oraz rozmieszczenia słów kluczowych na stronie. Drugim elementem jest linkowanie pomiędzy treściami w serwisie. [czytaj dalej ...]
Najnowsze komentarze