Core Web Vitals - Ważne czynniki dla Google
Dowiedz się więcej na temat nowych czynników, które zostały uznane przez Google za istotne i mogą mieć wpływ na pozycję stron w wyszukiwarce.
Tegoroczny festiwal SEO w Katowicach otwierała prelekcja Damiana Słakowskiego, który podzielił się ze słuchaczami wnioskami na temat algorytmicznych czynników, które odpowiadają za sukces treści na stronach www. Autor prezentacji obliczył za pomocą współczynnika korelacji Pearsona, jak duże znaczenie ma długość treści na stronie, miejsce występowania kluczowych fraz, tzw. TA (Topical Authority), wiek domeny oraz backlinki prowadzące do witryny. Zaznaczyć jednak należy, że korelacja między tymi czynnikami a pozycją w Google nie jest związkiem przyczynowym.
Najważniejsze wskazówki:
Podsumowując: na sukces treści w wyszukiwarce Google składa się wiele czynników. Treść ma być przede wszystkim dobrej jakości: musi być więc napisana pod użytkownika, ale też być zgodna z zasadami SEO. Zdobycie wartościowego zaplecza pod postacią linków zewnętrznych może dodatkowo pozytywnie przełożyć się na pozycje w wynikach wyszukiwania.
Prelekcja Gabrieli Róg udowodniła, że analiza konkurencji wcale nie musi być żmudnym i długim procesem. W rzeczywistości można go podzielić na kilka etapów.
1. Identyfikacja konkurencji
Pierwszym etapem jest wskazanie konkurencji i najpewniejszym źródłem informacji jest przede wszystkim klient. Oczywiście na tym etapie warto się również wspomóc dostępnymi narzędziami analitycznymi (np. Senuto) oraz wynikami w wyszukiwarce na dane zapytanie.
2. Analiza strony w odwołaniu do konkurencji
Kolejnym krokiem jest weryfikacja podstawowych parametrów strony klienta, takich jak wiek domeny czy certyfikat SSL. Analizie należy również poddać elementy wpływające na UX (User Experience).
3. Dokładna analiza wybranych konkurentów
Mając już wiedzę na temat konkurencyjnych domen, należy wytypować najmocniejszych przeciwników i porównać ich statystyki w narzędziu Ahrefs w sekcji Batch Analysis, która pozwala porównać i wyeksportować wyniki aż 200 adresów URL. Na tym etapie warto również skorzystać z Senuto, który pozwoli sprawdzić historię widoczności wybranych domen.
4. Link building
Poprzedni krok analizy pozwala wskazać najmocniejszą, konkurencyjną domenę. Na tym etapie warto więc zająć się analizą backlinków konkurenta. Za pomocą takich narzędzi jak Ahrefs czy Linkhouse można nie tylko wskazać miejsca, gdzie warto umieścić link do strony klienta, ale też oszacować koszt takiej inwestycji.
5. Treść na stronie
Ostatnim elementem analizy jest weryfikacja treści na stronie w porównaniu do konkurencji. Na tym etapie warto skorzystać z narzędzia SurferSEO, które wskazuje wytyczne optymalizacyjne na podstawie analizy konkurentów w Top10 wyników wyszukiwania.
Podsumowanie: analiza konkurencji pozwala już na początkowym etapie współpracy z klientem oszacować koszt inwestycji. Kluczowe jest również regularne odwoływanie się do działań konkurencji, zarówno pod kątem treści znajdujących się na stronach, jak i liczby (i jakości) backlinków.
Działania outreach na których skupił się autor, to jedna z wielu metod budowania wartościowego profilu linków. Miłosz Krasiński podkreślił, że w kampaniach outriczowych bardzo ważna jest weryfikacja czy wiadomości, które wysyłamy za pomocą narzędzi do automatycznego kontaktu mailowego, są skuteczne. Prelekcja była wypełniona wskazówkami i poradami pozwalającymi na sprawne przeprowadzenie kampanii.
Najważniejsze wskazówki:
Prelegent opowiedział także o anglojęzycznej platformie HARO, pomagającej łączyć redaktorów i seowców poprzez wystawianie dziennych pytań/zleceń na dany temat. Dzięki temu narzędziu nasza wypowiedź może zostać umieszczona na popularnych witrynach zagranicznych. Pozwoli to na dotarcie ze swoją treścią do większej grupy odbiorców.
Podsumowując, outreach to nie tylko pozyskiwanie linków, ale także kontaktów i nawiązywanie relacji biznesowych, które niejednokrotnie mogą przydać się w przyszłości.
Autor prezentacji o intrygującym tytule pochylił się nad tematem duplikacji treści i na początku przedstawił podejście branży do tego zagadnienia, które jest jednoznacznie negatywne. Zestawił ten ogólny pogląd panujący wśród SEOców z tym, co mówi Google i pokazał, że wyszukiwarka wykazuje się tu sporą dozą tolerancji, uznając różne fragmenty tekstów pod różnymi adresami URL za rzecz naturalną.
Następnie prelegent na prostych przykładach zweryfikował kilka założeń dotyczących duplikacji, które okazały się błędne:
Autor radził jak bezpiecznie kopiować treści. Można to robić za pomocą intencji użytkownika, z których najprościej mówiąc każda jest reprezentowana przez odrębny adres URL i posiada zestaw unikalnych anchorów do niego prowadzących. Jednocześnie zaznaczył, że należy unikać tej samej treści na zduplikowanych adresach. Spowoduje to, że podstrony zamiast walczyć o pozycje z konkurencją, będą to robić między sobą w obrębie jednego serwisu, co jest zjawiskiem bardzo niepożądanym.
W trakcie swojej prezentacji Ewelina Podrez-Siama podzieliła się z uczestnikami dobrymi praktykami, dzięki którym w początkowych miesiącach współpracy możliwe jest osiągnięcie pierwszych efektów.
Prelegentka m.in. doradziła, aby:
Kolejny prelegent zaczął swoją prezentację od poruszenia kwestii obecnego podejścia do contentu. Zwrócił m.in. uwagę na to, że ręczna analiza klastrów słów kluczowych jest niezwykle czasochłonna, a uzyskane efekty nie zawsze są satysfakcjonujące. Damian Kiełbasa, który na co dzień pracuje jako CTO w platformie content intelligence CONTADU, zaproponował uczestnikom festiwalu rozwiązanie usprawniające proces tworzenia treści, które polega na wykorzystaniu algorytmu genetycznego.
Prelegent na konkretnym przykładzie pokazał, jak algorytm genetyczny potrafi łączyć ze sobą elementy, które zdały egzamin w poprzednich próbach. Następnie przedstawił sposób, w jaki można wykorzystać algorytm genetyczny w SEO - dzięki temu rozwiązaniu można m.in. zautomatyzować proces tworzenia skutecznych content planów oraz oszacować, czy dany budżet pozwala nam w pełni zagospodarować tematykę. Na koniec autor prezentacji poruszył temat semantyki, wyjaśniając pokrótce, dlaczego należy jej używać w SEO.
Ostatnią prelekcję drugiej sesji przygotował Daniel Duriš. Tematem był proces migracji dużych witryn. Na wstępie Prelegent przedstawił powszechne problemy dużych serwisów oraz tych posiadających dłuższa historię. Wymienione zostały takie kwestie, jak występowanie dużej ilości nieistniejących adresów URL, nieelastyczne stare systemy CMS wykorzystywane do zarządzania starymi witrynami oraz skomplikowane mapy strony z dużą ilością podstron wpływające negatywnie na crawl budget serwisu. Następnie omówiona została kwestia współpracy agencji wykonującej migrację z właścicielami dużych witryn, a zatem przeważnie z korporacjami i dużymi firmami. Prelegent zwrócił uwagę na fakt występowania w dużych korporacjach działów odpowiedzialnych za realizację poszczególnych zadań. Podczas migracji witryny ( i nie tylko) interesy różnych działów mogą wzajemnie się wykluczać. Należy zatem pogodzić cele działu SEO, działu marketingu czy sprzedaży i umieć współpracować z poszczególnymi jednostkami, aby dobrze skoordynować działania. Warto wypracować dobre porozumienie z webdeveloperami dla skutecznej realizacji celów związanych z pozycjonowaniem.
Podczas prezentacji Autor wypunktował popularne problemy występujące po migracji witryny, takie jak między innymi:
Następnie słuchacze mieli okazję zapoznać się z przykładami udanych migracji wykonanych przez prelegenta. Prelegent krótko omówił migracje wykonane dla Unica, DPD i sklepu dla biegaczy Bežecké Potreby. Wspomniał o napotkanych problemach, celach do osiągnięcia oraz ostatecznym efekcie migracji w kontekście widoczności i ruchu organicznego.
Głównym elementem prezentacji było omówienie skutecznego procesu migracji. Autor zwrócił tu uwagę na konieczność wykonania takich kroków, jak między innymi przygotowanie backupu contentu i istniejących adresów URL, listy utraconych adresów URL po migracji, konieczność zgłoszenia zmian w narzędziu Google Search Console, wykonania weryfikacji prędkości działania strony i występowania ewentualnych elementów spowalniających. W ramach podsumowania prezentacji słuchacze otrzymali możliwość dostępu do checklisty przygotowanej przez Basta Digital dostępnej w formie arkusza Google Docs. Prelekcja była wyczerpującym omówieniem podstawowych kroków do wykonania podczas migracji dużej witryny. Autor przekazał wiedzę w pigułce, mogącą stanowić dużą wartość przede wszystkim dla początkujących specjalistów SEO, webdeveloperów oraz osób poszukujących przejrzystego podsumowania kroków do wykonania przy migracjach. Wszyscy lubimy konkretne zestawienia, dlatego prelekcje bez wątpienia można uznać za udaną.
Druga prelekcja trzeciej sesji Festiwalu dotyczyła ręcznego audytu technicznego SEO. Wystąpienie przygotował Michał Borzyszkowski, ekspert SEO, programista wyspecjalizowany w technicznych aspektach pozycjonowania. Na samym wstępie słuchacze dowiedzieli się, że przez audyt należy rozumieć więcej niż weryfikację strony z użyciem jednego narzędzia. Jest on kompleksową, dogłębną, wielogodzinną analizą całego serwisu. Autor prezentacji omówił plan działania podczas wykonania audytu i poszczególne kroki – począwszy od uruchomienia crawlera, przez ręczną analizę serwisu, sprawdzenie działania wersji mobilnej, weryfikację wyników wyszukiwania poprzez zastosowanie operatora site:, weryfikację z użyciem Google Search Console ze szczególnym uwzględnieniem zakładki skuteczności oraz na samym końcu analizę wykonów z crawlera. Prelegent zwrócił uwagę na ważność zweryfikowania stanu prawidłowo indeksowanych podstron i adresów wykluczonych przy pomocy Search Console oraz weryfikację zakładki skuteczności w kontekście poszukiwania duplikatów czy bezwartościowego contentu indeksowanego przez Google. Autor podsunął słuchaczom szereg praktycznych prostych wskazówek przygotowanych z własnego doświadczenia. Były to subiektywne porady mogące dobrze wpłynąć na cały proces wykonania audytu. Słuchacze dowiedzieli się między innymi, że:
Prelekcja była streszczeniem najważniejszych kroków w pigułce, ale także ciekawym omówieniem całego procesu z praktycznego punktu widzenia. Autor nie wahał się zwrócić uwagi na z pozoru trywialne kwestie, które jednak w praktyce dostarczają wielu problemów, utrudniają pracę i zdarza się, że decydują o zaniżonej jakości całego audytu.
Podsumowanie przygotowane przez: Angelikę Heba, Annę Błotnicką, Sylwię Głowacką oraz Grzegorza Marucha.
Dowiedz się więcej na temat nowych czynników, które zostały uznane przez Google za istotne i mogą mieć wpływ na pozycję stron w wyszukiwarce.
Doświadczony copywriter to potencjalny zwycięzca w telewizyjnym teleturnieju. „Człowiek orkiestra”, mający wiedzę z niemal każdej dziedziny. Dodatkowo jego zadanie polega na pogodzeniu ze sobą wielu aspektów, począwszy od zebrania branżowych informacji, przez skomplikowaną analizę SEO, aż stworzenie dobrej jakości tekstu.
Shopify to prosta intuicyjna platforma do tworzenia sklepów internetowych. Łatwość obsługi i liczne funkcjonalności skłaniają coraz to większą liczbę osób do skorzystania z jej możliwości. Czy warto? I jak wygląda zarządzanie oprogramowaniem Shopify?