Do tej pory opublikowaliśmy dwa wywiady z prelegentami pierwszego dnia semKRK#17 on-line! Warto przeskoczyć teraz do drugiego dnia i zaprezentować odpowiedzi Sebastiana Mioduszewskiego – eksperta SEO, który z branżą SEM/SEO związany jest od 2007 roku. Od 2012 odpowiedzialny za budowę i realizację strategii SEO dla serwisu Pracuj.pl. Jego doświadczenie jest nakierowane na działania SEO stanowiące odpowiedź na potrzeby użytkowników. Jego mottem są słowa Izaaka Newtona: „Standing on the shoulders of giants”, które rozumie jako codzienne angażowanie do swoich działań nowoczesnych technologii i bazowanie na wiedzy i doświadczeniu wielu współpracowników. Na co dzień współpracując z zespołem Product Development liczącym ponad 100 osób. Zapraszamy na wywiad!
Sebastian, Jakieś narzędzia wpadły Ci ostatnio w oko, które są nowe lub mniej znane?
Najciekawszym nowym narzędziem jest contadu.com. Pozwala w pełni zaplanować i realizować prace związane z tworzeniem treści skutecznych w Google. Dla mnie osobiście taką „wisienką na torcie” jest funkcja klastrowania (grupowania treści opublikowanych w serwisie w grupy podobne tematycznie). Dzięki niej mogłem poradzić sobie z problemem kanibalizacji treści (wiele artykułów poruszających podobne tematy a co za tym idzie rankujących na te same frazy na niższych niż możliwe pozycjach). Dzięki zastosowaniu algorytmów uczenia maszynowego system wskazuje nam które treści w serwisie są zbyt podobne do siebie aby osiągać dobre wyniki w Google. Dodatkowo możemy mieć pełną kontrolę procesu pozyskiwania treści. Wiemy na którym etapie są wybrane artykuły oraz możemy mierzyć efektywnośc.

Chcesz zobaczyć wystąpienie Sebastiana na semKRK?
Czy znasz jakieś dobre narzędzie, które pozwala na śledzenie dużej ilości słów kluczowych, bez ponoszenia wysokich kosztów?
Odpowiedź zależy od naszych potrzeb i dla tego jest inna dla każdego z nas. Po pierwsze należy się zastanowić ile słów kluczowych powinniśmy mierzyć. Wdrożenie not provided (praktycznie brak możliwości sprawdzenia ile konkretna fraza daje odwiedzin w serwisie) oznacza że nie znamy pełnej wartości słów kluczowych. Moim rozwiązaniem stało się analizowanie mierników (sprzedaż, odwiedziny, rejestracje itp.) nie dla słów kluczowych ale podstron lub całych sekcji serwisu. Tą informację mamy w prawie każdym narzędziu do analityki internetowej.
Najprostszym i bardzo dobrym cenowo rozwiązaniem są narzędzia takie jak np. Senuto lub SemStorm. Przy bardzo dużych potrzebach warto dopytać o indywidualną ofertę (powinna być atrakcyjna). Takie usługi „w standardzie” zazwyczaj dają dużo więcej informacji niż tylko pozycja w SERP-ach. Osobiście na co dzień korzystam z takich informacji jak pozycje konkurencji, zawartość tagu title zaindeksowanego w wyszukiwarce, adres URL wyświetlany w wynikach wyszukiwania i wielu innych do których mam dostęp dzięki API monitoringów (informacje te są zbierane niejako przy okazji sprawdzania pozycji).
Jeśli naszym priorytetem jest prostota użycia i jak największa ilość zbieranych danych warto użyć narzędzi takich jak https://www.valueserp.com czy https://dataforseo.com . Używając takich narzędzi możemy stworzyć narzędzie pobierające dla nas z wyszukiwarki dane które są dla nas najważniejsze. Nie jesteśmy tutaj ograniczeni tym jakie dane udostępnia dla nas monitoring. Dodatkowo aplikacja taka nie wymaga stałej opieki (to dostawca usługi w zamian za opłatę bierze na siebie problemy związane z odpytywaniem wyników wyszukiwania).
Rozwiązaniem najtańszym i dającym pełną kontrolę danych jest tworzenie własnych narzędzi odpytujących wyszukiwarki. Od strony technicznej narzędzia tego typu nie są skomplikowane. W większości wypadków programista w ciągu jednego dnia może przygotować takie rozwiązanie. Minusem takiego rozwiązania jest konieczność stałego nadzoru. Do pobierania zawartości wyników wyszukiwania stale potrzebujemy tzw. Proxy. Nie wchodząc w szczegóły odpytując wyszukiwarkę stale potrzebujemy nowych proxy. Dla tego rozwiązanie to potrzebuje stałej obsługi zespołu technicznego.
Czy znasz jakąś alternatywę (dobrą i tańszą) dla modułu best pages traffic w ahrefs (która pokaże zestaw fraz, dla których rankuje konkretna podstrona serwisu)?
Usługi takie jak Senuto i SemStorm umożliwiają dostęp do takich informacji. Warto wziąć też pod uwagę. Google Search Console. Zaletą jest tu darmowy dostęp i pochodzenie „ze stajni” Google. Moje doświadczenie wskazuje że w wielu kontaktach z c-level lub klientem argument „jak wskazuje narzędzie Google” naprawdę pomaga i znacznie ułatwia współpracę 😉
Jakich narzędzi używacie do komunikacji hipotez i rezultatów w zespole? Moim zdaniem jednoosobowo pracuje się o wiele prościej niż w teamie – gdzieś warto to wszystko umieścić aby każdy zaangażowany miał dostęp.
Jestem bardzo przywiązany do aplikacji One Note (darmowa dla użytkowników Windows). Program ten pozwala bardzo dokładnie opisać zadanie na etapie gdy pracujemy z nim sami. Dzięki możliwości wklejania grafik, tabel , dodawania komentarzy nasze notatki będą ułatwiać pracę wzrokowcom. Opcje udostępniania pozwalają na pracę w zespole i swobodną wymianę myśli. One note pozwala bardzo szczegółowo opisywać projekty jednocześnie dając możliwość pracy zespołowej i wymiany uwag.
Macie mechanizmy informujące o spadku witryny, awarii itp.? Z jakich narzędzi bierzecie informacje do takich alertów.
Odpowiem krótko – tak. W kwestii awarii czy dostępności serwisu bardzo dobre są rozwiązania takie jak https://www.pingdom.com.
W kwestiach związanych bezpośrednio z pozycjonowaniem na co dzień używam ekosystemu narzędzi które opisałem w mojej prezentacji na SEMKRK#17. Rozwiązanie takie składa się z:
- Alertów – aplikacje w języku R pobierające dane z wybranych narzędzi (np. monitoringu pozycji) i posiadające zestaw reguł (przykładowo jeśli pozycja dla danej frazy spadnie o minimum 5 pozycji) dla których mają wysłać mail z informacją o tym co się stało.
- raportów ad-hoc – wcześniej przygotowane panele raportowe w których na żądanie mogę sprawdzić najważniejsze wskaźniki – codzienność pracy z klientem tak wewnętrznym jak i zewnętrznym pokazuje że w wielu sytuacjach szybkość reakcji departamentu SEO znacznie podnosi jakość współpracy.
Czy rosyjski Yandex Metrica może być wg Ciebie dobrym scyzorykiem dla SEO? Niekoniecznie szwajcarskim.
Tak. Yandex Metrica jest mało popularny w Polsce daje jednak dostęp do wielu bardzo ciekawych raportów. Śmiało to narzędzie można polecić każdemu użytkownikowi Google Analytics.
Twoje narzędzie po prostu importuje dane z API. Czy nie wygodniej na tym poziomie po prostu korzystać z narzędzi, które oferują te same funkcjonalności i są darmowe?
Najpierw krótka piłka z mojej strony. Nie. Narzędzie pokazane w trakcie SEMKRK pozwala:
- pobierać dane z płatnych narzędzi gdy darmowe rozwiązania takich danych nie oferują lub udostępniają ograniczone dane,
- upraszczać procesy z mojego doświadczenia zamiast spędzić 30 minut na odtwórczej walce z formatowaniem pobranych raportów w Excelu w ciągu 2 minut mam gotowy raport,
- pobierać dokładnie te dane które są dla nas ważne,
- dzięki zestawowi monitów oszczędzamy czas rezerwowany na „sprawdzanie pozycji” i inne powtarzalne zadania.
