W agencji Elephate odpowiada za konsultacje w zakresie technicznego SEO dla średniej wielkości i dużych projektów. Posiada certyfikaty Yellow Belt SearchMetric oraz Google Analytics – uważa, że dane oraz ich analiza są kluczem do poprawnej optymalizacji strony. W codziennej pracy skupia się na identyfikowaniu problemów z crawlowaniem oraz indeksacją stron oraz szuka rozwiązań, które pomogą zwiększyć wartościowy ruch organiczny.
KM:O czym opowiesz na semKRK?
MC: Podczas prezentacji chcę pokazać, że bez budowania linków, za pomocą wyłącznie technicznego SEO można dostarczyć wartościowy ruch na stronie.
Styczeń to czas podsumowań roku. Co w branży SEM było największą porażką 2016 /największym wydarzeniem/największym sukcesem?
Styczeń to faktycznie dobry moment, żeby spojrzeć na miniony rok i wyciągnąć wnioski na 2017. Według mnie rok 2016 był bardzo trudny pod kątem “nienazwanych updatów” ze strony Google. Na przestrzeni roku można było zaobserwować spore zmiany w SERPach i nie zawsze można było jednoznacznie przypisać te ruchy do konkretnego algorytmu. W efekcie bardzo ciężko było reagować na te zmiany. Sukcesem w 2016 roku był fakt, że Google zaczął przyznawać realne bonusy stronom, które są mobile-friendly – szybko się ładują i poprawnie wyświetlają na urządzeniach mobilnych. Z jednej strony mam na myśli technologię AMP, ale również myślę o stronach które są po prostu doskonale zoptymalizowane pod kątem szybkości ładowania. Patrząc na ostatnie lata, to właśnie 2016 rok przyniósł więcej zmian w zakresie mobilnego SEO niż “Mobilegeddon” z 2015 roku.
Na jakie trendy polecasz zwracać szczególną uwagę w 2017 ?
Na pewno warto obserwować to jak GoogleBoty radzą sobie z crawlowaniem dynamicznych treści. Google już dawno ogłosił, że AJAX mu nie straszny i sobie doskonale z nim radzi. Według moich obserwacji nie do końca tak jest. Niestety, ale miałam okazję śledzić dramatyczne spadki widoczności stron, które ze zbyt dużym zaufaniem podeszły do słów ze strony Google dotyczących crawlowania JavaScriptu. Pewne jest jednak to, że mechanizm ten będzie udoskonalany i zamierzam to obserwować.
Jestem również bardzo ciekawa efektów Pingwina w trybie real-time i jego granularnego sposobu działania. Google istotnie utrudniło proces analizy linków i efektów jakie można za ich pomocą osiągnąć. Mimo tych utrudnień wierzę, że uda nam się wypracować sposób monitorowania tego zagadnienia.
Poranną prasówkę zaczynasz od? Jakie źródła wiedzy polecasz?
Moim news feedem jest Twitter – w ten sposób mogę wychwycić sporo gorących tematów. Do tego dochodzi przegląd takich “tytułów” jak:
https://www.searchenginejournal.com
Dodatkowo odwiedzam takie blogi jak:
1-3 polecane mało znane narzędzia z Twojego warsztatu, które polecasz.
Ciekawe pytanie:). W codziennej pracy wykorzystuję głównie większe maszyny, znanych brandów: DeepCrawl, Onpage.org. Aczkolwiek mogę powiedzieć, że ostatnio miałam możliwość sprawdzenia wersji beta dość ciekawych narzędzi – myślę, że niedługo będą dostępne na rynku i zapowiadają się obiecująco.
Pierwsza platforma to ContentExperience od SearchMetrics – narzędzie, które ma pomagać w dwóch procesach: tworzenia briefów rozsyłanych do osób tworzących treści oraz samego tworzenia świetnie zoptymalizowanego contentu. Jest to platforma nad którą pracowało kilkudziesięciu developerów przez 3 lata, a wszystko po to żeby rozgryźć mechanizm algorytmu analizującego content na stronie. W Elephate pracujemy właśnie nad case study dotyczącym efektów działania tego narzędzia.
Drugie narzędzie to Safecont – platforma pozwalająca analizować jakość i ilość treści na stronie w bardziej szczegółowym stopniu niż robią to inne crawlery. Tool sprawdza zewnętrzne duplikaty, thin content pages, wewnętrzne podobieństwo podstron oraz ocenia stopień ryzyka w zakresie oceny strony przez algorytmy Panda czy Phantom.
Teoretyczny serwis, 300.000 podstron, bez przyjaznych adresów URL, linki budowane od ponad 5 lat. Nową wersję stawiamy na tych samych adresach czy budujemy nową przyjazną strukturę?
Wychodzę z założenia, że nie zbudujemy dobrej jakości serwisu na słabych podstawach. Z dużym prawdopodobieństwem Googleboty będą miały problem z przecrawlowaniem i zaindeksowaniem takiej strony. Najprawdopodobniej rekomendowałabym wdrożenie nowej struktury. W takiej sytuacji musimy się skupić na bardzo dokładnej i ostrożnej migracji na nowe adresy. Po wykonaniu poprawnych przekierowań powinniśmy zobaczyć wzrost widoczności. Autorytet pochodzący z linków przekazujemy za pomocą 301ek oraz ułatwiamy robotę Googlebotom podając im na tacy uporządkowaną strukturę. Same plusy.
Co sądzisz o tym stwierdzeniu, że Google poza czynnikami on-site i linkami znacznie bardziej przykłada uwagę do trafności wyników czyli czegoś, co jest odpowiednikiem składowych Wyniku Jakości w AdWords?
Mierzenie trafności wyników przez Google jest czymś naturalnym i nie wydaje mi się, żeby ten element nabrał w ostatnim czasie jeszcze większego znaczenia. Każdy byłby ciekaw czy mechanizm, który zbudował faktycznie działa. Według mnie, nie powinniśmy się tym przejmować. Mam na myśli to, że optymalizując podstronę w kierunku określonej grupy fraz, nie zależy mi aby wyświetlała się na inne, niezwiązane tematycznie słowa. Dlaczego? Ponieważ nietematyczne frazy sprowadzą i tak małowartościowy ruch. Naszym zadaniem jest poprzez czynniki on-site, w taki sposób zaprezentować i ustrukturyzować content, aby Google go rozumiał i wyświetlał na adekwatne zapytania. W takiej sytuacji “wynik jakości” nie będzie nam straszny:)
Indeksowanie wyników wyszukiwania – przykładowo http://tematy.kardiolo.pl/, czy takie praktyki przynoszą jedynie pozytywne efekty?
Mam podejście minimalistyczne – im mniej w indexie stron, które nie przynoszą userowi wartości, tym lepiej. W przypadku potężnych struktur, takie strony jak ta podana w przykładzie służą do poruszania się robotów po stronie, łączenia contentu w spójne silosy i to jest w porządku. Trzymałabym jednak te strony poza indexem. Nie widzę w takiej podstronie wartości dla usera ani sensownych fraz, jakie mogłyby sprowadzić wartościowy ruch na stronę.
Natomiast, mówiąc ogólnie o wynikach wyszukiwania wygenerowanych przez wewnętrzną wyszukiwarkę na stronie – lepiej nie indeksować tych adresów i zablokować te strony przed dostępem dla robotów. Dzięki temu zaoszczędzimy budżet crawlingowy, który będzie mógł być przeznaczony na crawlowanie kluczowych podstron.
Dziękujemy Marii za odpowiedzi i zapraszamy na kolejne wywiady, gdzie na bardzo podobne pytania odpowiadają kolejni prelegenci semKRK #4.