Když jsem dával dohromady Seopedii nenapadlo mě, že po 30 heslech budu muset řešit SEO dilema. Vždyť jede na mediawiki, CMS které používá Wikipedia. Ta v podstatě vládne na všech vyhledávačích a nejen linkbuilder se musí zapotit, aby z ní získat trvalý nofollow odkaz pro svého klienta.
Problém je v červených odkazech, tedy těch které vedou na ještě nevytvořené stránky. S tím jak přidávám postupně hesla, vznikají i odkazy na nové ještě neexistující hesla. Jenomže právě ty neexistující logicky vrací stránku 404. No a když se podíváte do Google Webmaster Tools, tak vás pak překvapí 183 chyb kvůli odkazům na neexistujíc stránky a to je oproti 30 heslům už pěkný problém.
Při nadměrném množství chybných může dojít k penalizaci. Ostatně, co asi může nabídnout web plný nefunkčních stránek. Párkrát jsem s tímto experimentoval a zhruba při 10% vám přijde v Google Webmaster Tools dokonce upozornění (viz. článek Zlobivej WordPress a podivné chování Google). Jenomže to jsou 503ky u 404 se mi penalizaci nepodařilo jasně prokázat. Mimochodem žádné upozornění zatím nepřišlo.
Zdá se to jako dobré řešení, které se dá navíc nakombinovat s ostatními. Teoreticky nám alespoň nebude umírat link juice a page rank. Chyby možná zmizí, ale nevyřeší to problém, že máme na stránce velké množství odkazů vedoucích na mrtvé stránky. Teoreticky nám tak může hrozit penalizace za polomrtvý web.
Související články
Když není inspirace založte si wiki
Krom pravidelných ?lánk? se mi v posledních týdnech moc neda?ilo najít rozsáhlejší zajímavá témata pro 404M. Sice jsem se pustil do trochu…
Rozdílný přístup vyhledávačů přináší zajímavé paradoxy
Dneska jsem zrovna koukal jak si vede nejnovější minisites a jak by jsem mohl optimalizovat do budoucna celý proces budování minisite, včetně…
Dávat na dokumenty nofollow?
Určitě už jste si zkusili nakreslit schéma jak protéká linkjuice či pagerank napříč vašimi stránkami. Někdo si to poměrně přísně…