-
1. Data: 2012-10-05 11:42:54
Temat: Wykluczenie adresów przez robots.txt
Od: "Koń Rafał" <k...@r...pl>
Witam,
Na mojej stronie pojawilo sie pare duplikatow strony w ktorych pojawily sie
puste zmienne. Chcialbym wywalic wszystkie adresy ktore zawieraja ten ciag
znakow(wspolny dla wszystkich blednych adresow)
&subkategoria1=&subkategoria2=&page=
Po page jest nr. strony, więc sprawa w robots.txt niby prosta
Disallow: /*&subkategoria1=&subkategoria2=&page=
Teoretycznie powinno działać, ale w narzedziach dla webmasterow pisze mi ze
adres jest dozwolony. Probowalem podwojny ampersand * na koncu, ale nie
chodzi. Dodam, ze wykluczenie adresow z PHPSESSID dziala bezblednie i
teoretycznie niczym sie nie rozni od tego adresu powyzej - tylko nazwa
parametru jest inna
Disallow: /*PHPSESSID
To juz dziala dobrze i przechodzi walidacje. Bede wdzieczny za wskazkowki.
Pozdrawiam
Raf
-
2. Data: 2012-10-10 10:35:23
Temat: Re: Wykluczenie adresów przez robots.txt
Od: Kapsel <k...@o...pl>
Fri, 5 Oct 2012 11:42:54 +0200, Koń Rafał napisał(a):
> Po page jest nr. strony, więc sprawa w robots.txt niby prosta `
>
> Disallow: /*&subkategoria1=&subkategoria2=&page=
>
> Teoretycznie powinno działać, ale w narzedziach dla webmasterow pisze mi ze
> adres jest dozwolony. Probowalem podwojny ampersand * na koncu, ale nie
> chodzi. Dodam, ze wykluczenie adresow z PHPSESSID dziala bezblednie i
> teoretycznie niczym sie nie rozni od tego adresu powyzej - tylko nazwa
> parametru jest inna
Myślałem że ktoś będzie widział lepiej, ale nikt Ci nie odpisał :]
Teoretycznie nie widzę przeciwwskazań, żeby taka konstrukcja nie była
odczytywana przez robota...
Standardowo koniec linijki ma "nadawaną" gwiazdkę i bez zmiany tego, jest
czytane jako cokolwiek, więc nie powinno być problemu z numerami stron itd.
Możesz spróbować zablokować pojedynczy parametr, np.
Disallow: /*page=
i ewentualne inne jeśli potrzebne.
W Google Webmaster Tools masz też panel do sterowania parametrami i tam
możesz je m.in. zablokować (z różnym skutkiem ;)
Generalnie w kwestii błędu - nie przywiązywałbym szczególnie dużej uwagi do
tego co mówią narzędzia testujące od Google, bo nader często zawierają
różne wesołe błędy, często znane i niepoprawione przez długie miesiące.
Być może jakieś parametry w adresach faktycznie psują tu regułę, ale to by
ktoś mądrzejszy w temacie musiał.
Zawsze też możesz skorzystać ze - ogólnie lepszego - metatagu noindex :)
--
Kapsel
http://kapselek.net
kapsel(malpka)op.pl