eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.wwwWykluczenie adresów przez robots.txtRe: Wykluczenie adresów przez robots.txt
  • Path: news-archive.icm.edu.pl!agh.edu.pl!news.agh.edu.pl!newsfeed2.atman.pl!newsfeed.
    atman.pl!news.chmurka.net!not-for-mail
    From: Kapsel <k...@o...pl>
    Newsgroups: pl.comp.www
    Subject: Re: Wykluczenie adresów przez robots.txt
    Date: Wed, 10 Oct 2012 10:35:23 +0200
    Organization: news.chmurka.net
    Lines: 42
    Message-ID: <n7qdoztmxyc4$.dlg@kapselek.net>
    References: <506eaab5$0$26690$65785112@news.neostrada.pl>
    NNTP-Posting-Host: 194.181.161.174
    Mime-Version: 1.0
    Content-Type: text/plain; charset="iso-8859-2"
    Content-Transfer-Encoding: 8bit
    X-Trace: avenger.news.chmurka.net 1349858117 22737 194.181.161.174 (10 Oct 2012
    08:35:17 GMT)
    X-Complaints-To: abuse-news.(at).chmurka.net
    NNTP-Posting-Date: Wed, 10 Oct 2012 08:35:17 +0000 (UTC)
    User-Agent: 40tude_Dialog/2.0.15.1pl
    X-Authenticated-User: Borowy
    Xref: news-archive.icm.edu.pl pl.comp.www:401413
    [ ukryj nagłówki ]

    Fri, 5 Oct 2012 11:42:54 +0200, Koń Rafał napisał(a):

    > Po page jest nr. strony, więc sprawa w robots.txt niby prosta `
    >
    > Disallow: /*&subkategoria1=&subkategoria2=&page=
    >
    > Teoretycznie powinno działać, ale w narzedziach dla webmasterow pisze mi ze
    > adres jest dozwolony. Probowalem podwojny ampersand * na koncu, ale nie
    > chodzi. Dodam, ze wykluczenie adresow z PHPSESSID dziala bezblednie i
    > teoretycznie niczym sie nie rozni od tego adresu powyzej - tylko nazwa
    > parametru jest inna

    Myślałem że ktoś będzie widział lepiej, ale nikt Ci nie odpisał :]

    Teoretycznie nie widzę przeciwwskazań, żeby taka konstrukcja nie była
    odczytywana przez robota...

    Standardowo koniec linijki ma "nadawaną" gwiazdkę i bez zmiany tego, jest
    czytane jako cokolwiek, więc nie powinno być problemu z numerami stron itd.

    Możesz spróbować zablokować pojedynczy parametr, np.
    Disallow: /*page=

    i ewentualne inne jeśli potrzebne.

    W Google Webmaster Tools masz też panel do sterowania parametrami i tam
    możesz je m.in. zablokować (z różnym skutkiem ;)

    Generalnie w kwestii błędu - nie przywiązywałbym szczególnie dużej uwagi do
    tego co mówią narzędzia testujące od Google, bo nader często zawierają
    różne wesołe błędy, często znane i niepoprawione przez długie miesiące.

    Być może jakieś parametry w adresach faktycznie psują tu regułę, ale to by
    ktoś mądrzejszy w temacie musiał.

    Zawsze też możesz skorzystać ze - ogólnie lepszego - metatagu noindex :)


    --
    Kapsel
    http://kapselek.net
    kapsel(malpka)op.pl

Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: