eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.wwwWykluczenie adresów przez robots.txtWykluczenie adresów przez robots.txt
  • Data: 2012-10-05 11:42:54
    Temat: Wykluczenie adresów przez robots.txt
    Od: "Koń Rafał" <k...@r...pl> szukaj wiadomości tego autora
    [ pokaż wszystkie nagłówki ]

    Witam,

    Na mojej stronie pojawilo sie pare duplikatow strony w ktorych pojawily sie
    puste zmienne. Chcialbym wywalic wszystkie adresy ktore zawieraja ten ciag
    znakow(wspolny dla wszystkich blednych adresow)

    &subkategoria1=&subkategoria2=&page=

    Po page jest nr. strony, więc sprawa w robots.txt niby prosta

    Disallow: /*&subkategoria1=&subkategoria2=&page=

    Teoretycznie powinno działać, ale w narzedziach dla webmasterow pisze mi ze
    adres jest dozwolony. Probowalem podwojny ampersand * na koncu, ale nie
    chodzi. Dodam, ze wykluczenie adresow z PHPSESSID dziala bezblednie i
    teoretycznie niczym sie nie rozni od tego adresu powyzej - tylko nazwa
    parametru jest inna

    Disallow: /*PHPSESSID

    To juz dziala dobrze i przechodzi walidacje. Bede wdzieczny za wskazkowki.

    Pozdrawiam
    Raf


Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: