-
11. Data: 2010-02-14 13:34:07
Temat: Re: Aplikacja pod Win32/Linux i <-> zdalna baza lub PHP API. Jakchronicpolaczenie przed podmiana danych?
Od: proglem <c...@s...net>
"lolo" rozwiązał/a/o:
>>> statystycznie wyłapiesz zbyt duże/nieprawdopodobne fizycznie
>>> zagęszczenie zdarzeń nawet przy inteligentnej próbie oszustwa
>> wtedy oszust po prostu wykorzysta maksima pozwalane przez
>> serwer,
>> których użytkownich nie będzie w stanie osiągnąć, ponieważ
>> osiągniecia użytkownika podpadają pod znormalizowaną przestrzeń
>> zdarzeń, a osiągnię- cia oszusta- pod liniową rozpraszaną przestrzeń
>> zdarzeń, a oprogramowa- nie z samej definicji nie może znać
>> wszystkich dozwolonych losowych przestrzeni zdarzeń, ponieważ losowość
>> w informatyce jest nieskończonoś- cią.
>
> maksima musiałby znać lub wytestować np. kosztem tworzenia kolejnych
> kont/ich autoryzacji/banowania itd.
>
> kto mówi o super automatyce? dane mogą podlegać weryfikacji
> niekoniecznie w momencie aktualizacji - można je cyklicznie obrabiać
> statystycznie, wyłapywać anomalie, sprawdzać, uszczegóławiać kryteria
> odrzuceń nie ujawniając metodologii kontroli (przez wstawienie w sztywny
> automat) - google nie mówi dlaczego nisko indeksuje/banuje ani nie
> podaje pozycji zaraz po dodaniu adresu
toż właśnie o tym piszę, że zastosowawszy jakąkolwiek metodę statys-
tycznego blokowania-- zablokuje się użytkownika, jeśli nie będzie ona
ściśle ograniczona do formy, a nie do treści.
przyjmując model zachowań (nawet dość szeroki), ograniczy się dowol-
ność użytkownika (tzw. równanie do dołu). w efekcie każdy kto zachowa
się inaczej będzie tępiony przez automat, a robot nie musi być aż tak
blisko maksimów, ale tylko wykorzysta ciut wyższe współczynniki niż inni
pospolici użytkownicy i wygra to co będzie do wygrania. robot wcale
nie musiałby nawet raz przekroczyć dozwolonych granic i osiągnąć cel
przy pomocy adaptacji do bieżących warunków. pisząc o maksimach miałem
na myśli zmierzanie do nich, a nie niepotrzebne ich sprawdzanie przez
robota.
jeśli coś w założeniach --tylko wyraźnie zapisanych-- zmierza do cze-
goś wręcz przeciwnego: do nie osiągnięcia celu, lecz do ograniczania
użytkowników bez szkody dla adaptacyjnych robotów, to jak miałoby
w tym przypadku pomagać? jeśli to nie potrafi pomóc, to może lepiej
zmienić założenia? nie znam rozwiązania problemu, ale to przedstawione
przez ciebie jest --jak dotychczas zauważyłem-- dość popularne i rzeczywi-
ście działa jak opisałem-- blokuje użytkowników. oczywiście-- gdy zas-
tosowane w obszarze treści, a nie formy transmisji.
--
qo |) CPL: cs[0..1] (ss[0..1]) p lvl of curr code!
_x/ , RPL: seg_sel[0..1] privilege lvl of seg_sel!
| ng __ -- __ -- __ -- __ -- __ -- __ -- __ -x86-,
,__ -- __ -- DPL: 2._word_of_seg_desc[13..14]:`f seg_desc ,