eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.programmingTablica int i usuwanie duplikatów › Re: Tablica int i usuwanie duplikatów
  • Path: news-archive.icm.edu.pl!news.icm.edu.pl!newsfeed2.atman.pl!newsfeed.atman.pl!.P
    OSTED!not-for-mail
    From: bartekltg <b...@g...com>
    Newsgroups: pl.comp.programming
    Subject: Re: Tablica int i usuwanie duplikatów
    Date: Wed, 16 Sep 2015 22:46:02 +0200
    Organization: ATMAN - ATM S.A.
    Lines: 33
    Message-ID: <mtckeb$nhk$1@node1.news.atman.pl>
    References: <q1dqtorkbx55$.vtwhsmj03gkt$.dlg@40tude.net>
    <mt7umm$ulv$1@node1.news.atman.pl>
    <3aivb8qrco1q$.13cffg23pn4pg.dlg@40tude.net>
    <a...@n...v.pl>
    <mtav82$r76$1@node2.news.atman.pl>
    <a...@n...v.pl>
    <mtbd2l$9d5$1@node2.news.atman.pl>
    <5...@g...com>
    <mtbvi8$1ro$1@node1.news.atman.pl> <mtc22e$4hh$1@node1.news.atman.pl>
    <mtc3ip$vok$1@node2.news.atman.pl> <mtc56n$7m6$1@node1.news.atman.pl>
    <b...@g...com>
    <mtcaik$d1l$1@node1.news.atman.pl>
    NNTP-Posting-Host: 89-73-81-145.dynamic.chello.pl
    Mime-Version: 1.0
    Content-Type: text/plain; charset=UTF-8; format=flowed
    Content-Transfer-Encoding: 8bit
    X-Trace: node1.news.atman.pl 1442436363 24116 89.73.81.145 (16 Sep 2015 20:46:03 GMT)
    X-Complaints-To: u...@a...pl
    NNTP-Posting-Date: Wed, 16 Sep 2015 20:46:03 +0000 (UTC)
    User-Agent: Mozilla/5.0 (X11; Linux x86_64; rv:38.0) Gecko/20100101
    Thunderbird/38.2.0
    In-Reply-To: <mtcaik$d1l$1@node1.news.atman.pl>
    Xref: news-archive.icm.edu.pl pl.comp.programming:208327
    [ ukryj nagłówki ]

    On 16.09.2015 19:57, AK wrote:
    > Użytkownik "M.M." <m...@g...com> napisał:
    >
    >> Gdzie n to ilosc unikalnych w zbiorze, a nie rozmiar calego zbioru.
    >> Przy perfect-hash ilość bitów * ( max_value - min_value + 1). Dla
    >> małej rozpiętości można łatwo zrobić perfect-hash.
    >>
    >> Dróg jest wiele, a jaką wybrać, to zależy od konkretnych danych.
    >
    > Ano wlasnie, a to jest czesto omijana sprawa ana rzecz "generycznosci".
    > Zawsze warto przeanalizowac dane (chocby tylko po min i max).
    > Koszt maly. Tylko jeden przebieg.
    > Zysk (niekiedy) ogromny


    No właśnie, niekiedy. A w standardowym przypadku jesteśąmy do tyłu.
    Jeden przebieg zajmie zauważalną cześć czasu proponowanych tu
    rozwiązań.
    To wydaje się zbyt lekki problem na wstępną analizę danych.

    Za to jeśli wiemy coś o rozkładzie od początku, można dobrać
    algorytm, choćby czy tworzyć zbiór dynamicznie zaczynając od
    małej pamięći dla tej tablicy, powiększając, a więc realokując i
    rehaszując w mairę potrzeby (jeśli liczba unikalnych wpisów jest
    mała) czy budować od razu w tablicy hashującej wielkośći 2n (dla k=~=n).

    Sprawdzanie min/max ma jedną neidogodność. Unikalnych wpisów może
    być mało, a rozpiętość ich wartośći duża.


    pzdr
    bartekltg

Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: