Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Tytuł pozycji:

Optymalizacja dużych zbiorów wyników pomiaru, zasilających bazy danych systemów informacji przestrzennej

Tytuł:
Optymalizacja dużych zbiorów wyników pomiaru, zasilających bazy danych systemów informacji przestrzennej
Autorzy:
Błaszczak, W.
Kamiński, W.
Data publikacji:
2007
Słowa kluczowe:
systemy informacji przestrzennej
spatial information systems
Język:
polski
Dostawca treści:
BazTech
Artykuł
  Przejdź do źródła  Link otwiera się w nowym oknie
Szybko rozwijające się automatyczne metody pozyskiwania danych, takie jak skaning laserowy, GPS, zintegrowane pomiary batymetryczne (złożone z zestawu odbiornik GPS i cyfrowej echosondy ultradźwiękowej), generują tzw. duże zbiory danych, często nazywane także chmurą punktów. Zbiory te mogą niekiedy wywoływać problem ich opracowania na etapie przetwarzania głównego, w którym następuje generowanie numerycznego modelu terenu (NMT). Uzasadnionym wydaje się zatem zastosowanie na etapie przetwarzania wstępnego odpowiedniego algorytmu zmniejszającego liczebność zbioru. Zmniejszenie liczby danych w oryginalnym zbiorze wyników pomiaru pozwoli na zwiększenie efektywności przetwarzania głównego poprzez m. in. skrócenie czasu opracowania rezultatów obserwacji, a tym samym i obniżenie kosztów kompleksowych opracowań numerycznych oraz dalszych specjalistycznych analiz wykorzystywanych w systemach informacji przestrzennej. W pracy zaprezentowano algorytm zmniejszający liczebność zbioru danych, wykorzystujący metody generalizacji kartograficznej. Przedstawiono także wyniki testów empirycznych, wykonanych na rzeczywistych wynikach pomiaru dna kanału Świnoujście - Szczecin.
Rapidly developed automated data gathering techniques and methods like laser scanning. PPP method, GPS, integrated batymetric measurements consist of GPS and digital sounder, are often produced so-called large data sets or cloud of points. Large data sets may cause problems for users at the stage of main processing, particularly if Digital Terrain Model (DTM) generation or creation of charts and maps follows. Uploading large data sets to suitable software and subsequent processing is very time-consuming. Thus, there is a need to resample and reorganize the data sets before processing, in order to considerable reduce their amount without loosing essential information. In this paper the authors presented the optimization algorithm. In that algorithm known generalization methods was used to reduce the size of the data sets. The proposed algorithm was applied and tested on a fragment of the data set containing results of Świnoujście - Szczecin Channel bottom measurements.

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies