Zgodność odwzorowań

Korzystamy z wielu WMSów pod różnymi odwzorowaniami kartograficznymi.
Często WMSy zgłaszają błąd, że nie są stworzone do odwzorowań jakie włączyliśmy w JOSMIE co nie przeszkadza tym serwisom podesłać kafli.
Wobec tego faktu nie zastanawiamy się co oznacza ten komunikat.
Porównując wiele WMSów często widzę, że dane lokalnych serwisów są przesunięte do serwisu GUGIK.
Zwykle to przesuniecie wynosi około 120 cm. Nie są to błędy kalibracji, bo chodzi o dane z pomiarów geodezyjnych np. budynków a przecież do tych danych geoportal kalibruje np orto.

Skoro jest tyle odwzorowań tzn., że każde ma jakieś błędy i chodzi tu głównie o zniekształcenie geoidy tzn., że powierzchnia ziemi nie jest idealną kulą.

Z tego co pamiętam sprzed wielu lat jedno z odwzorowań w Polsce dzieliło kraj na 4 obszary stosując tam pewne poprawki tzn. dodając jakieś pasy np o szerokości 80 cm.
Ty na Śląsku publikowane są jakieś poprawki dla Katowic a inne dla Chorzowa
http://www.wg.katowice.eu/program-dla-geodetow-katkonwerter.html

Ciekawe ze mając dane z GPS-RTK musimy dodawać poprawki.Tu widać że błąd długości dla PUWG92 wynosi nawet 70 cm
https://pl.wikipedia.org/wiki/Uk%C5%82ad_wsp%C3%B3%C5%82rz%C4%99dnych_1992

PUWG2000 dzieli Polskę na 4 strefy powiatami
https://pl.wikipedia.org/wiki/Uk%C5%82ad_wsp%C3%B3%C5%82rz%C4%99dnych_2000

UTM to nowe odwzorowanie merkatora na bazie WGS84 forsowane dla map NATO
https://pl.wikipedia.org/wiki/Uk%C5%82ad_UTM
W Polsce dzieli kraj na 3 pasy południkowe o szerokości 6 stopni wzdłuż 15, 21 i 27 południka.

Pułkowo65 dzieli kraj na 5 stref w oparciu o granice starych województw co doprowadziło że po zmianie województw jedno województwo może leżeć w 2 strefach.
W tym odwzorowaniu jak i w poprzednich każda strefa ma inny kod EPSG co może wyjaśniać dlaczego WMS geoportalu podaje kilka kodów w jednym okienku przy otwieraniu podkładu.

Ciekawe, że nowe odwzorowania są uregulowane w dziennikach ustaw dopiero w 2012 r. co może oznaczać ze dane regionalne i państwowe mogą być w różnych współrzędnych .

Pytanie czy JOSM potrafi sobie poprawki dodawać automatem tzn czy z miejsca patrzenia potrafi się przełączyć na odpowiedni sektor i EPSG.
Skoro tak często widzę przesunięcia między WMS-ami to chyba nie potrafi.

Tu jest wyjaśnienie ze mapy WIG były robione o niezgrane siatki triangulacyjne i błędy wynosiły 250 m.

http://www.numerus.net.pl/wig_problem.html

Próbowano rysować dwie siatki na mapie co skutkowało błędem 120 m.
Podobne zniekształcenia rzędu zdaje się 30 m są widoczne na wojskowych powojennych sztabówkach, które często są podkładane do urządzeń cyfrowych.

Te błędy odwzorowań robią u nas trochę problemów np. przy korzystaniu z Tracera, bo wtedy budynki na siebie wchodzą jeśli sąsiednie były rysowane z różnych źródeł.

Błąd 120 cm to dużo jak na obecny stan OSM i warto by zrozumieć skąd to się bierze.

No nie przesadzajmy, 1,2m to nie aż tak dużo.

Zwykłe GPSy mają dokładność 3m, dopóki nie uruchomią w pełni Galilego to te 1,2m to nie aż tak duża różnica.

Jeszcze trochę i zaczniemy martwić się dryfetem kontynentalnym… :wink:

Tylko że my mapujemy w oparciu o WMSy gdzie dane są wprowadzone z centymetrową dokładnością

Jeśli dwie osoby używają Tracera do importu takich danych to jeden ciągnie część budynków w prawo a ktoś inny w lewo w efekcie część budynków na siebie nachodzi.

Przecież my nie rysujemy z GPS a z orto które jest skalibrowane lepiej niz 30 cm.Przykładowo co jeśli wrysujesz chodnik w area:higway a potem się okaże, że budynek włazi na chodnik 1,2 m?

Przy rysowaniu w 3D składasz dwa skosy dachu i jeśli jest tam luka 10 cm to od razy na wizualizacjach masz białą przerwę.

Często się rysuje elementy architektoniczne wielkości 30 cm.Rysuję przesuniecie miedzy bryłami np o wielkości 5 cm
Choćby tu piaskowcowe zwieńczenie murka wystaje na kilka cm co możesz ładnie rano zobaczyć jakie generuje cienie

http://demo.f4map.com/#lat=51.1139784&lon=17.0439156&zoom=21&camera.theta=51.589&camera.phi=-7.448

Nawet większe elementy wysokie na 20-30- m jak przypory w kościołach maja powierzchnię szczytową liczona wymiarami kilkudziesięciu cm

Zwymiarowanie fontanny czy schodów wymaga dokładności nawet 1 cm
http://demo.f4map.com/#lat=51.1139220&lon=17.0341059&zoom=21&camera.theta=57.892&camera.phi=71.047

Już nie mówię o drobnych elementach jak zabytkowe latarnie gazowe czy drobne szczegóły architektoniczne zwieńczające arkady czy wieże bo tu konfliktów nie ma.

Chodzi o takie konflikty że np część budynków była zaimportowana z Urzędu Miasta a aktualizacje były robione z geoportalu czyli z danych wojewody czy starostwa.

Po to się robi importy aby potem nie przesuwać ręcznie.

Zatem sprawa może dotyczyć zapisywania danych w różnych odwzorowaniach zaś po naszej stronie też może da się to naprawić zmieniając odwzorowanie

No bo jeśli WMS ostrzega że nie jest dla tego odwzorowania co go ściągamy a jednak się otwiera to może otwiera się z błędem który można by zlikwidować używając odwzorowania dokładniejszego lub wiedząc jaki jest błąd miedzy odwzorowaniami zastosował wtyczkę offset lub ręczenie przesuwać podkład .

Zatem jeśli urzędy mają dane z dokładnością centymetrową to po co te dane psuć?
Trudno dziś przewidzieć do czego dokładność poza 3D i a:h będzie potrzebna.
Z czasem będziemy rysować pasy ruchu a nawigacje będą wspierane czujnikami w aucie które będzie czytać linie krawężnikowe i oznakowania poziome i pionowe.Błąd 1,2 m to praktycznie pól pasa drogowego i takie dane staja eis nieprzydatne do nawigacji auta autonomicznego a takie auta dziś opracowują praktycznie wszystkie firmy samochodowe.

Co do dokładności GPS to ona jest nędzna bez sygnału referencyjnego ale gdy np ruszą auta autonomiczne to każda nawigacja będzie korzystać z sygnału DGPS. Już dziś można sobie pobierać takie poprawki przez wybrane modele komórek a transfer danych przestaje być kosztem.
Zatem dziś możemy zejść z błędem ponizej 1 m a możemy uśredniać też z Glonassem lub poczekać na Galileo to będzie jeszcze dokładniej.I co rysujemy z taniego GPSa z dokładnością 50 cm lub lepiej, a nasz budynek włazi na budynek zmierzony przez geodetów z dokładnością 2-5 cm ale źle zaimportowany?
Rozmawialiśmy ostatnio że baza OSM zapisuje z dokładnością rastra 11 mm czyli z błędem zwykle mniejszym niż 4-5 mm.
Po co zapychać dyski dokładnością GPS 7 miejsc po przecinku aby gromadzić dane 1000 razy mniej precyzyjne?

Dodatkowo ciągle przesuwanie budynków tracerem zapycha historię w bazie.

Przykładowy konflikt to przesunięte bazy jedna z obrysami a druga z adresami.
Adresy geodeci zapisują w środku budynku , na bramce do posesji lub na wejściu do budynku.Przesuniecie 1-2 m może łączyć w pary nie z tym budynkiem np przy scalaniu adresów. Podobnie przy importach bankomatów, automatów sprzedażowych itp. takie POI może trafić na nie ten budynek.
Podobne problemy są przy aktualizowaniu danych kiedyś zaimportowanych. Im dane bliżej siebie leża tym łatwiej wyeliminować duplikaty. A już bazy drzew nie zrobisz przy przesunięciu 1,5 m.

Co do dryftu kontynentalnego to nie śmiej się.
Własnie parę dni temu nad tym się zastanawiałem.
Jeśli mierzymy dalmierzem a aby dobrze zmierzyć wysokość posiłkujemy się np teodolitem lub obieramy punkt stania blisko jakiegoś stałego puntu np narożnika budynku to dryft nasz nie interesuje.
Jednak dziś sprawdzałem na geoportalu ze są województwa gdzie najnowsze orto jest z 2007 roku czyli już dryft wpływa na kalibracje nowych zdjęć orto bo są kalibrowane do podkładów z budynkami zawierających dane jeszcze starsze .Mogą być dane robione metodami optycznymi kilkadziesiąt lat temu.

Zatem jeśli osm jest robiona 14 lat a ma służyć kilka razy dłużej to mało kto wie ze dryft dla jednego końca Polski i dla innego jest inny i ma inny kierunek. Jeśli przyjmiemy dryft 20 mm to już po 10 latach jest to 20 cm.Spróbuj np. z GPSem znaleźć koparką rurę lub kabel położony 50-100 lat temu.Jeszcze gorzej ma się sprawa gdy instrumenty optyczne używane dotąd przez geodetów zastąpisz elektronicznymi. Z dryftem wszystko przesuwało się podobnie na małych trójkątach zatem triangulacja z kątów mogła posługiwać się starymi planami bo i tak przy każdej budowie mierzono do reperów

Teraz od dryftu dużo bardziej zmienia się biegun magnetyczny czyli deklinacja wiec pomiary odległości dalmierzami nie mogą być wspierane pomiarami kątów. Oczywiście mówimy tu pomiarach prostych np. amatorskich czy do strzelania wojskowego.Rozwój technik pomiarowych pozwala monitować rozmaite hałdy i skarpy i ostrzegać przed katastrofami przy przesunięciach gruntu rzędu kilku mm.
A że to są pomiary ciągle trwające latami to dryft muszą uwzględniać

A bliżej OSM to trzęsienie ziemi w Nepalu spowodowało przesunięcia około 3 m (przynajmniej w pionie)
Jak tu rysować ze starych orto :slight_smile:

Zatem mapy urzędowe różniące się 7-10 lat już muszą uwzględniać dryft a geodeta musi co roku stosować inne poprawki stąd jak pisałem Katowice i Chorzów je publikują choć są koło siebie.
Geodeta płaci miesięczny abonament za poprawki RTK zdaje się 1350 zł nie po to aby udawać że dryftu nie ma .

Ja tylko sugeruję (domysł) że PUWG 2000 stało się silniejszym standardem w związku ze zmianami prawa w 2012 r stąd bazy mogą być rozjechane bo robione były przez dziesięciolecia.
Błędy odwzorowań jakie podałem nie tłumaczą jeszcze dlaczego błąd dochodzi do 1,2 m.
Gdybyś pracował Tracerem to byś zrozumiał, że to nie jest błahy problem gdy różni maperzy pracują na różnych WMSach albo gdy WMSy nie zgadzają się z importami.

Paul Hartmann w ostatnich dniach pracuje nad natywnym wsparciem w JOSM do reprojekcji (tutaj szczegóły). W efekcie tych prac, JOSM już nie będzie zgłaszał błędów, tylko po prostu przeskalowywał podkład.

JOSM nie potrafi z automatu zmieniać układu odwzorowania i chyba nie ma sensu by to robił. Jedyne co by to dało, to że długość odcinka raportowana przez JOSM byłaby bliższa prawdy, a cała reszta i tak pozostaje bez zmian, modulo powyższe zmiany, które się pojawią się z najnowszą wersją. Ale Ci, którzy chcą pracować z wysoką dokładnością na podstawie zdjęć ORTO, powinni używać natywnego dla warstwy odwzorwania.

Na stronie odnośnie 1992 jest mapa rozkładu zniekształceń. Nie trzeba tutaj dodawać poprawek, są algorytmy przeliczające z WGS na 1992 lub odwrotnie. Ale… 1992 można oprzeć o inne parametry geoidy i jest 1992/GRS80 i 1992/ETRF89 i tutaj różnice mogą być widoczne. Poniżej załączam zrzut ekranu:

Jeśli jesteś zainteresowany - daj znać na mojego maila (office @ skyraster.com) , udostępnię Ci specjalną dla OSM licencję PowerGPS-a to sobie sprawdzisz w praktyce jak to wygląda.

Poprawki związane z GPS to inna rzecz - w kalkulacjach, jakie dokonuje płyta GNSS na bazie referencji może “odszumić” dane i uzyskać precyzyjny namiar. Nie są to jednak poprawki do pozycji typu dX dY dH. Poprawki są powierzchniowe, więc jeśli masz poprawkę dla danego rejonu, to dokładność pomiaru RTK zależy od tego jak daleko jesteś od bazy (odbiornika nadającego pozycję referencyjną - “poprawki”). Poprawki w tym sensie to “surowe” dane z anteny, przesunięcia fazowe, dane przydatne w obliczeniach różnicowych. W niektórych państwach w poprawkach można dystrybuować różnice odnośnie modelu wysokościowego - dzięki czemu geodeta nie musi dysponować plikiem geoidy z różnicami odnośnie wysokości.

Program dla Katowic o jakim piszesz z kolei odnosi się do układu 1965, gdzie delikatnie mówiąc, jest bajzel - bo kiedyś dostosowanie nie bazowało na jednoznacznym przeliczeniu matematycznym, tylko punktach dostosowania. Wiele miast ma swoje układy lokalne, więc jeśli mierzysz np. w 2000 (lub WGS), to oparcie się o dane referencyjne w układzie lokalnym miejskim wymaga skorzystania z punktów dostosowania (lub odpowiedniego algorytmu) - a tutaj, zależnie od miejscowości jest różnie.

O ile 1992 i 2000 przeliczysz na WGS “bez strat” (z dokł. do 1mm) o tyle jeśli przeliczysz 1965->WGS ,to przeliczenie będzie już pozycyjnie zdegradowane, przeliczenie tej samej wsp. z WGS->1965 na już inną pozycję w ukł. 65.

Ale zwracasz uwagę na ważną kwestię - każda porcja danych, w szczególności ta importowana z jakiegoś źródła, powinna być w pewnym zakresie zweryfikowana i ustalone powinno być na bazie jakich parametrów dokonywany jest import. Najlepsze byłoby załączenie oryginalnych współrzędnych i reguł transformacji, aby można je było w przyszłości zmodyfikować. Robienie tego automatem bez reguł bazujących na parametrach nie będzie praktycznie możliwe. Zrobienie tego po macoszemu sprawi, iż zaimportowane dane będą obarczone błędem.

rowers2, fajnie i fachowo napisałeś, z połowy nie ogarniam z tego bo nie mam kwalifikacji.

Zastanawia mnie jedno: co z tego wszystkiego wyniknie?

Tutaj trzeba konkretnych rozwiązań; prostych rozwiązań, najlepiej już zaimplementowanych w ustawienia JOSM - nikt nie będzie miał ochoty spędzać godzin nad obliczeniami, kalibracjami itp. Do funcacji OSM powinno zależeć by przyłożyli się do takich rzeczy.

Swoją drogą: za te 20-40 lat OSM może być śpiewką przeszłości, a zautomatyzowane metody odwzorowań zmapują budynki itp lepiej niż jakiś mapper w fotelu.

Pozdrawiam.