Ich hatte auch gedacht, ob die Postdaten für diesen Zweck nicht doch die bessere (und vor allem einfachere) Wahl sind, habe mir das aber verkniffen. Wenn man allein die PLZ-Daten allerdings auch nach Außen nutzen will, wird es teurer (ca. 6000 500 EUR pro Jahr, soweit ich mich entsinne).
Bei mir im Wiki gibt es ja eine Auswertung zur Anzahl der Adressen. Es sind ca. 5,7 Mio in DE.
Wieso denn? Andauernd wird damit “geworben”, daß die OSM-Daten frei und offen sind und wir erklären jedem, wie er daran kommt - und dann soll es kritisch sein, ihm diese Arbeit gegen Bezahlung abzunehmen?
Das einzige was mir (am frühen Morgen) dazu einfällt, ist die Problematik bei der Vermischung der Daten mit anderen Datenbanken. Aber die besteht auch, wenn der “Interessent” die ganze Arbeit selber macht.
Aber ist eh nur graue Theorie und war - für mich - mehr als Gag gedacht.
Gruss
walter
ps: erfolgreiche Startups bitte in 2 Jahren mal bei mir melden
Das Problem ist lediglich die beliebige Verwendung. Die Auflage der Lizenz ist ja auch mit dem Hinweis auf den Ursprung sehr gering. Und das müssen auch weiterverwender tun. Insofern kannst du sie für fast alles zur Verfügung stellen.
das wird vermutlich mein neuer Ansatz für die nächsten Tage…
Ich möchte halt nicht nur ein Verzeichnis der Postleitzahlen, sondern eben auch aller postalischen Adressen in Deutschland. Und das günstigste Angebot, was ich finden konnte waren für 12 Monate 2600€, was mir leider zu viel ist.
Stimmt. Das von mir verlinkte Angebot enthält nicht die Straßendaten, sondern nur Orte und PLZ. Die Post bietet baer auch ein Straßenverzeichnis. Den Preis muss man allerdings als Angebot erst einholen. Weißt Du, was das dann kostet, wenn es nicht nur intern Verwendung findet?
Wenn du Postgresql/PostGIS am laufen hast, solltest du mit osm2pgsql den Bereich deiner Wahl importieren. Würde nur nicht gerade mit germany anfangen sondern z.B. mit bremen-latest.osm.pbf.
Nach dem - erfolgreichen - Import stehen dir die benötigten Grenzpolygone automatisch zur Verfügung.
Soooo, Postgres + Postgis sind aufgesetzt. Als Daten habe ich Freiburg, mit der Option --hstore importiert. Lief überraschend gut und schnell
Weiter versuche ich gerade alle Relationen vom Typ boundary=postal_code auszulesen. Das scheint etwas schwieriger zu werden. Ich halte euch auf dem Laufenden…
select osm_id,tags,st_summary(way)
from planet_osm_polygon
where osm_id < 0
and tags->'boundary'='postal_code';
und für die Admin-Grenzen
select osm_id,tags,st_summary(way)
from planet_osm_polygon
where osm_id < 0
and tags->'boundary'='administrative'
and tags->'admin_level' in('6','7','8');
Da dürfte für “Freiburg alleine” aber sehr wenig kommen. Nimm lieber den Kreis Freiburg.
Gruss
walter
ps: bei den Admin-Leveln muß man später noch nachbessern - es gibt Kreise mit AL6, Kreisfreie Städte mit AL6, Gemeindeverbünde mit AL7 und auch wirklich Städte/Gemeinden mit AL8.
Der Ort (die Gemeinde) gehört zu einer ordentlichen Adresse ja dazu. Ist auch nicht unbedingt als “addr:city” getaggt, und wenn doch dann nicht unbedingt richtig.
Es geht also eigentlich um die Überschneidungsflächen der Gemeindepolygone mit den PLZ-Polygonen.
EDIT: Wobei ich nicht verschweigen möchte, dass der Adressort laut DPAG nicht unbedingt identisch mit dem Gemeindenamen ist.
Meine Abfrage ist ein paar Tage her. Aber der Unterschied ist schon recht groß.
Mein Query hat die Adressen je Gemeinde ausgewertet (nur ways und nodes, die mind. housenumber und street haben, weil ich das sonst nicht als verwertbare Adresse ansehe; associatedStreet dabei noch ignoriert)
Was war bei Dir die Suchbedingung?