Tile-Usage

Vielleicht setzt du den Link besser auf die Aufzeichnung des Vortrages?

Die Finalen Veröffentlichungen sollten unter diesem Link in Kürze erscheinen. Lg Johann

Ein Web-Browser schickt in der Regel einen “Referer” mit, odrt steht die Web-Adresse der Seite drin, von welcher aus er zur angefrahten Resource (neue Seite oder Bild/Kachel) gekommen ist. Der Web-Server schriebt sowas normalerweise in seine Logdatei. Da könnte also ein Administrator mal reingucken und nachschauen, welche Web-Seite wieviel abfragt.
Und dann mal um nen kleinen Obulus bitten (haste ma n Dollar für uns über? - Freundliche Anfrage zur Unterstützung).

Die Anschreib- und Blockier-Aktion neulich hat hauptsächlich Paul Norman (Freiwilliger in der Operations Working Group) gemacht, nachdem Grant Slater (Freiwilliger Sysadmin) eine Liste der Top Sites erstellt und um Hilfe gebeten hat:
Identify heavy app tile users by User-Agent · Issue #371 · openstreetmap/operations

Da ging es hauptsächlich um Apps, die keinen eindeutigen User-Agent Header setzen und damit klar gegen die Policy verstoßen.

Ich glaube nicht, dass da sonst jemand regelmäßig was unternimmt, wenn nicht gerade einzelne Sites wegen erhöhtem Traffic auffallen. Es gibt halt auch keine klare Definition, was eigentlich ein Verstoß ist.

Es gab eine Diskussion zur Einführung von API-Keys, mit denen man automatisch Limits durchsetzen könnte:
Adding API key support for tile.osm.org? · Issue #342 · openstreetmap/operations

Wenn generell hier im Forum über “die OSMF” geschrieben wird, habe ich immer das Gefühl, dass das viel zu abstrakt ist und die Erwartungen zu hoch sind.

Ich hätte einen, können wir es nicht wie Google mit ihrem “Development Purposes” bei Zugriff ohne API-Key machen?
Karte etwas abdunkeln und hell “Please contact this website operator for tileserver-Setup” draufmalen, wenn ein gewisses Kontingent an Zugriffen/Tag erschöpft ist,

Konkretes Beispiel für kommerzielles Arcgis (Zumindest scheint es mir so, korrigiert mich wenn ich falsch liege)
https://gis.geoportal-nordhessen.de/BauAuskunftService/login.jsp → F12 → suche Openstreetmap.org https://gis.geoportal-nordhessen.de/BauAuskunftService/scripts/arcgis_js_v320_api/arcgis_js_api/library/3.20/3.20/init.js

this.tileServers=a&&a.tileServers||["//a.tile.openstreetmap.org","//b.tile.openstreetmap.org","//c.tile.openstreetmap.org"];this.serversLength=this.tileServers.length;this._displayLevels=a?a.displayLevels:null;this.copyright=a&&a.copyright||"Map data \u00a9 OpenStreetMap contributors, CC-BY-SA";

Googlet man dann noch ein bisschem mehr nach “UT Bauauskunft” bekommt man als Verwender beispielsweise (auch OSM-Tileserver in den init.js):
https://wbau10-energis.prhos.com/BauAuskunftService/login.jsp
https://bauauskunft.evng.de/BauAuskunftService/newUser.jsp
https://wbau10-vse.prhos.com/BauAuskunftService/login.jsp

Man stellt fest: Ein Ingenieurbüro nutzt OSM für (wahrscheinlich) all ihre Projekte, ist zu faul/geizig/ sich selbst einen Tileserver aufzusetzen und man hat nicht mal eine Möglichkeit zu sehen ob überhaupt korrekt attributiert wird.

Und so wird das mit vielen der Arcgis-Instanzen laufen, die einzelnen Instanzen mögen wenig Traffic erzeugen, aber die Masse macht es dann.

Das einzig gute an Esri sind ihre Sat-Tiles, aber die dienen IMHO auch nur dazu sich von solchen Sünden reinzuwaschen…

Edit: Typo fix und:
Scheinbar wird ja ein Copyright-String erzeugt, aber ob er auch so gebaut ist, dass die Anwender ihn wahrnehmen steht ja nicht bei…

Haben wir Komponenten, die es einem durchschnittlichen Webentwickler ermöglichen, einen Tile-Cache für seine Website zu betreiben?
D.h. daß sich die Karte auf seiner Website die Kacheln aus “seinem” Cache holt, der sie ggf. aus “unserem” Cache holt und für spätere Verwendung auf “seinem” Server zwischenspeichert (und nach geraumer Zeit aktualisiert etc.).
Die meisten Fälle werden mit wenigen Kacheln auskommen, die immer wieder geliefert werden.

Derzeit braucht man für eine Webseite mit OSM-Karte nur paar statische Dateien auf einem Webserver. Das kriegt man überall hinterhergeschmissen.
Für einen Cache müsste man eigene Software installieren. Der “durchschnittliche Webentwickler” dürfte daran scheitern.
Ansonsten: apt install squid oder nginx. Und entsprechend konfigurieren.

Die Idee gefällt mir, die Umsetzung sollte im Prinzip nicht weiter schwer sein.

Ob das in der Praxis funktioniert, dürfte sich erst irgendwann zeigen.
Vielleicht werden dann irgendwann diese Server missbraucht, um Rate Limits zu umgehen? Da müsste man vorsorgen und jede Webseite individuell programmieren, dass sie sich am Cache autorisiert. Der Aufwand für die Parasiten das zu analysieren muss entsprechend größer als der Nutzen sein.

Aber alternativ könnten kleine Webseiten auch api-tokens nutzen, die kleine rate limits haben. Es lohnt dann nicht, diese Tokens zu stehlen und den OSM-Servern tun vermutlich nicht die ganzen kleinen Seiten weh, sondern die großen bzw. irgendwelchen Scrapern und Apps.

Wo denn? Alles was ich dazu bisher gefunden habe, waren winzige bboxen zum Download.
Wenn’s nen vernünftigen Style für Maperitive gäbe (der ganz nah an OSM.org rankäme), wäre mir auch schon geholfen.
Gibt’s aber nicht, also bin ich einer von einer Million Leuten, die den osm.org-server nach unten ziehen.