Lizenzwechsel, Phase 4

Und da sind wir schon wieder beim Problem der Kontrolle. Ich denke kaum, dass Du willst, dass jeder in den Zugangsdaten beliebig herumpfuschen kann (“den User lösche ich, weil der gefällt mir nicht”, “der andere darf die nächsten 3 Tage nichts machen, weil er meine Argumente auf der Mailingliste widerlegt hat”, …).

Echtzeit-Synchronisierung der verschiedenen Datenserver, die weltweit verteilt sind, ist technisch wahrscheinlich lösbar, die finanziellen Kosten sind aber sicher beträchtlich.

Ähm kann es sein das es sich bei der Anleitung nicht um einen API Server, sondern lediglich um einen Mapserver handelt? Ich glaube der API Server läuft zwar auf Postgres aber nicht auf Postgis, oder?

Dann hast Du die gleichen Möglichkeiten, wie heute auch schon neu anmelden und weitermachen. Und wenn der Anmelde-Server ganz abgeschaltet wird, sind immer noch die Geodaten da, weil dezentral vorhanden. Das macht die Community viel weniger erpressbar.

Wer redet denn hier von Echtzeitsynchronisierung ? Wenn es alle halbe Stunde oder Stunde synchronisiert wird, reicht es mit Sicherheit auch. Was ich hier an denke, ist nichts anderes als der Urgedanke des Internet.

Gruß

Volker

moin moin,

unabhängig davon, welche anwendung auf dem sql-server läuft:
jeder postgis-server ist ein 100%-ger postgresql-server. postgis ist “nur” eine zusätzliche komponente, die aber nicht “stört”.

gruss
walter

Ich sehe aber jetzt nicht den Unterschied zur momentanen Situation.
Nachdem die Nichtzustimmer nach Lizenzwechsel ausgeschlossen werden, können sie mit dem letzten Planet-File weitermachen.
Warum ist die Community in dem einen Fall erpressbar und im anderen nicht?

OK. Echtzeitsynchronisierung ist sicher ein unnötiger Luxus.
Selbst beim Internet gibt es meiner Meinung nach eine Kontrolle namens ICANN, denn ohne der Verwaltung von den verschiedenen DNS-Servern wüsste kein Bit wohin es eigentlich hinsoll.

Tschau, Andreas

Über seeds, ip-Adresse und die Daten dezentral in einem p2p Netzwerk abgelegt; Nachteil ist nur die nötige Redundanz um alle Daten auch immer online zu haben, das liesse sich aber mit einerr Handvoll echten Servern lösen die Kopien der kompletten Datenbank puffern.

Siehe dazu auch: http://dot-p2p.org/

Im Prinzip das, nur dass keine Adressinformationen sondern Geoinformationen so verwaltet werden. Nicht geographisch sondern mathematisch verteilt: jeder client speichert die Daten lokal die andere bei ihm am schnellsten wiederfinden, das ganze aus Gründen der Erreichbarkeit entsprechend redundant; Damit wäre die Datenbank komplett dezentralisiert.

Interessanter Ansatz :-).
Ich habe bis jetzt das Ganze nur kurz überfliegen können und hoffe, dass ich demnächst etwas genauer drauf schauen kann. Ist der Bezug zu OSM von Dir spontan entstanden und wird an der Umsetzung bereits gearbeitet?

Tschau, Andreas