Hallo marek!

Danke für die Antworten, das stimmt natürlich auch wieder.

Die Massenlösung gibt es schon,. die nennt sich hugin (http://hugin.sourceforge.net/), hätte ich erst auch nicht gedacht, aber dann viel mir wieder ein das in dem einem Paper drin stand das sie die Entzerrung mit den Panoramatools gemacht haben wollen. Also dann erst mal 'ne Nacht lang Experimente mir hugin (leider ohne erst mal die Doku zu lesen, weil bei 'ner GUI, neigt man ja eher zum durchprobieren…) und der Doku von der liblensfun (http://lensfun.berlios.de/) gemacht, weil die benutzt z.B. showfoto aus dem digikam Projekt von KDE, um 'ne neue Linsenbeschreibung zu für meine Cam zu basteln. Jedenfalls hatte ich es dann auch geschafft Bilder/Panoramen passend auf andere Flächen umzuprojezieren. Naja, vorhin dann doch mal geguckt wie gut deren Doku ist und dann http://hugin.sourceforge.net/tutorials/index.shtml gefunden, wo diese Perspektiventzerrungsfälle quasi schon als Standardtutorial angeboten werden.

Damit ist die Lösung zwar nur bedingt schnell erklärt, aber man die natürlich dankenswerterweise alles komplett scripten und damit automatisieren (auf Windows wird das dann wohl eher zum Krampf, aber es gibt ja hier auch genügend tapfere User, die dessen “shell” zur Kartengenerierung benutzen…), dann ist das vielleicht leichter auf Dauer anzuwenden und für den Normalanwender zu beschreiben.

Fotoserien in mehr oder weniger geringer Auflöung bekommt man, wenn man, nachdem man mit einer Viedokamera einmal um eine Haus gegangen ist und danach im simpelsten Fall einfach mal ein:
“mplayer -ao null -vo jpeg video.avi” (da du Windows-User bist: mplayer gibts unter http://mplayerhq.hu/)) macht, dann bekommt man jeden Frame des Videos als JPEG-Bild. Aus denen kann man dann ein Panorama zusammenbauen lassen.

Ja, das ist ein halber Gedanke gewesen. Da meinte ich prinzipiell das man auch mit oft auch mit weniger Farben wie 256 optimierten Farben auskommt.
Hier mal eine eine Testtextur, die auch gerne für alles benutzt werden kann, die ich aus einen Fisheye-Bild eine Ligusterhecke erstellt habe (geht ja recht gut mit Gimp (http://www.gimp.org/): “Filter–>Abbilden–>Nahtlos machen” spart einem schon mal die halbe Arbeit deiner Tutorials, weil das macht die Vierteilung automatisch), um zu sehen wie sich die Verzerrung und Unschärfe so bei Nahaufnahmen auswirkt.

Als 24bit RGB-Bild war das ganze noch etwas über 600kb groß, und ist ohne für mich erkennbare Qualitätseinbußen durch die Farbreduktion um ca. 2/3 kleiner geworden. Also die 24bit sind ausreichend im Wiki klingen eher wie ein Witz, weil eine höhere Farbaanzahl bekommt man es ja nur noch mit Serienaufnahmen vom gleichen Objekt hin (kann hugin natürlich auch…).

Danke das du dir die Mühe mit der Anleitung für Photoshop gemacht hast, aber ich benutze nur noch Linux und habe somit kein Photoshop. Gimp hat direkt keine Funktion um gleichmäßig in x und y Richtung zu wölben, das was in Näherung daran heran kommt ist “Filter–>Verzerren–>Verbiegen”. Aber da das alles besser mit hugin geht, braucht man das ja nicht mehr.