Blog
  • Registrieren

GeoMon-Blog

In diesem persönlichem Blog widmen sich Sascha Heising und Heiko Störkel, gemeinsam mit Gastautoren, in unregelmäßigen Abständen zu Wort. Dabei werden, auch gerne mal etwas kritisch, sehr weiträumig Themen aus der Welt der Drohnen aufgegriffen und diskutiert. Die Beiträge spiegeln dabei in erster Linie die Gedanken und Meinungen der Autoren wieder und sollen zum Mitdiskutieren einladen. Über das Weiterleiten, Teilen und Verlinken der Beiträge freuen sich alle Autoren natürlich besonders.

Sascha Heising ist Jahrgang 83, Geograph und widmet sich seit seiner Studienzeit der Berechnung und Anwendung von „Drohnen-Geodaten“. Am Lehrstuhl für Photogrammmetrie und Fernerkundung der Goethe-Universität Frankfurt am Main befasste er sich unter anderem 2013 während einer Forschungsreise in Spanien mit der Erfassung von Kleineinzugsgebieten zur Erosionsmodellierung. Als anerkannter Experte ist er geladener Gastredner auf internationalen Veranstaltungen an Universitäten und auf Konferenzen. In seiner täglichen Arbeit hat er sich auf die Berechnung von Drohnen-Daten mit Agisoft PhotoScan Pro spezialisiert.

Pleiten, Pech und Pannen – das Drohnen-Kuriositätenkabinett auf Youtube

Kürzlich sah ich eher zufällig ein kurzes Video auf Spiegel-Online, in dem ein Bastler eine Motorsäge an einer Drohne montiert hatte um damit zu zeigen, … ja, was eigentlich? Das es geht? Das man damit ganz viel Böses anrichten kann? Das ich mir in Zukunft beim Heckenschneiden nicht mehr den Rücken krumm machen muss? Nein, das Video war kurios aber Sinn frei.

Der richtige Umgang mit der „Killer-Drohne“

Super – dachte ich mir, das erzeugt natürlich mal wieder Vertrauen in das Potential der Technologie und erinnerte mich spontan wieder an einige Messegespräche, die ich lieber nicht gehabt hätte. Und wie gerufen steht die Sensationspresse Spalier und schreibt von „Killer-Drohne“ und der „Gefahr von oben“. Manche Steilvorlagen kann man als Reporter halt einfach nicht liegen lassen. Eine gerechte Auseinandersetzung mit dem Thema bleibt in den Medien meistens auf der Strecke. Wir wollen gar nicht mehr wissen, sondern uns nur am Spektakulum ergötzen.

Das Kabinett des „Haha-Humors“

Angespornt vom jüngsten Video intensivierte ich meinen Blick auf das Thema Drohnen und Youtube, dem ich sonst nur sporadisch Beachtung schenke. Ein Blick in Youtube zeigt schnell, das hier beim Thema Drohnen das reinste Kuriositätenkabinett zu finden ist. Fast schon beängstigende Klick-Zahlen haben die „Drone-Crash- und -Saving-Videos“. Es ist für mich interessant zu sehen, wie Menschen Aufnahmen ins Netz stellen, wie sie mit einer Mischung aus Panik und Entschlossenheit alles dafür tun, ihre kleine Maschine (oder den letzten Monatslohn) vor dem Absaufen oder Schlimmerem zu bewahren – und dabei auch noch 6-stellige Klickzahlen erreichen. Hier einer meiner Favoriten:

Vierstellig = langweilig

Ganz anders sieht es bei den offiziellen Videos einiger Drohnenhersteller aus. Da sind oftmals 3- und 4-stellige Klickzahlen schon das höchste der Gefühle. Für Youtube bedeutet das nicht mehr mal ein Hintergrundrauschen. Woran liegt es also, dass selbst dümmliche Crash-Videos mehr Klickzahlen bekommen als Videos in denen einem wirklich einer was erklären will. Vielleicht erklärt es sich damit, dass sich auch die lustigsten Homevideos immer noch ihren Programmplatz sichern können, während Sendungen wie Löwenzahn aus dem Programm verschwinden. Zudem ist Youtube primär ein Unterhaltungsmedium. Dennoch, ich finde es befremdlich, dass man beim Aufkeimen einer neuen Technologie offensichtlich dem Ergötzen am (möglichen) Scheitern anderer mehr Beachtung schenkt, als der Freude daran, was Menschen mit dieser Technologie positiv bewirken wollen/können.

Ist uns der Erfindergeist abhandengekommen?

Vielleicht steckt aber noch viel mehr Sozialpsychologie dahinter als einem lieb sein kann. Deutschland – das Land der Dichter und Denker schaut nur noch Crash-Videos anstatt sich selbst an die Werkbank zu setzen? Kürzlich las ich einen sehr interessanten Artikel von Astrid Maier zum Thema Schulen im Silicon Valley.

Im Fazit des Artikels heißt es, dass vor allem der dort herrschende Pionier- und alles durchdringende Erfindergeist die Menschen beflügelt und die Region um Palo Alto zu solch einem besonderen Ort macht. Am Ende schreibt Maier den beeindruckenden Satz, dass „in Deutschland Malina (Anm.: ihre Tochter) immer Sängerin werden wollte. Nun will sie, (…), Erfinderin werden“. Wir dürfen nicht vergessen, dass unser Medienkonsum ganz entscheidend unseren Horizont mitprägt. Wollen also mehr Menschen Drohnen-Crash-Piloten als Drohnen-Tüftler werden? – Nein, sicher nicht, aber das Gegenteil drängt sich mir auch nicht auf; und das finde ich sehr schade.

Bewerte diesen Beitrag:
Neueste Kommentare in diesem Beitrag
Heiko Störkel
Nur um dem Ganzen noch einen weiteren Höhepunkt im Kuriositätenkabinett auf Youtube hinzuzufügen: https://www.youtube.com/watch?v=... Weiterlesen
Dienstag, 14 Juni 2016 1:01 AM
Weiterlesen
1743 Aufrufe
1 Kommentar

Acht gute Gründe für Workstation-Grafikkarten für Agisoft PhotoScan Pro

Immer wieder sprechen mich Kunden auf das Thema Grafikkarten für ihre Workstation für Agisoft PhotoScan Pro und andere SfM-Software-Pakete an. Die beiden am häufigsten im Raum stehenden Fragen lauten:

  • Warum – zum Teufel (das wird oft mehr oder weniger so formuliert) – soll ich eine Grafikkarte kaufen die bis zu 10x teurer ist als eine gute Gamer-Grafikkarte?
  • Warum soll ich das auch noch machen, obwohl Agisoft explizit nicht mit den QUADRO-Karten von NVIDIA und FirePro-Karten von AMD wirbt?

Nun, zunächst muss festgestellt werden, dass man bei sehr guten Gaming-Grafikkarten wie der NIVIDA Titan oder der AMD Radeon R9 eine gleiche, teilweise sogar schnellere Leistung bekommt und das zu einem günstigeren Preis. Und ja, an dieser Stelle muss man auch sagen, die professionellen Grafikkarten kosten so viel, weil es immer noch genügend Abnehmer gibt. Unfair? Mag sein, aber das finden wir überall. Ich habe mir mal bei einer Führung an einem Feuerwehrauto die Arbeitshandschuhe angesehen. Die kosten ebenfalls 10x mehr als die gleichen im Baumarkt. „Nur die am Feuerwehrauto haben einen bestimmten Stempel, die im Baumarkt nicht“, erklärte mir der Feuerwehrmann.

Allerdings muss man auch sagen, dass der preisliche Abstand bei den Spitzenkarten deutlich geringer ist als bei einer Grafikkarte aus dem oberen Mittelfeld. Tatsache ist auch, dass man auf beiden Seiten den gleichen GPU-Chip verbaut. Schaut also nicht gut aus für die Workstation-Karten, oder? Jetzt sind Sie bestimmt auf das großer ABER gespannt.

Hier meine Argumente, die ich auch immer wieder unseren Kunden erläutere, für den Einsatz von professionellen Grafikkarten zur Berechnung von Bildern mit Agisoft PhotoScan Pro. Jeden dieser Gründe wird Ihnen ein anderer Experte bestätigen können.

  1. Stabilität: Stabilität geht vor Geschwindigkeit, Stabilität geht vor Geschwindigkeit! Jeder aber wirklich jeder der in einem professionellen Umfeld arbeitet weiß, dass die schnellste Kiste nichts bringt, wenn sie ständig kaputt ist. Zudem ist im Fall von Berechnungen mit PhotoScan in den wenigsten Fällen die Geschwindigkeit das entscheidende Kriterium. Gleichbleibende Stabilität gewährleisten nur Profi-Workstation-Grafikkarten. Heißt, Ihr System mit einer Gaming-Grafikkarte kann funktionieren, muss es aber nicht.
  2. Gewährleistung: Ein wunderbarer Punkt. OK, Sie sind Bastler und wollen alles selbst in der Hand haben, dann ist der Punkt wohl eher unwichtig für Sie. Allen Unternehmen, die einen Computer kaufen damit das Teil Geld für die Firma verdient, sei gesagt: „Lassen Sie bloß die Finger von solchen Experimenten!“ Kein PC-Hersteller, ob HP, DELL , Fujitsu oder sonst wer, wird Ihnen eine Consumer-Grafikkarte in das Gerät einbauen und dafür die Gewährleistung übernehmen. Austausch und Vor-Ort-Service gibt es nur mit Workstation-Grafikkarten. Für alle Unternehmen ohne eigene IT-Abteilung ein KILLER-Kriterium.
  3. Optimierung: Schon mal eine Gamig-Grafikkarte gekauft? Da gibt es die „gleiche Karte“, nehmen wir mal eine NVIDIA GTX980 von einem halben Dutzend Hersteller. Hier Schrauben die Anbieter an Gehäuse, Bauform, Lüfter, etc. etc. Bei Workstation-Grafikkarten wird die Karte so ausgeliefert wie es die Chip-Hersteller empfehlen, nämlich optimiert. Und zwar hinsichtlich Zuverlässigkeit, geringem Stromverbrauch (Unternehmenskosten!) und geringe Abwärme. Meist Eigenschaften die von Unternehmen bevorzugt werden.
  4. Dauereinsatz: Wenn Sie schon mal ein Projekt mit 2.500 Bildern in PhotoScan Pro berechnet haben, wissen Sie – das kann dauern. 20h sind hier durchaus normal. Die professionellen Workstation-Grafikkarten sind für den Dauerbetrieb und eine lange Laufzeit ausgelegt. Vielleicht fragen Sie mal Ihre „Zocker“ im Unternehmen wie viele Karten Sie schon bei ihren nächtlichen Gelangen geschrottet haben, da wird die ein oder andere nach 8h Call of Duty und Co. dabei sein.
  5. Qualität: Die Qualitätsprüfung bei den Workstation-Karten wird von den Chipherstellern übernommen, während es bei den Consumer-Karten den Drittanbietern überlassen wird, ob überhaupt kontrolliert wird.
  6. Fehlerkorrektur: Im Gegensatz zu Gaming-Grafikkarten verfügen Workstation-Grafikkarten über Fehlerkorrekur-Technologie, die Berechnungen gerne mal vor dem Abstürzen bewahren (Stichwort: Endlosschleife).
  7. Double-Precission-Floating-Point-Unterstützung: Okay, das hat die NVIDIA Titan mittlerweile auch aber die Technologie ist sonst nur den Workstation Grafikkarten vorbehalten.
  8. Spezielle Treiber: Die Treiber für Workstation-Grafikkarten sind zertifiziert und optimiert.

Das hat Sie noch nicht überzeugt, Sie haben weiterhin Zweifel? Dann suchen Sie mit uns das direkt Gespräch, wir finden auch für Sie eine Lösung. Bedenken Sie bei Ihren Entscheidungen immer, Leistung ist nur eine Seite der Medaille, dass Sie diese Leistung auch heute, morgen und übermorgen verlässlich abrufen können die andere.

Bewerte diesen Beitrag:
Neueste Kommentare
Gäste — SerhatuS
sehr guter artikel. danke
Freitag, 13 Mai 2016 7:07 PM
Gäste — Dr. Thomas Kremmers
Hallo Herr Heising, in Bezug auf die Nutzung von Gaming-Grafikkarten für die Bilddatenprozessierung mit Agisoft Photoscan habe ich... Weiterlesen
Donnerstag, 19 Mai 2016 8:08 PM
Gäste — Ernst
Interessanter Artikel, aber ich bin auch mit Gaming-Grafikkarten sehr zufrieden. Jedoch sollten diese dann schon high-end sein (z.... Weiterlesen
Donnerstag, 07 Juli 2016 12:12 AM
Weiterlesen
2908 Aufrufe
4 Kommentare

Vulkan – Die nächste GPU API Generation für Agisoft und Co.?

Im Februar 2016 stellte die Khronos Gruppe den „Launch“ des neuen Grafik-Standards Vulkan vor. Warum ist das in diesem Blog eine Nachricht wert? Nun, die Khronos-Gruppe bzw. die Vulkan-Arbeitsgruppe ist nicht weniger als ein Zusammenschluss von namhaften Herstellern wie AMD, ARM, LunarG, NVIDIA und Google, eine nicht ganz alltägliche Allianz. Worum geht es? Glaubt man den wohlklingenden Ankündigungen soll Vulkan DER neue Standard in Sachen Grafik-API werden und z.B. OpenGL ablösen bzw. eine Alternative darstellen. Und spätestens hier sollte es bei uns allen klingeln, da unsere geliebten Softwarepakete alle genau diese API verwenden. Dies ist umso bemerkenswerter, da OpenGL mittlerweile 25 Jahre auf dem Buckel hat. In der IT ist das eine Ewigkeit. Zudem ist Vulkan der erste offene GPU-Standard seit eben genau diesen 25 Jahren. Es wird also spannend sein zu sehen, wer als erstes auf den Zug aufspringen wird. Nicht zuletzt dürften sich die vielen Universitäten und Forschungseinrichtungen, die seit je her zu den großen Open-Source-Gemeinden gehören, darüber freuen.

Vulkan Logo

Wie kommt es zu Vulkan und was bringt uns das?

Nach meiner Beobachtung ist – wie so oft beim Thema Grafik – die Computerspiele-Industrie die treibende Kraft. Warum? Wer sich an die CeBITs der 90er erinnern kann wird schnell merken, dass das eigentlich nie anders war. Hier ist einfach jede Menge Geld im Spiel und in diesem Fall kann einem das nur Recht sein, wenn dadurch ein neuer Open-Source-Standard heraus springt. Natürlich wird auch deutlich, dass wohl insbesondere die Grafikengine-Entwickler dem Vulkan-Team einiges ins Gebetsbuch geschrieben haben aber anders als bei OpenGL dürften „wir“ diesmal von den Entwicklungen viel stärker profitieren, was mit der Architektur von Vulkan zu tun hat.

Wo liegt der wesentliche Unterschied zu OpenGL?

Der wesentliche Unterschied liegt in einem sehr schlanken Treiber, mit direkter GPU-Ansteuerung, währenddessen bei OpenGL sehr viele Funktionen im Treiber abgelegt sind, darunter ein vollwertiger GLSL-Compiler, Speicher Adressierung und Fehler-Erkennung. Bei Vulkan werden diese Aufgaben in eine „Application“ ausgelagert. Dadurch liegt automatisch weniger Code im Treiber, der weithin als Blackbox gilt. Jeder, der mal verschiedene Treiber auf seiner Grafikkarte ausprobiert hat, kennt diesen Effekt. Ein wirklich wichtiger Unterschied und meiner Beobachtung nach der für SfM-Anwender entscheidende Unterschied ist, dass sich so viele CPU-Cores parallelisieren lassen wie man möchte. Das wäre schon ein echter Hammer!

Und was ist mit DirectX12?

Natürlich hat Vulkan nicht nur im eigenen Lager Konkurrenz, sondern auch in DirectX12 und Metal, die aber jeweils nur Windows bzw. Apple-Systeme unterstützen. Wer aber weiß wie SfM-Software, wie Agisoft PhotoScan, gestrickt ist weiß, dass Plattformneutralität ein wichtiger Baustein ist. Vulkan wird eine Cross-Plattform sein und soll offen bleiben. Zudem ist mir keine SfM-Software bekannt die unmittelbar von DirectX profitiert. Das ist wieder ein Grund mehr, der gegen den intensiven Einsatz von Gamig-Grafikkarten im Profi-Bereich spricht, da kein Nutzen aus DirectX gezogen wird. Ich werde auf diesen und andere Aspekte in einem weiteren Artikel nochmal eingehen.

Eine der spannendsten Frage dürfte jetzt natürlich sein, warum sollten die Entwickler, z.B. von Agisoft ihre Arbeit mit OpenGL aufgeben und sicherlich sehr viel Zeit und Ressourcen in eine komplett neue Plattform stecken? Aus meiner Sicht gibt hier eine Khronos-Präsentationsfolie einen erstaunlich guten Hinweis, dass es so kommen wird. Denn bei den Entwicklern von Vulkan ist man sich durchaus bewusst, dass nicht jeder alles über Board schmeißen wird. Die zwei entscheidenden Gründe dürfte sein, dass SfM-Software CPU gebunden ist und dass die Grafikerstellung parallelisiert werden können. Aus diesem Grund bin ich mir sicher, dass es mittelfristig einen Wechsel zu Vulkan geben wird.

Fazit?

Aus meiner Sicht werden die großen Structure-from-Motion-Hersteller nicht um einen Schwenk hin zu Vulkan herum kommen. Dazu zeigt sich die API heute schon viel zu leistungsfähig, vor allem im Vergleich zu OpenGL. Für den Nutzer ist die Sache im Moment noch uninteressant aber das nächste Update kommt ganz bestimmt.

Bewerte diesen Beitrag:
Weiterlesen
2388 Aufrufe
0 Kommentare

Die Zukunft der Drohnen-Vermessung – ein gewagter Blick durch die Kristallkugel

Persönlich stelle ich mir immer wieder die Frage in welche Richtung sich die Drohnen-Vermessung entwickeln wird. Jedes Jahr gibt es auf den einschlägigen Messen, allen voran der INTERGEO, Neuerungen, Verbesserungen und auch ein paar Innovationen zu bestaunen. Einige Hesteller sind mit vielversprechenden Entwicklungen vorweggeprescht, z.B. rTK, Brushless Gimbal, VTOL (vertical take-off and landing) sowie Multi-Sensoraufhängung. An anderer Stelle haben sich die Entwicklungen wieder egalisiert, wie z.B. bei der durch den Akku bestimmten Flugdauer oder der Fluggeschwindigkeit und Aufnahmewinkel. Aber welche Felder versprechen nun das größte Entwicklungspotential? Aus meiner Sicht kommen dafür in erster Linie drei in Frage: Erstens Robotik und Automatisierung, zweitens Sensorik und drittens Software. Wie begründe ich nun diese These?

Pressebild INTERGEO

Quelle: copyright HINTE Messe/INTERGEO

Robotik hat ihr Potential noch nicht ausgeschöpft und rechtlich ausschöpfen dürfen

Das für mich in jeder Hinsicht spannendste Themenfeld ist die vollständig automatisiert operierende Robotik. Komplett autonom arbeitende Systeme sind zweifelsohne die Zukunft und wahrscheinlich im besonderen Fokus der Investoren, da die wirtschaftlichen Aussichten extrem verlockend scheinen. Angefangen von vollständig autonomen Starts und Landungen bis hin zu automatisierten Routinen für Ladung, Wartung und Datenaustausch.

Bei der Automatisierung wird es vor allem um zwei Aspekte gehen. Interaktion der Maschinen untereinander, Stichwort Schwarmverhalten und insbesondere die Reaktion auf unvorhergesehene Ereignisse, hier vor allem der Kollisionsschutz. Es gibt schon interessante technische Umsetzungen dazu, vor allem an Universitäten. Natürlich ist der Einsatz dieser Entwicklung außerhalb der Versuchsanlagen derzeit rechtlich untersagt. Wohlgemerkt – noch, denn die Integration solcher autonom operierenden Systeme in unseren Luft- aber auch Lebensraum wird nicht zuletzt eine gewichtige politische Entscheidung der näheren Zukunft werden. Ich glaube es wird genauso kommen wie bei vollständig autonom fahrenden Autos. Ist der wirtschaftliche Anreiz erst mal da, wird der Wandel nicht aufzuhalten sein.

Multisensorplattformen gehört die Zukunft

Warum nur einen Sensor dabei haben, wenn man gleich ein halbes Dutzend an Messdaten aufnehmen kann? Einige Hersteller machen zaghafte Versuche, zum Beispiel mit der Verschneidung von RGB und Infrarot-Daten. Aber es wird noch viel weiter gehen. Multi- und Hyperspektralsensoren werden genauso in die Breite gehen wie hochspezialisierte Messsonden, z.B. für meteorologische Untersuchungen. Und für alle anderen wird es zumindest True-Stereoaufnahmen geben. Was mit der neuen Fülle an Daten geschieht, bzw. geschehen soll und wie diese sinnvoll genutzt werden können, das steht selbstverständlich auf einem ganz anderen Blatt.

Software, das unbestellte Land

Ebenfalls eines der spannendsten Entwicklungsfelder wird die Software sein. Insbesondere dann, wenn man den Begriff um den Kern der eigentlichen Flugprogrammierung erweitert. Wir haben dabei mit DroneSquare selbst eine Software zur intelligenten Missionsvorbereitung und Buchung konzipiert. Agisoft und andere arbeiten an immer besser werdender Post-Processing-Software. Die möglichst vollständige und reibungslose Verzahnung von der Missionsplanung bis zur Abrechnung und Buchführung wird das Zukunftsfeld von Software sein.

Sie sind nicht meiner Meinung oder haben ein ganz anderes Thema im Blick? Kein Problem, schreiben Sie uns Ihre Meinung. Wir freuen uns!

Bewerte diesen Beitrag:
Neueste Kommentare in diesem Beitrag
Gäste — Michaela
Hallo, danke für de spannenden Artikel. Drohnen werde immer mehr zum Werkzeug. Ich kann mir auch vorstellen, dass sie bei der Bauw... Weiterlesen
Mittwoch, 31 Mai 2017 11:11 AM
Weiterlesen
2934 Aufrufe
1 Kommentar

Gesucht: Das beste Kamera-Objektiv-Kit für photogrammetrische Vermessung mittels UAV

Wirft man einen Blick auf die aktuellen UAV-Modelle der verschiedenen Hersteller fällt auf, dass eine Vielzahl von Kamera-Kit-Kombinationen zu haben ist. Dabei ist doch die Frage erlaubt: Macht das überhaupt Sinn? Und müsste sich nicht längst ein Favorit für die photogrammetrische Vermessung gefunden haben, den alle Hersteller einsetzen?

Die Antwort ist klar zu verneinen, dass Testfeld ist mehr als unübersichtlich und unbefriedigend. Da aber die Qualität der Vermessungsergebnisse nicht zuletzt vom eingesetzten Kamera-Kit abhängen, haben wir uns mal einen aktuellen Vergleich gewagt. Dabei haben wir uns angeschaut, was die Hersteller derzeit für ihre Geräte auffahren. Wir haben stets auf die Klasse der Vermessungs-UAVs geachtet, nur Angebote der Webseite aufgeführt, welche die Hersteller tatsächlich bewerben und andere Disziplinen komplett ignoriert. Die Liste der Hersteller hat allerdings keinen Anspruch auf Vollständigkeit.

In alphabetischer Reihenfolge

Aibotix –X6

Der X6 von Aibotix wird mit flexibler Payload beworben. Wir kennen das schon bei den Coptern. Zwar wird der X6 exklusiv für Vermessung beworben, welcher Sensor dafür aus Sicht der Kasseler am geeignetsten ist, bleibt Firmengeheimnis. In den Abbildungen ist zwar eine Vollformat-Kamera aus dem Hause Nikon und eine DSLM von Sony auszumachen aber das war es auch schon.

Unser Eindruck: Schwacher Auftritt des Leica-Kooperationspartners, wir hätten uns hier viel mehr Informationen gewünscht. Auch Benchmarks sucht man vergebens.

 

Asctec – Falcon 8 + Geo EXPERT

Das Flaggschiff für Vermessungsaufgaben aus dem Hause Ascending Technologies trägt den Namen Falcon 8 + Geo EXPERT. Als Kamera-Kit kommt eine Sony Alpha 7R zum Einsatz. Die Alpha 7R gilt derzeit als eine der besten DSLMs auf dem Markt. Mit Vollformatsensor ausgestattet, bringt Sie alles mit für hervorragende Bilder. Welches Objektiv Asctec dazu empfiehlt bleibt unklar. Daneben wirbt das Unternehmen noch wahlweise mit der Sony Alpha 6000 mit APSC-Sensor und der kleinen Panasonic Lumix DMC-TZ71 mit 1/2.3 Sensor.

Unser Eindruck: Zwar findet man bei Asctec ein paar Angaben zur Nutzlast und auch welche Kamera für die UAV-Vermessung empfohlen wird, über das präferierte Objektiv erfährt man allerdings nichts. Schade, hier hätten wir uns neben Benchmarks mehr gewünscht.

 

DJI – INSPRIRE 1

Sie fragen sich, was sollen die Chinesen in diesem Ranking? – Richtig, DJI tritt selbst nicht als UAV-Hersteller für Vermessungsaufgaben auf. Trotzdem finden sich immer wieder Akteure da draußen, die mit einer DJI-Phantom oder INSPIRE Vermessung verkaufen wollen. Natürlich hat DJI gerade mit der neuen INSPIRE mit mft-Objektiven einen interessanten Schritt gemacht aber mit Vermessung passt das (noch) nicht zusammen.

Unser Eindruck: Aufpassen, der chinesische Drachen schläft zwar noch beim Thema Vermessung, könnte den Markt aber schneller umkrempeln als das vielen lieb sein kann. Und beim Thema Kamera-Kits gibt es heute schon mehr zu lesen als bei manch einem Konkurrenten.

 

Germap – G212

Germap schickt seine Multi-Sensor-Plattform G212 ins Rennen. Das Konzept mehrere Sensoren an Bord zu nehmen, hat durchaus seine Berechtigung, gerade für komplexe Thematiken. Zwar finden wir bei Germap einige Konfigurationsbeispiele, nichts jedoch zu den empfohlenen Kamera-Kits.

Unser Eindruck: Schade, Germap startet vielversprechend, bleibt aber einige Informationen schuldig. Hier hätten wir uns mehr erhofft. Benchmarks konnten wir keine finden.

 

Height-Tech – HT-8

Zwar finden wir bei Height-tech einen Verweis auf die Sensor-Kits, die Angaben bleiben aber sehr dürftig. Mehr als dass die Sensoren Canon 5D / 6D, Nikon D800 / D7000 unterstützt werden, finden wir nicht. Eine klare Empfehlung für Vermessungsaufgaben fehlt. Wieder einmal tappt der Kunde in die Falle der allseits gelobten Flexibilität der Copter.

Unser Eindruck: Die Angaben sind uns viel zu vage. Es fehlt bei Height-tech eine klare Kaufempfehlung und Begründung mit Benchmarks.

 

MAVinci – SIRIUS Pro

MAVinci wird vergleichsweise sehr konkret, wenn es um den Sensor geht. Zwar ist der Link zum Kamera-Kit nicht aktiv [Stand: 2015-12-15] aber in der Produktbroschüre von 2014 erfährt man, dass eine Panasonic Lumix GX-1 DSLM mit 14 mm f/2.5 Objektiv verwendet wird. Zudem wird MAVinci sehr konkret, wenn es um das Thema Auflösung und Lagegenauigkeit geht. Schade, dass in der aktuellen Broschüre von 2015 nicht mehr auf das verwendete Kamera-Modell eingegangen wird.

Unser Eindruck: Gut gemacht, kaum sonst erfährt man so viel über das verwendete Kamera-Kit wie bei MAVinci. Einziger Wehrmutstropfen, die Angaben stammen alle aus dem Jahr 2014. Zudem gilt die Panasonic Lumix GX-1 mittlerweile als veraltet.

 

Mikrocopter – 6s|Geo

Mikrocopter fährt den 6s|Geo für Vermessungsaufgaben auf und bewirbt damit verbunden die Canon EOS 100D, eine DSLR-Kamera. Übrigens die einzige im Testfeld. Zum Objektiv erfährt man nichts.

Unser Eindruck: Ebenfalls ein schwacher Auftritt für einen explizit beworbenen Vermessungs-Copter. Angaben zu Kamera-Kit sucht man vergebens und Benchmarks sind auch keine zu finden. Das ist uns zu wenig.

 

Microdrones – md4-1000

Die md4-1000 wird zunächst ohne einen bestimmten Sensor beworben, das ist wohl bewusste Firmenpolitik bei Microdrones, um die Flexibilität des Systems zu unterstreichen, denn Microdrones hat eine Vielzahl von Sensoren im Portfolio. Für Vermessung eignet sich allerdings nur die SONY NEX-7. Unerfahrene Nutzer sind also auf zusätzliche Beratung angewiesen und können kein Out-of-the-box-Vermessungssystem erwerben. Welches Objektiv zum Einsatz kommt verrät uns Microdrones nicht.

Unser Eindruck: Eher schwaches Angebot für Vermessungsanwender und vieles muss auf Nachfrage geklärt werden. Zudem ist die SONY NEX-7 nicht mehr up-to-date, Benchmarks gibt es keine.

 

Sensefly – ebee rTK

Die Parrot-Tochter bewirbt ihr Topmodell für photogrammetrische Vermessung, den ebee rTK mit einer Canon S110. Dabei verraten die Schweizer sogar etwas mehr über Eigenschaften der Kamera und die Einsatzgebiete. So konkret wie MAVinci wird sensefly bei den Themen Auflösung und Genauigkeit aber nicht.

Unser Eindruck: Die Mindestanforderungen für Interessenten erfüllen die Schweizer, mehr aber auch nicht. Zudem gibt es keine Informationen hinsichtlich Benchmarks. Das geht deutlich besser.

 

Service-Drohne - MULTIROTOR Geo-Kopter

Service Drohne setzt bei seinem MULTIROTOR Geo-Copter auf die Olympus E-PL7 oder wahlweise die SONY Alpha 7R II. Die Objektive findet man etwas weiter hinten in der Broschüre. Bei der Olympus setzt Service-Drohne auf das LUMIX F1:2,5/14mm von Panasonic. Zudem sprechen die Berliner eine eindeutige Empfehlung für die Vollformat-DSLM von SONY aus. Hier wird geraten das SEL35F28Z Sonnar T* FE 35 mm F2,8 ZA Weitwinkel mit Festbrennweite und E-Mount-Bajonett zu verwenden.

Unser Eindruck: Zwar muss man etwas suchen aber so viel Klarheit bezüglich der Kamera-Objektiv-Kombination war selten. Leider vermissen wir ein paar handfeste Benchmarks aber die kommen ja vielleicht noch.

 

Fazit unseres Tests:

Natürlich werden Sie bei allen Herstellern hilfreiche und detaillierte Auskünfte zu den Sensoren und Kamera-Objektiv-Kits bekommen. Aber darum ging es uns in diesem exemplarischen Test nicht. Der Test hat gezeigt, dass die Hersteller sich zu sehr auf ihr Gerät versteifen und den Sensor und damit die weitergehende Wertschöpfungskette in der Kommunikation nach außen schlicht vergessen. Allzu oft bleibt der Eindruck hängen, dass die Hersteller selbst nicht wissen, was man denn nun am besten für UAV-Vermessung verwenden soll. Die Hersteller in unserem Testfeld fahren zusammen über ein Dutzend Kameramodelle auf, zu den Objektiven wird sich allzu oft ausgeschwiegen. Das muss besser werden!

Hersteller wie MAVinci sind die zu lobende Ausnahme, da man hier wirklich eine handfeste Empfehlung mit Benchmarks bekommt, leider ist das Portfolio nicht mehr aktuell. Das Nachsehen hat der Kunde, der i.d.R. viel Know-how oder - wegen des vielen Ausprobierens - viel Geld mitbringen muss, um an seinem Gerät das ideale Kamera-Kit einzusetzen. Und wenn Sie sich an die Eingangsthese erinnern, müssten ja alle den gleichen Sensor nutzen, da sich bekanntlich das beste System durchsetzen sollte. Wie Sie sehen ist diese Annahme weit gefehlt!

Sie vermissen einen Hersteller oder einen bestimmten Kamera-Kit? Welche Konfiguration funktioniert für Sie und warum? Wir laden Sie ein mitzudiskutieren. Was Ihnen wirklich zu guten Ergebnissen verhilft, lesen Sie in einem unserer nächsten Beiträge.

Markiert in:
Bewerte diesen Beitrag:
Neueste Kommentare
Gäste — Eugen
Seit Kurzen gibt es die Zenmuse X5R von DJI auf den Markt. Die wäre nun mit der Inspire 1 für diesen Zweck einsetzbar
Mittwoch, 20 Juli 2016 11:11 PM
Gäste — W.Müller
Selbstverständlich kann man mit einem DJI Kopter ab P3p seriös Vermessung machen. Ein Vergleich Phantom3pro mit drei der in Ihrer ... Weiterlesen
Montag, 03 April 2017 11:11 AM
Sascha Heising
Hallo Herr Müller, danke für Ihren Kommentar. Der von Ihnen angesprochene Vergleich klingt sehr interessant. Wir laden Sie herzlic... Weiterlesen
Montag, 03 April 2017 7:07 PM
Weiterlesen
3099 Aufrufe
3 Kommentare

RAW vs. JPG – Was Sie zum richtigen Postprocessing wirklich brauchen

Die Hersteller bekannter Post-Processing Software-Suiten machen es sich leicht und empfehlen beim Post-Processing möglichst immer unkomprimierte RAW-Daten zu benutzen, siehe z.B. das „user manual“ von Agisoft. Was auf den ersten Blick sinnvoll und keiner Widerrede wert erscheint, ist aber einen zweiten Blick wert. Denn die Frage muss erlaubt sein: Wo und wann schaffen RAW-Daten einen wirklichen Zusatznutzen und was gilt es zu beachten? Gleichzeitig stellt sich die Frage: Und was lernen wir daraus für den Einsatz von JPGs?

Bevor wir die Frage nach dem richtigen Datenformat beantworten können, lohnt es, sich nochmal vor Augen zu führen, was eigentlich bei der Aufnahme eines Bildes passiert. Bei der digitalen Fotographie – auf deren Gesetze und Grundlagen die Auswertung erfolgt – werden Teile des elektromagnetischen Spektrums in digitale Werte umgesetzt. Das heißt die Eingangsgröße ist ein analoges Signal in Form einer „Licht“-Welle. Hier beginnt schon der erste Eingriff der eingesetzten Technik in das endgültige Resultat. Die Kamera-Objektiv-Kombination beeinflusst schon entscheidend das digitale Abbild, ohne dass wir uns über die Datenspeicherung bislang Gedanken machen mussten. Soviel sei vorweggenommen: Die Qualität der Prozessierungs-Ergebnisse alleine auf den Einsatz von RAW- oder JPG-Format zu begrenzen, ist deutlich zu kurz gegriffen, da andere Größen zum Teil einen viel größeren Unterschied machen!

Wichtig ist das Gesamtbildrauschen

Die Diskussionen um den Einsatz von RAW und nicht RAW werden meist aufgrund des Bildrauschens geführt. Dabei gilt, selbst bei exakt dem selben Motiv kommen unterschiedliche Kameras zu abweichenden Ergebnissen. Erste Ursache für Rauschen ist der Bildsensor selbst. Dabei ergibt sich ein physikalisches Problem, je größer ein Kamerachip wird, desto mehr Licht lässt sich in genügend große Pixel aufteilen, was tendenziell für bessere Bilder sorgt, durch die entstehende Wärmeentwicklung bei größerem Bildsensor, steigt aber auch das Signalrauschen des Chips. Diesem Phänomen begegnen alle Hersteller durch kamerainterne Korrekturen, die im JPG mit gespeichert werden. Bei RAW-Bildern steckt das Signalrauschen des Sensors aber noch im Bild. Wirklich signifikanten Einfluss auf die gänzliche Vermeidung des temperaturbedingten Sensorrauschens hat man in der Regel nicht, aus diesem Grund haben sich die Kamerahersteller merhheitlich dazu entschieden die Störung der Einfachheit halber heraus zu rechnen.

Quantitatives Rauschen

Eine weitere Ursache für das Signalrauschen ist das durch die Binärkodierung des analogen Signals erfolgte quantitative Rauschen. Damit ist gemeint, dass jeder Bildkanal, i.d.R. R=ROT, G=Grün, B=Blau, eine fixe Anzahl an Tonwertabstufungen besitzt. Hier hat RAW stets die Nase vorn, denn je nach Kameramodell werden zwischen 10 und 16 Bit pro Kanal aufgezeichnet. Bei JPG sind es nur 8 Bit, das bedeutet 256 (28) mögliche Tonwertabstufungen von 0 bis 255. Im Falle eines 12-Bit-RAW sind es folglich 4096 (=212) mögliche Tonwertabstufungen. Für das menschliche Auge sind diese Unterscheidungen längst nicht mehr sichtbar, für Post-Processing-Software sehr wohl. Muss sich der Kamerasensor entscheiden welchen Wert er dem analogen Signal zuweist, ist es ohne Frage von Vorteil auf eine größere Bandbreite zurückgreifen zu können. Zum quantitativen Rauschen wiederrum kommt es, wenn die analogen Signale einem bestimmten Binärwert zugeordnet werden. Der primäre Vorgang mit i.d.R. mehr als 8 Bit pro Kanal ist allerdings selten die Ursache für ein großes Rauschen. Das Rauschen entsteht vielmehr bei der Komprimierung in ein 8-Bit-JPG. Viel problematischer zu bewerten sind allerdings stark über- und unterbelichtete Stellen im Bild. Steht aufgrund der Datentiefe ein nicht ausreichend dimensionierter Tonwertumfang zur Verfügung kommt es zur Über- und Unterbelichtung. Naturgemäß ist die Wahrscheinlichkeit einer Über-/Unterbelichtung bei 8 Bit größer als z.B. bei 16 Bit. Aber warum ist dieser Effekt nun von Bedeutung?

Kamera-Artefakte

Jede Kamera geht bei der Komprimierung anders vor. Es lohnt sich daher, mal ein JPG in einem Bildbearbeitungsprogramm wie Photoshop zu öffnen und die Kanäle von RGB auf Lab, HSV oder HSL umzustellen. Die Helligkeit wird in der Regel sehr gut wiedergeben, die anderen beiden Kanäle weisen jedoch ein sehr verwaschenes kontrastarmes Erscheinen auf, und hier finden sich oftmals Artefakte, meist in Abhängigkeit zur gewählten Komprimierung. (Anmerkung: Die hier dargestellten Bilder dienen nur zur Illustration).

Das Bild im LAB Modus mit allen aktiven Kanälen

Hier dargestellt eine Luftbildaufnahme unter schwierigen Beleuchtungsbedingungen. Bei Einblendung aller Kanäle (Lab) ergibt sich ein Echtfarbbild.

Nur der Helligkeitskanal

Der für SIFT-Verfahren relevante Helligkeitskanal enthält alle nötigen Informationen zur Punkterkennung und bietet im JPG-Format 8 Bit Datentiefe, d.h. 256 Helligkeitsabstufungen.

Der a-Kanal des lab-Bildes

Der a-Kanal des Lab-Bildes ist geprägt von starken Artefakten und geringen Tonwert-Unterschieden.

Feature-Erkennung in Structure-from-Motion-Software

Warum ist das nun relevant? Nach allem was bekannt ist, basiert die Punkteerkennung (Keypoint detection) der großen Post-Processing-Suiten mehr oder weniger auf dem SIFT-Ansatz (Scale Invariant Feature Transformation). Dabei sucht die Software in den Bildern nach Punkten, die bei der Veränderung von Beleuchtung und Standpunkt stabil bleiben. Da der SIFT-Algorithmus nur mit Grauwerten arbeitet, bleibt es vorerst Spekulation, ob PhotoScan und Co mit allen drei Kanälen (RGB) oder aber – was aus meiner persönlichen Sicht wahrscheinlicher ist – mit dem Helligkeitskanal des Lab-Farbraums arbeitet, da dieser alle wesentlichen Informationen enthält. Da es bei der Punkterkennung und der nachgelagerten Näherung an die besten Werte um eine Kantenidentifizierung geht, ist eine höhere Datentiefe wie bei RAW sicher von Vorteil, essentiell notwendig erscheint sie mir allerdings nicht. Zudem drängen sich in beiden Fällen Nachteile auf, denn auch RAW ist keinesfalls frei von diesen.

RAW oder JPG, was lässt sich besser prozessieren?

Das JPG im Helligkeitskanal

JPG-Bildausschnitt bei 100%.

Das RAW im Helligkeitskanal

Der gleiche Bildauschnitt im TIFF.

Die beiden oben stehenden Bilder zeigen den optischen Eindruck des gleichen Bildausschnitts im JPG- und TIFF-Format (konvertiertes bzw. "entwickeltes" RAW) im direkten Vergleich. Im oberen Bild hat die JPG-Komprimierung und -Korrektur kräftig zugeschlagen. Im unteren Bild hat keine Korrektur stattgefunden. Insbesondere in verschatteten Bereichen (Schlagschatten des Schildes aber auch im Graben unten rechts) ist die Zeichnung im TIFF feiner und es sind mehr Details auszumachen. Optisch wirkt das JPG durch die Kontrastanpassung allerdings deutlich schärfer.

Die meisten Post-Processing-Lösungen können nicht direkt die Kamera-Rohdaten (RAW) lesen. Es ist also zunächst die Konvertierung in eine TIFF-Datei notwendig. Je nach Bildmenge und zur Verfügung stehender Rechenleistung ein nicht ganz unerheblicher Mehraufwand. Ebenfalls wichtig ist der benötigte Festplattenspeicher. Wer, wie GeoMon, häufig Projekte mit ca. 1000 Bildern aufnimmt, vergrößert die benötigte Festplattenkapazität von ca. 10 GB auf 100 GB. Bei nur 10 Projekten kommen somit schon 1000 GB, d.h. ein Terabyte, Speicherbedarf zusammen. Wer Wert auf RAW-Processing und den Erhalt der Rohdaten legt, sollte Zugriff auf sehr viel Speicherplatz haben (ca. 10 TB).

Doch wie schlagen sich TIFF-Dateien um Vergleich zu JPG bei der Geschwindigkeit? Die Anzahl der Pixel ist die Gleiche, einzig Komprimierung und Datentiefe, 24 Bit (JPG) vs. 48 Bit (TIF) sind unterschiedlich.
Eigene Tests haben gezeigt, dass in Punkto Geschwindigkeit beide Berechnungen nahezu gleichauf liegen, das JPG-Set aber erwartungsgemäß schneller prozessiert wurde. Die Aussage das sich RAW-Daten aber genauso schnell wie JPG-Dateien prozessieren lassen – wie in einigen Foren behauptet – konnte ich bislang so nicht bestätigen. Das Testset mit 141 Bildern, in den Low Einstellungen auf unserer Workstation prozessiert, dauerte 16:14 Minuten mit JPG und 21:11 Minuten mit TIF. Qualitativ gab es keine sichtbaren Unterschiede, allerdings beanspruchte der TIF-Ordner ganze 18,9 GB Speicherplatz und der JPG-Ordner nur 1,44 GB. RAW-Prozessierungen sind daher ohne ausreichend Festplatten- und RAM-Speicher nicht durchführbar!

Und wer macht nun das Rennen?

RAW und JPG haben jeweils unterschiedliche Vor- und Nachteile. Je nach Kameramodell treten diese mehr oder weniger hervor. Es lohnt sich daher, die eigene Kamera genauestens zu untersuchen und vor der Neuanschaffung auf die genannten Faktoren zu achten. Bei schwierigen äußeren Bedingungen kann RAW mehr aus den Daten herausholen, muss es aber nicht, wenn die anderen Kameraparameter dies nicht zulassen. Wird zum Beispiel die Vignettierung des Objektivs nicht herausgerechnet, ist der Mehrwert eines größeren Tonwertumfangs schnell dahin. Zudem kompensiert die hohe Anzahl an Bildern über- und unterbelichtete Szenen, wenn diese aufgrund des anderen Winkels in den nächsten Bildern besser erkennbar sind. Auch können die meisten Kamera-Modelle in JPG schneller auslösen als in RAW.

Aus unserer Erfahrung heraus ist der Einsatz von RAW daher dauerhaft nicht praktikabel, da der Mehraufwand teilweise manuell durchzuführen ist und die vorzuhaltende Datenmenge um den Faktor 10 zunimmt. Zudem ist der einzige wirkliche Zusatznutzen – die höhere Datentiefe – selten relevant, da meistens andere Parameter größeren Einfluss auf die Qualität der Aufnahmen haben. Zudem zeigten die bisherigen eigenen Tests keinen signifikanten Qualitätsabfall bei JPG. Entscheidend ist, welches Ergebnis man am Ende erzielen will, denn soviel ist klar: Die Daten des Post-Processings sind meist erst der Anfang weiterer Analysen.

Fazit

Wir empfehlen daher weiterhin die Prozessierung mittels JPG und in kritischen Projekten mit schlechteren Beleuchtungsbedingungen die sorgfältige Abwägung unter Berücksichtigung der vorliegenden Kamera-Eigenheiten.

Bewerte diesen Beitrag:
Weiterlesen
3157 Aufrufe
0 Kommentare
Warte kurz, während wir den Kalender laden

GeoMon Zusammenfassung

Nachhaltigkeit und Transparenz in neuer Dimension:

Anders als beim herkömmlichen, meist bodenbezogenen, Monitoring wird bei GeoMon die Datengewinnung mittels „Drohnen“ also MUAV (Micro Unmanned Aerial Vehicles) durchgeführt und bietet die Möglichkeit eines mobilen, schnellen, umweltschonenden (geräusch- /emissionsarm) und häufigen Einsatzes. Die Bereitstellung der Geodaten und ihrer Auswertungen via Cloud-Services, ermöglicht dem Kunden den Vorteil, jederzeit seine Daten, mit GPS verortet, punktgenau vor Ort im Gelände (per Smartphone/Tablet) abzufragen.
Gute Bewirtschaftung von Flächen oder der Erfolg von Renaturierungsmaßnahmen wird nachvollziehbar, transparent und die Nachhaltigkeit der Wertschöpfung gestärkt.

 

 

Kontaktadresse

GeoMon
Heiko Störkel und Sascha Heising GbR

Senckenberganlage 31 (PF 80)

D-60325 Frankfurt am Main
GERMANY

 

 

 

 

Diese Webseite ist optimiert für Firefox 42.0
Sie können den Browser hier herunterladen

S5 Box

Login

Das können wir für Sie tun

  • Volumenbestimmungen
  • fkjakdjf #
  • AFAFJÖAFJ
  • kfjldjfjgfskjg
  • fdkdFJ#f#j

Bitte sprechen Sie uns an

 

Rekultivierung_s5Box

Das können wir für Sie tun

  • adsjkafj#afj
  • fjaFJa fj  fFJALK
  • FKFSJKA JF
  • FKKJDFKJjj
  • dsjg # dSD

Bitte sprechen Sie uns an