Hannes Feilhauer und Ulrike
Faude
Zusammenfassung
Naturschutzplanung und Monitoring erfordern die wiederholte Kartierung großer Flächen. Regelmäßig wird daher der Einsatz von
Fernerkundungsverfahren zur Bewältigung dieser Aufgabe diskutiert. Bisher spielen solche Verfahren in der Praxis jedoch nur eine
untergeordnete Rolle. Wir geben in diesem Aufsatz eine Einführung in die Prinzipien der Erdbeobachtung und diskutieren, wie Luft-
und Satellitenbilder ergänzend zu Geländedaten in der Naturschutzplanung eingesetzt werden können. Überlegungen zum
Kosten-Nutzen-Verhältnis sowie zu neuen Entwicklungen stehen hierbei im Fokus. Angesichts der zunehmend besseren Verfügbarkeit
digitaler Bilddaten stellt die Bereitstellung standardisierter Geländedaten zum Training der Erfassungsalgorithmen derzeit die
größte Herausforderung für einen effizienten Einsatz von Fernerkundungsverfahren dar.
Erdbeobachtung – Vegetationskartierung – Monitoring – Geographisches Informationssystem (GIS) – Satellitenbildauswertung – HabitatbewertungAbstract
Conservation planning and monitoring require the repeated mapping of large areas. In this regard, possible benefits of using
remote sensing techniques are frequently discussed. So far, however, these techniques have played only a minor role in practical
applications. In this paper, we provide an introduction to the principles of Earth observation. We discuss how aerial and
satellite imagery can be used to complement conventional vegetation surveys. This discussion puts an emphasis on considerations of
the cost-benefit ratio as well as on new developments. Digital Earth observation data are becoming increasingly available. The new
bottleneck is hence the provision of standardised terrain data for the training of algorithms. This currently poses the greatest
challenge in the field of digitisation for an efficient use of remote sensing techniques in nature conservation.
Earth observation – Vegetation mapping – Monitoring – Geographic information system (GIS) – Satellite imagery – Habitat assessmentInhalt
1 Einführung
Naturschutzplanung und Monitoring sind mit einem immensen Kartieraufwand verbunden. In regelmäßigen Abständen müssen große Flächen
begangen, beschrieben und bewertet werden, was mit einem großen Personal-, Zeit- und Kostenaufwand verbunden ist. Immer wieder wird
daher versucht, Teile einer naturschutzfachlichen Bewertung mit Hilfe der Fernerkundung (auch Erdbeobachtung genannt) zu bewältigen
und damit die Arbeit vom Gelände an den Bildschirm zu verlagern. Die damit verbundene Erwartung ist, dass auf diese Weise Zeit und
Kosten eingespart werden können und die Ergebnisse objektiver sind als die unter Umständen von der bearbeitenden Person abhängigen
Geländekartierungen. Erschwerend ist zunächst, dass die gängigen Kartierschlüssel im Naturschutz nicht mit Blick auf die Fernerkundung
konzipiert wurden. Dennoch kann versucht werden, Fernerkundungsansätze an die Kartierschlüssel anzupassen (z. B. Schmidt et al. 2017). Trotz dieser Bestrebungen gibt es bisher keine weitreichende Nutzung
von Fernerkundungsverfahren im Naturschutz. Woran liegt das? Und was kann die Fernerkundung für den Naturschutz leisten?
2 Das Grundprinzip der Fernerkundung und damit verbundene Einschränkungen
Um die Möglichkeiten der Fernerkundung einschätzen zu können, ist zunächst ein Verständnis ihrer Grundprinzipien notwendig(eine
aktuelle und umfassende Übersicht zum Thema Vegetationsfernerkundung bieten Cavender-Bares et al.
2020, eine knappere Zusammenfassung Cavender-Bares et al. 2022; die
grundlegenden technischen Prinzipien der Fernerkundung und verschiedener Sensorsysteme sind z. B. in Albertz 2023 auf Deutsch erklärt). Alle Fernerkundungsverfahren haben gemeinsam, dass aus der
Distanz und berührungslos Informationen über die Erdoberfläche abgeleitet werden. Hierfür werden elektromagnetische Signale, die von
der Erdoberfläche emittiert oder zurückgestreut werden, im sichtbaren Licht-, Infrarot- oder Mikrowellenbereich gemessen und
ausgewertet. Die Strahlung kann entweder von einer natürlichen Quelle (Sonne, Erde) ausgehen oder, z. B. als Radiowellen, künstlich
vom Sensorsystem selbst erzeugt werden. Beim Sonnenlicht, das die häufigste Strahlungsquelle in der so genannten optischen
Fernerkundung darstellt, führt dies zur ersten grundlegenden Einschränkung: Signale können nur bei Tag und am besten zum
Sonnenhöchststand gemessen werden, da verschattete Bereiche nicht ausgewertet werden können. Ebenso darf der Weg des Lichts von der
Sonne zur Erdoberfläche nicht durch Wolken oder Dunst versperrt oder beeinträchtigt sein. Im Grunde gelten hier ähnliche
Einschränkungen hinsichtlich der erforderlichen Beleuchtungsbedingungen wie für unser menschliches Auge.
Diese Analogie zum menschlichen Sehen lässt sich noch weiterführen. Auch mit optischen Fernerkundungsdaten können nur Objekte
erfasst werden, die sich direkt an der Oberfläche befinden und nicht von anderen Objekten verdeckt werden. Im Bereich der
Vegetationsfernerkundung bedeutet dies, dass z. B. tiefer liegende Vegetationsschichten wie der Unterwuchs im Wald kaum
erfasst werden können. Darüber hinaus können Objekte, die relativ groß sind oder einen starken Farb- oder Helligkeitskontrast zu ihrer
Umgebung besitzen, besser erfasst werden als kleine, unscheinbare. Diese Einschränkung spielt insbesondere bei der Frage nach der
Erfassbarkeit von Einzelarten eine Rolle. Naturschutzzielarten sind eher selten und bei invasiven Arten ermöglicht insbesondere die
Erfassung in einem frühen Stadium der Invasion ein effizientes Management. Entsprechend sind die Möglichkeiten einer Modellierung
potenzieller Habitate beschränkt, da eine direkte Kartierung auf Basis der Bilddaten kaum möglich ist.
Wenn wir mit dem Auge ein Objekt genauer betrachten wollen, gehen wir näher heran und können so Details besser erkennen. Im
Gegenzug wird unser Blickfeld kleiner und der Blick auf das große Ganze geht verloren. Ebenso verhält es sich in der Fernerkundung. Im
Allgemeinen können wir entweder Datensätze wählen, die ein großes Gebiet abdecken (verschiedene Satellitendaten), aber kaum Details
erkennen lassen, oder Datensätze mit hoher Detailschärfe, aber geringer Gebietsabdeckung erhalten (Luftbilder und teilweise
Satellitenbilder, Abb. 1). Eine hohe Detailschärfe bei gleichzeitig großer
Gebietsabdeckung ist auf Grund technischer Einschränkungen bisher kaum möglich. Eine Ausnahme stellen Konstellationen aus zahlreichen
Kleinstsatelliten dar, die einzeln ein jeweils kleines Gebiet mit hoher Detailschärfe abdecken und deren Blickfelder miteinander
kombiniert werden, um so eine große Gebietsabdeckung zu erhalten. Dieses Konzept wird bspw. kommerziell von der Firma Planet Labs
umgesetzt (Sensorsystem PlanetScope). Die verschiedenen Sensorsysteme unterscheiden sich in diesen Eigenschaften beträchtlich.
Abb. 2 zeigt exemplarisch einige Sensorsysteme, die aus unserer Sicht
Anwendungspotenzial im Bereich der Aufgaben des Naturschutzes haben.
Abb. 1: Wiedergabe räumlicher Details in verschiedenen Erdbeobachtungsdaten am Beispiel des großen Tiergartens in
Berlin. Alle vier Beispiele sind Falschfarbenkomposite, in denen die Infrarotinformation rot, das sichtbare Rot grün und
das sichtbare Grün blau dargestellt sind. Vegetation mit starker Reflektanz im nahen Infrarot erscheint daher in Rottönen.
a) Das amtliche Color-infrared(CIR)-Luftbild mit 20 cm × 20 cm räumlicher Auflösung am Boden vom 16.8.2020 lässt einzelne
Details in den Baumkronen und die räumliche Variabilität der Grünlandflächen erkennen (Bilddaten: Geoportal
Berlin/DOP20CIR). b) PlanetScope-Daten vom 11.8.2020 mit einer räumlichen Auflösung von 3 m × 3 m lassen noch einzelne
Baumkronen erkennen (Bilddaten: Planet Labs 2023). c) Sentinel-2-Daten vom 21.8.2020 mit einer räumlichen Auflösung von
10 m × 10 m zeigen noch die Variabilität innerhalb der Baumbestände (Bilddaten: Copernicus-Sentinel-Daten 2023). d)
Landsat-8-Daten vom 6.8.2020 mit 30 m × 30 m Auflösung lassen eine Unterscheidung von Baumbeständen und Offenland zu
(Bilddaten: US Geological Survey 2023).
Fig. 1: Spatial details visible in different Earth observation data. The image examples show the Großer Tiergarten area in
Berlin, Germany as false color composite, where red displays the near infrared image data, green is assigned to the red
channel of the image and blue to the green channel. Vegetation with a strong reflectance in the near infrared has thus a
reddish appearance. a) Airborne CIR (color infrared) image of the federal state of Berlin with a 20 cm × 20 cm spatial ground
resolution acquired on 16 August 2020. In this image, individual details of the tree canopies and the heterogeneity of the
grassland vegetation are visible (image data: Geoportal Berlin/DOP20CIR). b) PlanetScope data acquired on 11 August 2020 with
a spatial resolution of 3 m × 3 m enable the delineation of individual trees (image data: Planet Labs 2023). c) Sentinel-2
data from 21 August 2020 provide a spatial resolution of 10 m × 10 m and still reveal the variability within the tree stands
(image data: Copernicus Sentinel Data 2023). d) Landsat 8 data acquired on 6 August 2020 with a resolution of 30 m × 30 m
allow for the separation of tree stands and open areas (image data: US Geological Survey 2023).
Abb. 2: Charakteristiken verschiedener Erdbeobachtungssysteme, die deren Einsatzmöglichkeiten für Anwendungen im
Naturschutz bestimmen. Bei Landsat 8/9, Sentinel-2, SPOT 6/7 und WorldView-3 ist die räumliche Auflösung (a) abhängig vom
jeweiligen Spektralband, weshalb Bereiche angegeben werden. Ebenso unterscheidet sich die Anzahl der spektralen Bänder (b)
dann hinsichtlich der räumlichen Auflösung bzw. im Fall der amtlichen Luftbilder hinsichtlich der Sensorkonfiguration. Es
wurden nur Spektralbänder berücksichtigt, die für typische Anwendungen im Naturschutz konzipiert sind. Die Zahl der Tage,
die theoretisch zwischen zwei Aufnahmen der Sensorsysteme liegt (c), und die von einem Bild des jeweiligen Sensorsystems
abgedeckte Gebietsgröße (d) variieren sehr stark.
Fig. 2: Different characteristics of Earth observation systems that determine their applicability in nature conservation.
Ranges are given for the spatial resolutions (a) of Landsat 8/9, Sentinel-2, SPOT 6/7 and WorldView-3 since the individual
spectral bands differ in their characteristics. Likewise, the number of spectral bands (b) depends on the respective spatial
resolution and in case of the airborne imagery by official state authorities on the sensor configuration. Bands not designed
for typical applications in nature conservation were not considered. The number of days that theoretically lies between two
repeated image acquisitions of the sensor systems (c) and the area covered by an image of the respective sensor system (d)
vary greatly.
Drohnensysteme bieten die Möglichkeit, Luftbilddaten zu erheben, die die amtlichen Luftbilder in der räumlichen Auflösung sogar
noch übertreffen. Da jedoch Drohnensysteme nach geltendem Luftfahrtrecht nur in Sichtweite und in vergleichsweise geringer Flughöhe
eingesetzt werden dürfen, über vielen naturschutzfachlich interessanten Flächen weitere Befliegungseinschränkungen gelten und ein
erheblicher Aufwand für die Aufbereitung der Einzelbilder erforderlich ist, legen wir den Fokus in diesem Beitrag primär auf höher
auflösende Satellitendaten und die Luftbilder der Landesämter.
Die Augenanalogie endet hier. Einer der großen Unterschiede zwischen menschlichem Auge und Fernerkundungssensor ist die Fähigkeit
in Hinblick auf das Erkennen von Farben und Formen. Während das Auge in Kombination mit dem Gehirn sehr gut beim Erkennen von Formen
und Mustern (d. h. Texturen) ist, sind unsere Fähigkeiten bei Farb- und Helligkeitsunterschieden eher beschränkt. Sensorsysteme können
dagegen problemlos tausende Helligkeitsstufen und feinste Farbunterschiede differenzieren. Die Erfassung von Formen und Mustern stellt
dagegen eine rechenintensive Herausforderung dar. Viele Sensorsysteme messen zudem die Strahlung im Infrarotbereich ( Abb. 2b), während die Rezeptoren im Auge auf den sichtbaren Rot-, Grün- und Blaubereich
beschränkt sind. Gerade der Infrarotbereich ermöglicht jedoch eine feine Differenzierung von Unterschieden in der Vegetation, die für
das menschliche Auge fast einheitlich grün aussieht ( Abb. 1).
Des Weiteren muss erwähnt werden, dass Fernerkundungsdaten nicht jederzeit aufgenommen werden können.
Satellitensysteme bewegen sich auf festgelegten Umlaufbahnen und können nur die Bereiche der Erdoberfläche aufnehmen, die sie gerade
überfliegen. Die Umlaufbahnen sind so angelegt, dass ein Punkt auf der Erdoberfläche meist im Abstand von wenigen Tagen überflogen
wird ( Abb. 2c). Zwischendurch ist keine Aufnahme dieses Punkts möglich. Wenn zum
Zeitpunkt des Überflugs gerade Wolken im Blickfeld sind, muss man bis zum nächsten Termin warten. Neuere Satellitensysteme erhöhen die
Wiederholrate, indem mehrere identische Satelliten auf versetzten Umlaufbahnen eingesetzt werden, wodurch die Taktung enger wird. Im
Idealfall werden so tägliche Aufnahmen ermöglicht. Auch wenn tagesaktuelle Daten für Naturschutzanwendungen zumeist nicht benötigt
werden, steigt so die Wahrscheinlichkeit, dass auch in längeren Perioden mit stärkerer Bewölkung brauchbare Bilddaten aufgenommen
werden. Eine tägliche Aufnahmerate stellt jedoch einen Ausnahmefall dar. Da die meisten Systeme kontinuierlich Bilddaten aufnehmen und
diese dann in Archiven gesammelt werden, bietet sich darüber ein weiterer Vorteil der Fernerkundung: Wenn ein neues Gebiet ins Zentrum
des Interesses rückt, können mit Hilfe der Archivdaten dessen Beschaffenheit und Zustand zu früheren Zeitpunkten auch rückwirkend
betrachtet werden.
Systeme, die mit künstlich ausgesendeter Strahlung arbeiten, besitzen andere Einschränkungen. Bei diesen Systemen handelt es sich
vor allem um Radar- und Lidar-Sensoren (Radar = radio detection and ranging, Lidar = light detection and ranging). Beide Systeme
können prinzipiell zu jeder Tages- und Nachtzeit verwendet werden, da kein Sonnenlicht benötigt wird. Radar-Systeme können des
Weiteren auch Wolken durchdringen und haben damit eine sichere Datenlage. Die Eigenschaft, dass das Strahlungssignal Objekte
durchdringen kann, endet nicht bei den Wolken. Je nach eingesetztem Wellenlängenbereich werden auch Blätter, verholzte Pflanzenteile
oder die gesamte Vegetationsdecke durchdrungen. Dies ermöglicht Einblicke in strukturelle Oberflächeneigenschaften, die optischen
Fernerkundungssensoren verborgen bleiben. Aufbereitung und Interpretation der Daten sind jedoch weniger intuitiv als bei optischen
Sensoren. Im Laser von Lidar-Sensoren kommt ein künstlich erzeugtes Lichtsignal zum Einsatz. Hier wird zumeist über die Laufzeit des
Signals der exakte Abstand zwischen Sensor und Vegetations- bzw. Geländeoberfläche gemessen und so mit vielen Einzelmessungen ein
genaues dreidimensionales Abbild der Vegetations- oder Geländeoberfläche erzeugt. Aus diesem lassen sich Vegetationshöhen, aber auch
strukturelle Eigenschaften ermitteln. Die Dichte der Einzelmessungen auf einer Fläche ist hierbei ein ausschlaggebender Parameter, der
über die Güte des Ergebnisses entscheidet, so dass Lidar-Sensoren zumeist auf Flugzeugen oder Helikoptern betrieben werden. Je mehr
Einzelmessungen pro Fläche erfasst werden, desto genauer wird die Abschätzung. Im Gegenzug steigen allerdings die Kosten der
Datenerhebung und die Erhebungsgeschwindigkeit sinkt.
Die Kosten sind ein weiterer Faktor, der die Einsatzmöglichkeiten der Fernerkundung im Naturschutz mitbestimmt. Insbesondere die
Satelliten Sentinel-1 und -2 des Copernicus-Programms (https://www.copernicus.eu) und die Familie der Landsat-Satelliten besitzen hier eine hohe Attraktivität, da ihre Aufnahmen
kostenfrei verfügbar sind, die globale Landoberfläche wiederholt abgedeckt wird und auch Objekte mit einer Größe von 10 m noch
erkennbar sind ( Abb. 1). Zudem reichen die Archive von Sentinel etwa 7 Jahre zurück, die
von Landsat sogar fast 40 Jahre (bzw. mit gröberer räumlicher Auflösung noch länger). Daten mit noch mehr räumlichen Details müssen
zumeist von privaten Anbietern gekauft werden. Auch wenn der Preis pro Fläche überschaubar ist, sorgen häufig Mindestabnahmemengen
dafür, dass die Gesamtkosten schnell mehrere Tausend Euro betragen.
3 Was ist in den Daten zu erkennen?
Eine Kartierung mit Hilfe hochauflösender Satelliten- und Luftbilddaten (wie den exemplarisch in Abb. 1 und Abb. 2 gezeigten) ist insbesondere
zur Erfassung von Vegetationsmustern naheliegend. Zahlreiche Vegetationseigenschaften – Artverbreitungen, Artengemeinschaften,
funktionale Blatt- und Pflanzenmerkmale, Strukturen oder Aspekte der Biodiversität – stehen dabei je nach Fragestellung im Zentrum der
jeweiligen Untersuchung. Die Erfolgsaussichten für eine genaue und auch automatisierte Erfassung unterscheiden sich allerdings je nach
Zielgröße deutlich. So lassen sich (oberirdische) funktionale Merkmale und strukturelle Eigenschaften eines Pflanzenbestands sicherer
und genauer erfassen als organismische Merkmale oder Diversitätsmuster (siehe z. B. Ustin, Gamon
2010 für eine ausführliche Diskussion der Gründe). Dies liegt am Informationsgehalt der Strahlungssignale, der
insbesondere von biophysikalischen Eigenschaften gesteuert wird ( Abb. 3), die sich auch
in vielen funktionalen Merkmalen wiederfinden.
Abb. 3: Vegetationsmuster besitzen eine Reihe von Merkmalen, die ihr Erscheinungsbild in Fernerkundungsdaten (optische
Luft- und Satellitenbilder sowie Radar- und Lidar-Daten) bestimmen. Wenn diese Merkmalskombination zu einem eindeutigen
Erscheinungsbild führt, kann das entsprechende Muster mit akzeptabler Genauigkeit kartiert werden. Die raumzeitliche
Variabilität der Merkmale erschwert diese Aufgabe.
Fig. 3: Vegetation patterns feature a set of traits that determine their optical and backscatter properties and thus their
appearance in remote sensing data. If the set of traits is unique, the vegetation pattern can be detected with sufficient
accuracy in the image data. This task is further complicated by a pronounced spatio-temporal variability of the
traits.
Zunächst sind die meisten Pflanzenbestände grün. Dieses Erscheinungsbild ist auf den Pigmentgehalt der Blätter zurückzuführen und
ändert sich nur geringfügig mit der Artenzusammensetzung. Der jahreszeitliche Aspekt oder Pflanzenstress haben dahingegen einen
ausgeprägten Einfluss auf die Pigmentierung und damit auf die in den Bilddaten abgebildeten Farb- und Helligkeitswerte. Ähnliches gilt
für die anderen typischen biochemischen Pflanzenbestandteile, z. B. Wasser, Trockenmasse und Proteine. Auch diese sind in allen Arten
enthalten. Auf Grund der geringen Unterschiede zwischen den Arten bei einer gleichzeitig ausgeprägten raumzeitlichen Variabilität der
Merkmale ist es eine der Herausforderungen der Fernerkundung, Artverbreitungsmuster oder Artengemeinschaften sicher zu erfassen. Es
ist daher relativ einfach, mit Hilfe optischer Bilddaten eine Abschätzung der Stärke der Blattpigmentierung auf Bestandsebene
vorzunehmen (je grüner, desto mehr und stärker pigmentierte Blätter), während eine Kartierung von Artverbreitungsmustern deutlich mehr
Aufwand erfordert. Wie bei den meisten Fernerkundungsanwendungen wird man Geländedaten benötigen, um einem Auswertungsalgorithmus
beizubringen, welches Erscheinungsbild die Art oder Gemeinschaft im Bild hat. Eine geschickte Auswahl des Aufnahmezeitpunkts, um bspw.
einen auffälligen Blühaspekt abzupassen, kann die Erfolgsaussichten ebenfalls verbessern.
Daneben ist es wichtig, wie viel Blattfläche im Bestand vorhanden ist. Da die Sensoren nicht die einzelnen Blätter, sondern ein
Mischsignal aller Blätter in einem Bildpixel erfassen, bezieht sich eine Abschätzung immer auf die vom Pixel abgedeckte Fläche. Wenige
und kleine stark pigmentierte Blätter können daher ein ähnliches Signal ergeben wie viele große, aber schwach pigmentierte Blätter.
Die in Mitteleuropa fast überall präsente Landnutzung bzw. die Bewirtschaftungsintensität wirken sich daher ebenfalls massiv aus: Ein
frisch gemähter Grünlandbestand hat ein deutlich anderes Erscheinungsbild als derselbe Bestand kurz vor der Mahd; die
Artenzusammensetzung hat sich durch die Mahd jedoch nicht verändert. Dies führt dazu, dass die im Zentrum des Naturschutzinteresses
stehenden Verbreitungsmuster von Arten oder Artengemeinschaften nur situationsbedingt und unter Zuhilfenahme von Geländedaten erfasst
werden können. Das Vorgehen bei einer solchen Anwendung wird in Abschnitt 4
beschrieben.
Insbesondere der internationale Naturschutz nimmt auch Kernaspekte der Biodiversität wie Artenvielfalt, genetische,
strukturelle oder funktionale Diversität ( Cardinale et al. 2012) in den Fokus. Diese
Aspekte sind jedoch insofern schwierig zu erfassen, als sie sich zumeist nicht direkt an signalbestimmende Oberflächeneigenschaften
koppeln lassen. Internationale Initiativen haben sich daher in den letzten Jahren umfassend damit beschäftigt, wie sich Parameter, die
als Biodiversitätsindikatoren dienen können, aus Fernerkundungsdaten ableiten lassen. Diese „essential biodiversity variables“, denen
eine weit gefasste Definition von Biodiversität zu Grunde liegt, stehen teilweise bereits als fertige Datenprodukte zur Verfügung
(z. B. Daten zur Waldbedeckung oder zur Verteilung des Blattflächenindex), teilweise befinden sie sich noch in der
Konzeptionierungsphase der Entwicklung. Eine ausführliche Diskussion der Variablen findet sich bei
Skidmore et al. (2021).
4 Beispiele für den Einsatz von Fernerkundung
In Abb. 4 ist ein typischer Analyseablauf gezeigt; als Beispiel dient die Erfassung
der Verbreitungsmuster einer Einzelart (siehe Skowronek et al. 2017; für ein
Praxisbeispiel oder für ein Beispiel zu Artengemeinschaften Rapinel et al. 2020). Mit
Hilfe der bekannten Position zeitlich zu den Bilddaten passender Vegetationsaufnahmen kann das Erscheinungsbild (Spektralsignal,
Bildtextur oder aus der Radar- bzw. Lidar-Rückstreuung abgeleitete Maße) der Aufnahmeflächen aus den entsprechenden Pixeln eines
hochauflösenden Luft- oder Satellitenbilds extrahiert werden. Die erforderliche räumliche und spektrale Auflösung sowie der ideale
Aufnahmezeitpunkt hängen von der zu erfassenden Art ab. Mithilfe dieser Daten wird in einem folgenden Schritt einem Algorithmus
beigebracht, einen Zusammenhang zwischen Artauftreten bzw. Artenzusammensetzung und dem spektralen Erscheinungsbild herzustellen.
Sobald dieser Zusammenhang bekannt ist, kann der Algorithmus nach weiteren Bildpunkten mit ähnlichem Erscheinungsbild außerhalb der
Vegetationsaufnahmen suchen und ihnen die entsprechende Vegetationsinformation zuweisen. Sobald jedoch die Vegetation auf Grund von
zeitlichem Wandel oder von Landnutzungseinflüssen oder Ähnlichem ihr Erscheinungsbild ändert, muss der Zusammenhang neu bestimmt
werden. Ebenso lässt sich der Zusammenhang auch kaum auf ein Gebiet mit anderem Arteninventar übertragen, da die neuen Arten dem
Algorithmus nicht bekannt sind. Beides schränkt die großflächige Anwendbarkeit dieses Ansatzes ein und erfordert zwingend gute
Geländedaten als Grundlage ( Vanden Borre et al. 2017).
Abb. 4: Typischer Analyseablauf für die Kombination von Gelände- und Bilddaten zur Kartierung einer
Zielart.
Fig. 4: Typical work flow of a combined data set comprising in-situ and image data used to map the distribution of a
target species.
Die häufig zutreffende Einschränkung, dass Fernerkundungsdaten für Naturschutzanwendungen nur in Verbindung mit
Geländedatenerhebungen ausgewertet werden können, lässt eine fernerkundungsgestützte Kartierung auf den ersten Blick als Mehraufwand
gegenüber einer konventionellen Kartierung erscheinen. Oft sind die Fernerkundungsdaten jedoch schon vorhanden und der Mehraufwand
hält sich in Grenzen; dies trifft bspw. auf die in einigen Bundesländern als Open Data frei zugänglichen amtlichen Geobasisdaten zu,
die neben Luftbildern auch aus Lidar-Daten abgeleitete Höhenmodelle enthalten können. Aus diesen ebenfalls vom Flugzeug aus erhobenen
Daten lassen sich mit geringem Aufwand Informationen ableiten, die eine Geländekartierung oder Gebietsbewertung unterstützen können.
Zwei Beispiele sind in Abb. 5 und 6 zu
sehen.
Eine Zeitreihe dreier digitaler Rot-grün-blau(RGB)-Luftbilder lässt sich auch ohne besondere Software in einem geographischen
Informationssystem (GIS) zusammenfassen ( Abb. 5). Jedes Bild enthält die
Helligkeitswerte im sichtbaren roten, grünen und blauen Farbspektrum als drei Bänder, die zusammen das Echtfarbenbild ergeben.
Zunächst wird für jedes Bild das grüne vom roten Band subtrahiert (das blaue Band wird weggelassen, da dort der Einfluss von Dunst in
der Atmosphäre die Helligkeitswerte am stärksten beeinflusst) und damit ein Differenzbild generiert. Dieses hebt die Unterschiede in
der Vegetation hervor und minimiert Beleuchtungsunterschiede. Anschließend werden die drei Ergebnisbilder zu einem neuen
„Pseudo-RGB-Bild“ zusammengefasst, in dem die einzelnen Bänder die drei unterschiedlichen Zeitschnitte repräsentieren. Alle Bereiche,
die sich zwischen den Aufnahmezeitpunkten verändert haben, stechen farblich hervor. Dies hebt im Beispiel des gezeigten
Naturschutzgebiets Brucker Lache bei Erlangen insbesondere die Belaubung des Schwarzerlenwalds in der Bildmitte sowie die
forstlichen Rückegassen im umgebenden Kiefernwald hervor. Für die Planung einer Wiederholungskartierung im Rahmen eines Monitorings
lassen sich so leicht Gebiete identifizieren, in denen eine Änderung der Vegetation zu erwarten ist.
Abb. 5: Multitemporales Falschfarbenkomposit aus drei Luftbildern. Im Differenzbild treten insbesondere die Änderungen
zwischen den drei Jahren (2011, 2014 und 2018) hervor. Diese können z. B. bei der Planung von Geländebegehungen besonders
berücksichtigt werden (Bilddaten: Bayerische Vermessungsverwaltung 2022).
Fig. 5: Multi-temporal false color composite of three aerial images. The difference image reveals patterns of changes
between the three years 2018, 2014 and 2011. This change detection can be used as basis for the planning of field sampling
campaigns (image data: Bayerische Vermessungsverwaltung 2022).
Differenzbilder werden seit Langem für Veränderungsanalysen herangezogen (siehe Jensen
1986) und lassen sich auch für Satellitenbilder berechnen. Je nach Fragestellung und zur Verfügung stehenden Bilddaten
variieren auch die Möglichkeiten zur Bildung von Differenzbildern. Wenn die Bilddaten z. B. einen Kanal beinhalten, der das nahe
Infrarot abdeckt (z. B. Color-infrared[CIR]-Luftbilder), kann dieses eingebunden werden oder es kann der Normalized Difference
Vegetation Index (NDVI; Tucker 1979) berechnet werden, der Rückschlüsse auf die
Vitalität erlaubt.
Das zweite Beispiel ( Abb. 6) zeigt die Ermittlung der Vegetationshöhe aus frei
verfügbaren Lidar-Datenprodukten. Das Bundesland Sachsen stellt sowohl das digitale Höhenmodell (beschreibt den Verlauf der
Geländeoberfläche) als auch das Oberflächenmodell (beschreibt den Oberflächenverlauf inkl. Vegetation und künstlicher Objekte) mit
einer Auflösung von 1 m × 1 m im Rahmen seiner freien Geobasisdaten zur Verfügung. Aus diesen Daten lässt sich sehr einfach durch
Subtrahieren des Höhenmodells vom Oberflächenmodell die Vegetationshöhe berechnen.
Abb. 6a zeigt das Falschfarbenluftbild eines Wald- und Heidegebiets in der Lausitz,
Abb. 6b die berechnete Vegetationshöhe. Die Detailschärfe zeigt sich u. a. an der in der linken oberen Ecke verlaufenden
Stromleitung, die ebenfalls deutlich sichtbar wird. Eine solche Karte der Vegetationshöhe, die aus aktuellen Lidar-Datenprodukten
berechnet wurde, ermöglicht bspw. eine schnelle Abschätzung des Verbuschungsgrads von Heiden, Mooren und anderen
Offenlandlebensraumtypen ohne Mehrkosten und mit geringem Analyseaufwand, sofern die Lidar-Datenprodukte vom jeweiligen Bundesland
frei und fertig vorprozessiert bereitgestellt werden. Dies trifft leider bei Weitem noch nicht für die Geodaten aller Bundesländer
zu.
Abb. 6: a) Falschfarbenluftbild einer Wald- und Heidefläche in der Lausitz (Aufnahmedatum 4.7.2020). b) Aus
Lidar-Höhenmodellen (Aufnahmedatum 1.12.2019; Lidar = light detection and ranging) berechnete Vegetationshöhen zur
Unterstützung der Bewertung des Gebiets (Geobasisdaten: geodaten.sachsen.de). Fig. 6: a) False color composite aerial image of a forest and heathland site in the Lausitz region, Saxony, Germany
(acquired on 4.7.2020). b) Vegetation height layer derived from the Lidar digital surface and elevation models (Lidar data
acqusition on 1.12.2019) that enables an assessment of the vegetation (geodata:
geodaten.sachsen.de).
Die Entwicklung eines hochaufgelösten, dreidimensionalen Oberflächenmodells von Deutschland, das umfassende Simulationen der
Auswirkungen sich ändernder Umweltprozesse ermöglichen soll, lässt auf eine zeitnahe Verbesserung der Datenverfügbarkeit hoffen
(Pressemitteilung zum so genannten digitalen Zwilling des Bundesamtes für Kartographie und Geodäsie vom 13.10.2021).
Wenn die Fernerkundungsdaten zuerst extra beschafft werden müssen, muss dieser Mehraufwand einen entsprechenden Mehrwert bieten,
um ökonomisch gerechtfertigt zu sein. Dies kann bspw. bei der Kartierung von Truppenübungsplätzen der Fall sein, in denen
Bereiche auf Grund der Kampfmittelbelastung nur eingeschränkt betretbar sind und eine Kartierung mit Fernerkundungsdaten das
Gefährdungsrisiko minimiert (z. B. Raab et al. 2018). Ebenso kann so in
Vogelbrutgebieten die Störung während der Brutzeit minimiert werden. Neben der Kartierung in zugangsbeschränkten Gebieten trifft dies
aus unserer Sicht insbesondere in einem Fall zu: bei Ökosystemeigenschaften, die sich direkt im Gelände nicht erfassen oder abgrenzen
lassen. Aus naheliegenden Gründen sind derartige Eigenschaften in Kartierschlüsseln kaum vertreten – sie würden sich im Gelände
sowieso nicht erfassen lassen. Dennoch kann die Fernerkundung hier Einblicke bieten, die ein Monitoring weiter unterstützen
können.
Eine dieser Eigenschaften ist die klassenlose Beschreibung der Artenzusammensetzung als sich entlang von Umweltgradienten
kontinuierlich ändernde Mischung von Arten ( Abb. 7). Dieses Gradientenkonzept baut
insbesondere auf der statistischen Analyse der Artenzusammensetzung mit Hilfe von Ordinationsverfahren auf (siehe z. B. Leyer, Wesche 2007 für eine praktische Einführung). Ordinationsverfahren beschreiben unter
Berücksichtigung der ökologischen Ansprüche der Arten kontinuierliche Änderungen in der Artenzusammensetzung entlang von
Umweltgradienten. Die Position auf den so ermittelten Gradienten kann daher als Indikator für die Artenzusammensetzung dienen. Ebenso
kann Letztere über Zahlenwerte, die die Position auf den Gradienten beschreiben, kartiert werden. Um eine solche Kartierung
umzusetzen, werden neben Bilddaten mit einem Global Positioning System (GPS) eingemessene Vegetationsaufnahmen benötigt. Aus diesen
Vegetationsdaten werden mit Hilfe der Ordination die Gradienten der Artenzusammensetzung ermittelt. Die Lage der Aufnahmeflächen auf
den Gradienten wird im folgenden Schritt in Bezug zum Spektralsignal der entsprechenden Pixel gesetzt. Sobald dieser Zusammenhang
ermittelt ist, wird für jedes Pixel die Lage auf den Gradienten vorhergesagt, so dass die zu erwartende Artenzusammensetzung
abgeschätzt werden kann. Der Vorteil dieses Ansatzes ist die Möglichkeit, auch fließend ineinander übergehende Vegetationsmuster
realitätsnah kartieren zu können, ohne künstliche Grenzen ziehen zu müssen. Des Weiteren werden so auch feine Unterschiede in der
Artenzusammensetzung sichtbar, die bei einem klassifikationsbasierten Ansatz in der Streuung der jeweiligen Klasse untergehen.
Abb. 7 zeigt ein Beispiel für eine solche Gradientenkartierung auf Basis optischer
Fernerkundungsdaten (in diesem Fall Luftbilddaten mit einem hohen spektralen Informationsgehalt, der Ansatz ist jedoch auch mit
anderen Bilddaten umsetzbar; Feilhauer et al. 2013,
2014) aus einem Moor- und Feuchtwiesenkomplex in Oberbayern (siehe
Feilhauer et al. 2021).
Abb. 7: Gradientenkartierung der Artenzusammensetzung eines Moor- und Feuchtwiesenkomplexes in Oberbayern (aus Feilhauer et al. 2021, verändert). a) Ordination der Geländedaten und Auftreten
charakteristischer Arten entlang der Ordinationsachsen. b) Für die Pixel vorhergesagte Position im Ordinationsraum, die
als Indikator für die zu erwartende Artenzusammensetzung dient. Bereiche, die nicht durch Vegetationsaufnahmen beprobt
wurden, sind mit einem Luftbild in Graustufen hinterlegt. Fig. 7: Gradient map of the plant species composition of a mire and wet grassland complex in Bavaria, Germany (from
Feilhauer et al. 2021, modified). a) Ordination of plots sampled in a field
campaign and the distribution of characteristic species along the ordination axes. b) Position of the image pixels in the
mapped ordination space predicted from the spectral signal. The ordination space position indicates the species composition of
the respective pixel. The gray-scale aerial image indicates areas not covered by the field samples.
Aus praktischen Gesichtspunkten ist es häufig gar nicht erforderlich, eine komplette Kartierung oder Auswertung primär
fernerkundungsbasiert durchzuführen. Es ist durchaus denkbar, das Beste aus beiden Welten miteinander zu kombinieren und aus Luft-
oder Satellitenbildern Indikatoren oder Hilfsinformationen zu extrahieren, die eine Bewertung oder Kartierung im Gelände beschleunigen
oder anderweitig unterstützen. Denkbar sind hierfür Daten zum Gras/Kraut-Verhältnis in Offenlandbeständen, zum Verbuschungsgrad von
Heiden, Mooren oder extensiven Grünlandflächen, zum Deckungsgrad von Wäldern oder zur strukturellen Heterogenität von Wäldern oder
Heiden. Derartige Daten sind teilweise bereits als fertige Datenprodukte weltweit kostenfrei verfügbar. Hierzu gehören z. B. die High
Resolution Layers des Copernicus Land Monitoring Service (abrufbar unter https://land.copernicus.eu/pan-european/high-resolution-layers), die für ausgewählte Jahre hochauflösende Daten zur
Verteilung und Änderung von Grünland, Wald, Gehölzen oder der Flächenversiegelung liefern. In Bezug auf die Waldbedeckung und deren
zeitliche Änderungen liefern Hansen et al. (2013) hochauflösende Daten. Darüber hinaus
geben mehrere abgeschlossene oder laufende Forschungsprojekte Einblicke, wie Fernerkundungsdaten, insbesondere Satellitendaten aus dem
Copernicus-Programm, zur Unterstützung naturschutzfachlicher Kartierungen und Bewertungen herangezogen werden können (z. B.
„Copernicus for Natura 2000“ – COP4N2K, http://cop4n2k.eu/; „Copernicus leuchtet
Grün“ – CopGrün, https://www.thuenen.de/de/institutsuebergreifende-projekte/copernicus-leuchtet-gruen). Das Projekt „Fernerkundungsgestützte
Erfassung von Lebensraumtypen für das FFH-Monitoring“ ( Buck et al. 2018) stellt außerdem
auf Anfrage ein GIS-Plugin bereit, mit dem auf Basis verschiedener Erdbeobachtungsdaten Indikatorvariablen für die Bewertung von
Fauna-Flora-Habitat(FFH)-Flächen abgeleitet werden können.
5 Bietet künstliche Intelligenz neue Möglichkeiten?
Verfahren der künstlichen Intelligenz (KI) sind mittlerweile omnipräsent und werden mit einer Mischung aus Ehrfurcht und
Begeisterung bestaunt. Im Bereich der Fernerkundung haben sie eine kleine Revolution ausgelöst und neue Möglichkeiten eröffnet, die in
alle Anwendungsbereiche hineinreichen. Dementsprechend werden auch Anwendungen in der Vegetationsfernerkundung diskutiert und erprobt
( Kattenborn et al. 2021). Die Verfahren umfassen dabei neben der eigentlichen
Beschreibung eines Zusammenhangs zwischen Zielgröße und Bilddaten auch eine sehr umfassende Datenaufbereitung, die eine
skalenübergreifende Analyse ermöglicht. Neben Einzelmerkmalen des Spektralsignals, der Bildtexturen oder des Rückstreuverhaltens
werden die Daten ganzheitlich in die Analyse einbezogen. Aus einer Vielzahl dieser Bildinformationen in unterschiedlichen Variationen
lernt der KI-Algorithmus, die zu erfassende Eigenschaft zu erkennen, auch wenn diese z. B. aus einer anderen Perspektive oder in einer
anderen Skala bzw. Größe als gewohnt abgebildet ist. Damit der Algorithmus diese Fähigkeit erlernen kann, ist insbesondere die Fülle
und Vielseitigkeit des Anschauungsmaterials für ein ausgiebiges Training in Hinblick auf ein sicheres Erkennen wichtig. Ein Einsatz
von KI erfordert daher eine sehr gute Datenverfügbarkeit für Training und Validierung, wobei die Daten das jeweilige Ziel der
Erfassung in möglichst vielen Konstellationen zeigen sollten. Trotz Techniken der Datenvermehrung durch künstliche Variation der
vorhandenen Daten sind deutlich mehr Geländedaten erforderlich als bei konventionellen Ansätzen.
Viele KI-Anwendungen machen sich daher die zunehmend besser verfügbaren und ständig wachsenden Datenbanken zunutze. So lassen sich
bspw. auffällige Einzelarten in Drohnenluftbildern automatisiert mit KI-Algorithmen erkennen, die mit Fotos aus
Citizen-Science-Datenbanken trainiert wurden ( Soltani et al. 2022). Da jedoch derartige
Datenbanken für naturschutzrelevante Zielparameter (noch) nicht existieren und detailreiche Drohnenluftbilder nicht flächendeckend
verfügbar sind, ist der Weg von solchen Pilotstudien zur praktischen Anwendung noch weit.
6 Fazit
Eingangs haben wir zwei Fragen gestellt: Woran liegt es, dass die Fernerkundung trotz langjähriger Diskussionen nicht häufiger
genutzt wird? Und was kann die Fernerkundung für den Naturschutz leisten? Es wird auf absehbare Zeit definitiv nicht möglich sein,
alle Geländebegehungen durch Bildschirmarbeiten zu ersetzen. Auch wird die Verfügbarkeit der für eine umfassende Kartierung benötigten
Daten ein Flaschenhals bleiben, der eine Kartierung auf Basis von Fernerkundungsdaten in vielen Fällen unökonomisch macht. Die
Bilddaten selbst werden allerdings zunehmend flächendeckend und in unkomplizierter Form verfügbar. Daher haben sich die
Schwierigkeiten eines Einsatzes im Naturschutz in den letzten Jahren in andere Bereiche verlagert. An den grundsätzlichen Limitationen
einer fernerkundungsgestützten Kartierung von Artverbreitungsmustern, die in den Kartierschlüsseln prominent abgefragt werden, lässt
sich auf Grund der raumzeitlich variablen charakteristischen Eigenschaften wenig ändern ( Vanden
Borre et al. 2017). Eine Einbindung der Fernerkundung setzt das Vorhandensein detaillierter Vegetationsdaten mit
möglichst exakter Positionsbeschreibung voraus, so dass das zur Fläche gehörende Spektralsignal aus den Bilddaten extrahiert werden
kann und damit Modelle zur Kartierung des Zielgebiets trainiert werden können. Diese Vegetationsdaten möglichst umfassend,
standardisiert und flächendeckend zu erheben, zu sammeln und bereitzustellen, stellt die nächste Digitalisierungsherausforderung im
Naturschutz in Hinblick auf den Einsatz der Fernerkundung dar. Die für ein Trainieren von Algorithmen erforderlichen Daten werden in
weiten Teilen bereits im Rahmen der Kartierungs- und Monitoringprogramme erhoben. Zu oft bleiben sie jedoch analog oder werden nicht
zentral gesammelt. Eine Bereitstellung nach dem Vorbild von Datenbankinitiativen wie sPlot oder GrassVeg wäre daher wünschenswert, um
Fernerkundungsdaten unter Zuhilfenahme von Geländedaten effizienter in naturschutzfachliche Kartierungen einbinden zu können. Dies
kann durch Ansätze wie eine algorithmenunterstützte Auswahl von Trainingsdatenpunkten komplementiert werden ( Neumann 2020).
Trotz dieser Limitationen kann eine pragmatische Einbindung und Auswertung von Fernerkundungs- und anderen Geodaten eine
Kartierung in vielen Fällen unterstützen und die Effizienz steigern. Es wäre kurzsichtig, den bereits vorhandenen Datenschatz nicht
für Zwecke der Naturschutzplanung zu nutzen. Insbesondere wenn passende Daten bereits verfügbar sind, lässt sich damit möglicherweise
elegant eine Flächenbewertung vereinfachen. Um dieses Potenzial nutzen zu können, sind jedoch Fachkenntnisse nötig, die eine
entsprechende Ausbildung erfordern. Hierbei ist insbesondere eine vielseitige Bündelung von Kompetenzen gefragt, da eine alleinige
Methodenkompetenz ohne Fachkenntnis in der Materie nicht zum Ziel führt.
7 Literatur
↑
Albertz J. (2023): Einführung in die Fernerkundung. Grundlagen der Interpretation von Luft- und
Satellitenbildern. 5. Aufl. Wissenschaftliche Buchgesellschaft. Darmstadt: 264 S.
↑
Buck O., Rühl J. et al. (2018): Der Einsatz von Fernerkundung im FFH-Monitoring am Beispiel der Anwendung FELM. Natur und Landschaft 93(5):
215 – 223. DOI: 10.17433/5.2018.50153577.215-223
↑
Cardinale B.J., Duffy J.E. et al. (2012): Biodiversity loss and its impact on humanity. Nature 486: 59 – 67.
↑
Cavender-Bares J., Gamon J.A., Townsend P.A. (2020): Remote sensing of plant biodiversity. Springer. Cham: 581 S. DOI:
10.1007/978-3-030-33157-3
↑
Cavender-Bares J., Schneider F.D. et al. (2022): Integrating remote sensing with ecology and evolution to
advance biodiversity conservation. Nature Ecology & Evolution 6: 506 – 519.
↑
Feilhauer H., Dahlke C. et al. (2014): Mapping the local variability of Natura 2000 habitats with remote sensing. Applied Vegetation Science 17:
765 – 779.
↑
Feilhauer H., Thonfeld F. et al. (2013): Assessing floristic composition with multispectral sensors – A
comparison based on monotemporal and multiseasonal field spectra. International Journal of Applied Earth Observation and
Geoinformation 21: 218 – 229.
↑
Feilhauer H., Zlinszky A. et al. (2021): Let your maps be fuzzy! Class probabilities and floristic gradients as alternatives to crisp mapping
for remote sensing of vegetation. Remote Sensing in Ecology and Conservation 7: 292 – 305.
↑
Hansen M.C., Potapov P.V. et al. (2013): High-resolution global maps of 21st-century forest cover change. Science 342: 850.
↑
Jensen J.R. (1986): Introductory digital image processing. Prentice-Hall. Englewood Cliffs:
379 S.
↑
Kattenborn T., Leitloff J. et al. (2021): Review on Convolutional Neural Networks (CNN) in vegetation remote sensing. ISPRS Journal of
Photogrammetry and Remote Sensing 173: 24 – 49.
↑
Leyer I., Wesche K. (2007): Multivariate Statistik in der Ökologie. Springer. Berlin:
221 S.
↑
Neumann C. (2020): Habitat sampler – A sampling algorithm for habitat type delineation in remote sensing
imagery. Diversity & Distributions 26: 1.752 – 1.766.
↑
Raab C., Stroh H.G. et al. (2018): Mapping semi-natural grassland communities using multi-temporal RapidEye
remote sensing data. International Journal of Remote Sensing 39: 5.638 – 5.659.
↑
Rapinel S., Rozo C. et al. (2020): Contribution of free satellite time-series images to mapping plant
communities in the Mediterranean Natura 2000 site: The example of Biguglia Pond in Corse (France). Mediterranean Botany 41:
181 – 191.
↑
Schmidt J., Fassnacht F.E. et al. (2017): Adapting a Natura 2000 field guideline for a remote sensing-based assessment of heathland conservation status.
International Journal of Applied Earth Observation and Geoinformation 60: 61 – 71.
↑
Skidmore A.K., Coops N.C. et al. (2021): Priority list of biodiversity metrics to observe from space. Nature Ecology & Evolution 5: 896 – 906. DOI:
10.1038/s41559-021-01451-x
↑
Skowronek S., Ewald M. et al. (2017): Mapping an invasive bryophyte species using hyperspectral remote
sensing data. Biological Invasions 19: 239 – 254.
↑
Soltani S., Feilhauer H. et al. (2022): Transfer learning from citizen science photographs enables plant
species identification in UAV imagery. ISPRS Open Journal of Photogrammetry and Remote Sensing 5: e100016.
↑
Tucker C.J. (1979):
Red and photographic infrared linear combinations for monitoring vegetation. Remote Sensing of Environment 8:
127 – 150.
↑
Ustin S.L., Gamon J.A. (2010): Remote sensing of plant functional types. New Phytologist 186: 795 – 816.
↑
Vanden Borre J., Spanhove T., Haest B. (2017): Towards a mature age of remote sensing for Natura 2000 habitat
conservation: Poor method transferability as a prime obstacle. In: Díaz-Delgado F., Lucas R., Hurford C. (Hrsg): The roles of
remote sensing in nature conservation. Springer. New York: 11 – 37.
Dank
Wir danken der Firma Planet Labs und dem Helmholtz-Zentrum für Umweltforschung für die Bereitstellung der Planet-Daten von Berlin.
Zwei anonyme Gutachterinnen bzw. Gutachter haben eine erste Version des Manuskripts sehr konstruktiv kommentiert und damit zu dessen
Verbesserung beigetragen. Vielen Dank dafür!