Wenn Mars-Rover denken lernen

Curiosity, heutige Kamera-Ausstattung. Bild: NASA

Curiosity, heutige Kamera-Ausstattung. Bild: NASA

Seit 2012 fährt Curiosity auf dem Mars umher und sucht, wie seine Vorgänger, unter anderem nach Spuren von Wasser und Leben.

Doch tut er das wirklich? Nein. Eigentlich nicht. Denn seine Autonomie hält sich in sehr engen Grenzen. Zwar ist er im Gegensatz zu seinen Vorgängern inzwischen in der Lage, sich zu einem vorgegebenen Ziel selbst den besten Weg zu suchen. Doch welche Bereiche des Mars überhaupt eine lohnende Analyse versprechen, müssen noch immer Experten auf der Erde entscheiden – und zwar täglich. Anhand der Aufnahmen des Rovers lenken sie ihn in die entsprechende Richtung und veranlassen erst dann genauere Untersuchungen. Wie man sich denken kann, kostet dies einiges an Energie und Zeit, denn alleine die Datenübertragung von der Erde zum Mars und zurück kann je nach Position der beiden Planeten bis zu einer halben Stunde dauern. Bei 0,012 Megabits/Sekunde erfordern gerade Bilddaten hierbei einiges an Geduld. Falls es bei der Übertragung Probleme geben sollte, kann es zudem vorkommen, dass relevante Bilder nicht als solche erkannt oder irrelevante Bereiche auf den Aufnahmen fälschlicherweise als vielversprechend eingeordnet werden.

Um die Suche nach Lebensspuren und interessanten geologischen Phänomenen zu optimieren und beschleunigen, haben die Teams um Patrick McGuire (Freie Universität Berlin) und von Kiri Wagstaff (NASA’s Jet Propulsion Laboratory) in den letzten Jahren unabhängig voneinander Kamera- und Software-Systeme entwickelt, die zukünftige Rover in die Lage versetzen, selbständig und direkt festzustellen, ob eine nähere Analyse lohnenswert ist oder nicht.

Das dahinter stehende Prinzip ist in beiden Fällen an sich nicht neu. Es findet bereits Anwendung bei der irdischen Suche nach Lagerstätten von Bodenschätzen wie Erzen, Kohle oder Öl: Die Erfahrung hat gelehrt, dass bestimmte Bodenverfärbungen, Geländeformationen und Gesteinsvorkommen gute erste Indikatoren sind für das Vorhandensein von bestimmten Bodenschätzen. Einfacher ausgedrückt: Gegenden, die ähnlich aussehen und aufgebaut sind, weisen oft die selben Bodenschätze auf. Man zieht also schlicht einen Analogieschluss. [1]

Gestein auf dem Mars, Bild: NASA

Gestein auf dem Mars, Bild: NASA

Analogien kann allerdings nur ziehen, wer sowohl technisch als auch kognitiv in der Lage ist, zu vergleichen. Daher haben sowohl Wagstaff als auch McGuire zunächst Datenbanken mit Fotografien angelegt. Diese Aufnahmen mussten natürlich aus Bereichen stammen, die zumindest ansatzweise mit den Formationen auf dem Mars vergleichbar sind und ggf. ähnliche Lebensformen beherbergen könnten. Denn ließe man einen Marsrover seine eigenen Aufnahmen mit Fotos aus dem brasilianischen Regenwald vergleichen, wäre bei der Suche nach potenziell interessanten Standorten eine Trefferquote von 0% garantiert. Stattdessen boten sich Gegenden mit Gipsfelsen, Kalkstein, rotem Sandstein, Tongestein und Kohleflözen an und wurden fotografisch in die Datenbank aufgenommen. Auch mit Flechten bewachsene Felsen waren darunter, denn es wird nicht ausgeschlossen, dass auch sie über Meteoriten von einem Planeten zum anderen übertragen werden könnten.

– Technik –

Das Team um Wagstaff setzt bei seinem Ansatz „TextureCam“ auf 3D-Aufnahmen durch eine Kamera mit zwei Linsen, um Strukturen, Texturen und Entfernungen besser analysieren zu können. Ein Extraprozessor für die hier sehr aufwändige Bilderkennung soll dabei später auf dem Rover verhindern, dass die Analyse auf Kosten von Navigation oder anderen Funktionen geht. Dieses System ist für geologische Untersuchungen gedacht und wurde in der kalifornischen Mojave-Wüste getestet. Es wäre möglich, dass es bereits auf der Marsmission von 2020 zur Anwendung kommt. [3]

McGuires „Cyborg Astrobiologist“ hingegen setzt für seine Suche nach Lebensspuren inzwischen auf eine minimalistische Kamera, wie man sie auch in Smartphones findet. Seine Tests fanden unter anderem in einem ehemaligen Steinkohlebergwerk in West Virginia statt. Wann dieses System erstmalig zum Einsatz kommen wird, ist derzeit noch unklar, da noch weitere Verbesserungen in Planung sind.

Beiden Systemen ist gemein, dass neue Aufnahmen via Bluetooth von der jeweiligen Kamera an einen Rechner mit spezieller Software gesendet werden. Der Rechner wiederum vergleicht sie mit dem bereits vorhandenen Bildbestand und sendet den Forschern eine Einschätzung der Ähnlichkeit mit den älteren Fotos bzw. eine Meldung, wenn er glaubt, etwas ganz Neues gefunden zu haben. Und zwar mit einer erstaunlich hohen Trefferquote:

„Tests of the Cyborg Astrobiologist system have been conducted at field sites with similarities to landscapes that are found on Mars, imaging gypsum cliffs, red-bed sandstones, limestones, mudstones and coalbeds. Some rocks have been partly covered with lichen, a life-form that can possibly spread to/from other planets. Matching images with similar features in images from the database has been very successful.

‚In our most recent tests at a former coal mine in West Virginia, the similarity-matching by the computer agreed with the judgement of our human geologists 91% of the time. (…)‘ said McGuire.“ [2]

– Chancen, Einschränkungen, Spin-Offs –

Völlig reibungslos verläuft die Bilderkennung natürlich nicht. So wurden auf den Bildern Flechten z.B. gelegentlich mit Schwefelflecken verwechselt. Darüber hinaus verdankt man viele Entdeckungen auch schlichten Zufallstreffern. Man kann also davon ausgehen, dass die Auswahl der zu untersuchenden Gesteine auch in Zukunft nicht ganz ohne Plausibilitätsprüfung durch Menschen funktionieren wird. Allerdings benötigt man diese in wesentlich geringerem Umfang als bisher, da der Rover bereits eine große Vorauswahl trifft.

Es ist allerdings fraglich, ob diese Art der Prospektion auch auf anderen Planeten innerhalb oder gar außerhalb unseres Sonnensystems sonderlich vielversprechend wäre. Generell dürfte der Erfolg abnehmen, je weniger Ähnlichkeit es zwischen dem zu untersuchenden Planeten und unserer Erde gibt. Sollte man gar Exoplaneten untersuchen wollen, deren Oberflächenbeschaffenheit man bisher nur aus Spektraldaten extrapoliert hat, dürften TextureCam und der Cyborg Astrobiologist kaum noch zu gebrauchen sein. Alternativen sind mir persönlich bis dato allerdings auch nicht bekannt.

Immerhin versprechen die beiden beschriebenen Systeme jedoch auch Spin-Offs für irdische Zwecke. Denkbar wären zum Beispiel noch präzisere Gesichtserkennunssysteme oder Anwendungen im Bereich der Wettervorhersage.

Bevor das System auf einem Rover implementiert wird, will zumindest Patrick McGuires Team noch an der Kompressionsrate der Bilder und an der Verkleinerung der Hardware arbeiten. McGuire hat seine Ergebnisse in dieser Woche auf dem European Planetary Science Congress in London vorgestellt. Sie sollen voraussichtlich auch im International Journal of Astrobiology erscheinen.

—————————————

[1] Walter J. SCHMIDT, „Die Grundlagen der Prospektion„, Österreichische Geologische Gesellschaft, Wien 1985

[2] Europlanet Media Centre. „Cyborg astrobiologist uses phone-cam to search for signs of life.“ ScienceDaily, 10 Sep. 2013. Web. 13 Sep. 2013.

[3] „Upgrade to Mars rovers could aid discovery on more distant worlds„,
AGU Release No. 13-43, 9 September 2013

Advertisements

Ein Kommentar zu “Wenn Mars-Rover denken lernen

  1. Zum Glück müssen die Untersuchungssysteme für Exoplaneten ja nicht mehr dieses Jahr fertig werden, ein wenig Zeit zum Weiterentwickeln bleibt also noch. ;-)

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s