#SocialSpace am 22. September 2013

Mit das Beste, das mir dieses Blog bisher beschert hat, war die Einladung zum sogenannten SocialSpace:

„Vor kurzem wurde das von der Europäischen Weltraumorganisation ESA und vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) entwickelte Format „SpaceTweetup“ neu konzipiert und in „SocialSpace“ umbenannt. Jetzt ist es an der Zeit für das erste „SocialSpace“.

Im Rahmen des Tags der Luft- und Raumfahrt laden ESA und DLR 60 ihrer Follower auf sozialen Netzwerken wie Twitter, Facebook, Google+ und anderen Plattformen sowie Blogger am 22. September 2013 in Köln zu einem „SocialSpace“ ein. Ein SocialSpace ist ein informelles Treffen von Leuten, die über verschiedene Social-Media-Plattformen mit ESA und DLR interagieren.“

(Quelle: ESA Deutschland)

Vor ein paar Monaten sprach Andreas, einer der Organisatoren, mich an, ob ich nicht Lust hätte, am SocialSpace teilzunehmen. Aber sicher; da gab es nichts zu überlegen! Und oh Wunder, meine Bewerbung hatte auch tatsächlich Erfolg! Vergangenen Sonntag war es dann endlich so weit. Zusammen mit Lars Fischer machte ich mich auf den Weg nach Köln, zum Tag der Luft- und Raumfahrt. Vorträge, Treffen und Gespräche mit Astronauten sowie Führungen durch die Einrichtungen von DRL/ESA bildeten ein rundum gelungenes Programm. Die Zeit mit den Vortragenden und Gästen aus diversen Ländern verging wie im Flug; ich habe viele interessante Leute neu und einige zum ersten Mal „live“ kennengelernt. Um einen Eindruck von der Themen- und Teilnehmervielfalt zu vermitteln, habe ich jetzt den Tag anhand vieler ausgewählter Tweets in einem Storify nochmal Revue passieren lassen:

=> „SocialSpace 2013“ auf Storify

Der gesamte Tag war großartig vorbereitet und durchgeführt; es hat an nichts gefehlt!* Nochmals mein großes Dankeschön an die Organisatoren und Moderatoren. Ihr habt ganze Arbeit geleistet! Beide Daumen rauf!

* OK, das :envihab hätte ich gerne mal von innen gesehen, aber sonst… *g*
————
E.t.a.: Man kann sich tatsächlich die ganze Veranstaltung nochmals auf Video anschauen: http://new.livestream.com/spacelivecast/socialspace Dank an @SimSullen für den Hinweis!

Advertisements

Wenn Mars-Rover denken lernen

Curiosity, heutige Kamera-Ausstattung. Bild: NASA

Curiosity, heutige Kamera-Ausstattung. Bild: NASA

Seit 2012 fährt Curiosity auf dem Mars umher und sucht, wie seine Vorgänger, unter anderem nach Spuren von Wasser und Leben.

Doch tut er das wirklich? Nein. Eigentlich nicht. Denn seine Autonomie hält sich in sehr engen Grenzen. Zwar ist er im Gegensatz zu seinen Vorgängern inzwischen in der Lage, sich zu einem vorgegebenen Ziel selbst den besten Weg zu suchen. Doch welche Bereiche des Mars überhaupt eine lohnende Analyse versprechen, müssen noch immer Experten auf der Erde entscheiden – und zwar täglich. Anhand der Aufnahmen des Rovers lenken sie ihn in die entsprechende Richtung und veranlassen erst dann genauere Untersuchungen. Wie man sich denken kann, kostet dies einiges an Energie und Zeit, denn alleine die Datenübertragung von der Erde zum Mars und zurück kann je nach Position der beiden Planeten bis zu einer halben Stunde dauern. Bei 0,012 Megabits/Sekunde erfordern gerade Bilddaten hierbei einiges an Geduld. Falls es bei der Übertragung Probleme geben sollte, kann es zudem vorkommen, dass relevante Bilder nicht als solche erkannt oder irrelevante Bereiche auf den Aufnahmen fälschlicherweise als vielversprechend eingeordnet werden.

Um die Suche nach Lebensspuren und interessanten geologischen Phänomenen zu optimieren und beschleunigen, haben die Teams um Patrick McGuire (Freie Universität Berlin) und von Kiri Wagstaff (NASA’s Jet Propulsion Laboratory) in den letzten Jahren unabhängig voneinander Kamera- und Software-Systeme entwickelt, die zukünftige Rover in die Lage versetzen, selbständig und direkt festzustellen, ob eine nähere Analyse lohnenswert ist oder nicht.

Das dahinter stehende Prinzip ist in beiden Fällen an sich nicht neu. Es findet bereits Anwendung bei der irdischen Suche nach Lagerstätten von Bodenschätzen wie Erzen, Kohle oder Öl: Die Erfahrung hat gelehrt, dass bestimmte Bodenverfärbungen, Geländeformationen und Gesteinsvorkommen gute erste Indikatoren sind für das Vorhandensein von bestimmten Bodenschätzen. Einfacher ausgedrückt: Gegenden, die ähnlich aussehen und aufgebaut sind, weisen oft die selben Bodenschätze auf. Man zieht also schlicht einen Analogieschluss. [1]

Gestein auf dem Mars, Bild: NASA

Gestein auf dem Mars, Bild: NASA

Analogien kann allerdings nur ziehen, wer sowohl technisch als auch kognitiv in der Lage ist, zu vergleichen. Daher haben sowohl Wagstaff als auch McGuire zunächst Datenbanken mit Fotografien angelegt. Diese Aufnahmen mussten natürlich aus Bereichen stammen, die zumindest ansatzweise mit den Formationen auf dem Mars vergleichbar sind und ggf. ähnliche Lebensformen beherbergen könnten. Denn ließe man einen Marsrover seine eigenen Aufnahmen mit Fotos aus dem brasilianischen Regenwald vergleichen, wäre bei der Suche nach potenziell interessanten Standorten eine Trefferquote von 0% garantiert. Stattdessen boten sich Gegenden mit Gipsfelsen, Kalkstein, rotem Sandstein, Tongestein und Kohleflözen an und wurden fotografisch in die Datenbank aufgenommen. Auch mit Flechten bewachsene Felsen waren darunter, denn es wird nicht ausgeschlossen, dass auch sie über Meteoriten von einem Planeten zum anderen übertragen werden könnten.

– Technik –

Das Team um Wagstaff setzt bei seinem Ansatz „TextureCam“ auf 3D-Aufnahmen durch eine Kamera mit zwei Linsen, um Strukturen, Texturen und Entfernungen besser analysieren zu können. Ein Extraprozessor für die hier sehr aufwändige Bilderkennung soll dabei später auf dem Rover verhindern, dass die Analyse auf Kosten von Navigation oder anderen Funktionen geht. Dieses System ist für geologische Untersuchungen gedacht und wurde in der kalifornischen Mojave-Wüste getestet. Es wäre möglich, dass es bereits auf der Marsmission von 2020 zur Anwendung kommt. [3]

McGuires „Cyborg Astrobiologist“ hingegen setzt für seine Suche nach Lebensspuren inzwischen auf eine minimalistische Kamera, wie man sie auch in Smartphones findet. Seine Tests fanden unter anderem in einem ehemaligen Steinkohlebergwerk in West Virginia statt. Wann dieses System erstmalig zum Einsatz kommen wird, ist derzeit noch unklar, da noch weitere Verbesserungen in Planung sind.

Beiden Systemen ist gemein, dass neue Aufnahmen via Bluetooth von der jeweiligen Kamera an einen Rechner mit spezieller Software gesendet werden. Der Rechner wiederum vergleicht sie mit dem bereits vorhandenen Bildbestand und sendet den Forschern eine Einschätzung der Ähnlichkeit mit den älteren Fotos bzw. eine Meldung, wenn er glaubt, etwas ganz Neues gefunden zu haben. Und zwar mit einer erstaunlich hohen Trefferquote:

„Tests of the Cyborg Astrobiologist system have been conducted at field sites with similarities to landscapes that are found on Mars, imaging gypsum cliffs, red-bed sandstones, limestones, mudstones and coalbeds. Some rocks have been partly covered with lichen, a life-form that can possibly spread to/from other planets. Matching images with similar features in images from the database has been very successful.

‚In our most recent tests at a former coal mine in West Virginia, the similarity-matching by the computer agreed with the judgement of our human geologists 91% of the time. (…)‘ said McGuire.“ [2]

– Chancen, Einschränkungen, Spin-Offs –

Völlig reibungslos verläuft die Bilderkennung natürlich nicht. So wurden auf den Bildern Flechten z.B. gelegentlich mit Schwefelflecken verwechselt. Darüber hinaus verdankt man viele Entdeckungen auch schlichten Zufallstreffern. Man kann also davon ausgehen, dass die Auswahl der zu untersuchenden Gesteine auch in Zukunft nicht ganz ohne Plausibilitätsprüfung durch Menschen funktionieren wird. Allerdings benötigt man diese in wesentlich geringerem Umfang als bisher, da der Rover bereits eine große Vorauswahl trifft.

Es ist allerdings fraglich, ob diese Art der Prospektion auch auf anderen Planeten innerhalb oder gar außerhalb unseres Sonnensystems sonderlich vielversprechend wäre. Generell dürfte der Erfolg abnehmen, je weniger Ähnlichkeit es zwischen dem zu untersuchenden Planeten und unserer Erde gibt. Sollte man gar Exoplaneten untersuchen wollen, deren Oberflächenbeschaffenheit man bisher nur aus Spektraldaten extrapoliert hat, dürften TextureCam und der Cyborg Astrobiologist kaum noch zu gebrauchen sein. Alternativen sind mir persönlich bis dato allerdings auch nicht bekannt.

Immerhin versprechen die beiden beschriebenen Systeme jedoch auch Spin-Offs für irdische Zwecke. Denkbar wären zum Beispiel noch präzisere Gesichtserkennunssysteme oder Anwendungen im Bereich der Wettervorhersage.

Bevor das System auf einem Rover implementiert wird, will zumindest Patrick McGuires Team noch an der Kompressionsrate der Bilder und an der Verkleinerung der Hardware arbeiten. McGuire hat seine Ergebnisse in dieser Woche auf dem European Planetary Science Congress in London vorgestellt. Sie sollen voraussichtlich auch im International Journal of Astrobiology erscheinen.

—————————————

[1] Walter J. SCHMIDT, „Die Grundlagen der Prospektion„, Österreichische Geologische Gesellschaft, Wien 1985

[2] Europlanet Media Centre. „Cyborg astrobiologist uses phone-cam to search for signs of life.“ ScienceDaily, 10 Sep. 2013. Web. 13 Sep. 2013.

[3] „Upgrade to Mars rovers could aid discovery on more distant worlds„,
AGU Release No. 13-43, 9 September 2013

Kirobo & Mirata

Er ist 34 cm klein, wiegt ungefähr ein Kilo und spricht nur Japanisch: Kirobo, das im Wortsinn jüngste Crewmitglied der ISS – ein puppengleicher Roboter mit einem insektenähnlichen Gesicht. Seit dem 21. August befindet er sich an Bord der Station, und am 4. September 2013 hat er seine erste Rede gehalten:


Der humanoide Kirobo und sein baugleiches, irdisches Kontrollobjekt „Mirata“ entstanden in Kollaboration des „Research Center for Advanced Science and Technology“ der Universität Tokio mit den Firmen Robo Garage, Toyota, Dentsu und der japanischen Raumfahrtagentur JAXA. Optisches Vorbild war die Figur des Tetsuwan Atomu („Astro Boy“), ein bekannter japanischer Manga-Held.

Zieht man in Betracht, dass an Bord eines jeden Raumfahrzeuges die Nutzlast und erst recht die privaten Habseligkeiten der Astronauten stark limitiert sind, fragt man sich unwillkürlich, wieso in einer Raumstation plötzlich derartige scheinbare Spielzeuge auftauchen? Die Antwort ist ebenso einfach wie erstaunlich: Kirobo ist als Gesellschafter und Assistent für Koichi Wakata gedacht. Letzterer wird gegen Ende des Jahres Kommandant der ISS werden und gleichzeitig das einzige Japanisch sprechende Crewmitglied sein. Kirobo, dessen Name vom japanischen Wort „kibō“ („Hoffnung“) abgeleitet ist, wurde darauf programmiert, Wakatas Gesicht zu erkennen, mit ihm Konversation zu betreiben, ihm Nachrichten von der Bodenstation zu übermitteln und dergleichen mehr. Unter anderem wird er auch in der Lage sein, Probleme mit elektronischen Komponenten der ISS zu analysieren. Ziel ist es, herauszufinden, ob derartige Roboter den Astronauten neben rein technischer auch psychologische Unterstützung bieten können.

Diese Idee ist an sich nicht neu. Isolation, sei sie nun räumlich oder auch durch Alter oder ein Handicap bedingt, kann rasch zu Depressionen führen. Seit vielen Jahren zeigen Litaratur bzw. Filme wie „I, Robot“, „AI – Artificial Intelligence“ oder auch nur der gute alte Commander Data in „StarTrek: TNG“, dass Menschen schon lange davon träumen, sich elektronische Gesellschafter zu erschaffen, die sie ganz auf ihre Bedürfnisse einstellen können. Bereits 1993 stellte das japanische National Institute of Advanced Industrial Science den „Kuschelroboter Paro“ für ältere Mitbürger vor. Längst kennen wir Furbies, „My Real Baby“, Tamagochis und AIBO als Spielzeuge, die Leben simulieren. Ein zusätzlicher Blick auf Webseiten wie http://www.robotcompanions.eu/ oder Berichte wie dieser über Wakamaru, einen von Mitsubishi entwickelten „Gesellschaftsroboter“, belegen eindrücklich, dass wir insgesamt schon erstaunlich weit gekommen sind, was Roboter als Menschenersatz anbetrifft.

Die Vorteile liegen auf der Hand: Roboter können nach Belieben in und außer Betrieb genommen werden. Sie haben bei guter Verarbeitung mehr Kraft als ein Mensch, stellen keine Ansprüche und haben – auch wenn das zynisch klingen mag – keine Menschenrechte. Für Konversationen könnte man sie bei Bedarf quasi über Nacht mit neuen Fachgebieten „füttern“, so dass prinzipiell keine Langeweile aufkommen dürfte. Selbst eigenständiges Lernen ist für Roboter inzwischen kein Problem mehr. Bei Weltraumeinsätzen kommt noch hinzu, dass Roboter wie Kirobo wesentlich weniger Platz wegnehmen als ein Mensch. Man kann sie einfacher vor Strahlung schützen und sie benötigen weder Sauerstoff noch Schlafpausen, solange genug Energie zur Verfügung steht.

Ob allerdings auf die Dauer lebend erscheinende Objekte die gleiche Rolle ausfüllen können wie tatsächlich lebende Menschen oder Tiere, die auch von sich aus echte Empathie und Interesse bekunden können, ist fraglich. [1], [2] Vgl. auch => hier. Ich gehe allerdings davon aus, dass die Kirobo-Projektleiter jene und vergleichbare Studien längst kennen – und somit auch die Limits ihres Vorhabens.

Allerdings würde sich diese Frage im Fall der ISS-Besatzung vermutlich auch erst dann stellen, wenn ein einzelner Mensch über einen längeren Zeitraum ohne adäquaten menschlichen Ansprechpartner auskommen müsste. Die Missionen auf der ISS dauern üblicherweise aber jeweils nur wenige Monate. Hinzu kommt, dass Wakata weder völlig alleine auf der Raumstation sein wird, noch ist er außerstande, sich mit seinen Teamkollegen zu verständigen. In Anbetracht der Anforderungen und des für Raumfahrer üblichen Trainings dürften die Englischkenntnisse des gesamten Teams völlig ausreichend sein, um Einsamkeit zu vermeiden. Insofern kann der Versuch mit Kirobo und Kommandant Wakata wahrscheinlich nicht viel mehr als an der Oberfläche der Problematik kratzen. Nichtsdestotrotz wird der kleine Roboter dort oben aber sicherlich für Kurzweil und nicht zu verachtende Arbeitserleicherung sorgen. Wenn ich es mir also recht überlege… Ich hätte auch gerne einen! ^^

—————-
[1] Sherry Turkle: „A Nascent Robotics Culture: New Complicities for Companionship“, MIT, Cambridge, Massachusetts, 2006
[2] Sherry Turkle: Relational Artifacts/Children/Elders: The Complexities of CyberCompanions, MIT, Cambridge, Massachusetts, 2005