Logo androidermagazine.com
Logo androidermagazine.com

Android verleiht einem Lego Nxt-Roboter Augen, Ohren und einen Orientierungssinn

Anonim

Während einige von uns ihre Telefone benutzen, um zu kommunizieren oder um großartige Spiele zu spielen, gibt es einige, die Wissenschaft und Freizeit auf die nächste Stufe heben. Mike Partain ist einer dieser Leute. Mit einem handelsüblichen Lego NXT-Robotik-Kit, einem Motorola Droid und einer ganzen Menge Einfallsreichtum und Intelligenz hat Mike Sensoren hinzugefügt, die dem Robotik-Kit fehlten - Kamera, GPS und Kompass. Machen Sie eine Pause, um in Mikes eigenen Worten darüber zu lesen, einen Link zum Quellcode (ein besonderer Dank an Mike!) Und ein paar Videos, in denen Sie verschiedene Ansichten aus der Perspektive des Droiden sehen.

Wir haben Mike um eine kurze Erklärung zu diesem Projekt gebeten, denn ehrlich gesagt mussten die Dinge auf ein Niveau gebracht werden, das wir ein bisschen besser verstehen konnten. Er war hilfsbereit genug, um uns den Überblick zu geben, der hier in seiner Gesamtheit vorliegt.

Einer meiner absoluten Wünsche war es, einen eigenen Roboter zu haben. Und jetzt hat Lego das Spielen mit Robotern mit den Lego NXT Robot-Kits praktisch gemacht. Diese Kits folgen dem Geist von Legos, da sie einfach, kostengünstig und unterhaltsam zu einer Vielzahl von Rad- und Laufrobotern zusammengebaut werden können. Die Kits enthalten ein Gehirn, das drei Motoren und bis zu 4 Sensoren steuert. Was jedoch fehlte, war eine entfernte Kamera, ein Kompass und ein GPS. Geben Sie das Motorola Droid oder die meisten Android-Geräte für diese Angelegenheit. Da das Android-Handy diese fortschrittlichen Sensoren enthält und auf Java und Open Source basiert, dachte ich, es wäre eine einfache Sache, den Droid mit meinem Computer zu "verbinden" und seine Sensoren neben meiner Lego Robots-Software zu überwachen. Ich war nicht zu weit weg. Ich hatte einige Tage Mühe, den Code für die Dekodierung des Vorschaubilds der Kamera zu finden, aber alles andere verlief recht reibungslos. Am Ende hatte ich ein riesiges Lächeln auf meinem Gesicht, als mein Lego-Roboter über den riesigen Wohnzimmerteppich lief und ich ihn nur von dem Bild aus fernsteuerte, das ich auf meinem Computerbildschirm sehen konnte. Es ist nicht der Roboter, der aus dem Weltraum verschollen ist, aber dennoch kann er vielen jungen Köpfen die Möglichkeit eröffnen, wie ihre Zukunft aussehen könnte.

Ich sollte beachten, dass die Software keine "fertige" Qualität hat. Es ist ein Proof of Concept und es funktioniert. Ich kann oder kann es nie verbessern oder vervollständigen, daher stelle ich es ohne Lizenz oder Einschränkungen (oder Zusagen) zur Verfügung.

Es gibt 3 Software-Teile;

Der Android Java Code (droidSense). Dieser Code ist ein einfacher TCP-Server, der unkodierte Bilddaten (von der Kameravorschau über Sensordaten bis hin zu GPS-Daten) für jeden Client bereitstellt.

Das eigenständige.Net-Programm (AssClient), das mit dem Droid Java-Server kommuniziert, die Rohbilddaten decodiert und das Bild sowie die Rohsensor- und GPS-Daten anzeigt.

Ein Microsoft Robotics Studio-Dienst (AndroidCameraService), der ein generisches WebCam-Bild zur Verwendung durch ein visuelles oder ein Standard-MRDS-Programm bereitstellt.

Das Java-Teil wird auf dem Droid ausgeführt (Es gibt keine Benutzeroberfläche, es wird nur die Vorschauoberfläche angezeigt, während es ausgeführt wird. Verwenden Sie "Force Stop", um es zu beenden.) Dann führen Sie eines der beiden Teile auf dem PC aus (ich habe nicht versucht, beide auszuführen) zur gleichen Zeit, aber ich nehme an, es könnte funktionieren).

Super Sauce genau dort. Hier sind die Videos, die Mike aufgenommen hat:

Youtube-Link für StandAlone.wmv

YouTube-Link für AndroidCameraService.wmv

Und schließlich, wenn Sie das Know-how und die Zeit haben, hier ist ein Link zum Quellcode, den Mike freundlicherweise zur Verfügung gestellt hat. Nochmals vielen Dank Mike, das ist eines der coolsten Dinge, die es je gab!