TU BRAUNSCHWEIG
| Carl-Friedrich-Gauß-Fakultät | Informatik
Informatikzentrum

Teamprojekt Second World - Erstellung einer Visualisierungsumgebung für Sensorknoten

Semester Wintersemester 2008/2009 [ Andere Semester: ]
Modulnr. INF-STD-10
Veranst.Nr. INF-VS-018
Studieng. Bachelor Informatik
IBR Gruppe(n) DUS (Prof. Beigl)
Art Teamprojekt
Dozent
Photo Prof. Dr.-Ing. Michael Beigl
Ehemaliger Abteilungsleiter
michael[[at]]teco.edu
+49 721/608417-00
Assistent
Photo Dr. Stephan Sigg
Researcher DAAD
sigg[[at]]ibr.cs.tu-bs.de
+49 531 3913249
LP 6
SWS 5
Ort & Zeit
Beginn

wird noch bekanntgegeben.

Voraussetzungen keine
Scheinerwerb Erfolgreiche Teilnahme an Klausur bzw. mündlicher Prüfung.
Inhalt

Arbeitstyp:

Die ausgeschriebene Arbeit ist als Teamprojekt zu vergeben. Um eine Teamprojektgruppe zu bilden sind mind. 4 Studenten erforderlich.

Projekt Webseite

Die Arbeit an dem Teamprojekt hat bereits begonnen. Aktuelle Informationen zum Projektstatus gibt es auf der Webseite des Teamprojekts

Die DUS Forschungsgruppe, Ubiquitous Computing

Die Forschungsgruppe Distributed and Ubiquitous Systems (DUS) arbeitet mit bekannten internationalen Partnern von Universitäten und Industrie zusammen an der Erforschung allgegenwärtiger und alldurchdringender Technologien (Ubiquitous Computing, Pervasive Computing)

Eine Vision des Ubiquitous Computing ist es, den Computer als sichtbares Interaktionsgerät verschwinden zu lassen und durch spezialisierte, intelligente Gegenstände, sog. Appliances, zu ersetzen. Der Benutzer hat nicht länger das Gefühl mit einem Rechensystem zu interagieren, sondern mit Dingen aus seiner Umgebung.

Motivation

Die geeignete Darstellung von Sensorinformationen wird in Zukunft eine sehr wichtige Rolle spielen. Was passiert z.B. mit Temperatur-, Licht-, oder Bewegungsdaten, die von Sensorknoten aufgezeichnet werden? Wie kann man diese in einer für Menschen geeigneter Form darstellen? Können virtuelle Welten die Wahrnehmung unterstützen, indem sie ein virtuelles Abbild der "Sensorwelt" präsenentieren? Diese Fragestellung soll in diesem Teamprojekt untersucht werden. Dazu wird OpenCroquet als Softwareentwicklungsumgebung eingesetzt. In diese können sehr einfach 3D Modelle eingebunden werden und Interaktionen zwischen verschiedenen Objekten erstellt werden. da-web-based_reality-schaubild
In dem Teamprojekt soll zunächst ein Webservice entwickelt werden, der eine einfache Verarbeitung der Daten ermöglicht und OpenCroquet über entsprechende Schnittstellen zur Verfügung stellt. Weiterhin soll ein Benutzerinterface entworfen werden, das diese Daten sowohl grafisch, als auch tabellarisch in einer zeitgemäßen Art und Weise im Internet darstellen kann. Dazu könnte man beispielsweise ein Apache Modul programmieren, dass eine Schnittstelle zwischen 2D und 3D herstellt. Ein Beispiel für ein 2D Benutzerinterface, das Sensordaten darstellt ist in der folgenden Abbildung dargestellt. Es wurde die GoogleMaps API benutzt, um Sensoren respektive die Sensordaten einem Ort zuzuordnen und einem benutzer Informationen zu präsentieren. Dabei können sich Benutzer RSS Feeds abonnieren und werden informiert, wenn bestimmte Grenzwerte überschritten werden. da-web-based_reality-geocoding
In einem zweiten Schritt soll eine alternative 3D Darstellung der Sensordaten in dem Metaverse OpenCroquet analysiert und umgesetzt werden. Vorstellbar wäre als Alternative auch der Einsatz einer 3D Engine (z.B. Quake3 Engine oder uni-verse) und die Programmierung der Anwendungslogik, um ein Abbild der Wirklichkeit zu erhalten. Es soll innerhalb der virtuellen Umgebung ein Demonstrator entwickelt werden, der z.B. den Zustand des Informatikzentrums visualisiert und gegenseitige Interaktionen zuläßt. Wenn jemand in der virtuellen Umgebung einen Lichtschalter betätigt, so soll dies sich auch auf die reale Welt auswirken und umgekehrt. Auch die Erkennung von Kontexten spielt dabei eine wichtige Rolle und soll ein Teil des Teamprojektes werden, um beispielsweise zu erkennen, ob sich eine Person in einem Raum befindet oder ob gerade eine Besprechung stattfindet. Auf der folgenden Abbildung sind die uPart Sensorknoten dargestellt, dioe in dem Teamprojekt eingesetzt werden. UParts können Temperatur, Licht und Bewegung messen. Bei Bedarf werden weitere Sensoren (z.B. Luftfeuchtigkeit, Kapazität)/Mikrokontroller (z.B. JN513x, CC2430) eingesetzt, um die Kontexterkennung zu verbessern. da-web-based_reality-upart

Aufgaben und Ziele

  • Charakteristika von Sensordaten herausfinden
  • Web Technologien für die Darstellung identifizieren
  • Entwurf eines Webservices, der Sensordaten aufbereitet
  • Entwurf eines Web Userinterfaces zur Darstellung der Sensordaten
  • Umsetzung eines Anwendungsszenarios (z.B. Informatikzentrum)
  • Implementierung des Szenarios mit Webservice/Userinterface
  • Implementierung des Szenarios in Multi-user online Application, Metaverses bzw. alternativer Technologie
  • Evaluation der Ergebnisse durch Benutzerstudien

Bearbeitungskontext:

Wir bieten:

  • Integration in europäische und internationale Projekte
  • Hoher Anwendungsbezug und sehr gute Kontakte zur Industrie
  • Kreatives, dynamisches Arbeitsumfeld mit internationaler Ausrichtung
  • Direkten Kontakt zum Institut, zur Forschungsgruppe und deren Mitgliedern

Anforderungen

  • Selbständiges, kommunikatives Arbeiten, Kreativität
  • Fließend deutsch
  • Bereitschaft neue Fähigkeiten zu erlernen
  • Persönliche Initiative und Anwesenheit am Institut

Bewerbung:

Bei Interesse an der ausgeschriebenen Arbeit setzen Sie sich bitte per eMail mit Daniel Röhr in Verbindung.

Material:

Folien der Einfuehrungsveranstaltung


aktualisiert am 21.11.2008, 11:39 von Daniel Röhr
printemailtop