TU BRAUNSCHWEIG
| Carl-Friedrich-Gauß-Faculty | Computer Science
Informatikzentrum

Teamprojekt Second World - Erstellung einer Visualisierungsumgebung für Sensorknoten

Semester Winter 2008/2009 [ Other terms: ]
Module # INF-STD-10
Event # INF-VS-018
Programmes Bachelor Informatik
IBR Group(s) DUS (Prof. Beigl)
Type Team Project
Lecturer
Photo Prof. Dr.-Ing. Michael Beigl
Ehemaliger Abteilungsleiter
michael[[at]]teco.edu
+49 721/608417-00
Assistant
Photo Dr. Stephan Sigg
Researcher DAAD
sigg[[at]]ibr.cs.tu-bs.de
+49 531 3913249
Credits 6
Hours 5
Time & Place
Start

to be announced.

Prerequisites keine
Certificates Erfolgreiche Teilnahme an Klausur bzw. mündlicher Prüfung.
Content

Ubiquitous Computing:

Die ausgeschriebene Arbeit ist als Teamprojekt zu vergeben. Um eine Teamprojektgruppe zu bilden sind mind. 4 Studenten erforderlich.

Project website

Die Arbeit an dem Teamprojekt hat bereits begonnen. Aktuelle Informationen zum Projektstatus gibt es auf der Webseite des Teamprojekts

The DUS research group:

The Distributed and Ubiquitous Systems (DUS) research group works together with well-known international partners from research and industry in the field of ubiquitous and pervasive computing systems.

A vision of ubiquitous computing is the invisible computer. Computer as visible elements of our environment disappear. To the human user, the environment or everyday things become the user interface. All in one computing systems are substituted by specialized, well-designed appliances. The user no longer has the feeling to interact with a computing system but with common everyday objects in his environment.

Motivation

Die geeignete Darstellung von Sensorinformationen wird in Zukunft eine sehr wichtige Rolle spielen. Was passiert z.B. mit Temperatur-, Licht-, oder Bewegungsdaten, die von Sensorknoten aufgezeichnet werden? Wie kann man diese in einer für Menschen geeigneter Form darstellen? Können virtuelle Welten die Wahrnehmung unterstützen, indem sie ein virtuelles Abbild der "Sensorwelt" präsenentieren? Diese Fragestellung soll in diesem Teamprojekt untersucht werden. Dazu wird OpenCroquet als Softwareentwicklungsumgebung eingesetzt. In diese können sehr einfach 3D Modelle eingebunden werden und Interaktionen zwischen verschiedenen Objekten erstellt werden. da-web-based_reality-schaubild
In dem Teamprojekt soll zunächst ein Webservice entwickelt werden, der eine einfache Verarbeitung der Daten ermöglicht und OpenCroquet über entsprechende Schnittstellen zur Verfügung stellt. Weiterhin soll ein Benutzerinterface entworfen werden, das diese Daten sowohl grafisch, als auch tabellarisch in einer zeitgemäßen Art und Weise im Internet darstellen kann. Dazu könnte man beispielsweise ein Apache Modul programmieren, dass eine Schnittstelle zwischen 2D und 3D herstellt. Ein Beispiel für ein 2D Benutzerinterface, das Sensordaten darstellt ist in der folgenden Abbildung dargestellt. Es wurde die GoogleMaps API benutzt, um Sensoren respektive die Sensordaten einem Ort zuzuordnen und einem benutzer Informationen zu präsentieren. Dabei können sich Benutzer RSS Feeds abonnieren und werden informiert, wenn bestimmte Grenzwerte überschritten werden. da-web-based_reality-geocoding
In einem zweiten Schritt soll eine alternative 3D Darstellung der Sensordaten in dem Metaverse OpenCroquet analysiert und umgesetzt werden. Vorstellbar wäre als Alternative auch der Einsatz einer 3D Engine (z.B. Quake3 Engine oder uni-verse) und die Programmierung der Anwendungslogik, um ein Abbild der Wirklichkeit zu erhalten. Es soll innerhalb der virtuellen Umgebung ein Demonstrator entwickelt werden, der z.B. den Zustand des Informatikzentrums visualisiert und gegenseitige Interaktionen zuläßt. Wenn jemand in der virtuellen Umgebung einen Lichtschalter betätigt, so soll dies sich auch auf die reale Welt auswirken und umgekehrt. Auch die Erkennung von Kontexten spielt dabei eine wichtige Rolle und soll ein Teil des Teamprojektes werden, um beispielsweise zu erkennen, ob sich eine Person in einem Raum befindet oder ob gerade eine Besprechung stattfindet. Auf der folgenden Abbildung sind die uPart Sensorknoten dargestellt, dioe in dem Teamprojekt eingesetzt werden. UParts können Temperatur, Licht und Bewegung messen. Bei Bedarf werden weitere Sensoren (z.B. Luftfeuchtigkeit, Kapazität)/Mikrokontroller (z.B. JN513x, CC2430) eingesetzt, um die Kontexterkennung zu verbessern. da-web-based_reality-upart

Aufgaben und Ziele

  • Charakteristika von Sensordaten herausfinden
  • Web Technologien für die Darstellung identifizieren
  • Entwurf eines Webservices, der Sensordaten aufbereitet
  • Entwurf eines Web Userinterfaces zur Darstellung der Sensordaten
  • Umsetzung eines Anwendungsszenarios (z.B. Informatikzentrum)
  • Implementierung des Szenarios mit Webservice/Userinterface
  • Implementierung des Szenarios in Multi-user online Application, Metaverses bzw. alternativer Technologie
  • Evaluation der Ergebnisse durch Benutzerstudien

Bearbeitungskontext:

Wir bieten:

  • Integration in europäische und internationale Projekte
  • Hoher Anwendungsbezug und sehr gute Kontakte zur Industrie
  • Kreatives, dynamisches Arbeitsumfeld mit internationaler Ausrichtung
  • Direkten Kontakt zum Institut, zur Forschungsgruppe und deren Mitgliedern

Anforderungen

  • Selbständiges, kommunikatives Arbeiten, Kreativität
  • Fließend deutsch
  • Bereitschaft neue Fähigkeiten zu erlernen
  • Persönliche Initiative und Anwesenheit am Institut

Bewerbung:

Bei Interesse an der ausgeschriebenen Arbeit setzen Sie sich bitte per eMail mit Daniel Röhr in Verbindung.

Material:

Folien der Einfuehrungsveranstaltung


last changed 2008-11-21, 11:39 by Daniel Röhr
printemailtop