Alle Beiträge von Susanne Draheim

Virtual Reality als Plug & Play

Das Projekt ist als ‚Spielwiese‘ für Virtual Reality-Interaktionsdesigns im Kontext des Creative Space for Technical Innovations gedacht.

Unser primäres Ziel ist die Entwicklung von Adaptern und Arbeitsabläufen,
welche die Kombination verschiedener In- und Outputgeräte für VR-Entwickler/innen
so einfach wie möglich macht. Darüber hinaus erstellen wir Demonstrationsprototypen
für Interaktionstechniken, einzeln und in diversen Kombinationen.

Das aktuelle Demonstrationsszenario ist ein Cockpit eines Raumschiffs
(dessen Design an ein theoretisches Warpschiff-Design der NASA angelehnt ist), dass sich frei im All navigieren lässt.

Der Innenraum ist auf die Freiraumfläche des CSTI abgebildet, welche auf ca. 25m²
die Bewegungen der Nutzer/innen verfolgen kann. Hier können Nutzer/innen mit
verschiedenen Interaktionstechniken des Schiffs experimentieren und
diese nutzen, um durch eine digitale Darstellung unseres Sonnensystems zu reisen.

Alle Himmelskörper korrespondieren mit den Originalen in Position und Größe
– wenn auch herunterskaliert um die Navigation zu erleichtern.“

Dieses Projekt wird durchgeführt von Johann Bronsch, Ulrike Meyer & Gerald Melles.

Ein intelligenter Spiegel als Companion System

Was ist ein Spiegel? Er ist ein Alltagsgegenstand ebenso wie ein kulturgeschichtliches Artefakt.
Bekannt bereits seit den antiken Hochkulturen, hat er im Laufe seiner Existenz dazu beigetragen,
dass Menschen sich durch den Blick in ihn wahrnehmen, erkennen, versichern, verschönern etc.
Da sich immer mehr Menschen bei der Frage, wie es ihnen geht nicht länger nur auf ihr subjektives Empfinden verlassen möchten, sondern sich ihr Urteil u.a. datengestützt und im Vergleich mit anderen bilden, stellt sich die Frage, inwieweit ein Spiegel als Artefakt geeignet sein könnte, ein erweitertes,
gleichsam angereichertes Bild auf der Basis von Quantified Self-Daten zu ermöglichen, welches
die optische „Wiederspiegelung“ einer Person mit der Darstellung von körperlichen und emotionalen
Zustandsdaten neuartig verbindet.

Im Rahmen des Informatik-Masterprojektes von Maria Lüdemann gehen wir dieser Frage nach.
Der grundlegende Anspruch des Projektes besteht darin, die Schnittfläche zwischen dem Spiegel
als Metapher für Selbsterkenntnis bzw. -erfahrung und dem Leitmotto der Quantified Self-Bewegung
„Know thyself through numbers“ prototypisch auszuloten. Um dies zu erreichen, wird eruiert, mit welchen technischen Möglichkeiten das „Erkennen seiner Selbst“ überhaupt unterstützbar ist. Welche grundlegende Technologie sollte dahinter stehen, welche Art der Steuerung benötigt eine Platform wie diese?

Der erste Prototyp des intelligenten Spiegels wird auf einem großen 79-Zoll-Bildschirm getestet,
der die Benutzung über einen Rechner via Maus, Tastatur etc., aber auch Touch erlaubt.
Mithilfe einer (Kinect-)Kamera soll der Spiegel Benutzer anzeigen und auch personalisiert erkennen können, um nur die für ihn relevanten, vom Quantified Self-System erhobenen Daten anzeigen zu können. Aktuell wird eine Anzeige dieser physiologischen Daten erarbeitet.

Die grundlegenden Fragen, die sich auch weiterhin stellen, sind unter anderem:
– Was braucht ein Companion System wie dieses, um intelligent zu sein?
– Welche Anforderungen werden an einen intelligenten Spiegel gestellt?
– Was ist technisch realisierbar und sozial wünschbar?

Das Projekt wird durchgeführt von Maria Lüdemann und Susanne Draheim.

Interaktionskatze „Muffin Minka“

In diesem Projekt geht es darum, ein Smart Object als Lab-Maskottchen zu entwerfen, im Laboralltag zu testen und weiter zu entwickeln.

Unsere Katze soll zukünftig mit einer Vielzahl von Sensoren Benutzer/innen im Labor erkennen, analysieren und mit komplexen Aktoren wie z. B. frei beweglichen Ohren, Ton und Farbsignalen mit diesen interagieren. Der erste Prototyp, der auch im Video gezeigt wird, basiert auf einer
Maneki-neko (Winkekatze), die auf Raspberry Pi-Basis mit Leuchtaugen/ -kragen,
beweglichen Ohren, einer Kamera zur Benutzer/innenerkennung und einer externen
Interaktionssteuerung ausgerüstet ist. Weiterhin soll dieser erste Prototyp
in ein CAD-Modell überführt werden und dann in größerem Format am 3-D-Drucker
ausgedruckt werden.

Die Katze dient auch als eine mögliche Inkarnation von IoT.

„Muffin Minka“ ist ein Projekt von Alexander Sowitzki.

Eine kontext-sensitive Tasse für die vernetzte Zukunft

Neue Anwendungen auf Basis vernetzter Gegenstände (Internet of Things) sollen zu einer Verein-
fachung der Mensch-Computer-Interaktion sowie Verbesserungen alltäglicher Lebensabläufe
führen. Mit Ubiquitous Computing wird der Ansatz bezeichnet, dass der Mensch nicht
zwingend mit dem Gegenstand interagiert, sondern durch die Kommunikation zwischen
vielen, unterschiedlichen Objekten und deren Fähigkeit, den eigenen Kontext wahrzunehmen,
ein neues Lebensumfeld entsteht.

In dieser Studienarbeit sollen die bestehenden Forschungsergebnisse mit den seit
der Veröffentlichung des MediaCups stark vorangeschrittenen Technologien, gewandelten
Arbeits- und Lebensumgebungen zu einem neuen Konzept zusammengeführt werden und
auf diese Weise die Integration in eine vernetzte Umgebung sowie weiterführende Erfahrungen
ermöglicht werden.

Um eine optimale Nutzererfahrung zu erreichen, muss die Elektronik von der Tasse trennbar sein –
das Konzept sieht hierzu einen ablösbaren Fuß vor. Die innere Struktur des Systems wird vor
allem durch die raumeinnehmenden Akkus sowie die Positionierung der verschiedenen Sensoren
bzw. Konnektivitätskomponenten mit dem Ziel einer größtmöglichen Störungsfreiheit geprägt.

Die Tasse soll im Wesentlichen in die bestehende Infrastruktur des CSTI integrierbar sein bzw.
Verbindungen über WLAN aufbauen sowie mit anderen Tassen interagieren können (vorzugs-
weise über etablierte Standards wie Bluetooth oder ZigBee). Daneben soll eine Auskunft über
den Füllstand und die Temperatur der eingefüllten Flüssigkeit, die Position im Raum, Bewegungen
des Anwenders mit der Tasse sowie die Anwesenheit anderer Tassen möglich sein. Eine
grundlegende Aufbereitung der erfassten Daten soll direkt auf der Plattform umgesetzt werden –
die Datenfusion zu Erzeugung komplexerer Aussagen über die Situation bzw. den Kontext über-
nimmt hingegen das Backend des CSTI. Für die Nutzbarkeit spielt das Energiemanagement eine
wichtige Rolle: vorgesehen ist eine Betriebszeit von mindestens einem Tag sowie kontaktloses
Laden.

Das Projekt wird durchgeführt von Joschka Sondhof und Thomas Lehmann.

Force-Feedback-Handschuh für Virtual Reality Anwendungen

Zu einer möglichst realitätsgetreuen Wahrnehmung der virtuellen Welt gehört neben dem Hören und Sehen auch das Fühlen. Mit den bisherigen Umsetzungen bekommt man leider nur optische und akustische Eindrücke.

Das Projekt Force-Feedback-Handschuh soll diesen Makel beheben und es dem Nutzer ermöglichen mit virtuellen Gegenständen auch haptisch zu interagieren. Der Handschuh soll eine Gegenkraft gegen die Fingerbewegung erzeugen und die weitere Bewegung erschweren, bzw. blockieren. In Abhängigkeit vom gesehenen Gegenstand soll die Kraft elektronisch so gesteuert werden, dass es sich anfühlt als würde man einen echten Gegenstand anfassen.

Dieses Projekt wird bearbeitet von Henrik Wortmann und Thomas Lehmann.

Peter – the smart plant

Die smarte Pflanze Peter ist das Thema von Benjamins Bachelorarbeit. Peter ist in der Lage zu erfassen, ob er gegossen werden muss oder nicht. Dies wird mit einen Raspberry Pi realisiert, der über einen 10bit-ADC mit einem analogen Erdfeuchte-Sensor verbunden ist, welcher die Feuchtigkeit der Erde in Peters Blumentopf misst.

Neben dem Erdfeuchte-Sensor ist auch ein Lautsprecher am Raspberry Pi angeschlossen, damit Peter Menschen in seiner Umgebung ansprechen kann.

Peter ist aber auch in der Lage, Menschen in seiner Nähe zu erkennen und zu lokalisieren. Dies wird über eine Kinect-Kamera umgesetzt, die ein Farbbild für die Gesichtserkennung und die Skelettdaten für die Lokalisation von Personen verwendet.

Diese Fähigkeiten ermöglichen es Peter zu erkennen, ob er gegossen werden muss. Wenn dies der Fall ist, „spricht“ er über eine „text-to-speech-Anwendung“ Menschen in seiner Nähe an. Allerdings versucht Peter nur Pflanzenliebhaber anzusprechen und ignoriert Pflanzenhasser oder hält diese sogar auf Distanz. Zudem kann Peter in Online‑Kalendern von registrierten Personen nachgucken, ob diese Zeit haben Ihn zu bewässern und schickt diesen gegebenenfalls eine Gießaufforderung per E-Mail zu.

Dieses Projekt wird durchgeführt als Bachelorarbeit von Benjamin Salewski.

Eignungsuntersuchung von 2D und 3D Gesten für Kollaboration

Hintergrund: Die Arbeitsmethoden und Produktionsprozesse in Unternehmen werden immer komplexer. Dies führt dazu, dass auch Teamarbeit und das Zusammenspiel von Menschen mit verschiedensten Kompetenzbereichen immer relevanter wird, um das Unternehmensziel effektiv verfolgen zu können. Eine andere beobachtbare Veränderung, die jedoch keinen direkten Zusammenhang mit der Ersten hat, ist, dass Bildschirme immer größer und funktionsreicher werden, die Preise zeitgleich aber zunehmend sinken und sie somit immer attraktiver für den breiten Markt wie auch Unternehmen werden. Bisherige Interaktionsmethoden wie die Maus und Tastatur sind für kollaboratives Arbeiten jedoch eher ungeeignet.

Ziel dieser Bachelorbeit ist es, 2D- und 3D-Gesten sowie deren Kombination zu evaluieren und auf ihre Tauglichkeit hin zu überprüfen, einem Team zu ermöglichen, gemeinsam an einem Anzeigemedium, eine gestellte Aufgabe zu bewältigen.

Weiterhin wird evaluiert, für welche Art von Interaktion jeweils 2D oder 3D Gesten bevorzugt werden, inwiefern die Kombination beider Steuerungstechniken das Arbeiten als Team unterstützt, wie sie von den Benutzergruppen aufgenommen werden und inwieweit Transitionen von einer Steuerungstechnik zur Anderen stattfinden. Es wird dabei nicht nur ein Augenmerk auf die dafür nötige Computer – Mensch Interaktion, sondern auch Mensch-Mensch-Interaktion gelegt. Hierfür wird ein geeignetes Umfeld geschaffen um entsprechende Tests durchführen zu können.

Als Evaluationsszenario wird hierbei ein Team simuliert und betrachtet, welches gemeinsam an der Zusammenstellung einer neuen Bildercollage arbeiten soll. Das Team besteht aus drei Personen, die entweder einige Meter vor dem Bildschirm mit Handgesten interagieren oder die anderen Personen, die direkt vor dem Bildschirm stehen und mit Touchgesten interagieren, dirigieren können.

Das Projekt wird durchgeführt als Bachelorarbeit von Krystian Graczyk.

Katharina Mulack

Biographie
Ausbildung zur Fachinformatikerin der Fachrichtung Anwendungsentwicklung. Seit 2013 Studium der Technischen Informatik an der HAW Hamburg.

Besonders interessant sind für Katharina Virtual Reality, Planung von Projekten und Lernende Agenten.

Arbeitsbereiche
Zur Zeit schreibt Katharina ihre Bachelorarbeit zum Thema „Prozedurale Generierung einer Dynamischen Spielewelt“. Bei dieser sollen in Unity Szenen zu bestimmten Emotionen generiert und geeignet verbunden werden. Im CSTI arbeitet sie als studentische Mitarbeiterin und unterstützt Susanne Draheim u. a. bei der Planung und Koordination von Projekten.

Nebenbei arbeitet sie mit Alexander Sowitzki an dem Projekt „Muffin Minka“. Eine mit 3D-Drucker erstellte Katze soll mit einer Vielzahl von Sensoren Benutzer/innen erkennen, analysieren und durch komplexe Aktoren, wie z. B. frei beweglichen Ohren mit diesen interagieren.

Christin Nax

Christin ist Studierende des berufsbegleitenden Weiterbildungsmasters Next Media an der HAW Hamburg und beschäftigt sich in ihrer Abschlussarbeit mit symbolbasierten Suchinteraktionen.

Neben dem Studium der Angewandten Kulturwissenschaften an der Leuphana Universität war sie Teil des Teams der NDR-Mediathek. Derzeit arbeitet Christin bei der Kindersuchmaschine Blinde Kuh.