Large Display Interaction Using Mobile Devices

  • Large displays become more and more popular, due to dropping prices. Their size and high resolution leverages collaboration and they are capable of dis- playing even large datasets in one view. This becomes even more interesting as the number of big data applications increases. The increased screen size and other properties of large displays pose new challenges to the Human- Computer-Interaction with these screens. This includes issues such as limited scalability to the number of users, diversity of input devices in general, leading to increased learning efforts for users, and more. Using smart phones and tablets as interaction devices for large displays can solve many of these issues. Since they are almost ubiquitous today, users can bring their own device. This approach scales well with the number of users. These mobile devices are easy and intuitive to use and allow for new interaction metaphors, as they feature a wide array of input and output capabilities, such as touch screens, cameras, accelerometers, microphones, speakers, Near-Field Communication, WiFi, etc. This thesis will present a concept to solve the issues posed by large displays. We will show proofs-of-concept, with specialized approaches showing the via- bility of the concept. A generalized, eyes-free technique using smart phones or tablets to interact with any kind of large display, regardless of hardware or software then overcomes the limitations of the specialized approaches. This is implemented in a large display application that is designed to run under a multitude of environments, including both 2D and 3D display setups. A special visualization method is used to combine 2D and 3D data in a single visualization. Additionally the thesis will present several approaches to solve common is- sues with large display interaction, such as target sizes on large display getting too small, expensive tracking hardware, and eyes-free interaction through vir- tual buttons. These methods provide alternatives and context for the main contribution.
  • Große Bildschirme werden wegen fallender Preise immer beliebter. Ihre Größe und hohe Auflösung helfen bei Kollaboration und sind in der Lage sogar sehr große Datensätze auf einem Blick anzuzeigen. Durch die wachsende Anzahl von Big Data Applikationen wird dies zusätzlich interessant. Allerdings stellen die Größe und andere Eigenschaften großer Bildschirme neue Anforderungen an die Interaktion mit diesen Geräten. Das sind, unter anderem, Probleme, wie Skalierbarkeit mit der Anzahl der Benutzer, der Vielfalt der Geräte, was für den Benutzer einen erhöhten Lernaufwand bedeutet, und andere. Durch Benutzung von Smartphones und Tablets als Eingabegeräte für große Bildschirme, können viele dieser Probleme gelöst werden. Da sie allgemein ver- fügbar sind, können Benutzer ihre eigenen Eingabegeräte mitbringen. Dieser Ansatz skaliert sehr gut mit der Anzahl der Benutzer. Solche Mobilgeräte sind einfach und intuitiv zu bedienen und erlauben den Einsatz neuer Interaktions- metaphern, da sie eine große Bandbreite an Ein- und Ausgabemöglichkeiten besitzen. Z.B. Touchscreens, Kameras, Lagesensoren, Mikrofone, Lautsprecher, Near-Field Communication, WLAN, usw. Diese Arbeit wird Konzepte zur Lösung der Probleme, die von großen Bild- schirmen gestellt werden, präsentieren. Wir werden die Gültigkeit des Kon- zepts zeigen, dann eine universell einsetzbare, eyes-free Technik zeigen, mit deren Hilfe Interaktion mit jeder Art großer Bildschirme, ohne den Einsatz spezieller Hard- oder Software möglich ist, und damit die Einschränkungen der speziellen Ansätze aufheben. Diese Technik wird in einer Anwendung be- nutzt, die auf großen Bildschirmen aller Art lauffähig ist, in 2D und 3D. Durch spezielle Visualisierungstechniken wird es möglich 2D und 3D Daten in einer gemeinsamen Visualisierung darzustellen. Zusätzlich wird in dieser Arbeit mehrere Ansätze präsentiert, mit denen allgemeine Probleme der Interaktion mit großen Bildschirmen, wie z.B. zu kleine Elemente auf dem Bildschirm, oder teure Tracking-Hardware, gelöst werden. Diese Methoden zeigen Alternativen und Kontext für die Hauptbeitrag dieser Arbeit.

Volltext Dateien herunterladen

Metadaten exportieren

Metadaten
Verfasser*innenangaben:Jens Bauer
URN:urn:nbn:de:hbz:386-kluedo-41410
Betreuer*in:Achim Ebert
Dokumentart:Dissertation
Sprache der Veröffentlichung:Englisch
Datum der Veröffentlichung (online):08.03.2015
Jahr der Erstveröffentlichung:2015
Veröffentlichende Institution:Technische Universität Kaiserslautern
Titel verleihende Institution:Technische Universität Kaiserslautern
Datum der Annahme der Abschlussarbeit:24.07.2015
Datum der Publikation (Server):04.08.2015
Seitenzahl:VII, 163
Fachbereiche / Organisatorische Einheiten:Kaiserslautern - Fachbereich Informatik
CCS-Klassifikation (Informatik):D. Software
DDC-Sachgruppen:0 Allgemeines, Informatik, Informationswissenschaft / 004 Informatik
Lizenz (Deutsch):Standard gemäß KLUEDO-Leitlinien vom 30.07.2015