Hugendubel.info - Die B2B Online-Buchhandlung 

Merkliste
Die Merkliste ist leer.
Bitte warten - die Druckansicht der Seite wird vorbereitet.
Der Druckdialog öffnet sich, sobald die Seite vollständig geladen wurde.
Sollte die Druckvorschau unvollständig sein, bitte schliessen und "Erneut drucken" wählen.

Immersives User Interface

mittels 3D-Grafik, Head-Tracking und Touch-Input
BuchKartoniert, Paperback
Deutsch
Graphentis Verlag e. K.erschienen am31.03.2015
Dieses Buch beschreibt die Ziele und die Entwicklung einer grafischen Benutzerschnittstelle, die einen 3D-Raum erzeugt, der durch räumliche Bewegung des Betrachters exploriert und mit Berührungsinput manipuliert werden kann. Dabei kommt Head-Tracking mithilfe von Microsoft Kinect und Touch-Input mithilfe von Microsoft PixelSense zum Einsatz.Computergrafik ist zwar meist zentralperspektivisch aufgebaut, jedoch nicht wirklich dreidimensional. Durch die im Rahmen dieser Arbeit entwickelten Benutzerschnittstelle lässt sich ein besserer räumlicher Eindruck erzeugen, der insbesondere zu Präsentationszwecken von Objekten eingesetzt werden kann - jedoch ohne Brillen, die als störend empfunden werden, und ohne Displayfolien, die die Auflösung heruntersetzen.Zum Einsatz kommt hier ein in einen Tisch integrierter Großbild-Touch-Screen, der optisch auf Infrarotbasis funktioniert. Das HD-Display erlaubt auf 40 Zoll großformatige Darstellungen und die Anzeige von 3D-Objekten, die sich mithilfe des.Net-Frameworks und dem Surface 2.0 SDK markieren, bewegen und rotieren lassen.Der Kinect-Sensor interpretiert Differenzen von strukturiertem IR-Licht als Tiefeninformationen und kann auf diese Weise den Benutzer und seine Bewegung erkennen. Dessen Kopfposition kann in drei Achsen verfolgt und daraus dynamisch eine perspektivische 3D-Grafik mit gekippter Projektionsebene generiert werden, die - unterstützt durch die dadurch erzeugte Bewegungsparallaxe - von jeder Position im Raum einen überzeugenden räumlichen Eindruck erzeugt. So lassen sich die dargestellten Objekte leicht aus verschiedenen Blickwinkeln betrachten und mithilfe von Touch-Eingabe be¬rühren und manipulieren. Diese Verbindung von Bild- und Realraum verstärkt den Eindruck von Immersion, also das Eintauchen in den virtuellen Bildraum, durch Haptik.Die Prinzipien dieser Grundlagenforschung können im Rahmen von Human-Machine Interfaces (HMI) in der Präsentation, im Design, in der Logistikplanung, bei Fahrerassistenzsystemen oder Konsumentenelektronik zum Einsatz kommen. Der Vorteil liegt in der Erzeugung eines räumlichen Eindrucks und die Manipulierbarkeit von Objekten ohne die Notwendigkeit von weiterer Peripherie.mehr

Produkt

KlappentextDieses Buch beschreibt die Ziele und die Entwicklung einer grafischen Benutzerschnittstelle, die einen 3D-Raum erzeugt, der durch räumliche Bewegung des Betrachters exploriert und mit Berührungsinput manipuliert werden kann. Dabei kommt Head-Tracking mithilfe von Microsoft Kinect und Touch-Input mithilfe von Microsoft PixelSense zum Einsatz.Computergrafik ist zwar meist zentralperspektivisch aufgebaut, jedoch nicht wirklich dreidimensional. Durch die im Rahmen dieser Arbeit entwickelten Benutzerschnittstelle lässt sich ein besserer räumlicher Eindruck erzeugen, der insbesondere zu Präsentationszwecken von Objekten eingesetzt werden kann - jedoch ohne Brillen, die als störend empfunden werden, und ohne Displayfolien, die die Auflösung heruntersetzen.Zum Einsatz kommt hier ein in einen Tisch integrierter Großbild-Touch-Screen, der optisch auf Infrarotbasis funktioniert. Das HD-Display erlaubt auf 40 Zoll großformatige Darstellungen und die Anzeige von 3D-Objekten, die sich mithilfe des.Net-Frameworks und dem Surface 2.0 SDK markieren, bewegen und rotieren lassen.Der Kinect-Sensor interpretiert Differenzen von strukturiertem IR-Licht als Tiefeninformationen und kann auf diese Weise den Benutzer und seine Bewegung erkennen. Dessen Kopfposition kann in drei Achsen verfolgt und daraus dynamisch eine perspektivische 3D-Grafik mit gekippter Projektionsebene generiert werden, die - unterstützt durch die dadurch erzeugte Bewegungsparallaxe - von jeder Position im Raum einen überzeugenden räumlichen Eindruck erzeugt. So lassen sich die dargestellten Objekte leicht aus verschiedenen Blickwinkeln betrachten und mithilfe von Touch-Eingabe be¬rühren und manipulieren. Diese Verbindung von Bild- und Realraum verstärkt den Eindruck von Immersion, also das Eintauchen in den virtuellen Bildraum, durch Haptik.Die Prinzipien dieser Grundlagenforschung können im Rahmen von Human-Machine Interfaces (HMI) in der Präsentation, im Design, in der Logistikplanung, bei Fahrerassistenzsystemen oder Konsumentenelektronik zum Einsatz kommen. Der Vorteil liegt in der Erzeugung eines räumlichen Eindrucks und die Manipulierbarkeit von Objekten ohne die Notwendigkeit von weiterer Peripherie.
Details
ISBN/GTIN978-3-942819-05-3
ProduktartBuch
EinbandartKartoniert, Paperback
Erscheinungsjahr2015
Erscheinungsdatum31.03.2015
SpracheDeutsch
MasseBreite 148 mm, Höhe 210 mm, Dicke 7 mm
Gewicht146 g
Artikel-Nr.34244789

Schlagworte

Autor

Harald Klinke has a Ph.D. in art history and a Master of Science in Information Systems. Currently he is Assistant Professor at the Ludwig Maximilian University, Munich, and member of the Program Committee of the DFG-funded project "The Digital Image". He conducts research on visual communication, digital media, and Big Image Data in art-historical contexts.From 2008 to 2009, he worked as a Lecturer of Visual Studies (Bildwissenschaft) at the Art History Department of the University of Göttingen. From 2009 to 2010, he conducted research, supported by a grant from the German Research Foundation (DFG), as a Visiting Scholar at Columbia University, New York. He has published books on art theory, digital images and digital transformation.