-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathar_handbook.tex
168 lines (150 loc) · 8.86 KB
/
ar_handbook.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
%% ===========================
\section{Intelligente Augmented-Reality-Anleitungen}
\label{sec:arhandbook}
%% ===========================
\subsection{DFKI AR-Handbuch}
Das Augmented-Reality-Handbuch ist ein am DFKI\footnote{Deutsches
Forschungszentrum für Künstliche Intelligenz} entwickeltes digitales Handbuch
und Anleitungen mit Hilfe eines Head-Mounted-Display (HUD) in das Blickfeld des
Benutzers projiziert \cite{Niels2013}. Jeder Schritt wird dem Benutzer
vorgezeigt bis dieser erfolgreich durchgeführt wird.
% ============================================= %
Die Erstellung von Anleitungsmaterial, das so genannte \emph{Authoring}, für
AR-Handbücher ist komplex und leidet unter hohen Zeit- und Geldaufwänden. In der
Arbeit von \cite{Niels2013} ist dieses Problem mit Hilfe eines \emph{programming
by demonstration Ansatzes}, einer Technik aus dem Gebiet der künstlichen
Intelligenz, gelöst. Das Authoring-Tool ist in der Lage eine einmal aufgenommene
Video-Sequenz automatisch in einzelne Handlungsabläufe mit unterschiedlichen
Merkmalen (\emph{statisch, sich wiederholend, nicht wiederholend}) zu zerlegen.
Mit einem stochastischen Übergangsmodell werden die Handlungsabläufe wieder
zueinander in Verknüpfung gesetzt. Nach diesem Vorverarbeitungsschritt können
mit dem Authoring-Tool (vgl. \ref{fig:ar-authoring}) neben den automatisch
eingeblendeten Elementen auch manuelle Annotierungen, wie Pfeile oder andere
graphische Symbole, eingefügt werden, um zusätzliche Informationen darzustellen.
% ============================================= %
Eine in der AR-Brille integrierte Kamera überwacht die Durchführung der Aufgabe
vom Nutzer. Die nächsten Schritte in der Anleitung werden die eingeblendeten
Informationen mit den Handlungen des Benutzers synchronisiert.
Wenn der Nutzer eine Aufgabe mit Hilfe des Systems durchführt (Abbildung
\ref{fig:ar-outside}) werden zuerst die notwendigen Schritte für die
Teilaufgabe, wie in Abbildung \ref{fig:ar-overlay}, eingeblendet. Nachdem der
Nutzer mit der Ausführung der Teilaufgabe anfängt wird auf das Sichtfeld der
Status der Durchführung mit Hilfe einer Farbkodierung angezeigt. Dabei bedeutet
in \ref{fig:ar-glove_green} die grüne Kodierung eine korrekte Durchführung.
% ============================================= %
Dieses System ist leichtgewichtig in dem Sinne, dass keine speziellen Marker
benötigt werden und das Erlernen der durchzuführenden Schritte vom System
übernommen wird. Die transparenten Einblendungen der durchzuführenden Schritte
(siehe Abbildung \ref{fig:}) werden automatisch von der Software erstellt.
Mit diesem Ansatz können Techniker Referenzabläufe aufnehmen um
sicherzustellen, dass alle zukünftigen Aktivitäten in derselben Art
und Weise durchgeführt werden.
Das AR-Handbuch soll in Zukunft auch auf Android Geräte laufen. Dies bedeutet,
dass auch private Anwender, z.B. bei der Installation von Haushaltsgeräten,
davon Gebrauch machen könnten.
% ============================================= %
\begin{figure}[htb]
\centering \includegraphics[width=0.8\textwidth]{img/ar-authoring.png}
\caption{Authoring für das AR-Handbuch nach dem automatischen
Vorverarbeitungsschritt, aus
\cite{Niels2013}}
\label{fig:ar-authoring}
\end{figure}
% ============================================= %
% ============================================= %
\begin{figure}[h]
\centering
\subfigure[]{
\includegraphics[scale=0.8]{img/ar-handbook-outside_view.png}
\label{fig:ar-outside}
}
\subfigure[]{
\includegraphics[scale=0.8]{img/ar-handbook-overlay_bsp.jpg}
\label{fig:ar-overlay}
}
\subfigure[]{
\includegraphics[scale=0.8]{img/ar-handbook-glove_green.jpg}
\label{fig:ar-glove_green}
}
\caption{Das AR-Handbuch System aus \cite{Niels2013}}
\label{fig:}
\end{figure}
% ============================================= %
% =======
\subsection{Second-Sighted Glasses}
% =======
Ein zweiter Ansatz, auch auf AR basierend wird in \cite{Yone2011} vorgestellt.
Bei dem Second-Sighted Glasses Ansatz handelt es sich um die visuelle
Einblendung der verschiedenen Möglichkeiten, die ein Nutzer in der Interaktion
mit den Objekten, die ihn umgeben, hat.
Das Ziel ist es dem Benutzer zu zeigen mit welchen Aktionen bestimmte Ziele
erfüllen. Die möglichen Varianten, auch \emph{Futures} genannt, werden abhängig
vom Kontext in dem sich der Benutzer befindet angezeigt.
Diese repräsentieren mögliche Abläufe die vom Kontextsensitiven Systemen
definiert werden. Objekte sind mit Hilfe von Markern mit einer vorher
definierten Aktion verbunden und lösen eine Mixed-Reality Animation aus, wenn
sie in das Blickfeld des Anwenders kommen.
Laut den Autoren muss noch weitere Forschung betrieben werden, um die
automatische Generierung von Animationen aus den Kontextdefinitionen zu erlauben
und um die Zusammenarbeit mit anderen Kontextsensitiven Systemen zu ermöglichen.
AR-Technologien werden noch nicht in der breiten Masse angewendet. Aber
Zunehmend mehr Forschung in die Massentauglichkeit von AR-Brillen wird
durchgeführt. CastAR \cite{CastAR2013} zum Beispiel, ist ein AR-System, dass für
rund 200 US-Dollar demnächst auf den Markt kommen soll.
Kostengünstige Hardware könnte es Ansätzen wie in \cite{Niels2013} oder
\cite{Yone2011} erlauben sehr schnell in den Nutzermarkt einzusteigen und breite
Anwendung zu finden.
% Language \cite{Yone2009} entwickelt
% Um den Objekten der Umgebung Intelligenz zu verleihen werden Sensoren oder
% Marker angebracht, die es ermöglichen ein reales Objekt mit der virtuellen
% Beschreibung der möglichen Interaktionen zu verbinden. Da der Kontext eines
% Objektes schwer zu definieren ist wurde die Smart Object Event Modeling
% Language \cite{Yone2009} entwickelt. Diese erlaubt es trotz ihrer Einfachheit
% die Lesbarkeit, Portabilität, Expressivität und die Unabhängigkeit zwischen
% Modell und Zielobjekt zu wahren. Temporale Folgen die komplexe Abläufe
% defieneiren können dargestellt werden.
% [Bild SecSighGlasses?]
%% SOEML
%% Cum integrez nu prea stiu .. usable as task description language?
% Install this before that? Wait ten seconds
% Take some more shit from robotics?
% This paper proposes a smart object event modeling language. By attaching sensor nodes to
% everyday objects, users can augment the objects digitally and apply the objects into various
% services. When creating such smart object services, users should define events, such as
% beverage of a cup turns cold or someone sits down on a chair, using physical values from
% sensors. The most common event definition for end-users is simply describing threshold of
% sensor values and boolean operation. When they want to define more complex events, such as
% multiple people sit down on chairs or a user starts to study using a pen and a notebook, they
% need to use a programming language. To define such complex event easily without complex
% programming language, we present a new event description language called SOEML based
% on temporal relation among simple events. We also provide users a visual interface to
% support users defining or reusing events
% easily. [\cite{Yone2009}?]
% Auch eine graphische Oberfläche für die Modellierung von SOEML wird angeboten.
% Die Autoren identifizieren bei diesem Ansatz die Notwendigkeit eine
% Benutzerstudie durchzuführen, um zu klären ob die Benutzer die smarte
% Umgebung gut genug verstehen können und ob die Installation von den
% Entwicklern gut durchgeführt werden kann. Weitere Forschung muss noch
% betrieben werden um die Generierung von Animationen aus den
% Kontextdefinitionen zu erlauben und um die Zusammenarbeit mit anderen
% Kontextsensitiven Systemen zu erlauben.
%% ==================================================
%% Authoring of a Mixed Reality Assembly Instructor for Hierarchical Structures
%% Asta ar veni in addition to VR-Handbook
% \cite{Zauner2003}
% Benutzen Marker und Authoring Tools um die Inhalte zu generieren.
% They argue that Mixed Reality allows a smooth combination of the real and the
% virtual world. Thereby, the user doesn't have to make a logical connection
% between the physical world and the virtual description of the instructions,
% which would greatly hinder him/her.
% They also mention a tablet PC may be used for MR.
% They proposed a State diagram of the Mixed Reality Assembly Instruction which
% uses a stack. Elements are pushed on the stack if they are composed of other
% elements. After the base elements have been found and assembled they are poped
% from the stack.
% When the user has to find an element a 2D user interface is used, Our approach
% for this problem is to aug- ment reality with a small animation of the placement
% pro- cess.
% More detailed installlation instructions visually and via audio Hierarchicall
% component structure: Composed components, base components
%% Vor candva sa aplice tehnica si pe masiniarii industriale.